Resultados de la búsqueda a petición "pytorch"
Implementación de la deserción desde cero
Este código intenta utilizar una implementación personalizada de abandono: %reset -f import torch import torch.nn as nn # import torchvision # import torchvision.transforms as transforms import torch import torch.nn as nn ...
¿Cuál es la diferencia entre remodelar y ver en pytorch?
En numpy, usamosndarray.reshape() para remodelar una matriz. Me di cuenta de que en Pytorch, la gente usatorch.view(...) para el mismo propósito, pero al mismo tiempo, también hay untorch.reshape(...) existente. Entonces, me pregunto cuáles son ...
ValueError: los valores RGB de la imagen de punto flotante deben estar en el rango 0..1. mientras usa matplotlib
Quiero visualizar los pesos de la capa de una red neuronal. Estoy usando pytorch. import torch import torchvision.models as models from matplotlib import pyplot as plt def plot_kernels(tensor, num_cols=6): if not tensor.ndim==4: ...
PyTorch Autograd característica de diferenciación automática
Solo tengo curiosidad por saber cómo PyTorch realiza un seguimiento de las operaciones en los tensores (después de la.requires_grad se establece comoTrue y cómo calcula luego los gradientes automáticamente. Por favor, ayúdame a entender la idea ...
Pytorch, ¿cuáles son los argumentos de gradiente?
Estoy leyendo la documentación de PyTorch y encontré un ejemplo donde escriben gradients = torch.FloatTensor([0.1, 1.0, 0.0001]) y.backward(gradients) print(x.grad)donde x era una variable inicial, a partir de la cual se construyó y (un vector ...
¿Cómo inicializar pesos en PyTorch?
¿Cómo inicializar los pesos y sesgos (por ejemplo, con la inicialización He o Xavier) en una red en PyTorch?
no puede encontrar la operación in situ: una operación in situ modificó una de las variables necesarias para el cálculo del gradiente
Estoy tratando de calcular una pérdida en el jacobiano de la red (es decir, para realizar un backprop doble), y aparece el siguiente error: RuntimeError: una de las variables necesarias para el cálculo del gradiente ha sido modificada por una ...
Pytorch: ¿Cómo crear una regla de actualización que no provenga de derivados?
Quiero implementar el siguiente algoritmo, tomado deeste libro, sección 13.6 [http://incompleteideas.net/book/bookdraft2017nov5.pdf]: [/imgs/YxBlr.png] No entiendo cómo implementar la regla de actualización en pytorch (la regla para w es ...
Acoplar la capa de PyTorch construida por contenedor secuencial
Estoy tratando de construir un cnn por contenedor secuencial de PyTorch, mi problema es que no puedo entender cómo aplanar la capa. main = nn.Sequential() self._conv_block(main, 'conv_0', 3, 6, 5) main.add_module('max_pool_0_2_2', ...
¿Cuál es la diferencia entre "oculto" y "salida" en PyTorch LSTM?
Tengo problemas para comprender la documentación del módulo LSTM de PyTorch (y también RNN y GRU, que son similares). En cuanto a los resultados, dice: Salidas: salida, (h_n, c_n) output (seq_len, batch, hidden_size * num_directions): tensor ...