Modelo de memoria PyTorch: "torch.from_numpy ()" vs "torch.Tensor ()"

Estoy tratando de tener una comprensión profunda de cómo funciona el modelo de memoria de Tensor de PyTorch.

# input numpy array
In [91]: arr = np.arange(10, dtype=float32).reshape(5, 2)

# input tensors in two different ways
In [92]: t1, t2 = torch.Tensor(arr), torch.from_numpy(arr)

# their types
In [93]: type(arr), type(t1), type(t2)
Out[93]: (numpy.ndarray, torch.FloatTensor, torch.FloatTensor)

# ndarray 
In [94]: arr
Out[94]: 
array([[ 0.,  1.],
       [ 2.,  3.],
       [ 4.,  5.],
       [ 6.,  7.],
       [ 8.,  9.]], dtype=float32)

Sé que los tensores PyTorchcompartir el búfer de memoria de NumPy ndarrays. Por lo tanto, cambiar uno se reflejará en el otro. Entonces, aquí estoy cortando y actualizando algunos valores en el Tensort2

In [98]: t2[:, 1] = 23.0

Y como se esperaba, se actualiza ent2 yarr ya que comparten el mismo búfer de memoria.

In [99]: t2
Out[99]: 

  0  23
  2  23
  4  23
  6  23
  8  23
[torch.FloatTensor of size 5x2]


In [101]: arr
Out[101]: 
array([[  0.,  23.],
       [  2.,  23.],
       [  4.,  23.],
       [  6.,  23.],
       [  8.,  23.]], dtype=float32)

Pero,t1 también se actualiza. Recuerda esot1 fue construido usandotorch.Tensor() mientrast2 fue construido usandotorch.from_numpy()

In [100]: t1
Out[100]: 

  0  23
  2  23
  4  23
  6  23
  8  23
[torch.FloatTensor of size 5x2]

Entonces, no importa si usamostorch.from_numpy() otorch.Tensor() para construir un tensor a partir de un ndarray,todas tales tensores y ndarrays comparten el mismo búfer de memoria.

En base a esta comprensión, mi pregunta es por qué una función dedicadatorch.from_numpy() existe cuando simplementetorch.Tensor() puede hacer el trabajo?

Miré la documentación de PyTorch pero no menciona nada sobre esto. ¿Alguna idea / sugerencia?

Respuestas a la pregunta(3)

Su respuesta a la pregunta