Prueba de GPU con multiplicación de matriz de tensorflow

Como muchos algoritmos de aprendizaje automático dependen de la multiplicación de matrices (o al menos se pueden implementar utilizando la multiplicación de matrices) para probar mi GPU, planeo crear matrices a, b, multiplicarlas y registrar el tiempo que lleva completar el cálculo.

Aquí hay un código que generará dos matrices de dimensiones 300000,20000 y las multiplicará:

import tensorflow as tf
import numpy as np

init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)


#a = np.array([[1, 2, 3], [4, 5, 6]])
#b = np.array([1, 2, 3])

a = np.random.rand(300000,20000)
b = np.random.rand(300000,20000)

println("Init complete");

result = tf.mul(a , b)
v = sess.run(result) 

print(v)

¿Es esta una prueba suficiente para comparar el rendimiento de las GPU? ¿Qué otros factores debo considerar?

Respuestas a la pregunta(1)

Su respuesta a la pregunta