Resultados de la búsqueda a petición "gpu"

1 la respuesta

El hardware acelera el dibujo de mapa de bits en Java

Quiero poder dibujar mapas de bits consecutivos (del tipo BufferedImage.TYPE_INT_RGB) de un video lo más rápido posible en Java. Quiero saber el mejor método para hacerlo. ¿Alguien tiene algún consejo por dónde debería comenzar? Por lo que he ...

1 la respuesta

Prueba de GPU con multiplicación de matriz de tensorflow

Como muchos algoritmos de aprendizaje automático dependen de la multiplicación de matrices (o al menos se pueden implementar utilizando la multiplicación de matrices) para probar mi GPU, planeo crear matrices a, b, multiplicarlas y registrar el ...

2 la respuesta

¿Puedo ejecutar Cuda o opencl en Intel iris?

Tengo una Macbook pro a mediados de 2014 con procesador Intel iris y procesador Intel Core i5 de 16 GB de RAM. Estoy planeando aprender algo de 3D con trazado de rayos. Pero, no estoy seguro, si mi computadora portátil puede ...

1 la respuesta

nvidia-smi ¿Explicación de utilización de GPU volátil?

Yo sé esonvidia-smi -l 1 dará el uso de la GPU cada segundo (de manera similar a lo siguiente). Sin embargo, agradecería una explicación sobre quéVolatile GPU-Util realmente significa. ¿Es ese el número de SM usados sobre el total de SM, o la ...

2 la respuesta

¿Comenzar 1 subproceso por elemento siempre es óptimo para problemas independientes de datos en la GPU?

Estaba escribiendo un kernel de memcpy simple para medir el ancho de banda de memoria de mi GTX 760M y compararlo con cudaMemcpy (). Se ve así: template<unsigned int THREADS_PER_BLOCK> __global__ static void copy(void* src, void* dest, unsigned ...

1 la respuesta

Tensorflow en GPU

He podido trabajar con TensorFlow en la CPU, ahora necesito ejecutarlo en un dispositivo GPU con las siguientes especificaciones: CPU: Intel Xeon (E5-2670) y win7 64bit y NVIDIA GeForce GTX 980 Ti He instalado python3.5 y Tensorflow para GPU ...

0 la respuesta

Python: ¿Cómo paralelizamos un programa de Python para aprovechar un servidor GPU?

En nuestro laboratorio, tenemosComputadora aceleradora GPU NVIDIA Tesla K80con las siguientes características:Intel(R) Xeon(R) CPU E5-2670 v3 @2.30GHz, 48 CPU processors, 128GB RAM, 12 CPU coresejecutándose bajo Linux de 64 bits. Estoy ...

0 la respuesta

Bajo uso de GPU y rendimiento con Tensorflow + RNN

He implementado una red que intenta predecir una palabra de una oración. La red es bastante compleja, pero aquí hay una versión simple de ella: Tomar índices de palabras en oraciones y convertirlas en incrustacionesEjecute cada oración a través ...

2 la respuesta

TensorFlow en nvidia-docker: llamada fallida a cuInit: CUDA_ERROR_UNKNOWN

He estado trabajando para obtener una aplicación que se base en TensorFlow para funcionar como un contenedor acoplable connvidia-docker. He compilado mi aplicación encima detensorflow/tensorflow:latest-gpu-py3 imagen. Ejecuto mi contenedor docker ...

2 la respuesta

Mi prueba opencl no funciona mucho más rápido que la CPU

Estoy tratando de medir el tiempo de ejecución de la GPU y compararlo con la CPU. Escribí una función simple_add para agregar todos los elementos de un vector int corto. El código del kernel es: global const int * A, global const uint * B, ...