Resultados de la búsqueda a petición "gpgpu"

2 la respuesta

¿Cómo se dividen los bloques CUDA en urdimbres?

Si comienzo mi kernel con una cuadrícula cuyos bloques tienen dimensiones: dim3 block_dims(16,16); ¿Cómo se dividen los bloques de cuadrícula en urdimbres? ¿Las primeras dos filas de dicho bloque forman una deformación, o las dos primeras ...

2 la respuesta

Debo unificar dos núcleos similares con una declaración 'si', arriesgando pérdida de rendimiento?

Tengo 2 funciones de kernel muy similares, en el sentido de que el código es casi el mismo, pero con una ligera diferencia. Actualmente tengo 2 opciones: Escriba 2 métodos diferentes (pero muy similares)Escriba un solo núcleo y coloque los ...

2 la respuesta

¿Cómo se puede usar Opengl Es para la implementación de gpgpu?

Quiero usar Opengl Es para la implementación gpgpu de un código de procesamiento de imágenes. Quiero saber si puedo usar Opengl Es para este propósito. Si puedo, entonces qué versión de Opengl Es será más apropiada para este propósito (Opengl Es ...

3 la respuesta

CUDA: ¿Cuántos hilos concurrentes en total?

Tengo una GeForce GTX 580, y quiero hacer una declaración sobre el número total de subprocesos que (idealmente) se pueden ejecutar en paralelo, para comparar con 2 o 4 CPU de varios núcleos. deviceQuery me da la siguiente información ...

2 la respuesta

CUDA cudaMalloc

Empecé a escribir una nueva aplicación CUDA. Sin embargo, me topé con un desvío divertido en el camino. Llamar al primer cudaMalloc en una variable x, falla la primera vez. Sin embargo, cuando lo llamo por segunda vez, devuelve ...

3 la respuesta

rror @Cuda: la función ya se ha definido en otro archivo .cu.obj

Estoy tratando de compilar un proyecto cuda que alguien me envió. Aunque la etapa de compilación pasa, la etapa de enlace falla. A continuación se muestra un ejemplo del error: Error 298 error LNK2005: "int __cdecl compare_ints(void const ...

1 la respuesta

CUDA parece haberse alcanzado el límite, pero ¿qué límite es ese?

Tengo un programa CUDA que parece estar llegando a algún tipo de límite de algún recurso, pero no puedo entender cuál es ese recurso. Aquí está la función del núcleo: __global__ void DoCheck(float2* points, int* segmentToPolylineIndexMap, ...

2 la respuesta

Caché L2 en NVIDIA Fermi

Al mirar el nombre de los contadores de rendimiento en la arquitectura NVIDIA Fermi (el archivo Compute_profiler.txt en la carpeta doc de cuda), noté que para errores de caché L2, hay dos contadores de rendimiento, l2_subp0_read_sector_misses y ...

6 la respuesta

OpenCL: ¿cómo puedo consultar el ancho SIMD de un dispositivo?

En CUDA, hay un concepto dedeformació, que se define como el número máximo de subprocesos que pueden ejecutar la misma instrucción simultáneamente dentro de un único elemento de procesamiento. Para NVIDIA, este tamaño de urdimbre es 32 para todas ...

1 la respuesta

¿Por qué CUDA Profiler indica instrucciones reproducidas: 82%! = Reproducción global + reproducción local + reproducción compartida?

Recibí información de CUDA Profiler. Estoy tan confundido por qué Replays Instruction! = Reproducción de memoria Grobal + reproducción de memoria local + reproducción de conflicto de banco compartido? Vea la siguiente información que obtuve ...