Resultados da pesquisa a pedido "cuda"

2 a resposta

erroudamemcpy: "o lançamento expirou e foi encerrado"

Meu código é uma implementação paralela que calcula o enésimo dígito de pi. Quando eu termino o kernel e tento copiar a memória de volta para o host, recebo o erro "a inicialização expirou e foi encerrada". Usei esse código para verificação de ...

2 a resposta

Como fazer o VS 2010 reconhecer certas funções CUDA

No momento, a CUDA já reconhece uma função-chave CUDA C / C ++, comocudaMalloc, cudaFree, cudaEventCreate et Também reconhece certos tipos comodim3 ecudaEvent_t. No entanto, ele não reconhece outras funções e tipos, como o modelo de ...

1 a resposta

ariável global em CUDA

Como posso criar variáveis globais em CUDA ?? Você poderia me dar um exemplo? Como criar matrizes dentro de uma função CUDA, por exemplo __global__ void test() { int *a = new int[10]; }omo criar uma matriz global e acessá-la a partir desta ...

1 a resposta

Diferença entre cuda.h, cuda_runtime.h, cuda_runtime_api.h

Estou começando a programar com CUDA e, em alguns exemplos, encontro os arquivos de inclusãocuda.h, cuda_runtime.h ecuda_runtime_api.h incluído no código. Alguém pode me explicar a diferença entre esses arquivos?

1 a resposta

xemplo de conflito realístico em CUDA / OpenCL

ara um tutorial que estou escrevendo, estou procurando um exemplo "realista" e simples de um impasse causado pela ignorância do SIMT / SIM Eu criei esse trecho, que parece ser um bom exemplo. Qualquer entrada seria apreciada … int x = threadID ...

2 a resposta

por que meu programa c usa repentinamente 30g de memória virtual?

Na parte superior, notei que meu programa c (usando CUDA 3.2) tem um tamanho virtual de 28g ou mais (olhando para o VIRT), em todas as execuções desde o início. Isso não faz nenhum sentido para mim. A memória residente faz sentido e tem apenas ...

3 a resposta

xiste uma maneira de definir o valor padrão para a matriz de memória compartilhad

Considere o seguinte código: __global__ void kernel(int *something) { extern __shared__ int shared_array[]; // Some operations on shared_array here. }É possível definir toda a matriz_compartilhada para algum valor, por exemplo 0 - sem ...

2 a resposta

Cuda e OpenGL Interop

Eu tenho lido a documentação da CUDA e me parece que todo buffer que precisa interagir com o OpenGL precisa ser criado no glBuffe De acordo com o guia de programação da nvidia, isso deve ser feito assim: GLuint positionsVBO; struct ...

3 a resposta

CUDA: Quantos threads simultâneos no total?

Eu tenho uma GeForce GTX 580 e quero fazer uma declaração sobre o número total de threads que (idealmente) podem ser executadas em paralelo, para comparar com 2 ou 4 CPUs com vários núcleo deviceQuery fornece as seguintes informações ...

3 a resposta

écnicas para reduzir a latência da transferência de CPU para G

Estive procurando maneiras de reduzir a latência causada pela transferência de dados da CPU e da GPU para frente e para trás. Quando comecei a usar o CUDA, notei que a transferência de dados entre a CPU e a GPU demorou alguns segundos, mas não ...