Resultados da pesquisa a pedido "cuda"

7 a resposta

Erro CMake: as variáveis estão definidas como NOTFOUND

Eu instalei o cuda primeiro usandocuda-repo-ubuntu1604-9-0-local_9.0.176-1_amd64.deb. Agora estou tentando instalarOpenCV 3.3.0 Mas estou recebendo o erro CMake: CMake Error: The following variables are used in this project, but they are set to ...

8 a resposta

Os aplicativos CUDA atingem o tempo limite e falham após alguns segundos - como contornar isso?

Percebi que os aplicativos CUDA tendem a ter um tempo de execução máximo aproximado de 5 a 15 segundos antes de falhar e sair. Percebo que é ideal não ter o aplicativo CUDA executado por tanto tempo, mas supondo que seja a escolha correta para ...

4 a resposta

Na CUDA, o que é a coalescência da memória e como ela é alcançada?

O que é "coalescido" na transação de memória global da CUDA? Eu não conseguia entender mesmo depois de ler meu guia CUDA. Como fazer isso? No exemplo de matriz do guia de programação CUDA, acessar a matriz linha por linha é chamado "coalescido" ...

1 a resposta

desempenho de cudaMemcpyToSymbol

Eu tenho algumas funções que carregam uma variável na memória constante do dispositivo e iniciam uma função do kernel. Percebi que a primeira vez que uma função carrega uma variável na memória constante leva 0,6 segundos, mas as próximas cargas ...

4 a resposta

Quais combinações de versões do TensorFlow e CUDA são compatíveis?

Percebi que algumas versões mais recentes do TensorFlow são incompatíveis com as versões CUDA e cuDNN mais antigas. Existe uma visão geral das versões compatíveis ou mesmo uma lista de combinações oficialmente testadas? Não consigo encontrá-lo na ...

2 a resposta

Erro CUDA 5.5 cudaMemcpyToSymbol, __constant__ e fora do escopo

Estou tentando compilar um exemplo CUDA que possui; cuda.cu: __constant__ unsigned VERTICES; __constant__ unsigned TRIANGLES;e o código correspondente em main.cpp; cudaMemcpyToSymbol(VERTICES, &verticesNo, ...

1 a resposta

__shfl_down e __shfl_down_sync fornecem resultados diferentes

Estou confuso com __shfl_down e __shfl_down_sync, eles fornecem resultados diferentes. __global__ void shufledown1(double* a, double *b,double *c, int N) { double temp = 2.0; __syncthreads(); for (int offset = 32/2; offset > 0; offset /= ...

1 a resposta

Fazer um loop sobre dados no kernel CUDA faz com que o aplicativo seja cancelado

questão: À medida que aumenta a quantidade de dados que estão sendo processados dentro do loop que está dentro doCUDA kernel - faz com que o aplicativo seja abortado! exceção: ManagedCuda.CudaException: 'ErrorLaunchFailed: Ocorreu uma exceção ...

1 a resposta

Para quais tamanhos as cargas simples são armazenadas na memória global no CUDA Atomic?

São leituras e gravações gerais na memória global atômica no CUDA se: É uma instrução de 4 bytes? (Presumo que sim)É uma instrução de 8 ou 16 bytes? (Presumo que sim)São pelo menos em Kepler e Fermi leituras e gravações gerais de 4 bytes na ...

1 a resposta

Como passar uma matriz de vetores para o kernel cuda?

Agora tenho thrust::device_vector<int> A[N];e minha função do kernel __global__ void kernel(...) { auto a = A[threadIdx.x]; }Eu sei que via thrust :: raw_pointer_cast eu poderia passar um device_vector para o kernel. Mas como eu poderia passar ...