Resultados da pesquisa a pedido "gpu"
Como definir o fluxo de dispositivo de destino em cudaMemcpyPeerAsync ()?
Eu estou fazendo um memcpy assíncrono de gpu0 para gpu1 usando cudaMemcpyPeerAsync ().cudaMemcpyAsync () fornece a opção de fluxo a ser usado para gpu0, mas ...
Meu teste de opencl não roda muito mais rápido que a CPU
Estou tentando medir o tempo de execução da GPU e compará-lo com a CPU. Eu escrevi uma função simple_add para adicionar todos os elementos de um vetor int curto. O código do Kernel é: global const int * A, global const uint * B, global int* C) ...
Posso implementar modelos de aprendizado profundo no meu laptop com gráficos intel hd
Atualmente, estou fazendo um projeto de aprendizagem profunda para meu mestrado. Eu queria instalar a biblioteca keras, então, quando comecei a instalar o Theano e o tensorflow, vi que precisava instalar o CUDA. Mas meu laptop vem com gráficos hd ...
O erro cudaMemcpy ao copiar do dispositivo para o host após a função de membro da classe __device__ altera o valor da variável do dispositivo
Estou confuso quanto ao comportamento do código CUDA que escrevi. Estou no meio de escrever testes para o meu__device__ funções em uma classe chamadaDimmedGridGPU. Esta classe é modelada em umint DIM e a função com a qual tenho problemas visa ...
Hardware acelera desenho de bitmap em java
Quero poder desenhar bitmaps consecutivos (do tipo BufferedImage.TYPE_INT_RGB) de um vídeo o mais rápido possível em java. Eu quero saber o melhor método para fazer isso. Alguém tem algum conselho por onde devo começar? Pelo que li, duas opções ...
Baixo uso e desempenho da GPU com Tensorflow + RNNs
Eu implementei uma rede que tenta prever uma palavra de uma frase. A rede é realmente bastante complexa, mas aqui está uma versão simples: Pegue índices de palavras em uma frase e converta em incorporaçãoExecute cada frase através do LSTMAtribua ...
Tensorflow em GPUs compartilhadas: como selecionar automaticamente a que não está sendo usada
Eu tenho acesso através do ssh a um cluster de n GPUs. O fluxo de tensão automaticamente deu a eles nomes gpu: 0, ..., gpu: (n-1). Outros também têm acesso e, às vezes, usam gpus aleatórios. Não coloquei nenhumtf.device() explicitamente porque ...