Resultados da pesquisa a pedido "gpu-programming"

1 a resposta

Vincular com bibliotecas CUDA de terceiros desacelera o cudaMalloc

Não é segredo que no CUDA 4.x a primeira chamada para

2 a resposta

Impulso de CUDA: reduce_by_key em apenas alguns valores em uma matriz, com base nos valores em uma matriz de "chave"

Digamos que eu tenha dois arrays device_vector <byte>,

1 a resposta

Diferenças entre VexCL, Thrust e Boost.Compute

2 a resposta

Código OpenCL 'Erro MSB3721' para Intel OpenCL SDK no Visual Studio 2010

Atualmente, estou usando a plataforma OpenCL SDK da Intel para programação paralela heterogênea (OpenCL). Estou usando o Visual Studio 2010 Ultimate para isso. Meu sistema não possui nenhuma GPU. Eu trabalhei na plataforma CUDA SDK para ...

4 a resposta

printf dentro da função CUDA __global__

Atualmente, estou escrevendo uma multiplicação de matrizes em uma GPU e gostaria de depurar meu código, mas como não consigo usar printf dentro de uma função de dispositivo, há algo mais que posso fazer para ver o que está acontecendo ...

2 a resposta

Usando Java com GPUs da Nvidia (cuda)

Estou trabalhando em um projeto de negócios que é feito em java e precisa de um enorme poder de computação para calcular os mercados de negócios. Matemática simples, mas com enorme quantidade de dados. Pedimos alguns cuda gpu para experimentá-lo ...

2 a resposta

por que o MATLAB gpuarray é muito mais lento ao adicionar apenas duas matrizes?

Recentemente, empreguei a biblioteca MATLAB CUDA para alguns cálculos de matriz absolutamente simples na gpu. Mas os resultados do desempenho são muito estranhos. Alguém poderia me ajudar a entender exatamente o que está acontecendo e como posso ...

1 a resposta

Otimização de GPU para código vetorizado

function w=oja(X, varargin) % get the dimensionality [m n] = size(X); % random initial weights w = randn(m,1); options = struct( ... 'rate', .00005, ... 'niter', 5000, ... 'delta', .0001); options = getopt(options, varargin); success = 0; % run ...

2 a resposta

Como interromper ou cancelar um kernel CUDA do código do host

Estou trabalhando com a CUDA e estou tentando interromper o trabalho dos meus kernels (ou seja, encerrar todos os threads em execução) após um certo períodoif bloco está sendo atingido. Como eu posso fazer isso? Eu estou realmente preso aqui.

3 a resposta

Como determinar o tamanho máximo do lote para um modelo de treinamento RNN seq2seq tensorflow

Atualmente, estou usando o 64 padrão como o tamanho do lote para o modelo de fluxo tensor seq2seq. Qual é o tamanho máximo do lote, o tamanho da camada, etc. Posso usar uma única GPU Titan X com 12 GB de RAM e Haswell-E xeon 128 GB de RAM. Os ...