Resultados da pesquisa a pedido "gpu"

1 a resposta

Testando GPU com multiplicação da matriz tensorflow

Como muitos algoritmos de aprendizado de máquina dependem da multiplicação de matrizes (ou pelo menos podem ser implementados usando a multiplicação de matrizes) para testar minha GPU, planejo criar matrizes a, b, multiplicá-las e registrar o ...

4 a resposta

OOM do Tensorflow na GPU

Estou treinando alguns dados de música em um LSTM-RNN no Tensorflow e encontrei um problema com a alocação de memória da GPU, que não entendo: encontro um OOM quando parece que ainda há VRAM suficiente disponível. Alguns antecedentes: estou ...

3 a resposta

por que as chamadas são caras?

supondo que os dados de textura, vértice e sombreador já estejam na placa de vídeo, você não precisa enviar muitos dados para a placa. existem alguns bytes para identificar os dados e, presumivelmente, uma matriz 4x4 e alguns outros parâmetros ...

2 a resposta

A inicialização de um encadeamento por elemento sempre é ideal para problemas independentes de dados na GPU?

Eu estava escrevendo um kernel memcpy simples para medir a largura de banda de memória do meu GTX 760M e compará-lo com cudaMemcpy (). Parece que: template<unsigned int THREADS_PER_BLOCK> __global__ static void copy(void* src, void* dest, ...

2 a resposta

Nenhum módulo chamado '_pywrap_tensorflow_internal' (ainda sem solução de trabalho)

Eu tenho o mesmo problema que ema pergunta semelhante [https://stackoverflow.com/questions/44080677/no-module-named-pywrap-tensorflow-internal] e tentei a solução proposta, mas não funcionou. Abaixo, você encontra o stacktrace. Estou no Windows ...

1 a resposta

Tensorflow na GPU

Consegui trabalhar com o TensorFlow na CPU, agora preciso executá-lo em um dispositivo GPU com as seguintes especificações: CPU: Intel Xeon (E5-2670) e win7 64bit e NVIDIA GeForce GTX 980 Ti Instalei python3.5 e Tensorflow para GPU, conforme ...

2 a resposta

TensorFlow na nvidia-docker: falha na chamada para cuInit: CUDA_ERROR_UNKNOWN

Estou trabalhando para obter um aplicativo que depende do TensorFlow para funcionar como um contêiner de docker comnvidia-docker. Eu compilei meu aplicativo em cima dotensorflow/tensorflow:latest-gpu-py3 imagem. Eu executo meu contêiner de docker ...

0 a resposta

Python: como paralelizamos um programa python para tirar proveito de um servidor GPU?

Em nosso laboratório, temosComputação do acelerador NVIDIA Tesla K80 GPUcom as seguintes características:Intel(R) Xeon(R) CPU E5-2670 v3 @2.30GHz, 48 CPU processors, 128GB RAM, 12 CPU coresexecutando no Linux de 64 bits. Estou executando o ...

1 a resposta

Cuda: nvvm da biblioteca não encontrado

Estou tentando executar o código abaixo, mas um erro é relatado: NvvmSupportError: libNVVM não pode ser encontrado. Fazconda install cudatoolkit: biblioteca nvvm não encontrada Meu ambiente de desenvolvimento é: Ubuntu 17.04, Spyder / Python3.5 ...

1 a resposta

Ao executar um gráfico TF, quais funções devem usar a CPU e quais funções devem usar as GPUs quando tivermos várias GPUs?

Podemos atribuir dispositivos diferentes para executar operações diferentes em um gráfico Tensorflow comtf.device ('cpu ou gpu'), Não está claro como dividi-los. Outra coisa é se usarmos a coisa padrão, o TF sempre usa GPU se houver uma ...