NVIDIA Cuda erro "todos os dispositivos compatíveis com CUDA estão ocupados ou indisponíveis" no OSX
Frequentemente, faço com que a biblioteca CUDA falhe completamente e retorne com um erro 46 ("todos os dispositivos compatíveis com CUDA estão ocupados ou indisponíveis"), mesmo para chamadas simples, como cudaMalloc. O código será executado com êxito se eu reiniciar o computador, mas isso está longe de ser o ideal. Aparentemente, este problema ébastant comu.
Minha configuração é a seguinte:
OSX 10.6.8NVIDIA CUDA drivers: CUDA versão do driver: 4.0.31 (mais recente)ersão do driver @GPU: 1.6.36.10 (256.00.35f11)Tentei muitas soluções no fórum da Nvidia, mas não funcionou. Não quero reiniciar toda vez que isso acontecer. Também tentei descarregar e recarregar o driver com um procedimento que considero correto (pode não estar)
kextunload -b com.nvidia.CUDA
kextload -b com.nvidia.CUDA
Mas ainda não funciona. Como posso levar a GPU (ou CUDA) de volta à sanidad
Este é o resultado da consulta do dispositivo
CUDA Device Query (Runtime API) version (CUDART static linking)
Found 1 CUDA Capable device(s)
Device 0: "GeForce 9400M"
CUDA Driver Version / Runtime Version 4.0 / 4.0
CUDA Capability Major/Minor version number: 1.1
Total amount of global memory: 254 MBytes (265945088 bytes)
( 2) Multiprocessors x ( 8) CUDA Cores/MP: 16 CUDA Cores
GPU Clock Speed: 1.10 GHz
Memory Clock rate: 1075.00 Mhz
Memory Bus Width: 128-bit
Max Texture Dimension Size (x,y,z) 1D=(8192), 2D=(65536,32768), 3D=(2048,2048,2048)
Max Layered Texture Size (dim) x layers 1D=(8192) x 512, 2D=(8192,8192) x 512
Total amount of constant memory: 65536 bytes
Total amount of shared memory per block: 16384 bytes
Total number of registers available per block: 8192
Warp size: 32
Maximum number of threads per block: 512
Maximum sizes of each dimension of a block: 512 x 512 x 64
Maximum sizes of each dimension of a grid: 65535 x 65535 x 1
Maximum memory pitch: 2147483647 bytes
Texture alignment: 256 bytes
Concurrent copy and execution: No with 0 copy engine(s)
Run time limit on kernels: Yes
Integrated GPU sharing Host Memory: Yes
Support host page-locked memory mapping: Yes
Concurrent kernel execution: No
Alignment requirement for Surfaces: Yes
Device has ECC support enabled: No
Device is using TCC driver mode: No
Device supports Unified Addressing (UVA): No
Device PCI Bus ID / PCI location ID: 2 / 0
Compute Mode:
< Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >
deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 4.0, CUDA Runtime Version = 4.0, NumDevs = 1, Device = GeForce 9400M
[deviceQuery] test results...
PASSED
Este é um exemplo de código que pode falhar (embora em condições normais não)
#include <stdio.h>
__global__ void add(int a, int b, int *c) {
*c = a + b;
}
int main(void) {
int c;
int *dev_c;
cudaMalloc( (void **) &dev_c, sizeof(int)); // fails here, returning 46
add<<<1,1>>>(2,7,dev_c);
cudaMemcpy(&c, dev_c, sizeof(int), cudaMemcpyDeviceToHost);
printf("hello world, %d\n",c);
cudaFree( dev_c);
return 0;
}
Eu também descobri que, ocasionalmente, posso voltar a um comportamento saudável sem uma reinicialização. Ainda não sei o que o desencadeia.