NVIDIA Cuda erro "todos os dispositivos compatíveis com CUDA estão ocupados ou indisponíveis" no OSX

Frequentemente, faço com que a biblioteca CUDA falhe completamente e retorne com um erro 46 ("todos os dispositivos compatíveis com CUDA estão ocupados ou indisponíveis"), mesmo para chamadas simples, como cudaMalloc. O código será executado com êxito se eu reiniciar o computador, mas isso está longe de ser o ideal. Aparentemente, este problema ébastant comu.

Minha configuração é a seguinte:

OSX 10.6.8NVIDIA CUDA drivers: CUDA versão do driver: 4.0.31 (mais recente)ersão do driver @GPU: 1.6.36.10 (256.00.35f11)

Tentei muitas soluções no fórum da Nvidia, mas não funcionou. Não quero reiniciar toda vez que isso acontecer. Também tentei descarregar e recarregar o driver com um procedimento que considero correto (pode não estar)

kextunload -b com.nvidia.CUDA
kextload -b com.nvidia.CUDA

Mas ainda não funciona. Como posso levar a GPU (ou CUDA) de volta à sanidad

Este é o resultado da consulta do dispositivo

 CUDA Device Query (Runtime API) version (CUDART static linking)

Found 1 CUDA Capable device(s)

Device 0: "GeForce 9400M"
  CUDA Driver Version / Runtime Version          4.0 / 4.0
  CUDA Capability Major/Minor version number:    1.1
  Total amount of global memory:                 254 MBytes (265945088 bytes)
  ( 2) Multiprocessors x ( 8) CUDA Cores/MP:     16 CUDA Cores
  GPU Clock Speed:                               1.10 GHz
  Memory Clock rate:                             1075.00 Mhz
  Memory Bus Width:                              128-bit
  Max Texture Dimension Size (x,y,z)             1D=(8192), 2D=(65536,32768), 3D=(2048,2048,2048)
  Max Layered Texture Size (dim) x layers        1D=(8192) x 512, 2D=(8192,8192) x 512
  Total amount of constant memory:               65536 bytes
  Total amount of shared memory per block:       16384 bytes
  Total number of registers available per block: 8192
  Warp size:                                     32
  Maximum number of threads per block:           512
  Maximum sizes of each dimension of a block:    512 x 512 x 64
  Maximum sizes of each dimension of a grid:     65535 x 65535 x 1
  Maximum memory pitch:                          2147483647 bytes
  Texture alignment:                             256 bytes
  Concurrent copy and execution:                 No with 0 copy engine(s)
  Run time limit on kernels:                     Yes
  Integrated GPU sharing Host Memory:            Yes
  Support host page-locked memory mapping:       Yes
  Concurrent kernel execution:                   No
  Alignment requirement for Surfaces:            Yes
  Device has ECC support enabled:                No
  Device is using TCC driver mode:               No
  Device supports Unified Addressing (UVA):      No
  Device PCI Bus ID / PCI location ID:           2 / 0
  Compute Mode:
     < Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >

deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 4.0, CUDA Runtime Version = 4.0, NumDevs = 1, Device = GeForce 9400M
[deviceQuery] test results...
PASSED

Este é um exemplo de código que pode falhar (embora em condições normais não)

#include <stdio.h>

__global__ void add(int a, int b, int *c) {
    *c = a + b;
}

int main(void) {
    int c;
    int *dev_c;

    cudaMalloc( (void **) &dev_c, sizeof(int)); // fails here, returning 46

    add<<<1,1>>>(2,7,dev_c);
    cudaMemcpy(&c, dev_c, sizeof(int), cudaMemcpyDeviceToHost);
    printf("hello world, %d\n",c);
    cudaFree( dev_c);
    return 0;
}

Eu também descobri que, ocasionalmente, posso voltar a um comportamento saudável sem uma reinicialização. Ainda não sei o que o desencadeia.

questionAnswers(1)

yourAnswerToTheQuestion