Błąd segmentacji cudaMemcpy

Przez ten czas byłem nawiedzany przez ten błąd, więc postanowiłem go opublikować tutaj.

Ten błąd segmentacji miał miejsce, gdy wywoływany jest cudaMemcpy:

CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
                cudaMemcpyDeviceToHost);

CurrentGrid iGrid_dev są wskaźnikiem do agrid obiekt klasy odpowiednio na hoście i urządzeniu i w tym kontekście i = 0. Członek klasycdata jest tablicą wskaźników typu float. Do debugowania, tuż przed tym wywołaniem cudaMemcpy, wydrukowałem wartość każdego elementuGrid_Dev->cdata[i], adresCurrentGrid->cdata[i] iGrid_dev->cdata[i] i wartośćsize, który wygląda dobrze. Ale wciąż kończy się na „Błąd segmentacji (zrzucony rdzeń)”, który jest jedynym komunikatem o błędzie. tylko cuda-memcheck dał „proces nie zakończył się pomyślnie”. W tej chwili nie mogę użyć cuda-gdb. Czy masz jakieś sugestie, gdzie iść?

AKTUALIZACJA: Wydaje mi się, że teraz rozwiązałem ten problem przez cudaMalloc inny wskaźnik float A na urządzeniu i cudaMemcpy wartość Grid_dev-> cdata [i] do A, a następnie cudaMemcpy A do hosta. Tak więc segment kodu napisanego powyżej staje się:

float * A;
cudaMalloc((void**)&A, sizeof(float));
...
...
cudaMemcpy(&A, &(Grid_dev->cdata[i]), sizeof(float *), cudaMemcpyDeviceToHost);    
CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], A, size*sizeof(float), cudaMemcpyDeviceToHost);            

Zrobiłem to, ponieważ valgrind wyświetlił „nieprawidłowy odczyt o rozmiarze 8”, o którym pomyślałemGrid_dev->cdata[i]. Sprawdziłem to ponownie za pomocą gdb, wypisując wartośćGrid_dev->cdata[i] będąc NULL. Więc chyba nie mogę bezpośrednio wyłuskać wskaźnika urządzenia nawet w tym wywołaniu cudaMemcpy. Ale dlaczego ? Zgodnie z komentarzem na dole tegowątek , powinniśmy być w stanie wyłuskać wskaźnik urządzenia w funkcji cudaMemcpy.

Ponadto nie znam mechanizmu działania cudaMalloc i cudaMemcpy, ale myślę, że cudaMalloc wskazuje wskaźnik, powiedzmy tutaj, przypisujemy ten wskaźnik do wskazanego adresu w urządzeniu. I przez cudaMemcpy theGrid_dev->cdata[i] do A, tak jak w zmodyfikowanym kodzie powyżej, przypisujemy wskaźnik A do tablicy. Czy nie tracimy ścieżki z poprzedniego adresu wskazywanego przez A, gdy jest cudaMalloced? Czy może to spowodować wyciek pamięci lub coś takiego? Jeśli tak, w jaki sposób powinienem właściwie obejść tę sytuację? Dzięki!

Dla odniesienia umieściłem kod pełnej funkcji, w której ten błąd wystąpił poniżej.

Wielkie dzięki!

__global__ void Print(grid *, int);
__global__ void Printcell(grid *, int);
void CopyDataToHost(param_t p, grid * CurrentGrid, grid * Grid_dev){

    cudaMemcpy(CurrentGrid, Grid_dev, sizeof(grid), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
    cudaCheckErrors("cudaMemcpy1 error");
#endif
    printf("\nBefore copy cell data\n");
    Print<<<1,1>>>(Grid_dev, 0);            //Print out some Grid_dev information for 
    cudaDeviceSynchronize();                //debug 
    int NumberOfBaryonFields = CurrentGrid->ReturnNumberOfBaryonFields();
    int size = CurrentGrid->ReturnSize();
    int vsize = CurrentGrid->ReturnVSize();
    CurrentGrid->FieldType = NULL;
    CurrentGrid->FieldType = new int[NumberOfBaryonFields];
    printf("CurrentGrid size is %d\n", size);
    for( int i = 0; i < p.NumberOfFields; i++){
        CurrentGrid->cdata[i] = NULL;
        CurrentGrid->vdata[i] = NULL;
        CurrentGrid->cdata[i] = new float[size];
        CurrentGrid->vdata[i] = new float[vsize];

        Printcell<<<1,1>>>(Grid_dev, i);//Print out element value of Grid_dev->cdata[i]
        cudaDeviceSynchronize();        

        cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
                cudaMemcpyDeviceToHost);               //where error occurs
#if DEBUG_DEV
        cudaCheckErrors("cudaMemcpy2 error");
#endif
        printf("\nAfter copy cell data\n");
        Print<<<1,1>>>(Grid_dev, i);
        cudaDeviceSynchronize();
        cudaMemcpy(CurrentGrid->vdata[i], Grid_dev->vdata[i], vsize*sizeof(float),\
                cudaMemcpyDeviceToHost);
#if DEBUG_DEV
        cudaCheckErrors("cudaMemcpy3 error");
#endif
    }
    cudaMemcpy(CurrentGrid->FieldType, Grid_dev->FieldType,\
            NumberOfBaryonFields*sizeof(int), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
    cudaCheckErrors("cudaMemcpy4 error");
#endif
}

EDIT: oto informacje z valgrind, z których próbuję wyśledzić, gdzie nastąpił przeciek pamięci.

==19340== Warning: set address range perms: large range [0x800000000, 0xd00000000) (noaccess)
==19340== Warning: set address range perms: large range [0x200000000, 0x400000000) (noaccess)
==19340== Invalid read of size 8
==19340==    at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340==    by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340==    by 0x40A6CD: main (Transport.cu:81)
==19340==  Address 0x2003000c0 is not stack'd, malloc'd or (recently) free'd
==19340== 
==19340== 
==19340== Process terminating with default action of signal 11 (SIGSEGV)
==19340==  Bad permissions for mapped region at address 0x2003000C0
==19340==    at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340==    by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340==    by 0x40A6CD: main (Transport.cu:81)
==19340== 
==19340== HEAP SUMMARY:
==19340==     in use at exit: 2,611,365 bytes in 5,017 blocks
==19340==   total heap usage: 5,879 allocs, 862 frees, 4,332,278 bytes allocated
==19340== 
==19340== LEAK SUMMARY:
==19340==    definitely lost: 0 bytes in 0 blocks
==19340==    indirectly lost: 0 bytes in 0 blocks
==19340==      possibly lost: 37,416 bytes in 274 blocks
==19340==    still reachable: 2,573,949 bytes in 4,743 blocks
==19340==         suppressed: 0 bytes in 0 blocks
==19340== Rerun with --leak-check=full to see details of leaked memory
==19340== 
==19340== For counts of detected and suppressed errors, rerun with: -v
==19340== ERROR SUMMARY: 1 errors from 1 contexts (suppressed: 2 from 2)

questionAnswers(1)

yourAnswerToTheQuestion