Concorrência em execuções multi-GPU CUDA

Estou executando uma função de kernel cuda em um sistema de múltiplas GPUs, com4 GPUs. Eu esperava que eles fossem lançados simultaneamente, mas eles não são. Eu meço o tempo de início de cada kernel, e o segundo kernel inicia depois que o primeiro termina sua execução. Então, lançando o kernel em4 GPUs não é mais rápido que1 único GPU.

Como posso fazê-los funcionar ao mesmo tempo?

Este é o meu código:

cudaSetDevice(0);
GPU_kernel<<< gridDim, threadsPerBlock >>>(d_result_0, parameterA +(0*rateA), parameterB + (0*rateB));
cudaMemcpyAsync(h_result_0, d_result_0, mem_size_result, cudaMemcpyDeviceToHost);

cudaSetDevice(1);
GPU_kernel<<< gridDim, threadsPerBlock >>>(d_result_1, parameterA +(1*rateA), parameterB + (1*rateB));
cudaMemcpyAsync(h_result_1, d_result_1, mem_size_result, cudaMemcpyDeviceToHost);

cudaSetDevice(2);
GPU_kernel<<< gridDim, threadsPerBlock >>>(d_result_2, parameterA +(2*rateA), parameterB + (2*rateB));
cudaMemcpyAsync(h_result_2, d_result_2, mem_size_result, cudaMemcpyDeviceToHost);

cudaSetDevice(3);
GPU_kernel<<< gridDim, threadsPerBlock >>>(d_result_3, parameterA +(3*rateA), parameterB + (3*rateB));
cudaMemcpyAsync(h_result_3, d_result_3, mem_size_result, cudaMemcpyDeviceToHost);

questionAnswers(2)

yourAnswerToTheQuestion