Результаты поиска по запросу "cuda"

2 ответа

 и WarpSize = 32):

я начну свое ядро ​​с сетки, блоки которой имеют размеры: dim3 block_dims(16,16);Как блоки сетки теперь делятся на деформации? Формируют ли первые две строки такого блока одну основу, или первые два столбца, или это произвольно ...

2 ответа

пытаться

я есть 2 очень похожие функции ядра, в том смысле, что код почти такой же, но с небольшой разницей. На данный момент у меня есть 2 варианта: Напишите 2 разных метода (но очень похожих)Напишите одно ядро ​​и поместите блоки кода, которые ...

2 ответа

__syncthreads находится в файле usertype.dat, и он выделяется синим цветом, но функция все еще не распознается (подчеркнут красным). Я очень четко следовал инструкциям блога, но это работало только для функций, которые я описал выше. Я также вручную нашел каталог включения CUDA 4.0. Единственным преимуществом было то, что я смог открыть документы.

нный момент CUDA уже распознает ключевую функцию CUDA C / C ++, такую ​​какcudaMalloc, cudaFree, cudaEventCreate, и т.д. Он также распознает определенные типы, такие какdim3 а такжеcudaEvent_t. Тем не менее, он не распознает другие функции и ...

ТОП публикаций

2 ответа

@ SergeRogatch Да, я полагаю.

рограмма CUDA для вычисления в Монте-Карло вызывает сбой моего драйвера nvidia при превышении 500 проб и 256 полных блоков. Кажется, это происходит в функции ядра monteCarlo. Любая помощь приветствуется. #include <stdio.h> #include <stdlib.h> ...

1 ответ

как получить максимальные блоки в тяге в CUDA 5,5

Приведенная ниже функция Thrust позволяет получить максимальное количество блоков для запуска CUDA CUDA 5.0, который используется в Sparse Matrix Vector умножение (SpMV) в CUSP, и это метод для настройки выполнения для постоянных потоков. Первая ...

2 ответа

 называется.

од является параллельной имплементацией, которая вычисляет n-ю цифру числа пи. Когда я заканчиваю ядро ​​и пытаюсь скопировать память обратно на хост, я получаю сообщение об ошибке «Время запуска истекло и было прекращено». Я использовал этот код ...

1 ответ

Динамический параллелизм - запуск множества маленьких ядер идет очень медленно

Я пытаюсь использовать динамический параллелизм для улучшения алгоритма, который я имею в CUDA. В моем исходном решении CUDA каждый поток вычисляет число, общее для каждого блока. Я хочу сначала запустить грубое (или с низким разрешением) ядро, ...

1 ответ

Считается ли запись в глобальную память атомарной в CUDA?

Глобальная запись в память считается атомарной или нет в CUDA? Учитывая следующий код ядра CUDA: int idx = blockIdx.x*blockDim.x+threadIdx.x; int gidx = idx%1000; globalStorage[gidx] = somefunction(idx);Глобальная память пишет ...

1 ответ

Сказать «Google it» не совсем полезно для людей, которые попадают на эту страницу, делая именно это.

могу создать глобальные переменные в CUDA ?? Не могли бы вы дать мне пример? Как можно создать массивы внутри функции CUDA, например __global__ void test() { int *a = new int[10]; }или Как я могу создать глобальный массив и получить доступ к ...

1 ответ

 должно быть в пределах

инаю программировать с CUDA, и в некоторых примерах я нахожу включаемые файлыcuda.h, cuda_runtime.h а такжеcuda_runtime_api.h включены в код Может кто-нибудь объяснить мне разницу между этими файлами?