Результаты поиска по запросу "cuda"
и WarpSize = 32):
я начну свое ядро с сетки, блоки которой имеют размеры: dim3 block_dims(16,16);Как блоки сетки теперь делятся на деформации? Формируют ли первые две строки такого блока одну основу, или первые два столбца, или это произвольно ...
пытаться
я есть 2 очень похожие функции ядра, в том смысле, что код почти такой же, но с небольшой разницей. На данный момент у меня есть 2 варианта: Напишите 2 разных метода (но очень похожих)Напишите одно ядро и поместите блоки кода, которые ...
__syncthreads находится в файле usertype.dat, и он выделяется синим цветом, но функция все еще не распознается (подчеркнут красным). Я очень четко следовал инструкциям блога, но это работало только для функций, которые я описал выше. Я также вручную нашел каталог включения CUDA 4.0. Единственным преимуществом было то, что я смог открыть документы.
нный момент CUDA уже распознает ключевую функцию CUDA C / C ++, такую какcudaMalloc, cudaFree, cudaEventCreate, и т.д. Он также распознает определенные типы, такие какdim3 а такжеcudaEvent_t. Тем не менее, он не распознает другие функции и ...
@ SergeRogatch Да, я полагаю.
рограмма CUDA для вычисления в Монте-Карло вызывает сбой моего драйвера nvidia при превышении 500 проб и 256 полных блоков. Кажется, это происходит в функции ядра monteCarlo. Любая помощь приветствуется. #include <stdio.h> #include <stdlib.h> ...
как получить максимальные блоки в тяге в CUDA 5,5
Приведенная ниже функция Thrust позволяет получить максимальное количество блоков для запуска CUDA CUDA 5.0, который используется в Sparse Matrix Vector умножение (SpMV) в CUSP, и это метод для настройки выполнения для постоянных потоков. Первая ...
называется.
од является параллельной имплементацией, которая вычисляет n-ю цифру числа пи. Когда я заканчиваю ядро и пытаюсь скопировать память обратно на хост, я получаю сообщение об ошибке «Время запуска истекло и было прекращено». Я использовал этот код ...
Динамический параллелизм - запуск множества маленьких ядер идет очень медленно
Я пытаюсь использовать динамический параллелизм для улучшения алгоритма, который я имею в CUDA. В моем исходном решении CUDA каждый поток вычисляет число, общее для каждого блока. Я хочу сначала запустить грубое (или с низким разрешением) ядро, ...
Считается ли запись в глобальную память атомарной в CUDA?
Глобальная запись в память считается атомарной или нет в CUDA? Учитывая следующий код ядра CUDA: int idx = blockIdx.x*blockDim.x+threadIdx.x; int gidx = idx%1000; globalStorage[gidx] = somefunction(idx);Глобальная память пишет ...
Сказать «Google it» не совсем полезно для людей, которые попадают на эту страницу, делая именно это.
могу создать глобальные переменные в CUDA ?? Не могли бы вы дать мне пример? Как можно создать массивы внутри функции CUDA, например __global__ void test() { int *a = new int[10]; }или Как я могу создать глобальный массив и получить доступ к ...
должно быть в пределах
инаю программировать с CUDA, и в некоторых примерах я нахожу включаемые файлыcuda.h, cuda_runtime.h а такжеcuda_runtime_api.h включены в код Может кто-нибудь объяснить мне разницу между этими файлами?