Результаты поиска по запросу "mpi"
@HristoIliev Пока я удалил неработающие ссылки, но это не решает другие проблемы.
ли пример использования схемы работа / пул (или. производитель / потребитель) для MPI? Что касается всего, что я сделал, я получаю только одно приложение, и мое приложение блокируется. Спасибо
Есть идеи, почему в моем случае эта программа никогда не останавливается? (Переменная «done» никогда не читается как 1 в части «while (! done)». Я добавил туда «#pragma omp flush (done)», но это не помогает. Мой компилятор gcc 6.3.0 / Mac OS.
т ли вызов MPI_Barrier на каждый поток в процессе MPI или только на поток, который делает этот вызов? Для вашего сведения, мое приложение MPI будет работать с MPI_THREAD_MULTIPLE. Благодарю.
Привет, смотри мой edit2. Я сделал новый MPI_type_vector, но теперь я запутался, как передать правильные значения в scatter или даже в Send ... не могли бы вы помочь мне, пожалуйста?
у отправить столбцы 2D-массива, каждый для отдельного процесса. Теперь у меня есть целый массив 2d, и я застрял с MPI_Scatter. Как отправить целые столбцы в виде поля? Спасибо редактировать: У меня есть массив - плавать [100] [101] и я ...
Ух ты. Я думаю, что я не понял, как работает mpi_gather ... Большое спасибо. Я собираюсь напечатать ваш ответ и принять его как памятку.
жен решить небольшую проблему MPI. У меня есть 4 подчиненных процесса, и каждый из них хочет отправить 2d-подмассив (CHUNK_ROWS X CHUNK_COLUMNS) мастеру 0. Мастер 0 собирает все чанки в ddd [ROWS] [COLUMNS] и печатает его. Я хочу использовать ...
Большое спасибо, вы помогли понять принцип MPI.
ервая мысль былаMPI_Scatter и распределение буфера отправки должно использоваться вif(proc_id == 0) пункт, потому что данные должны быть разбросаны только один раз, и каждому процессу требуется только часть данных в буфере отправки, однако это не ...
Ваши данные должны быть в непрерывном блоке памяти. Тогда просто MPI_send весь блок сразу
ема, которую я пытаюсь решить, заключается в следующем: Серийный код C ++, который у меня есть, вычисляется по большой двумерной матрице. Чтобы оптимизировать этот процесс, я хочу разделить эту большую 2D-матрицу и запустить на 4 узлах (скажем), ...
Очевидно, что это не очень хорошо, так что будет проще, если вы оставите свой struct без указателя, чтобы вы могли отправить его сразу.
я есть структура: struct vertex { double a; double b; } struct polygon { int numofVertex; vertex *v; }Как отправить эту вложенную структуру в MPI, используя MPI_Send? Проблема состоит в том, что структура содержит поле указателя "v", из-за ...
TotalView очень хорошо поддерживает сценарии TCL. Имелась кошмарная система, состоящая из более чем 40 взаимосвязанных процессов. Интерфейс tcl от TotalView позволил мне автоматически создать скрипт, который подключался к ним сразу при запуске. Некоторые вещи НЕ были бы исправлены без этого средства.
аюсь решить, какой параллельный отладчик использовать. До сих пор я нашел не так много открытых источников, поэтому мой выбор: http://www.allinea.com/products/ddt/ ...
Для каждого вызова неблокирующего вызова MPI должно быть соответствующее ожидание. Вам не хватает одного ожидания на процесс.
етил, что не все мои MPI_Isend / MPI_IRecv были выполнены. Я думаю, что это может быть либо порядок, в котором я выполняю отправку и получение, либо тот факт, что код не ждет, пока все команды будут выполнены. Я скопировал выдержку из кода ниже. ...
Как сохранить точность для программы Fortran MPI портативным способом?
У меня есть программа на Фортране, где я указываюkind числовых типов данных в попытке сохранить минимальный уровень точности, независимо от того, какой компилятор используется для сборки программы. Например: integer, parameter :: rsp = ...