Результаты поиска по запросу "mpi"

1 ответ

@HristoIliev Пока я удалил неработающие ссылки, но это не решает другие проблемы.

ли пример использования схемы работа / пул (или. производитель / потребитель) для MPI? Что касается всего, что я сделал, я получаю только одно приложение, и мое приложение блокируется. Спасибо

1 ответ

Есть идеи, почему в моем случае эта программа никогда не останавливается? (Переменная «done» никогда не читается как 1 в части «while (! done)». Я добавил туда «#pragma omp flush (done)», но это не помогает. Мой компилятор gcc 6.3.0 / Mac OS.

т ли вызов MPI_Barrier на каждый поток в процессе MPI или только на поток, который делает этот вызов? Для вашего сведения, мое приложение MPI будет работать с MPI_THREAD_MULTIPLE. Благодарю.

3 ответа

Привет, смотри мой edit2. Я сделал новый MPI_type_vector, но теперь я запутался, как передать правильные значения в scatter или даже в Send ... не могли бы вы помочь мне, пожалуйста?

у отправить столбцы 2D-массива, каждый для отдельного процесса. Теперь у меня есть целый массив 2d, и я застрял с MPI_Scatter. Как отправить целые столбцы в виде поля? Спасибо редактировать: У меня есть массив - плавать [100] [101] и я ...

ТОП публикаций

1 ответ

Ух ты. Я думаю, что я не понял, как работает mpi_gather ... Большое спасибо. Я собираюсь напечатать ваш ответ и принять его как памятку.

жен решить небольшую проблему MPI. У меня есть 4 подчиненных процесса, и каждый из них хочет отправить 2d-подмассив (CHUNK_ROWS X CHUNK_COLUMNS) мастеру 0. Мастер 0 собирает все чанки в ddd [ROWS] [COLUMNS] и печатает его. Я хочу использовать ...

1 ответ

Большое спасибо, вы помогли понять принцип MPI.

ервая мысль былаMPI_Scatter и распределение буфера отправки должно использоваться вif(proc_id == 0) пункт, потому что данные должны быть разбросаны только один раз, и каждому процессу требуется только часть данных в буфере отправки, однако это не ...

2 ответа

Ваши данные должны быть в непрерывном блоке памяти. Тогда просто MPI_send весь блок сразу

ема, которую я пытаюсь решить, заключается в следующем: Серийный код C ++, который у меня есть, вычисляется по большой двумерной матрице. Чтобы оптимизировать этот процесс, я хочу разделить эту большую 2D-матрицу и запустить на 4 узлах (скажем), ...

1 ответ

Очевидно, что это не очень хорошо, так что будет проще, если вы оставите свой struct без указателя, чтобы вы могли отправить его сразу.

я есть структура: struct vertex { double a; double b; } struct polygon { int numofVertex; vertex *v; }Как отправить эту вложенную структуру в MPI, используя MPI_Send? Проблема состоит в том, что структура содержит поле указателя "v", из-за ...

0 ответов

TotalView очень хорошо поддерживает сценарии TCL. Имелась кошмарная система, состоящая из более чем 40 взаимосвязанных процессов. Интерфейс tcl от TotalView позволил мне автоматически создать скрипт, который подключался к ним сразу при запуске. Некоторые вещи НЕ были бы исправлены без этого средства.

аюсь решить, какой параллельный отладчик использовать. До сих пор я нашел не так много открытых источников, поэтому мой выбор: http://www.allinea.com/products/ddt/ ...

2 ответа

Для каждого вызова неблокирующего вызова MPI должно быть соответствующее ожидание. Вам не хватает одного ожидания на процесс.

етил, что не все мои MPI_Isend / MPI_IRecv были выполнены. Я думаю, что это может быть либо порядок, в котором я выполняю отправку и получение, либо тот факт, что код не ждет, пока все команды будут выполнены. Я скопировал выдержку из кода ниже. ...

3 ответа

Как сохранить точность для программы Fortran MPI портативным способом?

У меня есть программа на Фортране, где я указываюkind числовых типов данных в попытке сохранить минимальный уровень точности, независимо от того, какой компилятор используется для сборки программы. Например: integer, parameter :: rsp = ...