Результаты поиска по запросу "hpc"

1 ответ

Какое сжатие рекомендуется для HDF5 для быстрого чтения / записи (в Python / pandas)?

Я читал несколько раз, что включение сжатия в HDF5 может привести к лучшей производительности чтения / записи.Интересно, какие идеальные настройки могут быть...

1 ответ

Использовать идентификатор задания грязи

Когда я запускаю вычисления в кластере, у меня обычно есть отдельная программа, выполняющая постобработку в конце: sbatch simulation sbatch --dependency=afterok:JOBIDHERE postprocessingЯ хочу избежать опечаток и автоматически вставлять хороший ...

1 ответ

Узкое место в общей библиотеке на машине NUMA

ТОП публикаций

2 ответа

mpirun - недостаточно доступных слотов

1 ответ

hadoop / yarn и распараллеливание задач в файловых системах без hdfs

Я создал кластер Hadoop 2.4.1 и обнаружил, что работающие приложения MapReduce будут распараллеливаться по-разному в зависимости от того, на какой файловой с...

5 ответов

Разница между картами nVidia Quadro и Geforce? [закрыто]

1 ответ

Использовать идентификатор задания грязи

Когда я запускаю вычисления в кластере, у меня обычно есть отдельная программа, выполняющая постобработку в конце:

1 ответ

https://github.com/tobigithub/R-parallel/blob/gh-pages/R/code-setups/Install-doSNOW-parallel-DeLuxe.R

нтересно, как я мог бы запустить 500 параллельных заданий вR с помощьюRscript функция. У меня сейчас естьR файл с заголовком сверху: args <- commandArgs(TRUE) B <- as.numeric(args[1]) Num.Cores <- as.numeric(args[2])Вне файла R я хочу передать, ...

1 ответ

Я думал о таких вещах, как hadoop, docker, ... но я слишком мало знаю о проблемах, которые вы пытаетесь решить, и об этих технологиях, чтобы дать хорошую рекомендацию.

1 ответ

Узкое место в общей библиотеке на машине NUMA

m использование машины NUMA (SGI UV 1000) для одновременного выполнения большого числа численных симуляций, каждая из которых является заданием OpenMP с испо...