Результаты поиска по запросу "yarn"

3 ответа

(на узле с Resource Manager), если вы используете честный планировщик и перезапустите Resource Manager.

1 ответ

чтобы увидеть YARN RM: sudo status hadoop-yarn-resourcemanager для перезапуска YARN RM: sudo stop hadoop-yarn-resourcemanager sudo start hadoop-yarn-resourcemanager

ичие от HortonWorks или Cloudera, AWS EMR, по-видимому, не предоставляет никакого графического интерфейса для изменения конфигураций xml различных инфраструк...

1 ответ

Режим клиента может быть установлен в среде, как показано ниже

запускаемые мной искры не будут выполнены со следующим сообщением об ошибке17.06.16 11:10:43 WARN cluster.YarnScheduler: Начальное задание не приняло никаких...

ТОП публикаций

1 ответ

Нам не нужно использовать Dockerized Zeppelin, давайте сначала попробуем бинарный файл на вашей локальной машине, чтобы убрать сложности.

ользую этот учебникискровой кластер на режиме пряжи в док-контейнере [https://zeppelin.apache.org/docs/0.7.0/install/spark_cluster_mode.html#spark-on-yarn-mode] запустить цеппелин в искровом кластере в режиме пряжи. Однако я застрял на шаге 4. Я ...

3 ответа

Я наконец получил ответ. Это потому, что пряжа использует стратегию распределения «DefaultResourceCalculator», поэтому для RM пряжи учитывается только память, даже если flink запросил 3 vcores, но пряжа просто игнорирует номер ядра процессора.

у Flink на пряжу (точнее в AWS EMR кластер пряжи). Я прочитал документ flink и исходный код, который по умолчанию для каждого контейнера диспетчера задач, flink будет запрашивать количество слотов на диспетчер задач как количество vcores при ...

1 ответ

Кроме того, поскольку $ HADOOP_CONF_DIR не был установлен (я думал, что так и должно быть), необходимо ввести полный путь к файлу. Но после этого начальная служба YARN не запустится, поскольку не может найти файл, созданный позже в скрипте действий init. Итак, я добавил несколько последних строк в yarn-site.xml в скрипте действий init. Код для скрипта действий init выглядит следующим образом:

ался настроить кластер dataproc, который будет одновременно вычислять только одно задание (или указывать максимальное количество заданий), а остальные будут в очереди. Я нашел это решение,Как настроить монопольную очередь приложений FIFO в ...

1 ответ

 реализация, которая позже может быть преобразована в ограничения ресурсов для менеджера кластера (не обязательно YARN).

оложим, что есть задание Spark, которое собирается прочитать файл с именем records.txt из HDFS и выполнить некоторые преобразования и одно действие (записать обработанный вывод в HDFS). Задание будет отправлено в режим кластера YARN. Предположим ...

0 ответов

Опять же, есть ли отдельные исполнители, выполняющие больше работы, чем другие?

аю строку длиной более 100 Кбайт и разделяю столбцы по ширине. У меня есть около 16K столбцов, которые я разделил сверху строки на основе ширины. но при записи в паркет я использую код ниже rdd1=spark.sparkContext.textfile("file1") { var now=0 ...

4 ответа

YarnException: неавторизованный запрос на запуск контейнера

Я настроил hadoop2.2.0 на 3 кластера. Все идет хорошо. NodeManager и Datanode запускаются в каждом кластере. Но, когда я запускаю пример wordcount, происходит 100% -ое сопоставление, и оно дает следующее исключение: map 100% reduce 0% 13/11/28 ...

2 ответа

Надеюсь, что это может помочь вам.

аюсь выполнить 2 шага одновременно в EMR. Однако я всегда выполняю первый шаг и второй ожидающий. Часть моей конфигурации пряжи выглядит следующим образом: { "Classification": "capacity-scheduler", "Properties": ...