Результаты поиска по запросу "amazon-emr"

2 ответа

YUM_RSRC_DIR предназначен для указания места, где вы настраиваете входные файлы, необходимые для запуска сценариев. Смотрите шаг 4, он описывает шаблон каталога для файлов ресурсов.

я есть необходимость запустить приложение, которое требует графический интерфейс для запуска и настройки. Мне также нужно иметь возможность запускать это приложение на сервисах Amazon EC2 и EMR. Требование EMR означает, что он должен работать на ...

0 ответов

Тогда все просто работает. Вам не нужно (а может и не нужно) менять

аюсь поиграть с набором данных Google Ngrams, используя Amazon Elastic Map Reduce. Есть публичный набор данных на http://aws.amazon.com/datasets/8172056142375670 [http://aws.amazon.com/datasets/8172056142375670]и я хочу использовать ...

12 ответов

Отчет о применении для application_ (состояние: ПРИНЯТО) никогда не заканчивается для Spark Submit (с Spark 1.2.0 на YARN)

ТОП публикаций

1 ответ

Amazon MapReduce лучшие практики для анализа журналов

Я анализирую журналы доступа, сгенерированные Apache, Nginx, Darwin (сервер потокового видео) и собираю статистику для каждого доставленного файла по дате / рефереру / пользователю. Тонны журналов генерируются каждый час, и это число, вероятно, ...

3 ответа

Используйте сценарий ниже в действии начальной загрузки EMR, чтобы решить эту проблему. Патч предоставлен AWS

2 ответа

Как MapReduce читает из нескольких входных файлов?

2 ответа

Повышение spark.yarn.executor.memoryOverhead

Я пытаюсь запустить (py) Spark для EMR, которая обработает большой объем данных. В настоящее время моя работа не выполняется со следующим сообщением об ошибке:

2 ответа

UDF Pig работает в AWS EMR с java.lang.NoClassDefFoundError: org / apache / pig / LoadFunc

5 ответов

Знает ли главный узел EMR свой идентификатор кластера?

Я хочу иметь возможность создавать кластеры EMR и отправлять сообщения в какую-то центральную очередь для этих кластеров. Чтобы это работало, мне нужно, чтоб...

6 ответов

https://github.com/minrk/findspark

ользую spark over emr и пишу скрипт pyspark, я получаю сообщение об ошибке при попытке from pyspark import SparkContext sc = SparkContext()это ошибка File "pyex.py", line 5, in <module> sc = SparkContext() ...