Результаты поиска по запросу "mapreduce"

1 ответ

Что такое идеальное количество редукторов на Hadoop?

Согласно Hadoop wiki для расчета идеального числа редукторов 0,95 или 1,75 * (вершины * mapred.tasktracker.tasks.maximum)нокогда выбрать 0,95, а когда 1,75? ...

1 ответ

Как я могу получить доступ к счетчикам Mapper / Reducer на этапе Output?

У меня есть несколько счетчиков, которые я создал в своем классе Mapper:(пример написан с использованием Java-библиотеки appengine-mapreduce v.0.5)

6 ответов

hadoop mapreduce: java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCodeLoader.buildSupportsSnappy () Z

Я пытаюсь написать сжатый файл последовательности сжатых блоков из задания уменьшения карты. Я использую hadoop 2.0.0-cdh4.5.0 и snappy-java 1.0.4.1Вот мой код:

ТОП публикаций

3 ответа

Почему блок в HDFS такой большой?

3 ответа

Экспорт записей хранилища данных NDB в файл CSV Cloud Storage

5 ответов

Hadoop: java.lang.IncompatibleClassChangeError: найден интерфейс org.apache.hadoop.mapreduce.JobContext, но ожидался класс

2 ответа

Сортировка mongodb по алгоритму ранжирования reddit

10 ответов

Гарантирует ли MongoDB $ in оговоренный порядок

При использовании MongoDB

1 ответ

Конфигурация искры: SPARK_MEM против SPARK_WORKER_MEMORY

В spark-env.sh можно настроить следующие переменные среды: # - SPARK_WORKER_MEMORY, to set how much memory to use (e.g. 1000m, 2g) export SPARK_WORKER_MEMORY=22g [...] # - SPARK_MEM, to change the amount of memory used per node (this should # be ...

1 ответ

Установка textinputformat.record.delimiter в искре

В Spark можно установить некоторые параметры конфигурации hadoop, например, например, System.setProperty("spark.hadoop.dfs.replication", "1")Это работает, коэффициент репликации установлен на 1. Предполагая, что это так, я подумал, что этот ...