Результаты поиска по запросу "mapreduce"
Что такое идеальное количество редукторов на Hadoop?
Согласно Hadoop wiki для расчета идеального числа редукторов 0,95 или 1,75 * (вершины * mapred.tasktracker.tasks.maximum)нокогда выбрать 0,95, а когда 1,75? ...
Как я могу получить доступ к счетчикам Mapper / Reducer на этапе Output?
У меня есть несколько счетчиков, которые я создал в своем классе Mapper:(пример написан с использованием Java-библиотеки appengine-mapreduce v.0.5)
hadoop mapreduce: java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCodeLoader.buildSupportsSnappy () Z
Я пытаюсь написать сжатый файл последовательности сжатых блоков из задания уменьшения карты. Я использую hadoop 2.0.0-cdh4.5.0 и snappy-java 1.0.4.1Вот мой код:
Гарантирует ли MongoDB $ in оговоренный порядок
При использовании MongoDB
Конфигурация искры: SPARK_MEM против SPARK_WORKER_MEMORY
В spark-env.sh можно настроить следующие переменные среды: # - SPARK_WORKER_MEMORY, to set how much memory to use (e.g. 1000m, 2g) export SPARK_WORKER_MEMORY=22g [...] # - SPARK_MEM, to change the amount of memory used per node (this should # be ...
Установка textinputformat.record.delimiter в искре
В Spark можно установить некоторые параметры конфигурации hadoop, например, например, System.setProperty("spark.hadoop.dfs.replication", "1")Это работает, коэффициент репликации установлен на 1. Предполагая, что это так, я подумал, что этот ...