Результаты поиска по запросу "mapreduce"

1 ответ

Почему метод setMapOutputKeyClass необходим в работе mapreduce

2 ответа

MongoDB хранимой процедуры эквивалент

У меня есть большой CSV-файл, содержащий список магазинов, в котором одним из полей является ZipCode. У меня есть отдельная база данных MongoDB под названием...

1 ответ

Как я могу получить карту / уменьшить результат, который отсортирован в порядке убывания значения «значение»? Если также можно использовать функцию списка?

У меня есть карта просмотра и уменьшить, как это: карта:

ТОП публикаций

4 ответа

Как реализовать вычисление собственных значений с MapReduce / Hadoop?

Это возможно, потому что PageRank был формой собственного значения, и именно поэтому MapReduce представил. Но, кажется, проблемы в реальной реализации, такие...

1 ответ

Присоединяйтесь к двум коллекциям с MapReduce в MongoDB

Я уже знаю, что MongoDB не поддерживает операции соединения, но я должен имитировать

1 ответ

Как установить редуктор для передачи <Text, IntWritable> и преобразователь для получения <Text, IntWritable>?

Я разрабатываю код наHadoop суменьшение карты который используетдва картографа и два редуктора. Мне сказали использоватьSequenceFileInputFormat а такжеSequen...

1 ответ

PySpark Как читать CSV в Dataframe и манипулировать им

Я новичок в pyspark и пытаюсь использовать его для обработки большого набора данных, который сохраняется в виде файла csv. Я хотел бы прочитать CSV-файл в ис...

2 ответа

Потоковая передача Hadoop: Mapper 'оборачивает' двоичный исполняемый файл

У меня есть конвейер, который я сейчас использую на большом компьютерном кластере университета. В целях публикации я хотел бы преобразовать его в формат mapr...

2 ответа

Возможно, вам придется сделать что-то еще для вашего приложения.

1 ответ

DiskErrorException на подчиненном компьютере - мультиузел Hadoop

Я пытаюсь обработать XML-файлы из hadoop, я получил следующую ошибку при вызове задания подсчета слов в XML-файлах. 13/07/25 12:39:57 INFO mapred.JobClient: Task Id : attempt_201307251234_0001_m_000008_0, Status : FAILED Too many ...