Результаты поиска по запросу "hadoop"

7 ответов

если у вас установлен Mahout - он называется: seqdirectory - который может это сделать

тивно использовать работу по сокращению карт вHadoop [http://hadoop.apache.org/] мне нужны данные для хранения вформат файла последовательности hadoop [http://hadoop.apache.org/common/docs/current/api/org/apache/hadoop/io/SequenceFile.html] , ...

1 ответ

cwiki.apache.org/confluence/display/Hive/...

рживает ли Hive временные таблицы? Я не могу найти это в Apache Docs.

1 ответ

hadoop: задачи не локальные с файлом?

Я выполнил задание hadoop, и когда я смотрю на некоторые задачи карты, я вижу, что они не работают там, где находятся блоки файла. Например, задача map выполняется на slave1, но файловые блоки (все они) находятся в slave2. Все файлы gzip. Почему ...

ТОП публикаций

1 ответ

Можете ли вы объяснить, пожалуйста, как установить Xmx512m ??

ичок здесь. Я просто люблю кодировать и разрабатывать собственные программы ... Позавчера у меня появилась идея установить Hadoop на Windows. Я только что загрузил все стеки, но не смог успешно установить его. Я прилагаю скриншоты вместе с моим ...

3 ответа

Свинья и Кассандра и DataStax разделение контроля

Я использовал Pig со своими данными Cassandra, чтобы совершать всевозможные удивительные подвиги группировок, которые было бы практически невозможно написать настоятельно. Я использую интеграцию DataStax с Hadoop & Cassandra, и должен сказать, ...

2 ответа

Я бы порекомендовал уделить дополнительное внимание блогу Майкла Дж. Нолла, на который ссылается последняя ссылка, он охватывает многие темы, связанные с hasoop.

оллега считает, что HDFS не имеет максимального размера файла, то есть, путем разбиения на 128/256 мегабайт можно сохранить любой размер файла (очевидно, диск HDFS имеет размер, и это будет ограничивать, но это единственный предел). Я не могу ...

1 ответ

, java.io.File)

у перемещать файлы в HDFS с помощью API Java. Я не могу найти способ сделать это. Класс FileSystem, по-видимому, только хочет разрешить перемещение в и из локальной файловой системы ... но я хочу сохранить их в HDFS и переместить их туда. Я ...

1 ответ

Вторичная сортировка в Map Reduce решается с помощью составного шаблона ключа, поэтому вы создаете ключ, такой как (ZoneId, TImeStamp), и в редукторе вы сначала выполняете итерации по часовому поясу, а затем по временным меткам, чтобы вы могли легко оценить максимальное значение за день.

я есть журнал значений меток времени (одновременных пользователей) различных «зон» веб-приложения чата в формате «Метка времени; Зона; Значение». Для каждой зоны существует одно значение в минуту каждого дня. Для каждой зоны я хочу перечислить ...

5 ответов

MapR изначально сжимает на уровне файловой системы, поэтому приложение не должно знать об этом или заботиться. Сжатие может быть включено или выключено на уровне каталога, так что вы можете сжимать входы, но не выходы или что угодно. Как правило, сжатие происходит настолько быстро (по умолчанию используется алгоритм, аналогичный snappy), что большинство приложений видят повышение производительности при использовании собственного сжатия. Если ваши файлы уже сжаты, это обнаруживается очень быстро, и сжатие отключается автоматически, поэтому вы также не видите там наказания.

я есть Java-программа Map-Reduce, в которой я пытаюсь сжать только вывод Mapper, но не вывод редуктора. Я подумал, что это будет возможно, установив следующие свойства в экземпляре конфигурации, как указано ниже. Однако, когда я запускаю свою ...

3 ответа

SQOOP SQLSERVER Не удалось загрузить драйвер «соответствующий менеджер соединений не установлен»

Я загрузилsqljdbc4.jar, Я призываюsqoop вот так из папки (где хранится банка): sqoop list-tables --driver com.microsoft.jdbc.sqlserver.SQLServerDriver --connect ...