Результаты поиска по запросу "hive"

1 ответ

 динамический раздел:

ставке данных в табличный куст выдает ошибку «Динамический раздел не может быть родительским для статического раздела« 3 »», используя запрос ниже INSERT INTO TABLE student_partition PARTITION (курс, год = 3) ВЫБЕРИТЕ имя, id, курс ОТ студента1 ...

2 ответа

посмотри здесь

ы можем перезаписать многораздельный набор данных, но только те разделы, которые мы собираемся изменить? Например, пересчет ежедневной работы за последнюю неделю и перезапись только данных за последнюю неделю. Поведение Spark по умолчанию ...

2 ответа

@ OmarAli Конечно, это работает. Внешний или управляемый, не имеет значения. Единственная разница между внешним и управляемым - это поведение таблицы DROP. Управляемая таблица DROP также удалит данные. При удалении внешней таблицы удаляется только определение таблицы. Также вы можете создать несколько разных таблиц поверх одного и того же каталога в HDFS одновременно.

ьшинстве вопросов / ответов по SO и в Интернете обсуждается использование Hive для объединения нескольких небольших файлов ORC в более крупный, однако мои файлы ORC - это файлы журнала, которые разделены по дням, и мне нужно хранить их отдельно. ...

ТОП публикаций

1 ответ

Hive не полностью соблюдает значение fs.default.name/fs.defaultFS в core-site.xml

У меня установлена служба NameNode на компьютере с именемhadoop. core-site.xml файл имеетfs.defaultFS (эквивалентноfs.default.name) установите следующее: <property> <name>fs.defaultFS</name> <value>hdfs://hadoop:8020</value> </property>У меня ...

1 ответ

 с примерами. Также вы можете написать свой собственный UDTF и использовать его с

о имеетUNNEST функция взрыва столбцов из массивов. Есть ли подобный для Hive? Смотрите документы дляUNNEST функция ПрестоВот [https://prestodb.io/docs/current/sql/select.html].

2 ответа

Как посмотреть содержимое файлов Hive Orc в Linux

Есть ли способ увидеть содержимое файла orc, который используется в улье 0.11 и выше. Я обычно cat gz файлы и распаковываю их, чтобы увидеть содержимое, например: cat part-0000.gz | pigz -d | Примечание: pigz - это параллельная программа gz. Я ...

3 ответа

Хорошо. Но у меня есть 22Bill строки в таблице с различными значениями в этом столбце раздела, и я не могу дать предикаты для стольких значений.

аюсь переместить данные из таблицы в таблице PostgreSQL в таблицу Hive в HDFS. Для этого я придумал следующий код: val conf = ...

4 ответа

Hive Explode / Lateral Просмотр нескольких массивов

У меня есть таблица кустов со следующей схемой: COOKIE | PRODUCT_ID | CAT_ID | QTY 1234123 [1,2,3] [r,t,null] [2,1,null]Как я могу нормализовать массивы, чтобы я получил следующий результат COOKIE | PRODUCT_ID | CAT_ID | QTY 1234123 [1] [r] [2] ...

1 ответ

Дайте мне знать, если это работает для вас.

я есть вопрос об утилите импорта sqoop. Я понимаю, что мы можем запустить «импорт sqoop» и получить данные из РСУБД (в моем случае SQL Server) и напрямую поместить их в таблицу кустов (будет создаваться динамически). Мой вопрос, как создать ...

7 ответов

если у вас установлен Mahout - он называется: seqdirectory - который может это сделать

тивно использовать работу по сокращению карт вHadoop [http://hadoop.apache.org/] мне нужны данные для хранения вформат файла последовательности hadoop [http://hadoop.apache.org/common/docs/current/api/org/apache/hadoop/io/SequenceFile.html] , ...