Результаты поиска по запросу "hive"
@rajendramoka Добро пожаловать!
ли создать n внешних таблиц, указывающих на один путь hdfs с помощью Hive. Если да, каковы преимущества и ограничения.
но я использую иск 2.3.0 .. можете ли вы предоставить, как использовать foreach в 2.3.0
запрос на интеграцию искровой структурированной потоковой передачи с таблицей HIVE. Я попытался сделать несколько примеров потоковой структурированной искры. вот мой пример val spark =SparkSession.builder().appName("StatsAnalyzer") ...
Дайте мне знать, если это работает для вас.
я есть вопрос об утилите импорта sqoop. Я понимаю, что мы можем запустить «импорт sqoop» и получить данные из РСУБД (в моем случае SQL Server) и напрямую поместить их в таблицу кустов (будет создаваться динамически). Мой вопрос, как создать ...
Хорошо. Но у меня есть 22Bill строки в таблице с различными значениями в этом столбце раздела, и я не могу дать предикаты для стольких значений.
аюсь переместить данные из таблицы в таблице PostgreSQL в таблицу Hive в HDFS. Для этого я придумал следующий код: val conf = ...
с примерами. Также вы можете написать свой собственный UDTF и использовать его с
о имеетUNNEST функция взрыва столбцов из массивов. Есть ли подобный для Hive? Смотрите документы дляUNNEST функция ПрестоВот [https://prestodb.io/docs/current/sql/select.html].
перешел в чат
чение улья [https://i.stack.imgur.com/wfhIV.png] Я установил Hadoop 3.0.0 и Hive 2.3.1 на свой компьютер. Параллельно я установил MySQL и работал с командами SQL в режиме оболочки SQL и работает нормально. Но при выполнении запросов в режиме ...
динамический раздел:
ставке данных в табличный куст выдает ошибку «Динамический раздел не может быть родительским для статического раздела« 3 »», используя запрос ниже INSERT INTO TABLE student_partition PARTITION (курс, год = 3) ВЫБЕРИТЕ имя, id, курс ОТ студента1 ...
@ OmarAli Конечно, это работает. Внешний или управляемый, не имеет значения. Единственная разница между внешним и управляемым - это поведение таблицы DROP. Управляемая таблица DROP также удалит данные. При удалении внешней таблицы удаляется только определение таблицы. Также вы можете создать несколько разных таблиц поверх одного и того же каталога в HDFS одновременно.
ьшинстве вопросов / ответов по SO и в Интернете обсуждается использование Hive для объединения нескольких небольших файлов ORC в более крупный, однако мои файлы ORC - это файлы журнала, которые разделены по дням, и мне нужно хранить их отдельно. ...
посмотри здесь
ы можем перезаписать многораздельный набор данных, но только те разделы, которые мы собираемся изменить? Например, пересчет ежедневной работы за последнюю неделю и перезапись только данных за последнюю неделю. Поведение Spark по умолчанию ...
не работает. это не обычный R, это Sparklyr!
я есть несколько раз Unix, которые я конвертирую в метки времени вsparklyr и по некоторым причинам мне также нужно преобразовать их в строки. К сожалению, кажется, что во время преобразования в строкуhive преобразует в EST (мой язык). df_new <- ...