Результаты поиска по запросу "hive"

1 ответ

как вышеупомянутая логика будет работать в спарк 1.6.0, то же самое работает на hiveContext

я есть сценарий для сравнения двух разных таблиц источника и назначения с двух отдельных серверов Hive, можем ли мы использовать дваSparkSessions что-то подобное я попробовал ниже: val spark = SparkSession.builder().master("local") ...

2 ответа

Это только частичный ответ, и полный ответ уже был дан.

2 ответа

Соединение двух таблиц в Hive с использованием HiveQL (Hadoop) [дубликат]

Possible Duplicate: SQL Query JOIN with Table

ТОП публикаций

1 ответ

stackoverflow.com/questions/54936354/...

ользую Hive версии 0.13.1. При попытке вставить данные в существующую таблицу выдается ошибка при использовании следующего запроса:

2 ответа

@ Сидхартха, готово

аюсь узнать об удалении повторяющихся записей из таблицы Hive.Моя таблица Hive: 'dynpart' со столбцами: Id, Name, Technology

1 ответ

... и еще одно обновление

1 ответ

 и уменьшить

1 ответ

 Обновите указанные ниже переменные в соответствии с вашими требованиями tcolunm1, tablename, OFFSEtvalue, limtvalue

олее конкретный вопрос: как я могу обрабатывать большие объемы данных, которые не помещаются в память сразу? С OFFSET я пытался сделать hiveContext.sql (&quo...

1 ответ

https://spark.apache.org/docs/latest/hadoop-provided.html

0 ответов

 также имеет очень хороший обходной путь для применения крипто-хеш-функций с более старыми версиями Hive, используя статические методы Apache Commons и

у вычислить хеш для строк в улье без написания UDF только с использованием существующих функций. Так что я могу использовать аналогичный подход для получения...