Сохранить Spark DataFrame как динамическую многораздельную таблицу в Hive

У меня есть пример приложения, работающего для чтения из файлов CSV в кадре данных. Фрейм данных может быть сохранен в таблице Hive в формате паркета, используя методdf.saveAsTable(tablename,mode).

Приведенный выше код работает нормально, но у меня есть так много данных за каждый день, что я хочу динамически разбивать таблицу кустов на основе даты создания (столбец в таблице).

Есть ли способ динамического разделения данных и сохранения их в хранилище кустов. Хотите воздержаться от жесткого кодирования оператора вставки, используяhivesqlcontext.sql(insert into table partittioin by(date)....).

Вопрос можно рассматривать как продолжение к:Как сохранить DataFrame непосредственно в Hive?

Буду признателен за любую оказанную помощь.

Ответы на вопрос(5)

Ваш ответ на вопрос