Результаты поиска по запросу "parquet"

7 ответов

Авро против Паркет

1 ответ

Искра Исключение при преобразовании таблицы MySQL в паркет

Я пытаюсь преобразовать удаленную таблицу MySQL в файл паркета, используя spark 1.6.2.Процесс выполняется в течение 10 минут, заполняя память, затем начинает...

2 ответа

Как читать и писать Map <String, Object> из / в паркетный файл на Java или Scala?

Ищете краткий пример о том, как читать и писать

ТОП публикаций

3 ответа

Каковы плюсы и минусы формата паркета по сравнению с другими форматами?

3 ответа

Выход:

ы добавляете / обновляетеparquet файл сpyarrow? import pandas as pd import pyarrow as pa import pyarrow.parquet as pq table2 = pd.DataFrame({'one': [-1, np.nan, 2.5], 'two': ['foo', 'bar', 'baz'], 'three': [True, False, True]}) table3 = ...

1 ответ

Создать таблицу Hive для чтения файлов паркета из схемы parquet / avro

2 ответа

Как преобразовать таблицу SQL объемом 500 ГБ в Apache Parquet?

Возможно, это хорошо задокументировано, но я очень запутался, как это сделать (есть много инструментов Apache).Когда я создаю таблицу SQL, я создаю таблицу, ...

1 ответ

Почему файлы Spark Parquet для агрегата больше исходного?

Я пытаюсь создать сводный файл для конечных пользователей, чтобы они не обрабатывали несколько источников с файлами большего размера. Для этого я: A) перебир...

2 ответа

@Ptah, можешь поделиться, как ты разрешил лямбда-сервису доступ к S3?

аюсь загрузить, обработать и записать файлы Parquet в S3 с помощью AWS Lambda. Мой процесс тестирования / развертывания: https://github.com/lambci/docker-lambda [https://github.com/lambci/docker-lambda]в качестве контейнера для макета ...

1 ответ

 режим, каждый рабочий поток должен работать независимо от других, не так ли?

аписанииdataframe вparquet с помощьюpartitionBy : df.write.partitionBy("col1","col2","col3").parquet(path)Я ожидал бы, что каждый записываемый раздел выполнялся независимо отдельной задачей и параллельно количеству работников, назначенных на ...