Результаты поиска по запросу "apache-spark"

1 ответ

Возврат нескольких массивов из определяемой пользователем статистической функции (UDAF) в Apache Spark SQL

Я пытаюсь создать пользовательскую агрегатную функцию (UDAF) в Java, используя Apache Spark SQL, который возвращает несколько массивов по завершении. Я искал...

2 ответа

SparkSQL поддерживает подзапрос?

Я выполняю этот запрос в оболочке Spark, но он дает мне ошибку,

1 ответ

Как фильтровать по диапазону дат в Spark SQL

Я пытаюсь отфильтровать диапазон дат из следующих данных, используя блоки данных, которые возвращают пустое значение в качестве ответа. Мои данные CSV выгляд...

ТОП публикаций

1 ответ

Запись R фреймов данных, возвращаемых из SparkR ::: map

Я использую карту SparkR :::, и моя функция возвращает R-кадр данных большого размера для каждой входной строки, каждая из которых имеет одинаковую форму. Я ...

2 ответа

Передача дополнительных банок в Spark через spark-submit

Я использую Spark с MongoDB, и поэтому полагаюсь на

1 ответ

Подключитесь к SQLite в Apache Spark

Я хочу запустить пользовательскую функцию для всех таблиц в базе данных SQLite. Функция более или менее одинакова, но зависит от схемы отдельной таблицы. Кро...

2 ответа

Таблицы кустов не найдены при работе в режиме YARN-Cluster

У меня есть приложение Spark (версия 1.4.1) на HDP 2.3. Работает нормально при работе в режиме YARN-Client. Однако при запуске его в режиме YARN-Cluster прил...

2 ответа

Примените одну и ту же функцию ко всем полям строки искровых данных.

У меня есть dataframe, в котором у меня есть около 1000 (переменных) столбцов.Я хочу сделать все значения заглавными.Вот подход, о котором я думал, можете ли...

2 ответа

Как переименовать поля в DataFrame, соответствующем вложенному JSON

Я пытаюсь обработать события JSON, полученные в мобильном приложении (например, клики и т. Д.), Используя

1 ответ

Spark 1.5.1 не работает с кустом jdbc 1.2.0

Я пытаюсь выполнить запрос куста, используя spark 1.5.1 в автономном режиме и версию hive 1.2.0 jdbc.Вот мой кусок кода: