Результаты поиска по запросу "apache-spark"

1 ответ

stackoverflow.com/q/43582989/1305344

я запись в RDD содержит JSON. Я использую SQLContext для создания DataFrame из Json следующим образом:

1 ответ

, Ах да, я использую Spark 1.6.0. Я также немного изменил ваш код и заставил его работать на Y. Большое спасибо!

опрос похож на тот, что вВот, но у меня проблемы с реализацией ответа, и я не могу комментировать в этой теме.Итак, у меня есть большой CSV-файл, который сод...

2 ответа

В качестве альтернативы, как найти количество дней, прошедших между двумя последующими действиями пользователя, с помощью pySpark:

я есть такие данные:

ТОП публикаций

1 ответ

Кроме того, нет хорошего способа узнать, когда микропакет полностью обработан вашим приложением, особенно если у вас несколько приемников.

ользую структурированную потоковую передачу со Spark 2.1.1. Мне нужно применить некоторую бизнес-логику для входящих сообщений (из источника Kafka).по сути, ...

3 ответа

github.com/ZuInnoTe/hadoopoffice/issues

я большой

2 ответа

, Я обновил фрагмент.

я есть Dataframe и я хочу разделить его на равное количество строк.Другими словами, я хочу список фреймов данных, каждый из которых представляет собой несвяз...

2 ответа

Скаладок для org.apache.spark.sql.Row

я попытался получить некоторые значения в

2 ответа

, У меня Spark 1.5.2 со Scala 2.10

я есть датафрейм с чем-то вроде этого

1 ответ

Оно работает! Спасибо!

я есть SparkDataFrame в pyspark (2.1.0), и я хочу получить имена только числовых столбцов или только строковых столбцов.Например, это схема моего DF:

1 ответ

 последняя итерация этого вопроса.

родолжение отэтот вопрос. Я импортировал следующие банки в свой блокнот: