Результаты поиска по запросу "pyspark"

4 ответа

 на вопрос).

2 ответа

Спасибо за решение. Я выглядел больше как фрейм данных

1 ответ

 тоже работает.

ТОП публикаций

0 ответов

, Во всяком случае, я обновил оригинальный вопрос.

3 ответа

Спасибо @pratiklodha за суть этого.

1 ответ

 Работает в конце концов. Это нужно сделать также в конфигурации драйвера Spark, а не мастера или рабочих. Видимо, я забыл об этом, когда в последний раз пытался.

1 ответ

Кеширование требует поддержки RDD. Это требует, чтобы мы также знали резервные разделы, и это несколько особенное для глобального порядка: оно запускает задание (сканирование), потому что нам нужно определить границы раздела.

3 ответа

Спасибо, в конце концов, я использовал coallesce: df.withColumn ("B", coalesce (df.B, df.A)) Но ваш ответ полезен в случае, если кто-то еще попробует это.

2 ответа

Я бы сказал, что вам нужно запустить UDF, где вы можете применить логику для преобразования массива в строку, а затем выбрать новый столбец

1 ответ

).

тоящее время я работаю со Spark 2.1 и имею основной скрипт, который вызывает вспомогательный модуль, который содержит все мои методы преобразования. Другими ...