Результаты поиска по запросу "apache-spark-sql"
Или, если вы хотите добавить ровно 3 нуля впереди:
ел бы добавить строку в существующий столбец. Например,df['col1'] имеет значения как'1', '2', '3' и т. д., и я хотел бы согласовать строку'000' слева отcol1 так что я могу получить столбец (новый или заменить старый не имеет значения) как'0001', ...
Изменение свойства столбца Spark Dataframe
Я хочу изменить свойство Nullable определенного столбца в кадре данных Spark.Если я распечатаю схему информационного кадра в настоящее время, это выглядит та...
Этот подход позволяет избежать ненужной реструктуризации RDD / фреймов данных.
рейма данных, содержащего сочетание строковых и числовых типов данных, целью является создание новогоfeatures столбец, который являетсяminhash из всех них. Хотя это можно сделать, выполнивdataframe.toRDD это дорого делать, когда следующим шагом ...
позже к желаемым типам.
аюсь использоватьструктурированный потоковый подход использование Spark-Streaming на основе API DataFrame / Dataset для загрузки потока данных из Kafka.Я исп...
Хорошо, понял, я не могу понять, как использовать кэшированный / постоянный фрейм данных для дальнейшего использования.
я есть датафрейм id lat long lag_lat lag_long detector lag_interval gpsdt lead_gpsdt 1 12 13 12 13 1 [1.5,3.5] 4 4.5 1 12 13 12 13 1 null 4.5 5 1 12 13 12 13 1 null 5 5.5 1 12 13 12 13 1 null 5.5 6 1 13 14 12 13 2 null 6 6.5 1 13 14 13 14 2 null ...
Вы пытались использовать ROWNUM вместо order_id в вашем коде?
ользую запрос для получения данных из MYSQL следующим образом: var df = spark.read.format("jdbc") .option("url", "jdbc:mysql://10.0.0.192:3306/retail_db") .option("driver" ,"com.mysql.jdbc.Driver") .option("user", "retail_dba") ...