Результаты поиска по запросу "apache-spark-sql"

0 ответов

Как сохранить искровой DataFrame как csv на диске?

0 ответов

Получите java.lang.LinkageError: ClassCastException при использовании spark sql hivesql на пряже

Это драйвер, который я загружаю в yarn-cluster:

0 ответов

ВНЕШНЕЕ ОБЪЕДИНЕНИЕ на 2 КАДРА ДАННЫХ: Spark Scala SqlContext

Я получаю сообщение об ошибке при выполнении внешних объединений на 2 кадра данных. Я пытаюсь получить процентиль.

ТОП публикаций

0 ответов

Spark Dataframe проверяет имена столбцов для записи паркета (scala)

0 ответов

Spark 2.0 - «Таблица или представление не найдено» при запросе Hive [закрыто]

При запросе Hive через

0 ответов

Масштабирование каждого столбца кадра данных

Я пытаюсь масштабировать каждый столбец данных.Сначала я конвертирую каждый столбец в вектор, а затем использую мл MinMax Scaler.Есть ли лучший / более элега...

0 ответов

Это не относится здесь. Это специфический для pyspark.

таем данные из MongoDBCollection. Collection столбец имеет два разных значения (например,(bson.Int64,int) (int,float) ). Я пытаюсь получить тип данных, используя pyspark. Моя проблема в том, что некоторые столбцы имеют разные типы ...

0 ответов

 ссылка в правом верхнем углу. Нажмите, чтобы перезагрузить вашу ИДЕЮ. Вы можете перезагрузить IDEA, чтобы убедиться, что вы загрузили все (так как я не вижу, что вы делаете, что на самом деле рекомендуется).

аюсь создать и запустить проект Scala / Spark в IntelliJ IDEA. я добавилorg.apache.spark:spark-sql_2.11:2.0.0 в глобальных библиотеках и мойbuild.sbt выглядит как ниже. name := "test" version := "1.0" scalaVersion := "2.11.8" ...

0 ответов

Это то, что я хочу. Хотя это сложнее, чем я ожидал.

ользую Python на Spark. Я хочу отфильтровать строки, где указанное поле равно целому списку. df.show() +--------------------+---------------+ | _id| a1| +--------------------+---------------+ |[596d799cbc6ec95d...|[1.0, 2.0, ...

0 ответов

Это также помогает, если у вас есть «NaT» в поле datetime64 [ns] и вы хотите перевести его в режим spark (как в моем случае). Очень полезный ответ. Спасибо.

у, чтобы преобразовать датафрейм из панд в спарк, и я используюspark_context.createDataFrame() метод для создания кадра данных. Я также указываю схему вcreateDataFrame() метод. То, что я хочу знать, - как обращаться с особыми случаями. ...