Результаты поиска по запросу "apache-spark-sql"
Получите java.lang.LinkageError: ClassCastException при использовании spark sql hivesql на пряже
Это драйвер, который я загружаю в yarn-cluster:
ВНЕШНЕЕ ОБЪЕДИНЕНИЕ на 2 КАДРА ДАННЫХ: Spark Scala SqlContext
Я получаю сообщение об ошибке при выполнении внешних объединений на 2 кадра данных. Я пытаюсь получить процентиль.
Spark 2.0 - «Таблица или представление не найдено» при запросе Hive [закрыто]
При запросе Hive через
Масштабирование каждого столбца кадра данных
Я пытаюсь масштабировать каждый столбец данных.Сначала я конвертирую каждый столбец в вектор, а затем использую мл MinMax Scaler.Есть ли лучший / более элега...
Это не относится здесь. Это специфический для pyspark.
таем данные из MongoDBCollection. Collection столбец имеет два разных значения (например,(bson.Int64,int) (int,float) ). Я пытаюсь получить тип данных, используя pyspark. Моя проблема в том, что некоторые столбцы имеют разные типы ...
ссылка в правом верхнем углу. Нажмите, чтобы перезагрузить вашу ИДЕЮ. Вы можете перезагрузить IDEA, чтобы убедиться, что вы загрузили все (так как я не вижу, что вы делаете, что на самом деле рекомендуется).
аюсь создать и запустить проект Scala / Spark в IntelliJ IDEA. я добавилorg.apache.spark:spark-sql_2.11:2.0.0 в глобальных библиотеках и мойbuild.sbt выглядит как ниже. name := "test" version := "1.0" scalaVersion := "2.11.8" ...
Это то, что я хочу. Хотя это сложнее, чем я ожидал.
ользую Python на Spark. Я хочу отфильтровать строки, где указанное поле равно целому списку. df.show() +--------------------+---------------+ | _id| a1| +--------------------+---------------+ |[596d799cbc6ec95d...|[1.0, 2.0, ...
Это также помогает, если у вас есть «NaT» в поле datetime64 [ns] и вы хотите перевести его в режим spark (как в моем случае). Очень полезный ответ. Спасибо.
у, чтобы преобразовать датафрейм из панд в спарк, и я используюspark_context.createDataFrame() метод для создания кадра данных. Я также указываю схему вcreateDataFrame() метод. То, что я хочу знать, - как обращаться с особыми случаями. ...