Результаты поиска по запросу "apache-spark"

1 ответ

Если данные не содержат такой столбец, вы можете использовать

аюсь записать большой разделенный набор данных на диск с помощью Spark иpartitionBy Алгоритм борется с обоими подходами, которые я пробовал. Перегородки сильно перекошены - некоторые перегородки массивные, а другие крошечные. Проблема № ...

1 ответ

Может быть, вы хотите использовать один UDF для каждого столбца? В этом случае я редактировал пост

ный фрейм данных 0,2 0,3 +------+------------- -+ | name| country | +------+---------------+ |Raju |UAS | |Ram |Pak. | |null |China | |null |null | +------+--------------+ I Need this +------+--------------+ |Nwet|wet Con | ...

2 ответа

Вы можете вызвать UDF:

аюсь внедрить накопительный продукт в Spark Scala, но я действительно не знаю, как это сделать. У меня есть следующий фрейм данных: Input data: +--+--+--------+----+ |A |B | date | val| +--+--+--------+----+ |rr|gg|20171103| 2 | |hh|jj|20171103| ...

ТОП публикаций

2 ответа

Как сделать хорошие воспроизводимые примеры Apache Spark Dataframe

я есть искровой датафрейм со строками как - 1 | [a, b, c] 2 | [d, e, f] 3 | [g, h, i]Теперь я хочу сохранить только первые 2 элемента из столбца массива. 1 | [a, b] 2 | [d, e] 3 | [g, h]Как это может быть достигнуто? Примечание. Помните, что ...

2 ответа

перешел в чат

я есть потоковые данные JSON, структура которых может быть описана с помощью класса case ниже case class Hello(A: String, B: Array[Map[String, String]])Пример данных для того же, что и ниже | A | B | ...

1 ответ

, Я там ответил

справить эту ошибку в этом коде trait Processor00 { def process(oraOptionDfConfig: DataFrameReader, sparkSession: SparkSession ): Unit } class BMValsProcessor extends Processor { def process(oraOptionDfConfig: DataFrameReader, sparkSession: ...

1 ответ

Попробуйте что-то вроде:

ема:Я должен вызвать методы Objects, которые хранятся в карте, для данного ключа, как это сделать?Код: trait Processor00 { def process(x:String): Unit } case class Processor20() extends Processor0 { override def process(x:String): Unit = ...

2 ответа

Надеюсь, что это может помочь вам.

аюсь выполнить 2 шага одновременно в EMR. Однако я всегда выполняю первый шаг и второй ожидающий. Часть моей конфигурации пряжи выглядит следующим образом: { "Classification": "capacity-scheduler", "Properties": ...

1 ответ

, Мы должны использовать функцию агрегирования при повороте, так как поворот всегда находится в контексте агрегации. Функция агрегирования может быть суммой, счетом, средним, минимальным или максимальным, в зависимости от желаемого выхода -

от вопрос уже есть ответ: Как развернуть DataFrame? [/questions/30244910/how-to-pivot-dataframe] 6 ответов Я хочу перенести информационный кадр. Это всего лишь небольшая выдержка из моего исходного кадра данных - from pyspark.sql.functions ...

6 ответов

https://github.com/minrk/findspark

ользую spark over emr и пишу скрипт pyspark, я получаю сообщение об ошибке при попытке from pyspark import SparkContext sc = SparkContext()это ошибка File "pyex.py", line 5, in <module> sc = SparkContext() ...