Результаты поиска по запросу "apache-spark-sql"

0 ответов

я использовал код выше

дал 3 кадра данных, выполнив следующий код. sample.csv id|code|name|Lname|mname 2|AA|BB|CC|DD|sample1.csv id|code|name|Lname|mname 1|A|B|C|D|sample2.csv id1|code1|name1|Lnam|mnam 3|AAA|BBB|CCC|DDD|Я сравнил заголовки фреймов данных, используя ...

2 ответа

Вы можете вызвать UDF:

аюсь внедрить накопительный продукт в Spark Scala, но я действительно не знаю, как это сделать. У меня есть следующий фрейм данных: Input data: +--+--+--------+----+ |A |B | date | val| +--+--+--------+----+ |rr|gg|20171103| 2 | |hh|jj|20171103| ...

1 ответ

Может быть, вы хотите использовать один UDF для каждого столбца? В этом случае я редактировал пост

ный фрейм данных 0,2 0,3 +------+------------- -+ | name| country | +------+---------------+ |Raju |UAS | |Ram |Pak. | |null |China | |null |null | +------+--------------+ I Need this +------+--------------+ |Nwet|wet Con | ...

ТОП публикаций

1 ответ

Если данные не содержат такой столбец, вы можете использовать

аюсь записать большой разделенный набор данных на диск с помощью Spark иpartitionBy Алгоритм борется с обоими подходами, которые я пробовал. Перегородки сильно перекошены - некоторые перегородки массивные, а другие крошечные. Проблема № ...

1 ответ

когда я устанавливаю это .enableHiveSupport (), тогда только я вижу эту ошибку.

отаю надSPARK-SQL 2.3.1 и я пытаюсь включить hiveSupport для создания сеанса, как показано ниже .enableHiveSupport() .config("spark.sql.warehouse.dir", "c://tmp//hive")Я побежал ниже команды C:\Software\hadoop\hadoop-2.7.1\bin>winutils.exe ...

2 ответа

перешел в чат

я есть потоковые данные JSON, структура которых может быть описана с помощью класса case ниже case class Hello(A: String, B: Array[Map[String, String]])Пример данных для того же, что и ниже | A | B | ...

1 ответ

Остается нерешенным вопрос, как предотвратить нежелательное поведение при кэшировании данных. К сожалению, у меня нет готового ответа для этого. Я вполне уверен, что можно использовать пользовательские правила оптимизатора, но это не то, что можно сделать с помощью только Python.

ющий код вызывает исключение «Обнаружено декартово произведение для INNER join»: first_df = spark.createDataFrame([{"first_id": "1"}, {"first_id": "1"}, {"first_id": "1"}, ]) second_df = spark.createDataFrame([{"some_value": "????"}, ]) ...

1 ответ

отлично, просто вопрос простой;)

Для кадра данных со схемой id:string Cold:string Medium:string Hot:string IsNull:string annual_sales_c:string average_check_c:string credit_rating_c:string cuisine_c:string dayparts_c:string location_name_c:string market_category_c:string ...

0 ответов

, Но я не могу понять, как заставить оконную функцию осознавать себя. Это было бы похоже на скользящую среднюю определенной строки, осведомленной о последней скользящей средней.

м, у меня есть столбец отсортированных временных меток в DataFrame. Я хочу написать функцию, которая добавляет столбец в этот DataFrame, который разрезает временные метки на последовательные временные интервалы в соответствии со следующими ...

1 ответ

SPARK-27052 - Использование PySpark udf в преобразовании дает значения NULL

transform функция высшего порядка ( https://issues.apache.org/jira/browse/SPARK-23908 [https://issues.apache.org/jira/browse/SPARK-23908]). Есть ли способ использовать его как стандартную функцию (в пакетеorg.apache.spark.sql.functions._)? У ...