Результаты поиска по запросу "apache-spark"

3 ответа

 для более подробной информации.

ел бы рассчитать групповые квантили на фрейме данных Spark (используя PySpark). Либо приблизительный или точный результат будет в порядке. Я предпочитаю решение, которое я могу использовать в контекстеgroupBy / agg, так что я могу смешать его с ...

2 ответа

https://issues.apache.org/jira/browse/SPARK-22442

аюсь прочитать файл JSON с искройDataset API, проблема в том, что этот json содержит пробелы в некоторых именах полей. Это будет ряд JSON {"Field Name" : "value"}Мой класс должен быть таким case class MyType(`Field Name`: String)Тогда я могу ...

2 ответа

Я не установил для master значение local [n], но получил то же исключение.

от вопрос уже есть ответ здесь: Почему не удается присоединиться к «java.util.concurrent.TimeoutException: время ожидания фьючерса истекло после [300 ...

ТОП публикаций

2 ответа

Я напишу образец и скоро поделюсь.

троил модель H2O в R и сохранил код POJO. Я хочу записывать файлы паркета в формате hdf, используя POJO, но я не уверен, как это сделать. Я планирую читать файлы паркета в spark (scala / SparkR / PySpark) и оценивать их там. Ниже приведена ...

1 ответ

Высокоэффективная Искра Рэйчел Уоррен, Холден Карау - Глава 4

аюсь получить последние записи из таблицы с помощью самостоятельного соединения. Работает с использованиемspark-sql но не работает с использованием искрыDataFrame API. Кто-нибудь может помочь? Это ошибка? Я использую Spark 2.2.0 в локальном ...

1 ответ

Как мне задать хороший вопрос?

кли проблемы с получением функции округления в pyspar, k для работы - у меня есть блок кода ниже, где я пытаюсь округлитьnew_bid столбец с двумя десятичными разрядами и переименуйте столбец вbid потом - я импортируюpyspark.sql.functions AS func ...

2 ответа

и использовать эту карту в UDF

я проблема с запуском приложения Spark. Исходный код: // Read table From HDFS val productInformation = spark.table("temp.temp_table1") val dict = spark.table("temp.temp_table2") // Custom UDF val countPositiveSimilarity = udf[Long, Seq[String], ...

3 ответа

google.com/...

лаем потоковую передачу данных Кафки, которые собираются из MySQL. Теперь, когда вся аналитика сделана, я хочу сохранить свои данные прямо в Hbase. Я пролистал документ с потоковой структурой искры, но не смог найти ни одного приемника с Hbase. ...

1 ответ

добавление выдержек из документации API:

ел бы лучше понять модель согласованности структурированной потоковой передачи Spark 2.2 в следующем случае: один источник (Kinesis)2 запроса от этого источника к двум различным приемникам: один приемник файлов для целей архивирования (S3) и ...

2 ответа

да, но проблема в том, что все данные из cogroup попали в узел драйвера

я дваrdd's а именноval tab_a: RDD[(String, String)] а такжеval tab_b: RDD[(String, String)] я используюcogroup для таких наборов данных, как: val tab_c = tab_a.cogroup(tab_b).collect.toArray val updated = tab_c.map { x => { //somecode } }я ...