Результаты поиска по запросу "pyspark"

1 ответ

https://github.com/Hydrospheredata/hydro-serving

от вопрос уже есть ответ здесь: Как обслуживать модель Spark MLlib? [/questions/40533582/how-to-serve-a-spark-mllib-model] 3 ответаВ настоящее время мы тестируем механизм прогнозирования, основанный на реализации LDA Spark ...

1 ответ

Дополнительное замечание для будущих читателей: если у вас нестандартный текст json, то все, что вы получите после использования этих функций, это NULL, поэтому проверьте недопустимые поля и предпочтите подход схемы, поскольку он работает как для двойных, так и для одинарных кавычек в схеме json.

я есть существующий фрейм данных Spark, который имеет столбцы как таковые: -------------------- pid | response -------------------- 12 | {"status":"200"} ответ является строковым столбцом. Есть ли способ привести его в JSON и извлечь конкретные ...

2 ответа

test = test.flatMap (лямбда-xs: [(x [0], x [1]) для x в xs])

я есть списки кортежей, которые я хочу объединить в один список. Я был в состоянии обрабатывать данные с использованием лямбда-выражений и понимания списков там, где я близок к возможности использовать reduByKey, но не уверен, как объединить ...

ТОП публикаций

1 ответ

спасибо @ user6910411

я есть дата столбец в моем SparkDataDrame который содержит несколько форматов строк. Я хотел бы привести их к DateTime. Два формата в моей колонке: mm/dd/yyyy; а такжеyyyy-mm-ddМое решение до сих пор состоит в том, чтобы использовать UDF для ...

2 ответа

 Искровой проект. Ответ довольно прост (и очевиден, если вы понимаете, что и как Spark выполняет обработку): «Знайте свои данные», чтобы вы могли посчитать, сколько точно.

аю из очереди Кафки, используя потоковую структуру Spark. После прочтения из Кафки я применяю фильтр к данным. Этот отфильтрованный фрейм данных я говорю в файле паркета., Это генерирует много пустых файлов паркета. Есть ли способ, которым я могу ...

1 ответ

Вы должны преобразовать свой фрейм данных в rdd, чтобы применить этот метод.

риходится вычислять косинусное расстояние между каждой строкой, но я не знаю, как это сделать, используя элегантные кадры Spark API. Идея состоит в том, чтобы вычислить сходства для каждой строки (элемента) и взять 10 лучших сходств, сравнивая их ...

1 ответ

Вышеупомянутое решение работает. Один вопрос: если у меня есть подпапка S3 с несколькими папками, в которых записывается «прогон данных», а название папки - число, как мне выбрать только 3 самых верхних числа (таким образом, все «прогоны данных») не импортируются). например, подпапка содержит папки 1000, 1005, 1050, 1101 и 1060. Я хочу выбрать только 1050, 1101 и 1060 (самые высокие 3 числа). Есть ли хитрость для этого?

вожу анализ больших данных с помощью PySpark. Я могу импортировать все файлы CSV, хранящиеся в определенной папке определенного сегмента, используя следующую команду: df = ...

1 ответ

этот ответ

я есть следующие данные в фрейме данных pyspark под названиемend_stats_df: values start end cat1 cat2 10 1 2 A B 11 1 2 C B 12 1 2 D B 510 1 2 D C 550 1 2 C B 500 1 2 A B 80 1 3 A BИ я хочу агрегировать это следующим образом: Я хочу ...

1 ответ

@Aspirant

я есть датафреймdf которые имеют следующую структуру: +-----+-----+-----+-------+ | s |col_1|col_2|col_...| +-----+-------------------+ | f1 | 0.0| 0.6| ... | | f2 | 0.6| 0.7| ... | | f3 | 0.5| 0.9| ... | | ...| ...| ...| ... |И я хочу ...

2 ответа

, Вы можете найти больше информации об этих двух в связанной документации.

у запустить алгоритм случайных лесов на Pyspark. Это упоминается вPyspark документация [http://spark.apache.org/docs/latest/ml-features.html#vectorassembler]этот VectorAssembler принимает только числовые или логические типы данных. Итак, если мои ...