Результаты поиска по запросу "apache-spark"

1 ответ

 Как вы проверяете результаты? Каковы ваши ожидания? Что вы получаете вместо этого?

я есть набор данных (как

4 ответа

Это даст вам желаемый результат

тим, у меня есть следующий фрейм данных:

1 ответ

@LarissaLeite хорошо, вы видите один немедленный компромисс здесь; работа вами против работы компьютерами. На вашем месте я бы попробовал оба подхода! ;)

образом, у меня есть вход, который состоит из набора данных и нескольких алгоритмов ML (с настройкой параметров), использующих scikit-learn. Я попробовал дов...

ТОП публикаций

1 ответ

Мне все еще не ясно. Для 4 ГБ файла и размера блока 128 МБ. Это должно было дать 4096/128 = 32 раздела, нет? Почему это дало 128 разделов. И почему 8 разделов для файла 241 МБ? Разве это не должно быть 2 раздела?

я: Spark 1.6.2, Scala 2.10Я выполняю следующие команды В

3 ответа

Привет, я разместил свое решение. :)

жил JSON и хотел бы иметь вывод в табличной структуре. Я могу анализировать значения JSON по отдельности, но у меня возникли некоторые проблемы с его табулир...

1 ответ

Это даст результат как:

аюсь написать файл JSON, используя спарк. Есть несколько ключей, которые имеют

1 ответ

 это ключевое слово в Python.

могу обновить метаданные столбца в PySpark? У меня есть значения метаданных, соответствующие номинальному кодированию категориальных (строковых) функций, и я...

1 ответ

Какую версию ты используешь ? И что вторая упомянутая ошибка делает с первой? Для первого вы, вероятно, используете зарезервированное слово для имени столбца, например df.count

1 ответ

 и ИМХО ресурсы, используемые исполнителями, считаются "искровыми ресурсами" ...

1 ответ

 хотя - я перебрал массив заголовков CSV.