Результаты поиска по запросу "apache-spark"

0 ответов

Примечание: проверьте, что $ HADOOP_HOME / etc / hadoop является правильным в вашей среде. И spark-env.sh также содержит экспорт HADOOP_HOME.

аюсь запустить Spark, используя пряжу, и я сталкиваюсь с этой ошибкой: Исключение в потоке "main" java.lang.Exception: При работе с главной 'yarn' в среде должен быть установлен либо HADOOP_CONF_DIR, либо YARN_CONF_DIR. Я не уверен, где ...

0 ответов

Я надеюсь, что ответ полезен

й задаче у нас есть два менеджера M1 и M2. В команде менеджера M1 есть два сотрудника e1 и e2, а в команде M2 два сотрудника e4 и e5. Ниже приведена иерархия менеджера и сотрудника, 1) M1 a. e1 b. e2 2) M2 a. e4 b. e5И у нас есть следующий ...

1 ответ

Из метаданных преобразованного

ользуюSpark а такжеpyspark и у меня естьpipeline настроить с кучейStringIndexer объекты, которые я использую для кодирования строковых столбцов в столбцы индексов: indexers = [StringIndexer(inputCol=column, outputCol=column ...

ТОП публикаций

1 ответ

@himanshuIIITian Отличная идея. Сделаю

аюсь загрузить данные из корзины Amazon AWS S3, находясь в оболочке Spark. Я ознакомился со следующими ресурсами: Разбор файлов из Amazon S3 с помощью Apache ...

0 ответов

можешь выложить рабочий код ..

ужно извлечь таблицу из Teradata (доступ только для чтения) для паркета с Scala (2.11) / Spark (2.1.0). Я строю фрейм данных, который я могу успешно загрузить val df = spark.read.format("jdbc").options(options).load()Ноdf.show дает ...

4 ответа

https://issues.apache.org/jira/browse/SPARK-17817

у проверить, как мы можем получить информацию о каждом разделе, например, общее нет. записей в каждом разделе на стороне водителя, когда задание Spark отправляется в режиме развертывания в виде кластера пряжи для регистрации или печати на консоли.

1 ответ

они не будут включены в ваш jar-файл и не будут затенены (следовательно, spark будет использовать свою собственную не заштрихованную версию guava, которая есть в кластере).

ользую сборку sbt для создания толстой банки, которая может работать на спарке. Есть зависимости отgrpc-netty, Версия Guava на спарк старше, чем требуетсяgrpc-netty и я сталкиваюсь с этой ...

0 ответов

Установите vcredist_x64.exe

ался привыкнуть к новому структурированному потоковому вещанию, но он продолжает давать мне ошибку ниже, как только я начинаю.writeStream запрос. Есть идеи, что может быть причиной этого? Самым близким, что я мог найти, была текущая ошибка ...

1 ответ

 чтобы увидеть, как установить их для вашей ОС.

ускаю приложения HiBench Bayes и kmean, однако получаю предупреждение 17/09/05 09:54:54 WARN netlib.BLAS: Failed to load implementation from: com.github.fommil.netlib.NativeSystemBLAS 17/09/05 09:54:54 WARN netlib.BLAS: Failed to load ...

2 ответа

Результатом являются значения между 2016-10-01 и 2017-04-01.

кто-нибудь объяснить мне, почему я получаю разные результаты для этих двух выражений? Я пытаюсь отфильтровать 2 даты: df.filter("act_date <='2017-04-01'" and "act_date >='2016-10-01'")\ .select("col1","col2").distinct().count()Результат: ...