Результаты поиска по запросу "google-cloud-dataproc"
Запуск файла jar приложения на spark-submit в экземпляре кластера gat dataproc
Я запускаю файл .jar, который содержит все зависимости, которые мне нужны в нем. Одна из этих зависимостей
KeyError: 'SPARK_HOME' в pyspark на Jupyter в Google-Cloud-DataProc
При попытке показать SparkDF (Test) я получаю KeyError, как показано ниже. Возможно, что-то пошло не так в функции, которую я использовал раньше
Кроме того, поскольку $ HADOOP_CONF_DIR не был установлен (я думал, что так и должно быть), необходимо ввести полный путь к файлу. Но после этого начальная служба YARN не запустится, поскольку не может найти файл, созданный позже в скрипте действий init. Итак, я добавил несколько последних строк в yarn-site.xml в скрипте действий init. Код для скрипта действий init выглядит следующим образом:
ался настроить кластер dataproc, который будет одновременно вычислять только одно задание (или указывать максимальное количество заданий), а остальные будут в очереди. Я нашел это решение,Как настроить монопольную очередь приложений FIFO в ...
сделал свое дело. Огромное спасибо.
довалИспользуйте коннектор BigQuery с Spark [https://cloud.google.com/dataproc/docs/tutorials/bigquery-connector-spark-example] чтобы успешно получать данные из общедоступного набора данных. Теперь мне нужно получить доступ к набору данных ...
GCP: если вам нужно изменить группу безопасности по умолчанию: ssh (сделайте tcp: 22). Я думаю, это поможет вам решить вашу проблему.
создания кластера dataproc многие задания автоматически отправляются в ResourceManager пользователем dr.who. Это истощает ресурсы кластера и в конечном итоге приводит к перегрузке кластера. В журналах практически нет информации. Кто-нибудь еще ...
Примеры Dataproc + BigQuery - есть ли в наличии?
По данным Dataprocdocos, она имеет "встроенная и автоматическая интеграция с BigQuery».У меня есть таблица в BigQuery. Я хочу прочитать эту таблицу и вы...
cloud.google.com/blog/products/data-analytics/...
ользую плагин Maven Shade для создания Uber JAR для отправки его в качестве работы в кластер Google DataCroc. Google установил Apache Spark 2.0.2 Apache Hado...
spark.sql.crossJoin.enabled для Spark 2.x
Я использую «предварительный просмотр» Google DataProc Image 1.1 с Spark 2.0.0. Для завершения одной из моих операций я должен завершить декартово произведен...
Страница 1 из 2