Apache Spark на Mesos: начальная работа не приняла никаких ресурсов

Я использую Apache Spark в режиме кластера, используя Apache Mesos. Но когда я запускаю Spark-Shell для запуска простой тестовой команды (sc.parallelize (от 0 до 10, 8) .count), я получаю следующее предупреждающее сообщение:

16/03/10 11:50:55 WARN TaskSchedulerImpl: Начальное задание не приняло никаких ресурсов; проверьте интерфейс вашего кластера, чтобы убедиться, что работники зарегистрированы и имеют достаточные ресурсы

Если я проверю веб-интерфейс Mesos, то увижу, что Spark-Shell указан как фреймворк, и я указал один подчиненный (мой собственный компьютер). Любая помощь, как устранить ее?

Ответы на вопрос(1)

Ваш ответ на вопрос