Apache Spark no Mesos: o trabalho inicial não aceitou nenhum recurso

Estou executando o Apache Spark no modo de cluster usando o Apache Mesos. Mas, quando inicio o Spark-Shell para executar um comando de teste simples (sc.parallelize (0 a 10, 8) .count), recebo a seguinte mensagem de aviso:

16/03/10 11:50:55 WARN TaskSchedulerImpl: O trabalho inicial não aceitou nenhum recurso; verifique a interface do usuário do cluster para garantir que os trabalhadores estejam registrados e tenham recursos suficientes

Se eu verificar o Mesos WebUI, posso ver que o Spark-Shell está listado como uma estrutura e listei um escravo (minha própria máquina). Alguma ajuda para solucionar o problema?

questionAnswers(1)

yourAnswerToTheQuestion