Apache Spark on Mesos: Anfänglicher Job hat keine Ressourcen akzeptiert

Ich führe Apache Spark im Cluster-Modus mit Apache Mesos aus. Wenn ich jedoch Spark-Shell starte, um einen einfachen Testbefehl (sc.parallelize (0 bis 10, 8) .count) auszuführen, wird die folgende Warnmeldung angezeigt:

16/03/10 11:50:55 WARN TaskSchedulerImpl: Der ursprüngliche Job hat keine Ressourcen akzeptiert. Überprüfen Sie Ihre Cluster-Benutzeroberfläche, um sicherzustellen, dass die Mitarbeiter registriert sind und über ausreichende Ressourcen verfügen.

Wenn ich die Mesos WebUI überprüfe, kann ich sehen, dass Spark-Shell als Framework aufgeführt ist und ich einen Slave (meinen eigenen Computer) aufgeführt habe. Hilfe zur Fehlerbehebung?

Antworten auf die Frage(2)

Ihre Antwort auf die Frage