Spark on YARN zu wenig vcores verwendet
Ich verwende Spark in einem YARN-Cluster (HDP 2.4) mit den folgenden Einstellungen:
1 Masternode 64 GB RAM (50 GB nutzbar) 24 Kerne (19 Kerne verwendbar) 5 Slavenodes 64 GB RAM (jeweils 50 GB nutzbar) 24 Kerne (19 Kerne verwendbar) jeYARN EinstellungenSpeicher aller Container (eines Hosts): 50 GB Mindestcontainergröße = 2 GBmaximale Containergröße = 50 GBvcores = 19minimum # vcores / container = 1maximum # vcores / container = 19Wenn ich meine Spark-Anwendung mit dem Befehl @ starspark-submit --num-executors 30 --executor-cores 3 --executor-memory 7g --driver-cores 1 --driver-memory 1800m ...
YARN erstellt 31 Container (einen für jeden Executor-Prozess + einen Treiber-Prozess) mit den folgenden Einstellungen:
Meine Frage hier: Warum macht dasspark-submit
parameter--executor-cores 3
haben keine Wirkung?