Spark no YARN muito menos vcores usados
Estou usando o Spark em um cluster YARN (HDP 2.4) com as seguintes configurações:
1 Masternode64 GB de RAM (50 GB utilizáveis)24 núcleos (19 núcleos utilizáveis)5 Slavenodes64 GB de RAM (50 GB utilizáveis) cada24 núcleos (19 núcleos utilizáveis) cadaConfigurações de FIOmemória de todos os contêineres (de um host): 50 GBtamanho mínimo do contêiner = 2 GBtamanho máximo do contêiner = 50 GBvcores = 19mínimo de vcores / container = 1máximo de vcores / container = 19Quando executo meu aplicativo spark com o comandospark-submit --num-executors 30 --executor-cores 3 --executor-memory 7g --driver-cores 1 --driver-memory 1800m ...
O YARN cria 31 contêineres (um para cada processo executor + um processo driver) com as seguintes configurações:
Minha pergunta aqui: Por que ospark-submit
parâmetro--executor-cores 3
não tem efeito?