Spark on YARN utiliza menos vcores
Estoy usando Spark en un clúster YARN (HDP 2.4) con la siguiente configuración:
1 Masternode64 GB de RAM (50 GB utilizables)24 núcleos (19 núcleos utilizables)5 esclavos64 GB de RAM (50 GB utilizables) cada uno24 núcleos (19 núcleos utilizables) cada unoConfiguraciones de HILOmemoria de todos los contenedores (de un host): 50 GBtamaño mínimo del contenedor = 2 GBtamaño máximo del contenedor = 50 GBvcores = 19mínimo # vcores / container = 1máximo # vcores / contenedor = 19Cuando ejecuto mi aplicación spark con el comandospark-submit --num-executors 30 --executor-cores 3 --executor-memory 7g --driver-cores 1 --driver-memory 1800m ...
YARN crea 31 contenedores (uno para cada proceso de ejecución + un proceso de controlador) con la siguiente configuración:
Mi pregunta aquí: ¿Por qué elspark-submit
parámetro--executor-cores 3
no tiene efecto?