Apache Hadoop Yarn - Subutilização de núcleos

Não importa o quanto eu mexa nas configurações doyarn-site.xml ou seja, usando todas as opções abaixo

yarn.scheduler.minimum-allocation-vcores
yarn.nodemanager.resource.memory-mb
yarn.nodemanager.resource.cpu-vcores
yarn.scheduler.maximum-allocation-mb
yarn.scheduler.maximum-allocation-vcores

Ainda não consigo obter meu aplicativo, ou seja, o Spark para utilizar todos os núcleos no cluster. Os executores spark parecem estar ocupando corretamente toda a memória disponível, mas cada executor continua usando um único núcleo e não mais.

Aqui estão as opções configuradas emspark-defaults.conf

spark.executor.cores                    3
spark.executor.memory                   5100m
spark.yarn.executor.memoryOverhead      800
spark.driver.memory                     2g
spark.yarn.driver.memoryOverhead        400
spark.executor.instances                28
spark.reducer.maxMbInFlight             120
spark.shuffle.file.buffer.kb            200

Notar quespark.executor.cores está definido como 3, mas não funciona. Como faço para corrigir isso?

questionAnswers(2)

yourAnswerToTheQuestion