Como saber o modo de implantação do aplicativo PySpark?
Estou tentando corrigir um problema de falta de memória e quero saber se preciso alterar essas configurações no arquivo de configurações padrão (spark-defaults.conf
) na pasta inicial do spark. Ou, se eu puder defini-los no código.
Eu vi essa perguntaPySpark: java.lang.OutofMemoryError: espaço de heap Java e diz que depende se eu estiver correndoclient
modo. Estou executando o spark em um cluster e monitorando-o usando autônomo.
Mas, como faço para descobrir se estou executando faíscaclient
modo?