Como saber o modo de implantação do aplicativo PySpark?

Estou tentando corrigir um problema de falta de memória e quero saber se preciso alterar essas configurações no arquivo de configurações padrão (spark-defaults.conf) na pasta inicial do spark. Ou, se eu puder defini-los no código.

Eu vi essa perguntaPySpark: java.lang.OutofMemoryError: espaço de heap Java e diz que depende se eu estiver correndoclient modo. Estou executando o spark em um cluster e monitorando-o usando autônomo.

Mas, como faço para descobrir se estou executando faíscaclient modo?

questionAnswers(3)

yourAnswerToTheQuestion