particionador do @Spark DataFrame é None

[Novo no Spark] Depois de criar um DataFrame, estou tentando particioná-lo com base em uma coluna no DataFrame. Quando verifico o particionador usandodata_frame.rdd.partitioner Eu receboNenhu como saída.

Particionamento usando ->

data_frame.repartition("column_name")

Conforme a documentação do Spark, o particionador padrão é o HashPartitioner, como posso confirmar iss

lém disso, como posso alterar o particionado

questionAnswers(1)

yourAnswerToTheQuestion