particionador do @Spark DataFrame é None
[Novo no Spark] Depois de criar um DataFrame, estou tentando particioná-lo com base em uma coluna no DataFrame. Quando verifico o particionador usandodata_frame.rdd.partitioner
Eu receboNenhu como saída.
Particionamento usando ->
data_frame.repartition("column_name")
Conforme a documentação do Spark, o particionador padrão é o HashPartitioner, como posso confirmar iss
lém disso, como posso alterar o particionado