Anzahl der Partitionen von Spark Dataframe

Kann jemand erklären, wie viele Partitionen für einen Spark-Datenrahmen erstellt werden.

Ich weiß, dass wir beim Erstellen einer RDD die Anzahl der Partitionen wie folgt angeben können.

val RDD1 = sc.textFile("path" , 6) 

Aber für Spark-Datenrahmen während der Erstellung haben wir keine Möglichkeit, die Anzahl der Partitionen wie für RDD anzugeben.

ch denke nur, dass wir nach dem Erstellen des Datenrahmens die API für die Neupartitionierung verwenden könne

df.repartition(4)

Kann mir jemand bitte mitteilen, ob wir die Anzahl der Partitionen beim Erstellen eines Datenrahmens angeben können?

Antworten auf die Frage(2)

Ihre Antwort auf die Frage