Wie wird PySpark DataFrame gehasht, um einen Float zurückzugeben?

Sagen wir, ich habe Funken dataframe

+--------+-----+
|  letter|count|
+--------+-----+
|       a|    2|
|       b|    2|
|       c|    1|
+--------+-----+

Dann wollte ich meinen finden. So tat ic

df = df.groupBy().mean('letter')

welche einen Datenrahmen geben

+------------------+
|       avg(letter)|
+------------------+
|1.6666666666666667|
+------------------+

Wie kann ich es hashen, um nur den Wert 1.6666666666666667 wie df ["avg (letter)"] [0] in Pandas Datenrahmen zu erhalten? Oder irgendein Workaround, um 1.6666666666666667 @ zu bekomm

Hinweis: Ich muss einen Schwimmer zurückgeben. Weder eine Liste noch ein Datenrahmen.

Vielen Dan

Antworten auf die Frage(2)

Ihre Antwort auf die Frage