Wie wird PySpark DataFrame gehasht, um einen Float zurückzugeben?
Sagen wir, ich habe Funken dataframe
+--------+-----+
| letter|count|
+--------+-----+
| a| 2|
| b| 2|
| c| 1|
+--------+-----+
Dann wollte ich meinen finden. So tat ic
df = df.groupBy().mean('letter')
welche einen Datenrahmen geben
+------------------+
| avg(letter)|
+------------------+
|1.6666666666666667|
+------------------+
Wie kann ich es hashen, um nur den Wert 1.6666666666666667 wie df ["avg (letter)"] [0] in Pandas Datenrahmen zu erhalten? Oder irgendein Workaround, um 1.6666666666666667 @ zu bekomm
Hinweis: Ich muss einen Schwimmer zurückgeben. Weder eine Liste noch ein Datenrahmen.
Vielen Dan