¿Cómo hash PySpark DataFrame para obtener un flotador devuelto?
Digamos que tengo un marco de datos de chispa
+--------+-----+
| letter|count|
+--------+-----+
| a| 2|
| b| 2|
| c| 1|
+--------+-----+
Entonces quise encontrar la media. Así que lo hice
df = df.groupBy().mean('letter')
que dan un marco de datos
+------------------+
| avg(letter)|
+------------------+
|1.6666666666666667|
+------------------+
¿Cómo puedo hacer un hash para obtener solo el valor 1.6666666666666667 como df ["avg (letra)"] [0] en el marco de datos de Pandas? O cualquier solución para obtener 1.6666666666666667
Nota: Necesito un flotador devuelto. No es una lista ni un marco de datos.
Gracias