Como hash PySpark DataFrame para obter um float retornado?
Digamos que eu possua spark frame de dados
+--------+-----+
| letter|count|
+--------+-----+
| a| 2|
| b| 2|
| c| 1|
+--------+-----+
Então eu queria encontrar maldade. Então eu fiz
df = df.groupBy().mean('letter')
que fornecem um quadro de dados
+------------------+
| avg(letter)|
+------------------+
|1.6666666666666667|
+------------------+
como posso fazer o hash para obter somente o valor 1,666666666666666667 como df ["avg (letter)"] [0] no dataframe do Pandas? Ou qualquer solução alternativa para obter 1,666666666666666667
Nota: Preciso de um float retornado. Não é uma lista nem dataframe.
Obrigado