Como hash PySpark DataFrame para obter um float retornado?

Digamos que eu possua spark frame de dados

+--------+-----+
|  letter|count|
+--------+-----+
|       a|    2|
|       b|    2|
|       c|    1|
+--------+-----+

Então eu queria encontrar maldade. Então eu fiz

df = df.groupBy().mean('letter')

que fornecem um quadro de dados

+------------------+
|       avg(letter)|
+------------------+
|1.6666666666666667|
+------------------+

como posso fazer o hash para obter somente o valor 1,666666666666666667 como df ["avg (letter)"] [0] no dataframe do Pandas? Ou qualquer solução alternativa para obter 1,666666666666666667

Nota: Preciso de um float retornado. Não é uma lista nem dataframe.

Obrigado

questionAnswers(1)

yourAnswerToTheQuestion