Spark Dataframe groupBy com sequência como argumentos de chaves [duplicado]

Esta pergunta já tem uma resposta aqui:

Várias operações agregadas na mesma coluna de um dataframe spark 2 respostas

Eu tenho um spark DataFrame e quero agregar valores por várias chaves

Como a documentação do spark sugere:

def groupBy (col1: String, cols: String *): GroupedData Agrupa o DataFrame usando as colunas especificadas, para que possamos executar agregação nelas

Então eu faço o seguinte

 val keys = Seq("a", "b", "c")
 dataframe.groupBy(keys:_*).agg(...)

O Intellij Idea lança-me os seguintes erros:

expansão para parâmetros não repetidosIncompatibilidade de tipo: Seq [coluna] esperada, [Seq] real [String]

No entanto, eu posso passar vários argumentos manualmente sem erros:

dataframe.groupBy("a", "b", "c").agg(...)

Então, minha pergunta é: como posso fazer isso programaticamente?

questionAnswers(1)

yourAnswerToTheQuestion