Spark Dataframe groupBy com sequência como argumentos de chaves [duplicado]
Esta pergunta já tem uma resposta aqui:
Várias operações agregadas na mesma coluna de um dataframe spark 2 respostasEu tenho um spark DataFrame e quero agregar valores por várias chaves
Como a documentação do spark sugere:
def groupBy (col1: String, cols: String *): GroupedData Agrupa o DataFrame usando as colunas especificadas, para que possamos executar agregação nelas
Então eu faço o seguinte
val keys = Seq("a", "b", "c")
dataframe.groupBy(keys:_*).agg(...)
O Intellij Idea lança-me os seguintes erros:
expansão para parâmetros não repetidosIncompatibilidade de tipo: Seq [coluna] esperada, [Seq] real [String]No entanto, eu posso passar vários argumentos manualmente sem erros:
dataframe.groupBy("a", "b", "c").agg(...)
Então, minha pergunta é: como posso fazer isso programaticamente?