Spark Dataframe groupBy mit der Sequenz als Schlüsselargumente [duplizieren]

Diese Frage hat hier bereits eine Antwort:

Multiple Aggregate-Operationen für dieselbe Spalte eines Spark-Datenrahmens 2 Antworten

Ich habe einen Funken DataFrame und ich möchte Werte durch mehrere Schlüssel aggregieren

Wie in der Funkendokumentation heißt es:

def groupBy (col1: String, cols: String *): GroupedData Gruppiert den DataFrame anhand der angegebenen Spalten, sodass wir eine Aggregation für sie ausführen können.

So mache ich das folgende

 val keys = Seq("a", "b", "c")
 dataframe.groupBy(keys:_*).agg(...)

Intellij Idea löst folgende Fehler aus:

Erweiterung für nicht wiederholte Parameter Typinkonflikt: erwartete Sequenz [Spalte], tatsächliche Sequenz [Zeichenfolge]

Ich kann jedoch mehrere Argumente manuell ohne Fehler übergeben:

dataframe.groupBy("a", "b", "c").agg(...)

Also, meine Frage ist: Wie kann ich das programmatisch machen?

Antworten auf die Frage(2)

Ihre Antwort auf die Frage