Spark Dataframe groupBy mit der Sequenz als Schlüsselargumente [duplizieren]
Diese Frage hat hier bereits eine Antwort:
Multiple Aggregate-Operationen für dieselbe Spalte eines Spark-Datenrahmens 2 AntwortenIch habe einen Funken DataFrame und ich möchte Werte durch mehrere Schlüssel aggregieren
Wie in der Funkendokumentation heißt es:
def groupBy (col1: String, cols: String *): GroupedData Gruppiert den DataFrame anhand der angegebenen Spalten, sodass wir eine Aggregation für sie ausführen können.
So mache ich das folgende
val keys = Seq("a", "b", "c")
dataframe.groupBy(keys:_*).agg(...)
Intellij Idea löst folgende Fehler aus:
Erweiterung für nicht wiederholte Parameter Typinkonflikt: erwartete Sequenz [Spalte], tatsächliche Sequenz [Zeichenfolge]Ich kann jedoch mehrere Argumente manuell ohne Fehler übergeben:
dataframe.groupBy("a", "b", "c").agg(...)
Also, meine Frage ist: Wie kann ich das programmatisch machen?