Partitionierung nach mehreren Spalten in Spark SQL

Mit den Fensterfunktionen von Spark SQL muss ich meine Datenabfragen wie folgt nach mehreren Spalten partitionieren:

val w = Window.partitionBy($"a").partitionBy($"b").rangeBetween(-100, 0)

Ich habe derzeit keine Testumgebung (ich arbeite gerade an den Einstellungen), aber als kurze Frage, wird dies derzeit als Teil der Fensterfunktionen von Spark SQL unterstützt, oder funktioniert das nicht?

Antworten auf die Frage(2)

Ihre Antwort auf die Frage