Partitionierung nach mehreren Spalten in Spark SQL
Mit den Fensterfunktionen von Spark SQL muss ich meine Datenabfragen wie folgt nach mehreren Spalten partitionieren:
val w = Window.partitionBy($"a").partitionBy($"b").rangeBetween(-100, 0)
Ich habe derzeit keine Testumgebung (ich arbeite gerade an den Einstellungen), aber als kurze Frage, wird dies derzeit als Teil der Fensterfunktionen von Spark SQL unterstützt, oder funktioniert das nicht?