Particionamiento por múltiples columnas en Spark SQL

Con las funciones de ventana de Spark SQL, necesito particionar en varias columnas para ejecutar mis consultas de datos, de la siguiente manera:

val w = Window.partitionBy($"a").partitionBy($"b").rangeBetween(-100, 0)

Actualmente no tengo un entorno de prueba (trabajando en la configuración de esto), pero como una pregunta rápida, ¿se admite actualmente como parte de las funciones de ventana de Spark SQL, o no funcionará?

Respuestas a la pregunta(1)

Su respuesta a la pregunta