Particionando por várias colunas no Spark SQL

Com as funções de janela do Spark SQL, preciso particionar por várias colunas para executar minhas consultas de dados, da seguinte maneira:

val w = Window.partitionBy($"a").partitionBy($"b").rangeBetween(-100, 0)

No momento, não tenho um ambiente de teste (trabalhando nas configurações), mas como uma pergunta rápida, isso é suportado atualmente como parte das funções da janela do Spark SQL ou isso não funcionará?

questionAnswers(1)

yourAnswerToTheQuestion