Particionando por várias colunas no Spark SQL
Com as funções de janela do Spark SQL, preciso particionar por várias colunas para executar minhas consultas de dados, da seguinte maneira:
val w = Window.partitionBy($"a").partitionBy($"b").rangeBetween(-100, 0)
No momento, não tenho um ambiente de teste (trabalhando nas configurações), mas como uma pergunta rápida, isso é suportado atualmente como parte das funções da janela do Spark SQL ou isso não funcionará?