Comparando colunas no Pyspark

Estou trabalhando em um PySpark DataFrame com n colunas. Eu tenho um conjunto de m colunas (m <n) e minha tarefa é escolher a coluna com valores máximos.

Por exemplo:

Entrada: PySpark DataFrame contendo col_1 = [1,2,3], col_2 = [2,1,4], col_3 = [3,2,5].

Ouput = col_4 = max (col1, col_2, col_3) = [3,2,5] neste exemplo.

Há algo semelhante nos pandas, como explicado emesta Pergunta, questão.

Existe alguma maneira de fazer isso no PySpark ou devo alterar o conversor do meu PySpark df para Pandas df e executar as operações?

questionAnswers(4)

yourAnswerToTheQuestion