Spark UDF mit varargs

Ist es eine einzige Option, alle Argumente bis zu 22 aufzulisten, wie in der Dokumentation angegeben?

https: //spark.apache.org/docs/1.5.0/api/scala/index.html#org.apache.spark.sql.UDFRegistratio

Hat jemand eine Idee, wie man so etwas macht?

sc.udf.register("func", (s: String*) => s......

(beim Schreiben einer benutzerdefinierten concat-Funktion, die Nullen überspringt, mussten zu diesem Zeitpunkt 2 Argumente angegeben werden)

Vielen Dan

Antworten auf die Frage(2)

Ihre Antwort auf die Frage