Wie wird SQL-Dialekt angegeben, wenn Spark-Datenrahmen aus JDBC erstellt werden?

Ich habe ein Problem beim Lesen von Daten über benutzerdefiniertes JDBC mit Spark. Wie würde ich vorgehen, um den über die JDBC-URL abgeleiteten SQL-Dialekt zu überschreiben?

Die fragliche Datenbank ist vitess https: //github.com/youtube/vites) die eine MySQL-Variante ausführt, also möchte ich einen MySQL-Dialekt angeben. Die jdbc-URL beginnt mit jdbc: vitess /

Andernfalls leitet der DataFrameReader einen Standard-Dialekt ab, der "" als Anführungszeichen verwendet. Infolgedessen werden Abfragen über spark.read.jdbc als @ gesende

Wählen Sie 'id', 'col2', col3 ',' etc 'aus der Tabelle

, das die Zeichenfolgendarstellungen anstelle der Spaltenwerte anstelle von @ auswäh

Wählen Sie id, col2, col3, etc aus der Tabelle

Antworten auf die Frage(4)

Ihre Antwort auf die Frage