Wie verwende ich die JDBC-Quelle, um Daten in (Py) Spark zu schreiben und zu lesen?
Das Ziel dieser Frage ist es zu dokumentieren:
Schritte, die zum Lesen und Schreiben von Daten mithilfe von JDBC-Verbindungen in PySpark erforderlich sind
mögliche Probleme mit JDBC-Quellen und bekannten Lösungen
it kleinen Änderungen sollten diese Methoden mit anderen unterstützten Sprachen einschließlich Scala und R funktioniere