Wie verwende ich die JDBC-Quelle, um Daten in (Py) Spark zu schreiben und zu lesen?

Das Ziel dieser Frage ist es zu dokumentieren:

Schritte, die zum Lesen und Schreiben von Daten mithilfe von JDBC-Verbindungen in PySpark erforderlich sind

mögliche Probleme mit JDBC-Quellen und bekannten Lösungen

it kleinen Änderungen sollten diese Methoden mit anderen unterstützten Sprachen einschließlich Scala und R funktioniere