Как использовать источник JDBC для записи и чтения данных в (Py) Spark?
Цель этого вопроса - документировать:
шаги, необходимые для чтения и записи данных с использованием соединений JDBC в PySpark
Возможные проблемы с источниками JDBC и узнать решения
С небольшими изменениями эти методы должны работать с другими поддерживаемыми языками, включая Scala и R.