Connection-Pooling in einer Pyspark-Streaming-Anwendung

Wie werden Verbindungspools in einer Pyspark-Streaming-Anwendung ordnungsgemäß verwendet?

Ich lese durchhttps: //forums.databricks.com/questions/3057/how-to-reuse-database-session-object-created-in-fo.htm und verstehen, dass der richtige Weg ist, einen Singleton für Scala / Java zu verwenden. Ist das in Python möglich? Ein kleines Codebeispiel wäre sehr dankbar. Ich glaube, dass das Erstellen einer Verbindung pro Partition für eine Streaming-Anwendung sehr ineffizient ist.

Antworten auf die Frage(2)

Ihre Antwort auf die Frage