SPARK SQL - MySql-Tabelle mit DataFrames und JDBC aktualisieren

Ich versuche, mit Spark SQL DataFrames und JDBC-Verbindung einige Daten in MySql einzufügen und zu aktualisieren.

Es ist mir gelungen, mit dem SaveMode.Append neue Daten einzufügen. Gibt es eine Möglichkeit, die in MySql Table bereits vorhandenen Daten in Spark SQL zu aktualisieren?

Mein Code zum Einfügen ist:

myDataFrame.write.mode(SaveMode.Append).jdbc(JDBCurl,mySqlTable,connectionProperties)

Wenn ich zu SaveMode wechsle. Beim Überschreiben wird die gesamte Tabelle gelöscht und eine neue erstellt. Ich suche nach etwas wie "ON DUPLICATE KEY UPDATE", das in MySql verfügbar ist.

Antworten auf die Frage(8)

Ihre Antwort auf die Frage