SPARK SQL - MySql-Tabelle mit DataFrames und JDBC aktualisieren
Ich versuche, mit Spark SQL DataFrames und JDBC-Verbindung einige Daten in MySql einzufügen und zu aktualisieren.
Es ist mir gelungen, mit dem SaveMode.Append neue Daten einzufügen. Gibt es eine Möglichkeit, die in MySql Table bereits vorhandenen Daten in Spark SQL zu aktualisieren?
Mein Code zum Einfügen ist:
myDataFrame.write.mode(SaveMode.Append).jdbc(JDBCurl,mySqlTable,connectionProperties)
Wenn ich zu SaveMode wechsle. Beim Überschreiben wird die gesamte Tabelle gelöscht und eine neue erstellt. Ich suche nach etwas wie "ON DUPLICATE KEY UPDATE", das in MySql verfügbar ist.