Suchergebnisse für Anfrage "apache-spark"

6 die antwort

Lesen von CSV-Dateien mit Feldern in Anführungszeichen, die eingebettete Kommas enthalten

Ich lese eine CSV-Datei in Pyspark wie folgt: df_raw=spark.read.option("header","true").csv(csv_path) Die Datendatei enthält jedoch Felder mit eingebetteten Kommas, die nicht als Kommas behandelt werden dürfen. Wie kann ich mit Pyspark umgehen? ...

4 die antwort

Wie wird SQL-Dialekt angegeben, wenn Spark-Datenrahmen aus JDBC erstellt werden?

Ich habe ein Problem beim Lesen von Daten über benutzerdefiniertes JDBC mit Spark. Wie würde ich vorgehen, um den über die JDBC-URL abgeleiteten SQL-Dialekt zu überschreiben? Die fragliche Datenbank ist vitess https: ...

TOP-Veröffentlichungen