Suchergebnisse für Anfrage "pyspark"

14 die antwort

Pyspark dataframe LIKE operator

Was ist das Äquivalent in Pyspark für den LIKE-Operator? Zum Beispiel würde ich gerne machen: SELECT * FROM table WHERE column LIKE "*somestring*";nach so etwas einfachem suchen (aber das funktioniert ...

2 die antwort

PySpark Throwing error Methode __getnewargs __ ([]) existiert nicht

Ich habe eine Reihe von Dateien. Der Pfad zu den Dateien wird in einer Datei gespeichert. Sagen Sie "all_files.txt". Ich benutze Apache Spark, um alle Dateien zu bearbeiten und die Ergebnisse zu analysieren. Die Schritte, die ich machen möchte, ...

6 die antwort

Wie mache ich Left Outer Join in Spark SQL?

Ich versuche, eine linke äußere Verknüpfung in spark (1.6.2) zu erstellen, aber das funktioniert nicht. Meine SQL-Abfrage sieht folgendermaßen aus: sqlContext.sql("select t.type, t.uuid, p.uuid from symptom_type t LEFT JOIN plugin p ON t.uuid = ...

TOP-Veröffentlichungen

2 die antwort

Wie man nach einem Join mehrere Spalten in einem Pyspark Dataframe auswählt und anordnet

Ich möchte mehrere Spalten aus einem vorhandenen Datenrahmen auswählen (der nach Verknüpfungen erstellt wird) und möchte die Dateien als meine Zieltabellenstruktur sortieren. Wie geht das? Der Ansatz, den ich verwendet habe, ist unten. Hier kann ...

6 die antwort

Lesen von CSV-Dateien mit Feldern in Anführungszeichen, die eingebettete Kommas enthalten

Ich lese eine CSV-Datei in Pyspark wie folgt: df_raw=spark.read.option("header","true").csv(csv_path) Die Datendatei enthält jedoch Felder mit eingebetteten Kommas, die nicht als Kommas behandelt werden dürfen. Wie kann ich mit Pyspark umgehen? ...

4 die antwort

Pyspark: Benutzerdefinierte Fensterfunktion

Ich versuche derzeit, eine Reihe aufeinanderfolgender Vorkommen in einem PySpark-Datenrahmen zu extrahieren und sie wie unten gezeigt zu ordnen / einzuordnen (der Einfachheit halber habe ich den anfänglichen Datenrahmen nach @ bestelluser_id ...