Suchergebnisse für Anfrage "pyspark"

4 die antwort

Spark Standalone-Konfiguration mit mehreren Executoren

Ich versuche, einen eigenständigen Spark 2.0-Server für die parallele Verarbeitung einer Analysefunktion einzurichten. Zu diesem Zweck möchte ich einen einzelnen Mitarbeiter mit mehreren Testamentsvollstreckern haben. Ich benutze Standalone ...

6 die antwort

Anwenden von UDFs auf GroupedData in PySpark (mit funktionierendem Python-Beispiel)

Ich habe diesen Python-Code, der lokal in einem Pandas-Datenframe ausgeführt wird: df_result = pd.DataFrame(df .groupby('A') .apply(lambda x: myFunction(zip(x.B, x.C), x.name))Ich möchte dies in PySpark ausführen, habe jedoch Probleme mit ...

2 die antwort

PySpark: StructField (…,…, False) gibt immer `nullable = true` anstelle von` nullable = false` zurück

Ich bin neu bei PySpark und stehe vor einem seltsamen Problem. Ich versuche, eine Spalte beim Laden eines CSV-Datasets auf nicht nullwertfähig zu setzen. Ich kann meinen Fall mit einem sehr kleinen Datensatz reproduzieren ...

TOP-Veröffentlichungen

2 die antwort

Wie wird Spark unter YARN für die Python-Speichernutzung ausgeführt?

Nachdem ich die Dokumentation gelesen habe, verstehe ich nicht, wie Spark auf YARN den Python-Speicherverbrauch berücksichtigt. Zählt es fürspark.executor.memory, spark.executor.memoryOverhead oder wo Insbesondere habe ich eine ...

4 die antwort

Spark RDD zu DataFrame Python

Ich versuche, die Spark-RDD in einen DataFrame zu konvertieren. Ich habe die Dokumentation und das Beispiel gesehen, in denen das Schema an @ übergeben wirsqlContext.CreateDataFrame(rdd,schema) Funktion. Aber ich habe 38 Spalten oder Felder und ...

6 die antwort

So starte ich ein Skript in PySpark

Ich versuche, ein Skript in der Pyspark-Umgebung auszuführen, konnte es aber bisher nicht. Wie kann ich ein Skript wie python script.py aber in pyspark ausführen? Vielen Dan

4 die antwort

FPgrowth Computerverband in Pyspark vs Scala

Mit : http: //spark.apache.org/docs/1.6.1/mllib-frequent-pattern-mining.htm [http://spark.apache.org/docs/1.6.1/mllib-frequent-pattern-mining.html] Python-Code: from pyspark.mllib.fpm import FPGrowth model = ...

2 die antwort

Wie schalte ich die wissenschaftliche Notation im Pyspark aus?

Als Ergebnis einer Aggregation habe ich folgenden Sparkdataframe gefunden: ------------+-----------------+-----------------+ |sale_user_id|gross_profit |total_sale_volume| +------------+-----------------+-----------------+ | 20569| -3322960.0| ...

6 die antwort

PySpark-Fehler: AttributeError: Objekt 'NoneType' hat kein Attribut '_jvm'

Ich habe einen Zeitstempeldatensatz im Format von Und ich habe ein udf in pyspark geschrieben, um diesen Datensatz zu verarbeiten und als Map der Schlüsselwerte zurückzugeben. Aber bekomme unten Fehlermeldung. Dataset: ...

2 die antwort

PySpark Wie man CSV in Dataframe einliest und manipuliert

Ich bin ein Neuling in Pyspark und versuche, damit einen großen Datensatz zu verarbeiten, der als CSV-Datei gespeichert wird. Ich möchte CSV-Dateien in Spark-Datenrahmen einlesen, einige Spalten löschen und neue Spalten hinzufügen. Wie soll ich ...