Suchergebnisse für Anfrage "apache-spark"

4 die antwort

Fügen Sie einem Datenrahmen eine neue Spalte hinzu. Neue Spalte Ich möchte, dass es ein UUID-Generator ist

Ich möchte einem Dataframe, einem UUID-Generator, eine neue Spalte hinzufügen. er @ UUID-Wert sieht ungefähr so aus wie21534cf7-cff9-482a-a3a8-9e7244240da7 Meine Forschung: Ich habe es mit @ versucwithColumn Methode im Funken. val DF2 = ...

2 die antwort

Wie kann Spark ein mit JSON-Escapezeichen versehenes String-Feld als JSON-Objekt analysieren lassen, um auf die richtige Struktur in DataFrames zu schließen?

Ich habe als Eingabe eine Reihe von Dateien, die als einzelnes JSON-Objekt pro Zeile formatiert sind. Das Problem ist jedoch, dass ein Feld in diesen JSON-Objekten eine mit JSON-Escapezeichen versehene Zeichenfolge ist. Beispie { "id":1, ...

4 die antwort

Wie man DataFrame mit Vektorspalten in RDD umwandelt

Ich habe einen DataFrame (mit dem Namendf1 in Pyspark, in dem eine der Spalten vom Typ @ iDenseVector. Dies ist das Schema des Datenrahmens. DataFrame[prediction: double, probability: vector, label: double] Ich versuche es mit @ in ein RDD ...

TOP-Veröffentlichungen

2 die antwort

Spark MLib Decision Trees: Wahrscheinlichkeit von Labels nach Features?

Ich könnte es schaffen, die Gesamtwahrscheinlichkeiten meines @ anzuzeiglabels, zum Beispiel, nachdem ich meinen Entscheidungsbaum angezeigt habe, habe ich eine Tabelle: Total Predictions : 65% impressions 30% clicks 5% conversionsAber mein ...

6 die antwort

Gläser zu einem Spark-Job hinzufügen - spark-submit

True ... es wurde schon viel diskutiert. Allerdings gibt es viele Unklarheiten und einige der bereitgestellten Antworten ... einschließlich des Duplizierens von JAR-Referenzen in der JAR- / Executor- / Treiberkonfiguration oder in den ...

4 die antwort

Wie viele Partitionen erstellt Spark, wenn eine Datei aus dem S3-Bucket geladen wird?

Wenn die Datei standardmäßig aus HDFS geladen wird, erstellt spark eine Partition pro Block. Aber wie entscheidet der Funke über Partitionen, wenn eine Datei aus dem S3-Bucket geladen wird?

2 die antwort

Warum verwendet Spark 1.6 kein Akka?

Wenn ich den spark-1.6-Quellcode des @ leMeiste [https://github.com/apache/spark/blob/cf2e9da612397233ae7bca0e9ce57309f16226b5/core/src/main/scala/org/apache/spark/deploy/master/Master.scala] class, die Methode receiveAndReply scheint Akka nicht ...

2 die antwort

Wie übergebe ich Array [Seq [String]] an Apache Spark UdF? (Fehler: Nicht zutreffend)

Ich habe die folgenden Apache Spark UdF in Scala: val myFunc = udf { (userBias: Float, otherBiases: Map[Long, Float], userFactors: Seq[Float], context: Seq[String]) => var result = Float.NaN if (userFactors != null) { var contexBias = 0f for (cc ...

2 die antwort

Extrahieren Sie das Datum aus einer Zeichenfolgenspalte mit dem Zeitstempel in Pyspark

Ich habe einen Datenrahmen mit einem Datum im folgenden Format: +----------------------+ |date | +----------------------+ |May 6, 2016 5:59:34 AM| +----------------------+Ich beabsichtige, das Datum im Format @ daraus zu extrahiereYYYY-MM-DD; ...

12 die antwort

Zwei PySpark-Datenrahmen verknüpfen

Ich versuche, zwei PySpark-Datenrahmen mit einigen Spalten zu verknüpfen, die sich jeweils nur in ihnen befinden: from pyspark.sql.functions import randn, rand df_1 = sqlContext.range(0, 10) +--+ |id| +--+ | 0| | 1| | 2| | 3| | 4| | 5| | 6| | ...