Suchergebnisse für Anfrage "pyspark"

6 die antwort

Pyspark DataFrame UDF in Textspalte

Ich versuche, einige Unicode-Spalten in einem PySpark-DataFrame mit NLP-Text zu bereinigen. Ich habe es in Spark 1.3, 1.5 und 1.6 versucht und kann anscheinend nichts für mein Leben zum Laufen bringen. Ich habe auch versucht, Python 2.7 ...

22 die antwort

Wie verbinde ich PyCharm mit PySpark?

Ich bin neu mit Apache Spark und anscheinend habe ich Apache-Spark mit Homebrew in meinem MacBook installiert: Last login: Fri Jan 8 12:52:04 on console user@MacBook-Pro-de-User-2:~$ pyspark Python 2.7.10 (default, Jul 13 2015, 12:05:58) [GCC ...

2 die antwort

Create DataFrame von der Liste der Tupel mit pyspark

Ich arbeite mit Daten, die mit dem Simple-Salesforce-Paket aus SFDC extrahiert wurden. Ich verwende Python3 für Skripte und Spark 1.5.2. Ich habe einen Rdd erstellt, der die folgenden Daten enthält: [('Id', 'a0w1a0000003xB1A'), ('PackSize', ...

TOP-Veröffentlichungen

10 die antwort

Mit pyspark eine Verbindung zu PostgreSQL herstellen

Ich versuche mit pyspark eine Verbindung zu einer Datenbank herzustellen und verwende den folgenden Code: sqlctx = SQLContext(sc) df = sqlctx.load( url = "jdbc:postgresql://[hostname]/[database]", dbtable = "(SELECT * FROM talent LIMIT 1000) as ...

2 die antwort

Strip- oder Regex-Funktion in Spark 1.3 Dataframe

Ich habe einen Code aus PySpark 1.5, den ich leider rückwärts auf Spark 1.3 portieren muss. Ich habe eine Spalte mit alphanumerischen Elementen, möchte aber nur die Ziffern. Ein Beispiel für die Elemente in 'old_col' von 'df' ist: '125 Bytes' In ...

2 die antwort

Stack Overflow beim Verarbeiten mehrerer Spalten mit einer UDF

Ich habe einDataFrame mit vielen Spalten vonstr type, und ich möchte eine Funktion auf alle diese Spalten anwenden, ohne deren Namen umzubenennen oder weitere Spalten hinzuzufügen. Ich habe versucht, ein @ zu verwendefor-in Schleife wird ...

2 die antwort

pyspark und reduByKey: wie man eine einfache Summe macht

Ich versuche einen Code in Spark (Pyspark) für eine Aufgabe. Zum ersten Mal benutze ich diese Umgebung, also vermisse ich mit Sicherheit etwas… Ich habe einen einfachen Datensatz namens c_views. enn ich lauc_views.collect() Ich bekomm […] ...

6 die antwort

Während der Übergabe eines Jobs mit pyspark, wie kann man auf statische Dateien zugreifen, die mit dem Argument --files hochgeladen wurden?

Zum Beispiel habe ich einen Ordner: / - test.py - test.ymlund der Job wird gesendet, um den Cluster zu aktivieren mit: gcloud beta dataproc jobs submit pyspark --files=test.yml "test.py" in demtest.py, Ich möchte auf die hochgeladene ...

2 die antwort

First_value Fensterfunktion in Pyspark

Ich benutze Pyspark 1.5, um meine Daten aus Hive-Tabellen abzurufen und versuche, Fensterfunktionen zu verwenden. GemäßDie [https://databricks.com/blog/2015/07/15/introducing-window-functions-in-spark-sql.html] gibt es eine analytische ...

6 die antwort

Spark UI zeigt 0 Kerne an, auch wenn Kerne in App @ gesetzt werd

Ich habe ein seltsames Problem beim Ausführen einer Anwendung von der Spark-Master-URL, bei der die Benutzeroberfläche unbegrenzt den Status "WAITING" meldet, da in der Tabelle RUNNING APPLICATIONSs (AUSFÜHRENDE ANWENDUNGEN) 0 Kerne angezeigt ...