Suchergebnisse für Anfrage "sparkr"

0 die antwort

SparkR collect () und head () Fehler für Spark DataFrame: Argumente implizieren unterschiedliche Zeilenanzahl

Ich habe eine Parkettdatei vom HDFS-System gelesen: path<-"hdfs://part_2015" AppDF <- parquetFile(sqlContext, path) printSchema(AppDF) root |-- app: binary (nullable = true) |-- category: binary (nullable = true) |-- date: binary (nullable = ...

0 die antwort

SparkR: Split-Apply-Combine im Dplyr-Stil für DataFrame

Unter dem vorherigen RDD-Paradigma könnte ich einen Schlüssel angeben und dann eine Operation den RDD-Elementen zuordnen, die jedem Schlüssel entsprechen. Ich sehe keinen klaren Weg, um dies mit DataFrame in SparkR ab 1.5.1 zu tun. Was ich tun ...

2 die antwort

R-Datenframes schreiben, die von SparkR ::: map @ zurückgegeben wurd

Ich verwende SparkR ::: map und meine Funktion gibt einen großen R-Datenrahmen für jede Eingabezeile mit derselben Form zurück. Ich möchte diese Datenrahmen als Parkettdateien schreiben, ohne sie zu "sammeln". Kann ich write.df über meine ...

TOP-Veröffentlichungen

2 die antwort

SparkR chinesisches Zeichen falsch anzeigen

Ich bin neu bei SparkR. Heutzutage ist ein Problem aufgetreten, das nach dem Konvertieren einer Datei mit chinesischen Zeichen in SparkR nicht mehr richtig angezeigt wird. So was city=c("北京","上海","杭州") A <- as.data.frame(city) A city 1 北京 2 上海 3 ...

2 die antwort

SparkR Job 100 Minuten Timeout

Ich habe ein etwas komplexes sparkR-Skript geschrieben und es mit spark-submit ausgeführt. Grundsätzlich wird eine große, auf Hive / Impala-Parkett basierende Tabelle zeilenweise gelesen und eine neue Parkettdatei mit der gleichen Anzahl von ...

2 die antwort

Sparkr schreibe DF als Datei csv / txt

Hi, ich arbeite an sparkR im Garnmodus. Ich muss ein Sparkr df in eine CSV / TXT-Datei schreiben. Ich habe gesehen, dass eswrite.df aber es schreibt Parkettdateien. Ich habe versucht, diese Dinge zu tun RdataFrame<-collect(SparkRDF) ...

2 die antwort

sparkR 1.6: Vorhersage der Wahrscheinlichkeit bei der Modellierung mit glm (Binomialfamilie)

Ich habe gerade sparkR 1.6.1 auf CentOS installiert und verwende Hadoop nicht. Mein Code zum Modellieren von Daten mit diskreten 'TARGET'-Werten lautet wie folgt: # 'tr' is a R data frame with 104 numeric columns and one TARGET column # ...

4 die antwort

Wie werden Null-Einträge in SparkR behandelt?

Ich habe einen SparkSQL DataFrame. Einige Einträge in diesen Daten sind leer, verhalten sich jedoch nicht wie NULL oder NA. Wie könnte ich sie entfernen? Irgendwelche Ideen n R kann ich sie leicht entfernen, aber in sparkR heißt es, dass es ein ...

4 die antwort

Spalte zu DataFrame in sparkR @ hinzufüg

Ich möchte eine Spalte mit einem Zeichen hinzufügenN in einem DataFrame in SparkR. Ich würde es so mit Nicht-SparkR-Code machen: df$new_column <- "N"Aber mit SparkR erhalte ich den folgenden Fehler: Error: class(value) == "Column" || ...

4 die antwort

Wie werden Daten mit SparkR unnest?

UsingSparkR Wie können verschachtelte Arrays "aufgelöst" werden? Ich habe versucht mitexplode wie so: dat <- nested_spark_df %>% mutate(a=explode(metadata)) %>% head()Aber obwohl das oben Genannte nicht dazu führt, dass eine Ausnahme ausgelöst ...