Suchergebnisse für Anfrage "sparkr"
SparkR vs sparklyr [geschlossen]
Hat jemand einen Überblick über die Vor- / Nachteile von SparkR gegenüber sparklyr? Google liefert keine zufriedenstellenden Ergebnisse und beide scheinen ziemlich ähnlich zu sein. Wenn Sie beides ausprobieren, scheint SparkR viel umständlicher ...
SparkR von Rstudio - gibt in invokeJava einen Fehler aus (isStatic = TRUE, className, methodName,…):
Ich verwende RStudio. Nach dem Erstellen einer Sitzung, wenn ich versuche, einen Datenrahmen mit R-Daten zu erstellen, tritt ein Fehler auf. Sys.setenv(SPARK_HOME = "E:/spark-2.0.0-bin-hadoop2.7/spark-2.0.0-bin-hadoop2.7") ...
Wie werden Daten mit SparkR unnest?
UsingSparkR Wie können verschachtelte Arrays "aufgelöst" werden? Ich habe versucht mitexplode wie so: dat <- nested_spark_df %>% mutate(a=explode(metadata)) %>% head()Aber obwohl das oben Genannte nicht dazu führt, dass eine Ausnahme ausgelöst ...
sparkR 1.6: Vorhersage der Wahrscheinlichkeit bei der Modellierung mit glm (Binomialfamilie)
Ich habe gerade sparkR 1.6.1 auf CentOS installiert und verwende Hadoop nicht. Mein Code zum Modellieren von Daten mit diskreten 'TARGET'-Werten lautet wie folgt: # 'tr' is a R data frame with 104 numeric columns and one TARGET column # ...
Spalte zu DataFrame in sparkR @ hinzufüg
Ich möchte eine Spalte mit einem Zeichen hinzufügenN in einem DataFrame in SparkR. Ich würde es so mit Nicht-SparkR-Code machen: df$new_column <- "N"Aber mit SparkR erhalte ich den folgenden Fehler: Error: class(value) == "Column" || ...
Sollte ich cran r-Pakete auf Worker-Knoten vorinstallieren, wenn sparkr @ verwendet wir
Ich möchte r-Pakete auf cran wie @ verwendforecast etc mit sparkr und treffen folgende zwei probleme. Sollte ich alle diese Pakete auf Arbeitsknoten vorinstallieren? Aber wenn ich den Quellcode von spark @ leDiese ...
Sparkr schreibe DF als Datei csv / txt
Hi, ich arbeite an sparkR im Garnmodus. Ich muss ein Sparkr df in eine CSV / TXT-Datei schreiben. Ich habe gesehen, dass eswrite.df aber es schreibt Parkettdateien. Ich habe versucht, diese Dinge zu tun RdataFrame<-collect(SparkRDF) ...
SparkR Job 100 Minuten Timeout
Ich habe ein etwas komplexes sparkR-Skript geschrieben und es mit spark-submit ausgeführt. Grundsätzlich wird eine große, auf Hive / Impala-Parkett basierende Tabelle zeilenweise gelesen und eine neue Parkettdatei mit der gleichen Anzahl von ...
SparkR chinesisches Zeichen falsch anzeigen
Ich bin neu bei SparkR. Heutzutage ist ein Problem aufgetreten, das nach dem Konvertieren einer Datei mit chinesischen Zeichen in SparkR nicht mehr richtig angezeigt wird. So was city=c("北京","上海","杭州") A <- as.data.frame(city) A city 1 北京 2 上海 3 ...
R-Datenframes schreiben, die von SparkR ::: map @ zurückgegeben wurd
Ich verwende SparkR ::: map und meine Funktion gibt einen großen R-Datenrahmen für jede Eingabezeile mit derselben Form zurück. Ich möchte diese Datenrahmen als Parkettdateien schreiben, ohne sie zu "sammeln". Kann ich write.df über meine ...
Seite 1 von 2