Suchergebnisse für Anfrage "sparkr"

8 die antwort

Laden von com.databricks.spark.csv über RStudio

Ich habe Spark-1.4.0 installiert. Ich habe auch das R-Paket SparkR installiert und kann es über Spark-Shell und RStudio verwenden. Es gibt jedoch einen Unterschied, den ich nicht lösen kann. Wenn die SparkR-Shell gestartet wird ./bin/sparkR ...

8 die antwort

Installation von SparkR

Ich habe die letzte Version von R - 3.2.1. Jetzt möchte ich SparkR auf R installieren. Nachdem ich ausgeführt habe: > install.packages("SparkR")Ich bin zurückgekommen Installing package into ‘/home/user/R/x86_64-pc-linux-gnu-library/3.2’ (as ...

8 die antwort

SparkR Fehler in sparkR.init (master = “local”) in RStudio

Ich habe das SparkR-Paket von der Spark-Distribution in die R-Bibliothek installiert. Ich kann den folgenden Befehl aufrufen und es scheint richtig zu funktionieren:library(SparkR) Wenn ich jedoch versuche, den Spark-Kontext mithilfe des ...

TOP-Veröffentlichungen

0 die antwort

SparkR collect () und head () Fehler für Spark DataFrame: Argumente implizieren unterschiedliche Zeilenanzahl

Ich habe eine Parkettdatei vom HDFS-System gelesen: path<-"hdfs://part_2015" AppDF <- parquetFile(sqlContext, path) printSchema(AppDF) root |-- app: binary (nullable = true) |-- category: binary (nullable = true) |-- date: binary (nullable = ...

4 die antwort

Wie werden Null-Einträge in SparkR behandelt?

Ich habe einen SparkSQL DataFrame. Einige Einträge in diesen Daten sind leer, verhalten sich jedoch nicht wie NULL oder NA. Wie könnte ich sie entfernen? Irgendwelche Ideen n R kann ich sie leicht entfernen, aber in sparkR heißt es, dass es ein ...

0 die antwort

SparkR: Split-Apply-Combine im Dplyr-Stil für DataFrame

Unter dem vorherigen RDD-Paradigma könnte ich einen Schlüssel angeben und dann eine Operation den RDD-Elementen zuordnen, die jedem Schlüssel entsprechen. Ich sehe keinen klaren Weg, um dies mit DataFrame in SparkR ab 1.5.1 zu tun. Was ich tun ...

6 die antwort

Doppelte Spalten in Spark Dataframe

Ich habe eine 10-GB-CSV-Datei in Hadoop-Cluster mit doppelten Spalten. Ich versuche es in SparkR zu analysieren, also benutze ichspark-csv Paket, um es als @ zu analysierDataFrame: df <- read.df( sqlContext, FILE_PATH, source = ...

2 die antwort

R-Datenframes schreiben, die von SparkR ::: map @ zurückgegeben wurd

Ich verwende SparkR ::: map und meine Funktion gibt einen großen R-Datenrahmen für jede Eingabezeile mit derselben Form zurück. Ich möchte diese Datenrahmen als Parkettdateien schreiben, ohne sie zu "sammeln". Kann ich write.df über meine ...

2 die antwort

SparkR chinesisches Zeichen falsch anzeigen

Ich bin neu bei SparkR. Heutzutage ist ein Problem aufgetreten, das nach dem Konvertieren einer Datei mit chinesischen Zeichen in SparkR nicht mehr richtig angezeigt wird. So was city=c("北京","上海","杭州") A <- as.data.frame(city) A city 1 北京 2 上海 3 ...

2 die antwort

SparkR Job 100 Minuten Timeout

Ich habe ein etwas komplexes sparkR-Skript geschrieben und es mit spark-submit ausgeführt. Grundsätzlich wird eine große, auf Hive / Impala-Parkett basierende Tabelle zeilenweise gelesen und eine neue Parkettdatei mit der gleichen Anzahl von ...