Laden von com.databricks.spark.csv über RStudio
Ich habe Spark-1.4.0 installiert. Ich habe auch das R-Paket SparkR installiert und kann es über Spark-Shell und RStudio verwenden. Es gibt jedoch einen Unterschied, den ich nicht lösen kann.
Wenn die SparkR-Shell gestartet wird
./bin/sparkR --master local[7] --packages com.databricks:spark-csv_2.10:1.0.3
Ich kann eine .csv-Datei wie folgt lesen
flights <- read.df(sqlContext, "data/nycflights13.csv", "com.databricks.spark.csv", header="true")
Wenn ich SparkR über RStudio starte (SPARK_HOME richtig einstelle), bekomme ich leider folgende Fehlermeldung:
15/06/16 16:18:58 ERROR RBackendHandler: load on 1 failed
Caused by: java.lang.RuntimeException: Failed to load class for data source: com.databricks.spark.csv
Ich weiß, ich sollte com.databricks laden: spark-csv_2.10: 1.0.3 in gewisser Weise, aber ich habe keine Ahnung, wie das geht. Könnte mir jemand helfen?