Laden von com.databricks.spark.csv über RStudio

Ich habe Spark-1.4.0 installiert. Ich habe auch das R-Paket SparkR installiert und kann es über Spark-Shell und RStudio verwenden. Es gibt jedoch einen Unterschied, den ich nicht lösen kann.

Wenn die SparkR-Shell gestartet wird

./bin/sparkR --master local[7] --packages com.databricks:spark-csv_2.10:1.0.3

Ich kann eine .csv-Datei wie folgt lesen

flights <- read.df(sqlContext, "data/nycflights13.csv", "com.databricks.spark.csv", header="true")

Wenn ich SparkR über RStudio starte (SPARK_HOME richtig einstelle), bekomme ich leider folgende Fehlermeldung:

15/06/16 16:18:58 ERROR RBackendHandler: load on 1 failed
Caused by: java.lang.RuntimeException: Failed to load class for data source: com.databricks.spark.csv

Ich weiß, ich sollte com.databricks laden: spark-csv_2.10: 1.0.3 in gewisser Weise, aber ich habe keine Ahnung, wie das geht. Könnte mir jemand helfen?

Antworten auf die Frage(8)

Ihre Antwort auf die Frage