Carregando com.databricks.spark.csv via RStudio

Eu instalei o Spark-1.4.0. Também instalei o pacote R SparkR e posso usá-lo via Spark-shell e via RStudio; no entanto, há uma diferença que não consigo resolver.

Ao iniciar o shell SparkR

./bin/sparkR --master local[7] --packages com.databricks:spark-csv_2.10:1.0.3

Eu posso ler um arquivo .csv da seguinte maneira

flights <- read.df(sqlContext, "data/nycflights13.csv", "com.databricks.spark.csv", header="true")

Infelizmente, quando inicio o SparkR via RStudio (configurando corretamente meu SPARK_HOME), recebo a seguinte mensagem de erro:

15/06/16 16:18:58 ERROR RBackendHandler: load on 1 failed
Caused by: java.lang.RuntimeException: Failed to load class for data source: com.databricks.spark.csv

Eu sei que deveria carregar com.databricks: spark-csv_2.10: 1.0.3 de uma maneira, mas não tenho idéia de como fazer isso. Alguém poderia me ajudar?

questionAnswers(4)

yourAnswerToTheQuestion