"No hay sistema de archivos para el esquema: gs" cuando se ejecuta el trabajo de chispa localmente

Estoy ejecutando un trabajo de Spark (versión 1.2.0), y la entrada es una carpeta dentro de un depósito de Google Clous Storage (es decir, gs: // mybucket / folder)

Cuando ejecuto el trabajo localmente en mi máquina Mac, obtengo el siguiente error:

5932 [main] ERROR com.doit.customer.dataconverter.Phase1 - Job for date: 2014_09_23 falló con error: No FileSystem para el esquema: gs

Sé que hay que hacer 2 cosas para que las rutas gs sean compatibles. Uno es instalar el conector GCS y el otro es tener la siguiente configuración en core-site.xml de la instalación de Hadoop:

<property>
    <name>fs.gs.impl</name>
    <value>com.google.cloud.hadoop.fs.gcs.GoogleHadoopFileSystem</value>
    <description>The FileSystem for gs: (GCS) uris.</description>
</property>
<property>
    <name>fs.AbstractFileSystem.gs.impl</name>
    <value>com.google.cloud.hadoop.fs.gcs.GoogleHadoopFS</value>
    <description>
     The AbstractFileSystem for gs: (GCS) uris. Only necessary for use with Hadoop 2.
    </description>
</property>

Creo que mi problema proviene del hecho de que no estoy seguro de dónde se debe configurar exactamente cada pieza en este modo local. En el proyecto Intellij, estoy usando Maven, por lo que importé la biblioteca de chispas de la siguiente manera:

<dependency> <!-- Spark dependency -->
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.10</artifactId>
    <version>1.2.0</version>
    <exclusions>
        <exclusion>  <!-- declare the exclusion here -->
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
        </exclusion>
    </exclusions>
</dependency>

y Hadoop 1.2.1 de la siguiente manera:

<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-client</artifactId>
    <version>1.2.1</version>
</dependency>

La cuestión es que no estoy seguro de dónde está configurada la ubicación de hadoop para Spark, y tampoco dónde está configurada la configuración de hadoop. Por lo tanto, puedo estar agregando a la instalación incorrecta de Hadoop. Además, ¿hay algo que deba reiniciarse después de modificar los archivos? Por lo que vi, no hay ningún servicio de Hadoop ejecutándose en mi máquina.