Spark 1.5.1 não funciona com o hive jdbc 1.2.0

Estou tentando executar a consulta de seção usando o spark 1.5.1 no modo autônomo e a versão 1.2.0 jdbc da seção.

Aqui está o meu pedaço de código:

private static final String HIVE_DRIVER = "org.apache.hive.jdbc.HiveDriver";
private static final String HIVE_CONNECTION_URL = "jdbc:hive2://localhost:10000/idw";
private static final SparkConf sparkconf = new SparkConf().set("spark.master", "spark://impetus-i0248u:7077").set("spark.app.name", "sparkhivesqltest")
                .set("spark.cores.max", "1").set("spark.executor.memory", "512m");

private static final JavaSparkContext sc = new JavaSparkContext(sparkconf);
private static final SQLContext sqlContext = new SQLContext(sc);
public static void main(String[] args) {                
    //Data source options
    Map<String, String> options = new HashMap<String, String>();
    options.put("driver", HIVE_DRIVER);
    options.put("url", HIVE_CONNECTION_URL);
    options.put("dbtable", "(select * from idw.emp) as employees_name");
    DataFrame jdbcDF =    sqlContext.read().format("jdbc").options(options).load();    
    }

Estou recebendo o erro abaixo emsqlContext.read().format("jdbc").options(options).load();

Exceção no encadeamento "main" java.sql.SQLException: método não suportado em org.apache.hive.jdbc.HiveResultSetMetaData.isSigned (HiveResultSetMetaData.java:143) às

org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD $ .resolveTable (JDBCRDD.scala: 135) em org.apache.spark.sql.execution.datasources.jdbc.JDBCRelation. (JDBCRelation.scala: 91) em org.apache.spark.sql.execution.datasources.jdbc.DefaultSource.createRelation (DefaultSource.scala: 60) em org.apache.spark.sql.execution.datasources.ResolvedDataSource $ .apply (ResolvedDataSource.scala: 125) na organização .apache.spark.sql.DataFrameReader.load (DataFrameReader.scala: 114)

Estou executando o spark 1.5.1 no modo autônomo A versão do Hadoop é 2.6 A versão do Hive é 1.2.0

Aqui está a dependência que eu adicionei no projeto java no pom.xml

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.10</artifactId>
    <version>1.5.1</version>
</dependency>

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.10</artifactId>
    <version>1.5.1</version>
</dependency>

<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-jdbc</artifactId>
    <version>1.2.0</version>
    <exclusions>
    <exclusion>
        <groupId>javax.servlet</groupId>
        <artifactId>servlet-api</artifactId>
    </exclusion>
    </exclusions>
</dependency>

<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-core</artifactId>
    <version>1.2.0</version>
</dependency>

Alguém pode me ajudar nisso? Se alguém usou o spark 1.5.1 com o hive jdbc, pode me dizer a versão compatível do hive for spark 1.5.1.

Agradeço antecipadamente..!

questionAnswers(1)

yourAnswerToTheQuestion