Erstellung des Spark-Clients fehlgeschlagen: Hive on Spark-Ausnahme

Ich habe meine Hive Execution Engine auf SPARK geändert. Wenn ich eine DML / DDL durchführe, erhalte ich die folgende Ausnahme.

hive> select count(*) from tablename;
Query ID = jibi_john_20160602153012_6ec1da36-dcb3-4f2f-a855-3b68be118b36
Total jobs = 1
Launching Job 1 out of 1
In order to change the average load for a reducer (in bytes):
set hive.exec.reducers.bytes.per.reducer=<number>
In order to limit the maximum number of reducers:
set hive.exec.reducers.max=<number>
In order to set a constant number of reducers:
set mapreduce.job.reduces=<number>
**Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)'
**FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask****
 

Antworten auf die Frage(4)

Ihre Antwort auf die Frage