¿Cómo crear SparkSession con soporte de Hive (falla con "No se encuentran las clases de Hive")?

Recibo este error cuando intento ejecutar este código.

import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
public class App 
{
    public static void main(String[] args) throws Exception {
        String warehouseLocation = "file:" + System.getProperty("user.dir") + "spark-warehouse";
        SparkSession spark = SparkSession
          .builder().master("local")
          .appName("Java Spark Hive Example")
          .config("spark.sql.warehouse.dir", warehouseLocation).enableHiveSupport()
          .getOrCreate();

        String path = "/home/cloudera/Downloads/NetBeansProjects/sparksql1/src/test/Employee.json";

        spark.sql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING)");
        spark.sql("LOAD DATA LOCAL INPATH '"+path+"' INTO TABLE src");



        //load from HDFS

         Dataset<Row> df = spark.read().json(path);

         df.registerTempTable("temp_table");

         spark.sql("create table TEST.employee as select * from temp_table");

         df.printSchema();
         df.show();

        }
}

Salida:

Excepción en el hilo "main" java.lang.IllegalArgumentException: no se puede crear una instancia de SparkSession con soporte de Hive porque no se encuentran las clases de Hive. en org.apache.spark.sql.SparkSession $ Builder.enableHiveSupport (SparkSession.scala: 778) en com.training.hivetest.App.main (App.java:21)

¿Cómo se puede resolver?

Respuestas a la pregunta(3)

Su respuesta a la pregunta