Como corrigir a exceção ao executar o programa spark-sql localmente no windows10, habilitando o HiveSuppor

Eu estou trabalhando emSPARK-SQL 2.3.1 e estou tentando ativar o hiveSupport enquanto cria uma sessão como abaixo

.enableHiveSupport()
.config("spark.sql.warehouse.dir", "c://tmp//hive")

Corri abaixo do comando

C:\Software\hadoop\hadoop-2.7.1\bin>winutils.exe chmod 777  C:\tmp\hive

Enquanto executa meu programa, obtendo:

Causado por: java.lang.RuntimeException: java.lang.RuntimeException: O diretório raiz do zero: / tmp / hive no HDFS deve ser gravável. As permissões atuais são: rw-rw-rw- em org.apache.hadoop.hive.ql.session.SessionState.start (SessionState.java:522)

Como corrigir esse problema e executar minha máquina Windows local?

questionAnswers(1)

yourAnswerToTheQuestion