Como corrigir a exceção ao executar o programa spark-sql localmente no windows10, habilitando o HiveSuppor
Eu estou trabalhando emSPARK-SQL 2.3.1
e estou tentando ativar o hiveSupport enquanto cria uma sessão como abaixo
.enableHiveSupport()
.config("spark.sql.warehouse.dir", "c://tmp//hive")
Corri abaixo do comando
C:\Software\hadoop\hadoop-2.7.1\bin>winutils.exe chmod 777 C:\tmp\hive
Enquanto executa meu programa, obtendo:
Causado por: java.lang.RuntimeException: java.lang.RuntimeException: O diretório raiz do zero: / tmp / hive no HDFS deve ser gravável. As permissões atuais são: rw-rw-rw- em org.apache.hadoop.hive.ql.session.SessionState.start (SessionState.java:522)
Como corrigir esse problema e executar minha máquina Windows local?