Ошибка при использовании контекста Hive в spark: объект hive не является членом пакета org.apache.spark.sql

Я пытаюсь создать Hive Context, который наследуется от SQLContext.

val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)

Я получаю следующую ошибку:

error: object hive is not a member of package org.apache.spark.sql
       val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)

По автозаполнению я ясно вижу, что улей не существует. Любые идеи о том, как решить эту проблему? Это пример из доступной документации sparkSQL.

Спасибо

Ответы на вопрос(4)

Ваш ответ на вопрос