Ошибка при использовании контекста Hive в spark: объект hive не является членом пакета org.apache.spark.sql
Я пытаюсь создать Hive Context, который наследуется от SQLContext.
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
Я получаю следующую ошибку:
error: object hive is not a member of package org.apache.spark.sql
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
По автозаполнению я ясно вижу, что улей не существует. Любые идеи о том, как решить эту проблему? Это пример из доступной документации sparkSQL.
Спасибо