Могут ли SparkContext и StreamingContext сосуществовать в одной программе?

Я пытаюсь настроить код Sparkstreaming, который читает строку с сервера Kafka, но обрабатывает ее, используя правила, записанные в другом локальном файле. Я создаю streamingContext для потоковых данных и sparkContext для других, применяя все другие функции spark - например, манипулирование строками, чтение локальных файлов и т. Д.

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("ReadLine")
val ssc = new StreamingContext(sparkConf, Seconds(15))
ssc.checkpoint("checkpoint")

    val topicMap = topics.split(",").map((_, numThreads.toInt)).toMap
    val lines = KafkaUtils.createStream(ssc, zkQuorum, group, topicMap).map(_._2)
    val sentence = lines.toString

    val conf = new SparkConf().setAppName("Bi Gram").setMaster("local[2]")
    val sc = new SparkContext(conf)
    val stringRDD = sc.parallelize(Array(sentence))

Но это бросает следующую ошибку

Exception in thread "main" org.apache.spark.SparkException: Only one SparkContext may be running in this JVM (see SPARK-2243). To ignore this error, set spark.driver.allowMultipleContexts = true. The currently running SparkContext was created at:
org.apache.spark.SparkContext.<init>(SparkContext.scala:82)
org.apache.spark.streaming.StreamingContext$.createNewSparkContext(StreamingContext.scala:874)
org.apache.spark.streaming.StreamingContext.<init>(StreamingContext.scala:81)

Ответы на вопрос(2)

Ваш ответ на вопрос