Como executar várias instâncias do Spark 2.0 de uma vez (em vários notebooks Jupyter)?

Eu tenho um script que convenientemente me permite usar o Spark em um Notebook Jupyter. Isso é ótimo, exceto quando executo comandos spark em um segundo notebook (por exemplo, para testar algum trabalho de rascunho).

Recebo uma mensagem de erro muito longa, cujas partes principais parecem ser:

Py4JJavaError: ocorreu um erro ao chamar o31.json. : java.lang.RuntimeException: java.lang.RuntimeException: Não foi possível instanciar org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient`

. . .

Causado por: ERRO XSDB6: Outra instância do Derby já pode ter inicializado o banco de dados / metastore_db

O problema parece ser que eu posso executar apenas uma instância do Spark por vez.

Como posso configurar o Spark para executar em vários notebooks de uma só vez?

questionAnswers(1)

yourAnswerToTheQuestion