Erro de serialização do Spark

Estou tentando aprender spark + scala. Eu quero ler do HBase, mas sem mapreduce. Eu criei uma tabela simples do HBase - "test" e fiz 3 testes nela. Eu quero lê-lo via faísca (sem HBaseTest que usa mapreduce). Eu tentei executar os seguintes comandos no shell

val numbers = Array(
  new Get(Bytes.toBytes("row1")), 
  new Get(Bytes.toBytes("row2")), 
  new Get(Bytes.toBytes("row3")))
val conf = new HBaseConfiguration()
val table = new HTable(conf, "test")
sc.parallelize(numbers, numbers.length).map(table.get).count()

Continuo recebendo erro - org.apache.spark.SparkException: Trabalho cancelado: tarefa não serializável: java.io.NotSerializableException: org.apache.hadoop.hbase.HBaseConfiguration

Alguém pode me ajudar, como posso criar um Htable que usa configuração serialzable

obrigado

questionAnswers(2)

yourAnswerToTheQuestion