Error de serialización de chispa

Estoy tratando de aprender spark + scala. Quiero leer de HBase, pero sin mapreduce. Creé una tabla simple de HBase - "prueba" e hice 3 puestos en ella. Quiero leerlo por chispa (sin HBaseTest que usa mapreduce). Traté de ejecutar los siguientes comandos en shell

val numbers = Array(
  new Get(Bytes.toBytes("row1")), 
  new Get(Bytes.toBytes("row2")), 
  new Get(Bytes.toBytes("row3")))
val conf = new HBaseConfiguration()
val table = new HTable(conf, "test")
sc.parallelize(numbers, numbers.length).map(table.get).count()

Sigo recibiendo errores: org.apache.spark.SparkException: trabajo cancelado: tarea no serializable: java.io.NotSerializableException: org.apache.hadoop.hbase.HBaseConfiguration

¿Alguien puede ayudarme? ¿Cómo puedo crear una Htable que use una configuración serializable?

Gracias

Respuestas a la pregunta(2)

Su respuesta a la pregunta