Error de serialización de chispa
Estoy tratando de aprender spark + scala. Quiero leer de HBase, pero sin mapreduce. Creé una tabla simple de HBase - "prueba" e hice 3 puestos en ella. Quiero leerlo por chispa (sin HBaseTest que usa mapreduce). Traté de ejecutar los siguientes comandos en shell
val numbers = Array(
new Get(Bytes.toBytes("row1")),
new Get(Bytes.toBytes("row2")),
new Get(Bytes.toBytes("row3")))
val conf = new HBaseConfiguration()
val table = new HTable(conf, "test")
sc.parallelize(numbers, numbers.length).map(table.get).count()
Sigo recibiendo errores: org.apache.spark.SparkException: trabajo cancelado: tarea no serializable: java.io.NotSerializableException: org.apache.hadoop.hbase.HBaseConfiguration
¿Alguien puede ayudarme? ¿Cómo puedo crear una Htable que use una configuración serializable?
Gracias