Erro de serialização do Spark
Estou tentando aprender spark + scala. Eu quero ler do HBase, mas sem mapreduce. Eu criei uma tabela simples do HBase - "test" e fiz 3 testes nela. Eu quero lê-lo via faísca (sem HBaseTest que usa mapreduce). Eu tentei executar os seguintes comandos no shell
val numbers = Array(
new Get(Bytes.toBytes("row1")),
new Get(Bytes.toBytes("row2")),
new Get(Bytes.toBytes("row3")))
val conf = new HBaseConfiguration()
val table = new HTable(conf, "test")
sc.parallelize(numbers, numbers.length).map(table.get).count()
Continuo recebendo erro - org.apache.spark.SparkException: Trabalho cancelado: tarefa não serializável: java.io.NotSerializableException: org.apache.hadoop.hbase.HBaseConfiguration
Alguém pode me ajudar, como posso criar um Htable que usa configuração serialzable
obrigado