Запустите работу mapreduce из затмения

Я написал программу mapreduce на Java, которую я могу передать удаленному кластеру, работающему в распределенном режиме. В настоящее время я отправляю работу, используя следующие шаги:

export the mapreuce job as a jar (e.g. myMRjob.jar) submit the job to the remote cluster using the following shell command: hadoop jar myMRjob.jar

Я хотел бы представить работу непосредственно из Eclipse, когда я пытаюсь запустить программу. Как я могу это сделать?

В настоящее время я использую CDH3, и сокращенная версия моей конфигурации:

conf.set("hbase.zookeeper.quorum", getZookeeperServers());
conf.set("fs.default.name","hdfs://namenode/");
conf.set("mapred.job.tracker", "jobtracker:jtPort");
Job job = new Job(conf, "COUNT ROWS");
job.setJarByClass(CountRows.class);

// Set up Mapper
TableMapReduceUtil.initTableMapperJob(inputTable, scan, 
    CountRows.MyMapper.class, ImmutableBytesWritable.class,  
    ImmutableBytesWritable.class, job);  

// Set up Reducer
job.setReducerClass(CountRows.MyReducer.class);
job.setNumReduceTasks(16);

// Setup Overall Output
job.setOutputFormatClass(MultiTableOutputFormat.class);

job.submit();

Когда я запускаю это прямо из Eclipse, задание запускается, но Hadoop не может найти преобразователи / преобразователи. Я получаю следующие ошибки:

12/06/27 23:23:29 INFO mapred.JobClient:  map 0% reduce 0%  
12/06/27 23:23:37 INFO mapred.JobClient: Task Id :   attempt_201206152147_0645_m_000000_0, Status : FAILED  
java.lang.RuntimeException: java.lang.ClassNotFoundException:   com.mypkg.mapreduce.CountRows$MyMapper  
    at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:996)  
    at org.apache.hadoop.mapreduce.JobContext.getMapperClass(JobContext.java:212)  
    at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:602)  
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:323)   
    at org.apache.hadoop.mapred.Child$4.run(Child.java:270)  
    at java.security.AccessController.doPrivileged(Native Method)  
    at javax.security.auth.Subject.doAs(Subject.java:396)  
    at   org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1127)  
    at org.apache.hadoop.mapred.Child.main(Child.java:264)  
...

Кто-нибудь знает, как обойти эти ошибки? Если я смогу это исправить, я смогу интегрировать больше заданий MR в свои сценарии, что было бы здорово!

Ответы на вопрос(3)

Ваш ответ на вопрос