Uruchom zadanie mapreduce z zaćmienia

Napisałem program mapreduce w Javie, który mogę przesłać do zdalnego klastra działającego w trybie rozproszonym. Obecnie przesyłam zadanie, wykonując następujące czynności:

wyeksportuj zadanie mapreuce jako słoik (np.myMRjob.jar)prześlij zadanie do zdalnego klastra za pomocą następującego polecenia powłoki:hadoop jar myMRjob.jar

Chciałbym przesłać pracę bezpośrednio z Eclipse, gdy próbuję uruchomić program. Jak mogę to zrobić?

Obecnie używam CDH3, a skrócona wersja mojego conf to:

conf.set("hbase.zookeeper.quorum", getZookeeperServers());
conf.set("fs.default.name","hdfs://namenode/");
conf.set("mapred.job.tracker", "jobtracker:jtPort");
Job job = new Job(conf, "COUNT ROWS");
job.setJarByClass(CountRows.class);

// Set up Mapper
TableMapReduceUtil.initTableMapperJob(inputTable, scan, 
    CountRows.MyMapper.class, ImmutableBytesWritable.class,  
    ImmutableBytesWritable.class, job);  

// Set up Reducer
job.setReducerClass(CountRows.MyReducer.class);
job.setNumReduceTasks(16);

// Setup Overall Output
job.setOutputFormatClass(MultiTableOutputFormat.class);

job.submit();

Kiedy uruchamiam to bezpośrednio z Eclipse, zadanie jest uruchamiane, ale Hadoop nie może znaleźć programów odwzorowujących / redukujących. Dostaję następujące błędy:

12/06/27 23:23:29 INFO mapred.JobClient:  map 0% reduce 0%  
12/06/27 23:23:37 INFO mapred.JobClient: Task Id :   attempt_201206152147_0645_m_000000_0, Status : FAILED  
java.lang.RuntimeException: java.lang.ClassNotFoundException:   com.mypkg.mapreduce.CountRows$MyMapper  
    at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:996)  
    at org.apache.hadoop.mapreduce.JobContext.getMapperClass(JobContext.java:212)  
    at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:602)  
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:323)   
    at org.apache.hadoop.mapred.Child$4.run(Child.java:270)  
    at java.security.AccessController.doPrivileged(Native Method)  
    at javax.security.auth.Subject.doAs(Subject.java:396)  
    at   org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1127)  
    at org.apache.hadoop.mapred.Child.main(Child.java:264)  
...

Czy ktoś wie, jak ominąć te błędy? Jeśli mogę to naprawić, mogę zintegrować więcej zadań MR z moimi skryptami, co byłoby niesamowite!

questionAnswers(3)

yourAnswerToTheQuestion