Jak klient zadania w hadoop oblicza dane wejściowe

Próbuję uzyskać wgląd w architekturę zmniejszania mapy. Konsultuję tohttp://answers.oreilly.com/topic/2141-how-mapreduce-works-with-hadoop/ artykuł. Mam kilka pytań dotyczących komponentu JobClient z ramek mapreduce. Moje pytania to:

Jak JObClient oblicza dane wejściowe w danych?

W zależności od tego, do czego się konsultuję, Job Client oblicza podziały wejściowe na danych znajdujących się w ścieżce wejściowej na HDFS określonym podczas uruchamiania zadania. artykuł mówi, że Job Client kopiuje zasoby (słoiki i skompilowane podziały wejściowe) na HDFS. Oto moje pytanie, kiedy dane wejściowe są w HDFS, dlaczego jobClient kopiuje obliczone dane wejściowe do HDFS.

Załóżmy, że klient zadania kopiuje podziały wejściowe na HDFS, teraz, gdy JOb jest przesyłany do modułu śledzenia zadań i śledzenia zadań, dostosowuje zadanie, dlaczego pobiera podziały wejściowe z HDFS?

Przepraszam, jeśli moje pytanie nie jest jasne. Jestem początkujący. :)

questionAnswers(2)

yourAnswerToTheQuestion