Shuffle-Fehler: max_failed_unique_matche überschritten: Bailout

Ich bin neu in Hadoop und ich versuche, das Wordcount-Beispiel auszuführen. Ich habe einen Cluster von 4 Knoten, die von virtuellen Maschinen auf meinem Computer erstellt wurden. Jedes Mal, wenn der Job die Kartenaufgabe abschließt, aber die Reduzierungsaufgabe zur Zeit von ungefähr 16% zeigt diesen Fehler:

Shuffle-Fehler: MAX_FAILED_UNIQUE_FETCHES überschritten; Rettung.

12/05/24 04:43:12 WARN mapred.JobClient: Fehler beim Lesen der Task outputmachine3-VirtualBox

Es sieht so aus, als ob die Slaves keine Daten von anderen Slaves abrufen können. Auf einigen Links habe ich festgestellt, dass es aufgrund von Inkonsistenzen in der Datei / etc / hosts kommen kann. Aber ich habe sie überprüft und sie sind alle konsistent. Kann mir jemand weiterhelfen

Antworten auf die Frage(2)

Ihre Antwort auf die Frage