cómo evitar que el trabajo hadoop falle en un archivo de entrada dañado

Estoy ejecutando trabajo hadoop en muchos archivos de entrada. Pero si uno de los archivos está dañado, todo el trabajo falla.

¿Cómo puedo hacer el trabajo para ignorar el archivo dañado? Tal vez escriba para mí algún contador / registro de errores, perono fallar todo el trabajo

Respuestas a la pregunta(3)

Su respuesta a la pregunta