El manejo de errores en el mapa de hadoop reduce

De acuerdo con la documentación, hay algunas formas en que se reduce el manejo de errores en el mapa. Debajo están los pocos:

a. Contadores personalizados que utilizan enum - incremento para cada registro fallido.

si. Registra el error y analiza más tarde.

Los contadores dan el número de registros fallidos. Sin embargo, para obtener el identificador del registro fallido (puede ser su clave única) y se produjeron detalles de la excepción, nodo en el que se produjo el error, debemos realizar un análisis de registro centralizado y hay muchos nodos en ejecución. Logstash está en que está disponible.

Además de estos, ¿hay otras formas de manejar los escenarios de error, sin intervención manual? Cualquier herramienta, referencias, mejores prácticas son bienvenidas.

Creo que la misma técnica se aplica a cualquier aplicación distribuida, con cambios menores.

Respuestas a la pregunta(1)

Su respuesta a la pregunta