Standardanzahl der Reduzierungen

Wenn wir in Hadoop nicht die Anzahl der Reduzierungen festgelegt haben, wie viele Reduzierungen werden dann erstellt?

Die Anzahl der Mapper ist abhängig von (Gesamtdatengröße) / (Eingabe-Split-Größe), Z.B. Wenn die Datengröße 1 TB und die geteilte Eingabegröße 100 MB beträgt. Dann ist die Anzahl der Mapper (1000 * 1000) / 100 = 10000 (Zehntausend).

Die Anzahl der Reduzierstücke hängt von welchen Faktoren ab? Wie viele Reduzierungen werden für einen Job erstellt?

Antworten auf die Frage(4)

Ihre Antwort auf die Frage