Valores redutores do Hadoop na memória?

Estou escrevendo um trabalho MapReduce que pode acabar com um grande número de valores no redutor. Estou preocupado com todos esses valores sendo carregados na memória de uma só vez.

A implementação subjacente doIterable<VALUEIN> values carregar valores na memória conforme eles são necessários? Hadoop: O Definitive Guide parece sugerir que este é o caso, mas não dá uma resposta "definitiva".

A saída do redutor será muito mais massiva do que a entrada de valores, mas acredito que a saída seja gravada no disco conforme necessário.

questionAnswers(3)

yourAnswerToTheQuestion