O mecanismo de lematização reduz o tamanho do corpus?

Caros membros da comunidade,

Durante o pré-processamento dos dados, depois de dividir os dados brutos em tokens, usei o popular WordNet Lemmatizer para gerar as hastes. Estou realizando experimentos em um conjunto de dados que possui 18953 tokens.

Minha pergunta é: o processo de lematização reduz o tamanho do corpus? Estou confuso, por favor, ajude a este respeito. Qualquer ajuda é apreciada!

questionAnswers(1)

yourAnswerToTheQuestion