¿El mecanismo de lematización reduce el tamaño del cuerpo?

Queridos miembros de la comunidad,

Durante el preprocesamiento de datos, después de dividir los raw_data en tokens, he usado el popular WordNet Lemmatizer para generar los tallos. Estoy realizando experimentos en un conjunto de datos que tiene 18953 tokens.

Mi pregunta es, ¿el proceso de lematización reduce el tamaño del corpus? Estoy confundido, amablemente ayuda en este sentido. Cualquier ayuda es apreciada!

Respuestas a la pregunta(1)

Su respuesta a la pregunta