Diferencia entre min_samples_split y min_samples_leaf en sklearn DecisionTreeClassifier

Estaba pasando por la clase de sklearnDecisionTreeClassifier.

Mirando los parámetros para la clase, tenemos dos parámetrosmin_samples_split ymin_samples_leaf. La idea básica detrás de ellos es similar, usted especifica un número mínimo de muestras requeridas para decidir que un nodo sea hoja o dividido aún más.

¿Por qué necesitamos dos parámetros cuando uno implica el otro? ¿Hay alguna razón o escenario que los distinga?

Respuestas a la pregunta(1)

Su respuesta a la pregunta