Diferencia entre min_samples_split y min_samples_leaf en sklearn DecisionTreeClassifier
Estaba pasando por la clase de sklearnDecisionTreeClassifier.
Mirando los parámetros para la clase, tenemos dos parámetrosmin_samples_split ymin_samples_leaf. La idea básica detrás de ellos es similar, usted especifica un número mínimo de muestras requeridas para decidir que un nodo sea hoja o dividido aún más.
¿Por qué necesitamos dos parámetros cuando uno implica el otro? ¿Hay alguna razón o escenario que los distinga?