Diferença entre min_samples_split e min_samples_leaf no sklearn DecisionTreeClassifier
Eu estava passando pela aula sklearnDecisionTreeClassifier.
Olhando para os parâmetros da classe, temos dois parâmetrosmin_samples_split emin_samples_leaf. A ideia básica por trás deles é semelhante, você especifica um número mínimo de amostras necessárias para decidir que um nó deve ser folha ou ser dividido ainda mais.
Por que precisamos de dois parâmetros quando um implica o outro? Existe algum motivo ou cenário que os distinga?