O método de previsão xgboost retorna o mesmo valor previsto para todas as linhas
Eu criei um classificador xgboost em Python:
train é um dataframe de pandas com 100 mil linhas e 50 recursos como colunas. alvo é uma série de pandas
xgb_classifier = xgb.XGBClassifier(nthread=-1, max_depth=3, silent=0,
objective='reg:linear', n_estimators=100)
xgb_classifier = xgb_classifier.fit(train, target)
predictions = xgb_classifier.predict(test)
No entanto, após o treinamento, quando eu uso esse classificador para prever valores, toda a matriz de resultados é o mesmo número. Alguma idéia de por que isso estaria acontecendo?
Esclarecimento de dados: ~ 50 recursos numéricos com um objetivo numérico
Também tentei a Regressão RandomForest do sklearn com os mesmos dados e fornece previsões realistas. Talvez um bug legítimo na implementação do xgboost?