O método de previsão xgboost retorna o mesmo valor previsto para todas as linhas

Eu criei um classificador xgboost em Python:

train é um dataframe de pandas com 100 mil linhas e 50 recursos como colunas. alvo é uma série de pandas

xgb_classifier = xgb.XGBClassifier(nthread=-1, max_depth=3, silent=0, 
                                   objective='reg:linear', n_estimators=100)
xgb_classifier = xgb_classifier.fit(train, target)

predictions = xgb_classifier.predict(test)

No entanto, após o treinamento, quando eu uso esse classificador para prever valores, toda a matriz de resultados é o mesmo número. Alguma idéia de por que isso estaria acontecendo?

Esclarecimento de dados: ~ 50 recursos numéricos com um objetivo numérico

Também tentei a Regressão RandomForest do sklearn com os mesmos dados e fornece previsões realistas. Talvez um bug legítimo na implementação do xgboost?

questionAnswers(5)

yourAnswerToTheQuestion