sklearn metrics.log_loss es positivo vs. la puntuación 'neg_log_loss' es negativa

Asegurándome de que estoy haciendo esto bien:

Si usamossklearn.metrics.log_loss independiente, es decir, log_loss (y_true, y_pred), genera una puntuación positiva: cuanto menor sea la puntuación, mejor será el rendimiento.

Sin embargo, si usamos'neg_log_loss' como un esquema de puntuación como en 'cross_val_score ", la puntuación es negativa: cuanto mayor sea la puntuación, mejor será el rendimiento.

Y esto se debe a que el esquema de puntuación está diseñado para ser coherente con otros esquemas de puntuación. Como generalmente, cuanto más alto, mejor, negamos lo habituallog_loss para ser consistente con la tendencia. Y se hace únicamente para ese propósito. ¿Es correcto este entendimiento?

[Antecedentes: obtuve puntajes positivos para metric.log_loss y puntajes negativos para 'neg_los_loss', y ambos se refieren a la misma página de documentación.]

Respuestas a la pregunta(1)

Su respuesta a la pregunta