¿Cuál es la diferencia entre sparse_softmax_cross_entropy_with_logits y softmax_cross_entropy_with_logits?
Hace poco me encontrétf.nn.sparse_softmax_cross_entropy_with_logits y no puedo entender cuál es la diferencia contf.nn.softmax_cross_entropy_with_logits.
Es la única diferencia que los vectores de entrenamientoy
tiene que sercodificado en caliente cuando usassparse_softmax_cross_entropy_with_logits
?
Al leer la API, no pude encontrar ninguna otra diferencia en comparación consoftmax_cross_entropy_with_logits
. Pero, ¿por qué necesitamos la función extra entonces?
No deberiasoftmax_cross_entropy_with_logits
producir los mismos resultados quesparse_softmax_cross_entropy_with_logits
, si se suministra con datos / vectores de entrenamiento codificados en caliente?