¿Cuál es la diferencia entre sparse_softmax_cross_entropy_with_logits y softmax_cross_entropy_with_logits?

Hace poco me encontrétf.nn.sparse_softmax_cross_entropy_with_logits y no puedo entender cuál es la diferencia contf.nn.softmax_cross_entropy_with_logits.

Es la única diferencia que los vectores de entrenamientoy tiene que sercodificado en caliente cuando usassparse_softmax_cross_entropy_with_logits?

Al leer la API, no pude encontrar ninguna otra diferencia en comparación consoftmax_cross_entropy_with_logits. Pero, ¿por qué necesitamos la función extra entonces?

No deberiasoftmax_cross_entropy_with_logits producir los mismos resultados quesparse_softmax_cross_entropy_with_logits, si se suministra con datos / vectores de entrenamiento codificados en caliente?

Respuestas a la pregunta(3)

Su respuesta a la pregunta