Was ist der Unterschied zwischen sparse_softmax_cross_entropy_with_logits und softmax_cross_entropy_with_logits?

Ich bin kürzlich auf @ gestoß tf.nn.sparse_softmax_cross_entropy_with_logits und ich kann nicht herausfinden, was der Unterschied zu @ i tf.nn.softmax_cross_entropy_with_logits.

Ist der einzige Unterschied, dass Trainingsvektoreny muss sein one-hot encoded beim Benutzensparse_softmax_cross_entropy_with_logits?

eim Lesen der API konnte ich keinen anderen Unterschied zu @ feststellesoftmax_cross_entropy_with_logits. Aber warum brauchen wir dann die Zusatzfunktion?

Sollte nichtsoftmax_cross_entropy_with_logits produzieren die gleichen Ergebnisse wiesparse_softmax_cross_entropy_with_logits, wenn es mit One-Hot-codierten Trainingsdaten / Vektoren geliefert wird?

Antworten auf die Frage(6)

Ihre Antwort auf die Frage