Was ist der Unterschied zwischen sparse_softmax_cross_entropy_with_logits und softmax_cross_entropy_with_logits?
Ich bin kürzlich auf @ gestoß tf.nn.sparse_softmax_cross_entropy_with_logits und ich kann nicht herausfinden, was der Unterschied zu @ i tf.nn.softmax_cross_entropy_with_logits.
Ist der einzige Unterschied, dass Trainingsvektoreny
muss sein one-hot encoded beim Benutzensparse_softmax_cross_entropy_with_logits
?
eim Lesen der API konnte ich keinen anderen Unterschied zu @ feststellesoftmax_cross_entropy_with_logits
. Aber warum brauchen wir dann die Zusatzfunktion?
Sollte nichtsoftmax_cross_entropy_with_logits
produzieren die gleichen Ergebnisse wiesparse_softmax_cross_entropy_with_logits
, wenn es mit One-Hot-codierten Trainingsdaten / Vektoren geliefert wird?