В чем разница между sparse_softmax_cross_entropy_with_logits и softmax_cross_entropy_with_logits?

Я недавно сталкивалсяtf.nn.sparse_softmax_cross_entropy_with_logits и я не могу понять, в чем разницаtf.nn.softmax_cross_entropy_with_logits.

Разница лишь в том, что тренируются векторыy должен бытьзакодированный горячим способом когда используешьsparse_softmax_cross_entropy_with_logits?

Читая API, я не смог найти никаких других отличий по сравнению сsoftmax_cross_entropy_with_logits, Но зачем нам тогда дополнительная функция?

не должныsoftmax_cross_entropy_with_logits дают те же результаты, что иsparse_softmax_cross_entropy_with_logits, если он снабжен обучающими данными / векторами с горячим кодированием?

Ответы на вопрос(3)

Ваш ответ на вопрос