В чем разница между sparse_softmax_cross_entropy_with_logits и softmax_cross_entropy_with_logits?
Я недавно сталкивалсяtf.nn.sparse_softmax_cross_entropy_with_logits и я не могу понять, в чем разницаtf.nn.softmax_cross_entropy_with_logits.
Разница лишь в том, что тренируются векторыy
должен бытьзакодированный горячим способом когда используешьsparse_softmax_cross_entropy_with_logits
?
Читая API, я не смог найти никаких других отличий по сравнению сsoftmax_cross_entropy_with_logits
, Но зачем нам тогда дополнительная функция?
не должныsoftmax_cross_entropy_with_logits
дают те же результаты, что иsparse_softmax_cross_entropy_with_logits
, если он снабжен обучающими данными / векторами с горячим кодированием?