Qual é a diferença entre sparse_softmax_cross_entropy_with_logits e softmax_cross_entropy_with_logits?
Me deparei recentementetf.nn.sparse_softmax_cross_entropy_with_logits e não consigo descobrir qual é a diferença em comparação comtf.nn.softmax_cross_entropy_with_logits.
É a única diferença que os vetores de treinamentoy
tem que sercodificado a quente ao usarsparse_softmax_cross_entropy_with_logits
?
Lendo a API, não consegui encontrar nenhuma outra diferença em comparação comsoftmax_cross_entropy_with_logits
. Mas por que precisamos da função extra então?
Não deveriasoftmax_cross_entropy_with_logits
produzir os mesmos resultados quesparse_softmax_cross_entropy_with_logits
, se for fornecido com dados / vetores de treinamento codificados com um hot hot?