Qual é a diferença entre sparse_softmax_cross_entropy_with_logits e softmax_cross_entropy_with_logits?

Me deparei recentementetf.nn.sparse_softmax_cross_entropy_with_logits e não consigo descobrir qual é a diferença em comparação comtf.nn.softmax_cross_entropy_with_logits.

É a única diferença que os vetores de treinamentoy tem que sercodificado a quente ao usarsparse_softmax_cross_entropy_with_logits?

Lendo a API, não consegui encontrar nenhuma outra diferença em comparação comsoftmax_cross_entropy_with_logits. Mas por que precisamos da função extra então?

Não deveriasoftmax_cross_entropy_with_logits produzir os mesmos resultados quesparse_softmax_cross_entropy_with_logits, se for fornecido com dados / vetores de treinamento codificados com um hot hot?

questionAnswers(3)

yourAnswerToTheQuestion