верно, я не заметил обновления :) Благодаря вам вы сделали исчерпывающий вывод.
емы классификации, такие как логистическая регрессия или полиномиальная логистическая регрессия, оптимизируюткросс-энтропии потеря. Обычно слой кросс-энтропии следуетSoftMax слой, который производит распределение вероятностей.
В тензорном потоке есть как минимумдюжина различных функций кросс-энтропийной потери:
tf.losses.softmax_cross_entropy
tf.losses.sparse_softmax_cross_entropy
tf.losses.sigmoid_cross_entropy
tf.contrib.losses.softmax_cross_entropy
tf.contrib.losses.sigmoid_cross_entropy
tf.nn.softmax_cross_entropy_with_logits
tf.nn.sigmoid_cross_entropy_with_logits
...Какие из них работают только для бинарной классификации, а какие подходят для многоклассовых задач? Когда вы должны использоватьsigmoid
вместоsoftmax
? Какsparse
функции отличаются от других и почему это толькоsoftmax
?
Связанное (более ориентированное на математику) обсуждение:кросс-энтропийные джунгли.