Результаты поиска по запросу "cross-entropy"

1 ответ

@HAr: Для горячего кодирования истинной метки нам нужен только один ненулевой класс. Однако перекрестная энтропия может сравнивать любые два распределения вероятностей; не обязательно, чтобы у одного из них были горячие вероятности.

1 ответ

Я думаю, что человек, который задает вопрос, может быть смущен в нескольких местах. Спасибо за Ваш ответ. Это также очищает мои сомнения по поводу

опытке получить перекрестную энтропию с помощью функции активации сигмоидальной loss1 = -tf.reduce_sum(p*tf.log(q), 1)loss2 = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(labels=p, logits=logit_q),1)Но они такие же, когда с функцией ...

2 ответа

Как реализовать взвешенную бинарную кросс-энтропию на theano?

Как реализовать взвешенную бинарную кросс-энтропию на theano?Моя сверточная нейронная сеть предсказывает только 0 ~ ~ 1 (сигмоид).Я хочу наказать мои прогноз...

ТОП публикаций

3 ответа

В чем разница между sparse_softmax_cross_entropy_with_logits и softmax_cross_entropy_with_logits?

Я недавно сталкивалсяtf.nn.sparse_softmax_cross_entropy_with_logits и я не могу понять, в чем разницаtf.nn.softmax_cross_entropy_with_logits.Разница лишь в т...

1 ответ

 посторонние люди... ;)

исал ванильный автоэнкодер, используя толькоDense слой. Ниже мой код: iLayer = Input ((784,)) layer1 = Dense(128, activation='relu' ) (iLayer) layer2 = Dense(64, activation='relu') (layer1) layer3 = Dense(28, activation ='relu') (layer2) layer4 ...

9 ответов

Что означает слово logits в TensorFlow?

В следующей функции TensorFlow мы должны обеспечить активацию искусственных нейронов в последнем слое. Это я понимаю. Но я не понимаю, почему это называется ...

2 ответа

scikit-learn.org/stable/modules/generated/...

чаю нейронную сеть, и я хочу написать функциюcross_entropy в питоне. Где это определяется как [/imgs/GKdbq.png] гдеN количество образцов,k это количество классов,log натуральный логарифм,t_i,j 1, если образецi в классеj а также0 в противном ...

1 ответ

верно, я не заметил обновления :) Благодаря вам вы сделали исчерпывающий вывод.

емы классификации, такие как логистическая регрессия или полиномиальная логистическая регрессия, оптимизируюткросс-энтропиипотеря. Обычно слой кросс-энтропии следуетSoftMaxслой, который производит распределение вероятностей. В тензорном потоке ...