Resultados da pesquisa a pedido "cross-entropy"

1 a resposta

Como a perda de entropia cruzada binária funciona nos auto-codificadores?

Eu escrevi um autoencoder de baunilha usando apenasDense camada. Abaixo está o meu código: iLayer = Input ((784,)) layer1 = Dense(128, activation='relu' ) (iLayer) layer2 = Dense(64, activation='relu') (layer1) layer3 = Dense(28, activation ...

2 a resposta

Função de entropia cruzada (python)

Estou aprendendo a rede neural e quero escrever uma funçãocross_entropy em python. Onde é definido como [/imgs/GKdbq.png] OndeN é o número de amostras,k é o número de classes,log é o logaritmo natural,t_i,j é 1 se a amostrai está na aulaj e0 ...

2 a resposta

Como escolher a perda de entropia cruzada no fluxo tensorial?

Problemas de classificação, como regressão logística ou regressão logística multinomial, otimizam umentropia cruzadaperda. Normalmente, a camada de entropia cruzada segue osoftmaxcamada, que produz distribuição de probabilidade. No fluxo tensor, ...

1 a resposta

Sigmoide e entropia cruzada de fluxo de tensor vs sigmoid_cross_entropy_with_logits

Ao tentar obter entropia cruzada com a função de ativação sigmóide, há diferença entre loss1 = -tf.reduce_sum(p*tf.log(q), 1)loss2 = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(labels=p, logits=logit_q),1)Mas eles são os mesmos quando ...

1 a resposta

O que é entropia cruzada?

Eu sei que existem muitas explicações sobre o quecross-entropy é, mas ainda estou confuso. É apenas um método para descrever a função de perda? Em seguida, podemos usar, por exemplo, o algoritmo de descida de gradiente para encontrar o mínimo. ...

9 a resposta

Qual é o significado da palavra logits no TensorFlow?

Na função TensorFlow a seguir, devemos alimentar a ativação de neurônios artificiais na camada final. Isso eu entendo. Mas não entendo por que é chamado logits? Isso não é uma função matemática? loss_function = ...

2 a resposta

Como implementar CrossEntropy binário ponderado no theano?

Como implementar CrossEntropy binário ponderado no theano? Minha rede neural convolucional prevê apenas 0 ~~ 1 (sigmóide). Quero penalizar minhas previsões desta maneira: [/imgs/m3rAL.png] Basicamente, quero penalizar MAIS quando o modelo ...

3 a resposta

Qual é a diferença entre sparse_softmax_cross_entropy_with_logits e softmax_cross_entropy_with_logits?

Me deparei recentementetf.nn.sparse_softmax_cross_entropy_with_logits [https://www.tensorflow.org/api_docs/python/tf/nn/sparse_softmax_cross_entropy_with_logits] e não consigo descobrir qual é a diferença em comparação ...