Resultados da pesquisa a pedido "cross-entropy"
Como a perda de entropia cruzada binária funciona nos auto-codificadores?
Eu escrevi um autoencoder de baunilha usando apenasDense camada. Abaixo está o meu código: iLayer = Input ((784,)) layer1 = Dense(128, activation='relu' ) (iLayer) layer2 = Dense(64, activation='relu') (layer1) layer3 = Dense(28, activation ...
Função de entropia cruzada (python)
Estou aprendendo a rede neural e quero escrever uma funçãocross_entropy em python. Onde é definido como [/imgs/GKdbq.png] OndeN é o número de amostras,k é o número de classes,log é o logaritmo natural,t_i,j é 1 se a amostrai está na aulaj e0 ...
Como escolher a perda de entropia cruzada no fluxo tensorial?
Problemas de classificação, como regressão logística ou regressão logística multinomial, otimizam umentropia cruzadaperda. Normalmente, a camada de entropia cruzada segue osoftmaxcamada, que produz distribuição de probabilidade. No fluxo tensor, ...
Sigmoide e entropia cruzada de fluxo de tensor vs sigmoid_cross_entropy_with_logits
Ao tentar obter entropia cruzada com a função de ativação sigmóide, há diferença entre loss1 = -tf.reduce_sum(p*tf.log(q), 1)loss2 = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(labels=p, logits=logit_q),1)Mas eles são os mesmos quando ...
O que é entropia cruzada?
Eu sei que existem muitas explicações sobre o quecross-entropy é, mas ainda estou confuso. É apenas um método para descrever a função de perda? Em seguida, podemos usar, por exemplo, o algoritmo de descida de gradiente para encontrar o mínimo. ...
Qual é o significado da palavra logits no TensorFlow?
Na função TensorFlow a seguir, devemos alimentar a ativação de neurônios artificiais na camada final. Isso eu entendo. Mas não entendo por que é chamado logits? Isso não é uma função matemática? loss_function = ...
Como implementar CrossEntropy binário ponderado no theano?
Como implementar CrossEntropy binário ponderado no theano? Minha rede neural convolucional prevê apenas 0 ~~ 1 (sigmóide). Quero penalizar minhas previsões desta maneira: [/imgs/m3rAL.png] Basicamente, quero penalizar MAIS quando o modelo ...
Qual é a diferença entre sparse_softmax_cross_entropy_with_logits e softmax_cross_entropy_with_logits?
Me deparei recentementetf.nn.sparse_softmax_cross_entropy_with_logits [https://www.tensorflow.org/api_docs/python/tf/nn/sparse_softmax_cross_entropy_with_logits] e não consigo descobrir qual é a diferença em comparação ...