Resultados de la búsqueda a petición "cross-entropy"

1 la respuesta

Tensorflow sigmoide y entropía cruzada vs sigmoid_cross_entropy_with_logits

Cuando se trata de obtener entropía cruzada con la función de activación sigmoidea, hay una diferencia entre loss1 = -tf.reduce_sum(p*tf.log(q), 1)loss2 = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(labels=p, logits=logit_q),1)Pero son ...

9 la respuesta

¿Cuál es el significado de la palabra logits en TensorFlow?

En la siguiente función TensorFlow, debemos alimentar la activación de neuronas artificiales en la capa final. Eso lo entiendo. Pero no entiendo por qué se llama logits? ¿No es esa una función matemática? loss_function = ...

1 la respuesta

¿Cómo funciona la pérdida de entropía cruzada binaria en autoencoders?

Escribí un autoencoder de vainilla usando soloDense capa. A continuación se muestra mi código: iLayer = Input ((784,)) layer1 = Dense(128, activation='relu' ) (iLayer) layer2 = Dense(64, activation='relu') (layer1) layer3 = Dense(28, activation ...

2 la respuesta

¿Cómo elegir la pérdida de entropía cruzada en tensorflow?

Los problemas de clasificación, como la regresión logística o la regresión logística multinomial, optimizan unentropía cruzadapérdida. Normalmente, la capa de entropía cruzada sigue elsoftmaxcapa, que produce distribución de probabilidad. En ...

1 la respuesta

¿Qué es la entropía cruzada?

Sé que hay muchas explicaciones de quécross-entropy es, pero todavía estoy confundido. ¿Es solo un método para describir la función de pérdida? Entonces, podemos usar, por ejemplo, el algoritmo de descenso de gradiente para encontrar el mínimo. ...

2 la respuesta

Función de entropía cruzada (python)

Estoy aprendiendo la red neuronal y quiero escribir una función.cross_entropy en pitón Donde se define como [/imgs/GKdbq.png] dóndeN es el número de muestrask es el número de claseslog es el logaritmo naturalt_i,j es 1 si muestrai esta en ...

3 la respuesta

¿Cuál es la diferencia entre sparse_softmax_cross_entropy_with_logits y softmax_cross_entropy_with_logits?

Hace poco me encontrétf.nn.sparse_softmax_cross_entropy_with_logits [https://www.tensorflow.org/api_docs/python/tf/nn/sparse_softmax_cross_entropy_with_logits] y no puedo entender cuál es la diferencia ...

2 la respuesta

¿Cómo implementar Weighted Binary CrossEntropy en theano?

¿Cómo implementar Weighted Binary CrossEntropy en theano? Mi red neuronal convolucional solo predice 0 ~~ 1 (sigmoide). Quiero penalizar mis predicciones de esta manera: [/imgs/m3rAL.png] Básicamente, quiero penalizar MÁS cuando el modelo ...