Resultados da pesquisa a pedido "softmax"

2 a resposta

Cálculo de gradiente para a versão softmax da perda de trigêmeos

Eu tenho tentado implementar a versão softmax da perda de trigêmeos em Caffe descrita em Hoffer e Ailon,Aprendizado métrico profundo usando rede tripla, ICLR 2015 [http://arxiv.org/pdf/1412.6622v3.pdf]. Eu tentei isso, mas acho difícil calcular ...

4 a resposta

mplementação de uma função de ativação softmax para redes neura

Estou usando um Softmax [http://en.wikipedia.org/wiki/Softmax_activation_function] função de ativação na última camada de uma rede neural. Mas tenho problemas com uma implementação segura dessa função. Uma implementação ingênua seria ...

4 a resposta

Softmax numericamente estável

Existe uma maneira numericamente estável de calcular a função softmax abaixo? Estou recebendo valores que se tornam Nans no código de rede neural. np.exp(x)/np.sum(np.exp(y))

2 a resposta

Softmax por pixel para rede totalmente convolucional

Estou tentando implementar algo como uma rede totalmente convolucional, onde a última camada de convolução usa o tamanho de filtro 1x1 e gera um tensor 'score'. O tensor de pontuação tem forma [Lote, altura, largura, num_classes]. Minha pergunta ...

3 a resposta

Qual é a diferença entre sparse_softmax_cross_entropy_with_logits e softmax_cross_entropy_with_logits?

Me deparei recentementetf.nn.sparse_softmax_cross_entropy_with_logits [https://www.tensorflow.org/api_docs/python/tf/nn/sparse_softmax_cross_entropy_with_logits] e não consigo descobrir qual é a diferença em comparação ...