Resultados de la búsqueda a petición "batch-normalization"

2 la respuesta

Formas de implementar capas BN multi-GPU con medios de sincronización y variables

Me gustaría saber las posibles formas de implementar capas de normalización por lotes con la sincronización de estadísticas de lotes cuando se entrena con múltiples GPU. CafeTal vez hay algunas variantes de cafeína que podrían hacer, ...

1 la respuesta

tf.layers.batch_normalization error de prueba grande

Estoy tratando de usar la normalización por lotes. Intenté usar tf.layers.batch_normalization en una simple red de conv para mnist. Obtengo una alta precisión para el paso del tren (> 98%) pero una precisión de prueba muy baja (<50%). Traté de ...

1 la respuesta

¿Cómo modificar las capas de normalización por lotes (DeconvNet) para poder ejecutar con caffe?

Yo quería correr elDeconvnet [http://cvlab.postech.ac.kr/research/deconvnet/model/DeconvNet/DeconvNet_inference_deploy.prototxt] en mis datos, sin embargo, parece que se ha escrito para otra versión decaffe. ¿Alguien sabe cómo ...

2 la respuesta

¿Cuál es la función de normalización por lotes correcta en Tensorflow?

En tensorflow 1.4, encontré dos funciones que hacen la normalización por lotes y se ven iguales: tf.layers.batch_normalization (enlazar [https://www.tensorflow.org/api_docs/python/tf/layers/batch_normalization] )tf.contrib.layers.batch_norm ...

2 la respuesta

Tensorflow y normalización de lote con tamaño de lote == 1 => Muestra todos los ceros

Tengo una pregunta sobre la comprensión de BatchNorm (BN más adelante). Tengo un convnet funcionando bien, estaba escribiendo pruebas para verificar la forma y el rango de salida. Y noté que cuando configuro el batch_size = 1, mi modelo genera ...