Onde eu chamo a função BatchNormalization no Keras?
Se eu quiser usar a função BatchNormalization no Keras, preciso chamá-la apenas uma vez no início?
Eu li esta documentação para ele:http://keras.io/layers/normalization/
Não vejo para onde devo chamá-lo. Abaixo está o meu código tentando usá-lo:
model = Sequential()
keras.layers.normalization.BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)
model.add(Dense(64, input_dim=14, init='uniform'))
model.add(Activation('tanh'))
model.add(Dropout(0.5))
model.add(Dense(64, init='uniform'))
model.add(Activation('tanh'))
model.add(Dropout(0.5))
model.add(Dense(2, init='uniform'))
model.add(Activation('softmax'))
sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss='binary_crossentropy', optimizer=sgd)
model.fit(X_train, y_train, nb_epoch=20, batch_size=16, show_accuracy=True, validation_split=0.2, verbose = 2)
Eu pergunto porque se eu executar o código com a segunda linha, incluindo a normalização em lote, e se eu executar o código sem a segunda linha, obterá resultados semelhantes. Então, ou eu não estou chamando a função no lugar certo, ou acho que não faz muita diferença.