Keras train_on_batch потеря / точность 0

Я использую большой набор данных, и поэтому я пытаюсь использовать train_on_batch (или подходит с эпохой = 1)

model = Sequential()
model.add(LSTM(size,input_shape=input_shape,return_sequences=False))
model.add(Dense(output_dim))
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=["accuracy"])

for e in range(nb_epoch):
    for batch_X, batch_y in batches:
        model.train_on_batch(batch_X,batch_y)
        # or
        # model.fit(batch_X,batch_y,batch_size=batch_size,nb_epoch=1,verbose=1,shuffle=True,)

Но когда начинается обучение, это происходит:

(0, 128)
Epoch 1/1
128/128 [==============================] - 2s - loss: 0.3262 - acc: 0.1130

(129, 257)
Epoch 1/1
128/128 [==============================] - 2s - loss: -0.0000e+00 - acc: 0.0000e+00

Неважно, сколько эпох я жду, это не изменится. Даже если я изменю размер партии, произойдет то же самое: первая партия имеет хорошие значения, а затем она просто переходит к «потере: -0,0000e + 00 - в соответствии: 0,0000e + 00» снова.

Может кто-то может помочь в понимании того, что здесь происходит?

заранее спасибо

Ответы на вопрос(0)

Ваш ответ на вопрос