Вы также можете рассмотреть возможность публикации на stats.stackexchange.com или datascience.stackexchange.com. Я думаю, что они смогут помочь с их «почему» вашими вопросами, а не только «как».

дал многослойную модель LSTM, которая использует регрессию для прогнозирования значений данных следующего кадра. Модель заканчивается после 20 эпох. Затем я получаю некоторые прогнозы и сравниваю их с моими истинными ценностями. Как вы можете видеть на рисунке выше, прогнозы сходятся к постоянному значению. Я не знаю, почему это происходит. Вот моя модель до сих пор:

from keras.models import Sequential
from keras.layers.core import Dense, Activation, Dropout
from keras.layers import LSTM, BatchNormalization
from tensorflow.python.keras.initializers import RandomUniform

init = RandomUniform(minval=-0.05, maxval= 0.05)

model = Sequential()

model.add(LSTM(kernel_initializer=init, activation='relu', return_sequences=True, units=800, dropout=0.5, recurrent_dropout=0.2, input_shape=(x_train.shape[1], x_train.shape[2]) ))
model.add(LSTM(kernel_initializer=init, activation='relu', return_sequences=False, units=500, dropout=0.5, recurrent_dropout=0.2 ))

model.add(Dense(1024, activation='linear', kernel_initializer=init))
model.add(BatchNormalization())
model.add(Dropout(0.5))
model.add(Dense(1, activation='linear', kernel_initializer= 'normal'))

model.compile(loss='mean_squared_error', optimizer='rmsprop' )
model.summary()

EDIT1: Я уменьшил эпохи с 20 до 3. Результаты таковы:

Сравнивая 2 рисунка, я могу сделать вывод, что когда количество эпох увеличивается, предсказания с большей вероятностью сходятся к некоторому конкретному значению, которое составляет около -0,1.

Ответы на вопрос(1)

Ваш ответ на вопрос