несчастливый.
аю с примером cifar10 от Keras, который вы можете найтиВот, Я воссоздал модель (то есть, не тот же файл, но все остальное в значительной степени то же самое), и вы можете найти егоВот.
Модель идентична, и я тренирую модель в течение 30 эпох с разделением на 0,2 проверки на обучающем наборе 50000 изображений. Я не могу понять результат, который я получаю. Мои потери при проверке и тестировании меньше, чем при обучении (наоборот, точность обучения ниже, чем при проверке и точности тестирования):
Loss Accuracy
Training 1.345 0.572
Validation 1.184 0.596
Test 1.19 0.596
Глядя на сюжет, я не уверен, почему ошибка обучения снова начинает так сильно возрастать. Нужно ли мне сократить количество эпох, к которым я готовлюсь, или, возможно, осуществить раннюю остановку? Поможет ли другая архитектура модели? Если так, что было бы хорошими предложениями?
Благодарю.