Результаты поиска по запросу "gradient-descent"
). Попробуйте добавить второй слой и посмотрите, что получится.
мы обучаем нейронные сети, мы обычно используем градиентный спуск, который опирается на непрерывную, дифференцируемую функцию реальной стоимости. Функция конечной стоимости может, например, принимать среднеквадратичную ошибку. Или, другими ...
):
тив несколько экспериментов с TensorFlow, хочу взглянуть на реализацию некоторых функций, просто чтобы увидеть, как именно это делается, началось с простого случаяtf.train.GradientDescentOptimizer, Скачал zip полного исходного кода с github, ...
@RobRomijnders На самом деле, я ожидал, что ваш оригинальный вариант тоже работает. Я думал, что между оптимизаторами может быть внутренняя зависимость, но тензорная доска ничего не показала. Похоже, ошибка для меня.
дряю альтернативную схему обучения. График содержит две учебные операции. Обучение должно чередоваться между ними. Это актуально для таких исследований, какэто [https://arxiv.org/abs/1611.08408] или жеэто [https://arxiv.org/abs/1612.02649] Ниже ...
Затем, чтобы использовать его при обучении, вы должны выполнить следующие действия (все еще из ответа, который вы связали):
я есть вопрос, похожий наэтот [https://stackoverflow.com/questions/42156957/how-to-update-model-parameters-with-accumulated-gradients] . Поскольку у меня ограниченные ресурсы, и я работаю с глубокой моделью (VGG-16), используемой для обучения ...
Нейронная сеть всегда предсказывает один и тот же класс
Я пытаюсь реализовать нейронную сеть, которая классифицирует изображения в одну из двух отдельных категорий. Проблема, однако, в том, что в настоящее время о...
Выбор размера мини-пакета для регрессии нейронной сети
Я делаю регрессию нейронной сети с 4 функциями. Как определить размер мини-партии для моей проблемы? Я вижу, что люди используют размер партии 100 ~ 1000 для...