Результаты поиска по запросу "gradient-descent"
Алгоритмы градиентного спуска и стохастического градиентного спуска
Я пытался обучить нейронную сеть FeedForward в наборе рукописных цифр MNIST (включает 60K обучающих примеров).Я каждый раз перебиралвсе учебные образцы, выпо...
):
тив несколько экспериментов с TensorFlow, хочу взглянуть на реализацию некоторых функций, просто чтобы увидеть, как именно это делается, началось с простого случаяtf.train.GradientDescentOptimizer, Скачал zip полного исходного кода с github, ...
Верна ли моя реализация стохастического градиентного спуска?
Я пытаюсь развить стохастический градиентный спуск, но я не знаю, правильно ли он на 100%. Стоимость, сгенерированная моим алгоритмом стохастического градиентного спуска, иногда очень далека от стоимости, сгенерированной FMINUC или ...
@RobRomijnders На самом деле, я ожидал, что ваш оригинальный вариант тоже работает. Я думал, что между оптимизаторами может быть внутренняя зависимость, но тензорная доска ничего не показала. Похоже, ошибка для меня.
дряю альтернативную схему обучения. График содержит две учебные операции. Обучение должно чередоваться между ними. Это актуально для таких исследований, какэто [https://arxiv.org/abs/1611.08408] или жеэто [https://arxiv.org/abs/1612.02649] Ниже ...
Spark Mllib предсказывает странное число или NaN
Я новичок в Apache Spark и пытаюсь использовать библиотеку машинного обучения для прогнозирования некоторых данных. Мой набор данных сейчас составляет всего ...
). Попробуйте добавить второй слой и посмотрите, что получится.
мы обучаем нейронные сети, мы обычно используем градиентный спуск, который опирается на непрерывную, дифференцируемую функцию реальной стоимости. Функция конечной стоимости может, например, принимать среднеквадратичную ошибку. Или, другими ...