Часть 2 Эластичная нейронная сеть с обратным распространением

Это дополнительный вопрос кэта почта, Для данного нейрона у меня нет ясности относительно того, как взять частную производную его ошибки и частную производную его веса.

Работая из этогостраница интернетаясно, как работает распространение (хотя я имею дело с устойчивым распространением). Для нейронной сети с прямой связью мы должны: 1) двигаться вперед через нейронную сеть, запускать нейроны, 2) из нейронов выходного слоя, вычислять общую ошибку. Затем 3) двигаясь в обратном направлении, распространяйте эту ошибку на каждый вес в нейроне, затем 4) снова приходя вперед, обновляя веса в каждом нейроне.

Хотя именно это я и не понимаю.

A) Как рассчитать частную производную для каждого нейрона (определение) ошибки по частной производной веса? Моя путаница заключается в том, что в исчислении частная производная вычисляется в терминах функции от n переменных. Я вроде как понимаюldog а такжеБайер & APOS; s ответы вэта почта, И я даже понимаю цепное правило. Но это не гель, когда я думаю точно, как применить его к результатам i) линейного сумматора и ii) функции активации сигмоида.

B) Используя подход Resilient Propogation, как бы вы изменили смещение в данном нейроне? Или нет никакого смещения или порога в NN, использующем тренировку по устойчивому распространению?

C) Как вы распространяете полную ошибку, если есть два или более выходных нейрона? Имеется ли суммарная ошибка * вес нейрона для каждого значения выходного нейрона?

Спасибо

Ответы на вопрос(3)

Ваш ответ на вопрос