Intuição para regra de atualização de peso do perceptron

Estou com problemas para entender a regra de atualização de peso paraperceptrons:

w (t + 1) = w (t) + y (t) x (t).

Suponha que temos um conjunto de dados linearmente separável.

w é um conjunto de pesos [w0, w1, w2, ...] onde w0 é um viés.x é um conjunto de parâmetros de entrada [x0, x1, x2, ...] em que x0 é fixado em 1 para acomodar o viés.

Na iteraçãot, Ondet = 0, 1, 2, ...,

w (t) é o conjunto de pesos na iteraçãot.x (t) é um exemplo de treinamento mal classificado.y (t) é a saída alvo dex (t) (-1 ou 1).

Por que essa regra de atualização move o limite na direção certa?

questionAnswers(2)

yourAnswerToTheQuestion