Intuição para regra de atualização de peso do perceptron
Estou com problemas para entender a regra de atualização de peso paraperceptrons:
w (t + 1) = w (t) + y (t) x (t).
Suponha que temos um conjunto de dados linearmente separável.
w é um conjunto de pesos [w0, w1, w2, ...] onde w0 é um viés.x é um conjunto de parâmetros de entrada [x0, x1, x2, ...] em que x0 é fixado em 1 para acomodar o viés.Na iteraçãot, Ondet = 0, 1, 2, ...,
w (t) é o conjunto de pesos na iteraçãot.x (t) é um exemplo de treinamento mal classificado.y (t) é a saída alvo dex (t) (-1 ou 1).Por que essa regra de atualização move o limite na direção certa?