Neuronale Netze: Was bedeutet "linear trennbar"?

Ich lese gerade das Buch zum maschinellen Lernen von Tom Mitchell. Wenn Mitchell über neuronale Netze spricht, heißt es:

"Obwohl die Perceptron-Regel einen erfolgreichen Gewichtsvektor findet, wenn die Trainingsbeispiele linear trennbar sind, kann die Konvergenz fehlschlagen, wenn die Beispiele nicht linear trennbar sind."

Ich habe Probleme zu verstehen, was er mit "linear trennbar" meint? Wikipedia sagt mir, dass "zwei Sätze von Punkten in einem zweidimensionalen Raum linear trennbar sind, wenn sie vollständig durch eine einzige Linie getrennt werden können."

Aber wie trifft dies auf das Trainingsset für neuronale Netze zu? Wie können Eingaben (oder Aktionseinheiten) linear getrennt werden oder nicht?

Ich bin nicht der Beste in Geometrie und Mathematik - kann mir das jemand erklären, als ob ich 5 wäre? ;) Vielen Dank!

Antworten auf die Frage(3)

Ihre Antwort auf die Frage