Perzeptron
Das Perzeptron ist ein vereinfachtes Neuronenmodell, das zuerst von Rosenblatt 1958 vorgestellt wurde. Es wird zwischen einstufigen und mehrstufigen Perzeptron unterschiedenen (engl. multi-layer perceptron).
Beim einstufigen Perzeptron gibt es nur eine Schicht von Eingabeneuronen, die allesamt mit den Neuronen in der einen Ausgabeschicht verknüpft sind. Die Aktivität der Neuronen der Eingabezellen wird über eine gewichtete Verbindung in die Ausgabezellen geleitet, wo diese Eingaben wiederum zur Bestimmung der eigenen Aktivität aufsummiert werden. Je nach Schwellwert eines Neurons wird dann entschieden, ob die Summe der Eingaben ausreicht um das Neuron zu erregen und ein Aktionspotential auszulösen.
Das einfachste Perzeptron mit zwei Eingabezellen und einer einzigen Ausgabezelle kann z.B. zur Darstellung einfacher logischer Operatoren wie AND und OR genutzt. Jedoch haben Minsky und Papert 1969 gezeigt, dass es kein einstufiges Perzeptron zur Erkennung des XOR-Operators geben kann. Das Problem der linearen Separierbarkeit führte zunächst zu einem Stillstand in der Forschung der künstlichen neuronalen Netzen.
Das Problem der linearen Separierbarkeit konnte jedoch später mit einem mehrstufigen Perzeptron gelöst werden, bei dem es neber einer Eingabe- und einer Ausgabeschicht auch noch eine Schicht verdeckter Zellen gibt (engl. hidden layer). Alle Neuronen einer Schicht sind vollständig mit den Neuronen der nächsten Schicht vorwärts verknüpft (Feedforward-Netze).
Ein Perzeptron kann unter anderem mit dem Backpropagation-Algorithmus trainiert werden. Hierbei werden in Anlehnung an die Hebb'sche Lernregel die Gewichte der Verbindungen verändert, so dass das Netz die gewünschten Muster nach einer kontrollierten Trainingsphase (engl. supervised learning) klassifizieren kann.
Weblinks: