Perzeptron

vereinfachtes künstliches neuronales Netz
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 28. Februar 2004 um 22:55 Uhr durch DannyBusch (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Das Perzeptron ist ein vereinfachtes Neuronenmodell, das zuerst von Rosenblatt 1958 vorgestellt wurde. Es wird zwischen einstufigen und mehrstufigen Perzeptron unterschiedenen (engl. multi-layer perceptron).

Beim einstufigen Perzeptron gibt es nur eine Schicht von Eingabeneuronen, die allesamt mit den Neuronen in der einen Ausgabeschicht verknüpft sind. Die Aktivität der Neuronen der Eingabezellen wird über eine gewichtete Verbindung in die Ausgabezellen geleitet, wo diese Eingaben wiederum zur Bestimmung der eigenen Aktivität aufsummiert werden. Je nach Schwellwert eines Neurons wird dann entschieden, ob die Summe der Eingaben ausreicht um das Neuron zu erregen und ein Aktionspotential auszulösen.

Einfache Perzeptron mit zwei Eingabezellen und einer Ausgabezellen werden z. B. zur Darstellung einfacher logischer Operatoren wie AND oder OR genutzt. Jedoch haben Minsky und Papert 1969 gezeigt, dass es kein einstufiges Perzeptron zur Erkennung des XOR-Operators geben kann. Das Problem der linearen Separierbarkeit führte zunächst zu einem Stillstand in der Forschung der künstlichen neuronalen Netzen.

Das Problem der linearen Separierbarkeit konnte jedoch später mit mehrstufigen Perzeptron gelöst werden, bei denen es neber einer Eingabe- und einer Ausgabeschicht auch noch eine Schicht verdeckter Zellen gibt (engl. "hidden layer"). Alle Neuronen einer Schicht sind vollständig mit den Neuronen der nächsten Schicht vorwärts verkettet (Feedforward-Netze).

Ein Perzeptron kann unter anderem mit dem Backpropagation-Algorithmus trainiert werden. Hierbei werden in Anlehnung an die Hebb'sche Lernregel die Gewichte der Verbindungen verändert, so dass das Netz die gewünschten Eingaben nach einer kontrollierten Trainingsphase (engl. supervised learning) klassifizieren kann.


Weblinks: