Zum Inhalt springen

Perzeptron

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 28. März 2004 um 20:16 Uhr durch Urizen (Diskussion | Beiträge) (weblink-format, namen, "siehe auch" überflüssig (wird im text erwähnt)). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Das Perzeptron ist ein vereinfachtes Neuronenmodell, das zuerst von Rosenblatt 1958 vorgestellt wurde. Es wird zwischen einstufigem und mehrstufigem Perzeptron (engl. multi-layer perceptron, MLP) unterschieden.

Beim einstufigen Perzeptron gibt es nur eine Schicht von Eingabeneuronen, die allesamt mit den Neuronen in der einen Ausgabeschicht verknüpft sind. Die Aktivität der Neuronen der Eingabezellen wird über eine gewichtete Verbindung in die Ausgabezellen geleitet, wo diese Eingaben wiederum zur Bestimmung der eigenen Aktivität aufsummiert werden. Je nach Schwellwert eines Neurons wird dann entschieden, ob die Summe der Eingaben ausreicht um das Neuron zu erregen und ein Aktionspotential auszulösen.

Das einfachste Perzeptron mit zwei Eingabezellen und einer einzigen Ausgabezelle kann z.B. zur Darstellung einfacher logischer Operatoren wie AND und OR genutzt werden. Jedoch haben Marvin Minsky und Seymour Papert 1969 gezeigt, dass es kein einstufiges Perzeptron zur Erkennung des XOR-Operators geben kann. Das Problem der linearen Separierbarkeit führte zunächst zu einem Stillstand in der Forschung der künstlichen neuronalen Netzen (KNN).

Dieses Problem konnte jedoch später mit einem mehrstufigen Perzeptron gelöst werden, bei dem es neber einer Eingabe- und einer Ausgabeschicht auch noch mindestens eine Schicht verdeckter Zellen gibt (engl. hidden layer). Alle Neuronen einer Schicht sind vollständig mit den Neuronen der nächsten Schicht vorwärts verknüpft (Feedforward-Netze).

Ein Perzeptron kann unter anderem mit dem Backpropagation-Algorithmus trainiert werden. Hierbei werden die Gewichte der Verbindungen so verändert, dass das Netz die gewünschten Muster nach einer kontrollierten Trainingsphase (engl. supervised learning) klassifizieren kann.

Siehe auch: Backpropagation, Künstliche neuronale Netze