Neural Gas

Sondertyp eines künstlichen Neuronalen Netzes
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 6. April 2009 um 13:47 Uhr durch Guandalug (Diskussion | Beiträge) (+QS-I). Sie kann sich erheblich von der aktuellen Version unterscheiden.

QS-Informatik
Beteilige dich an der Diskussion!
Dieser Artikel wurde wegen inhaltlicher Mängel auf der Qualitätssicherungsseite der Redaktion Informatik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Informatik auf ein akzeptables Niveau zu bringen. Hilf mit, die inhaltlichen Mängel dieses Artikels zu beseitigen, und beteilige dich an der Diskussion! (+)

Neural Gas - ein Künstliches neuronales Netz, angelehnt an die Self-Organizing Maps und vorgestellt 1991 von Thomas Martinetz und Klaus Schulten. Das Neural Gas ist ein selbstlernender Algorithmus zur möglichst fehlerfreien Datenkodierung mit Hilfe von Datenprototypen. Die Bezeichnung begründet sich auf der Dynamik der Datenprototypen, die sich während des Lernprozesses wie ein "Gas" im Datenraum verteilen. Prominente Erweiterungen des Neural Gas sind das Growing Neural Gas und das Topology Representing Network.

Arbeitsweise

Gegeben eine Verteilung P(x) von Stimuli x sowie Referenzvektoren wi, i=1,...,N. Mit jedem Zeitschritt t wird ein zufällig aus P gewählter Stimulus präsentiert. Danach wird zunächst die Entfernungsrangfolge der Referenzvektoren zum Stimulus bestimmt. i0 bezeichnet den Index des nächstliegenden Referenzvektors, i1 den Index des zweitnächsten usw. und iN-1 den Index des zu x entferntesten Referenzvektors. Der Adaptionsschritt lautet dann für k=0,...,N-1

 

mit ε als Adaptionsschrittweite und λ als Nachbarschaftsreichweite. ε und λ nehmen mit der Zahl t der Adaptionsschritte ab.

Kommentare

  1. Der Adaptionsschritt des Neural Gas kann als Gradientenabstieg auf einer Kostenfunktion interpretiert werden.
  2. Durch Adaption nicht nur des nächstliegenden Referenzvektors sondern in abnehmendem Maße auch der im Entfernungsrang folgenden Referenzvektoren wird eine robuste und von der Initialisierung weitgehend unabhängige Konvergenz erzielt.
  3. Als Lernrate hat sich bewährt:
     
    mit εstart=1 als Startlernrate und εend=0,001 als Lernrate zum Ende des Verfahrens, d.h. nach tmax Stimuluspräsentationen.
  4. Als Nachbarschaftreichweite hat sich bewährt:
     
    mit λstart=N/2 als Reichweite zu Beginn und λend=0,01 als Reichweite zum Ende des Verfahrens.
  • T. M. Martinetz and K. J. Schulten. A neural-gas network learns topologies. In T. Kohonen, K. Mäkisara, O. Simula, and J. Kangas, editors, Artificial Neural Networks, pages 397-402. North-Holland, Amsterdam, 1991.
  • T. Martinetz, S. Berkovich, and K. Schulten. "Neural-gas" Network for Vector Quantization and its Application to Time-Series Prediction. IEEE-Transactions on Neural Networks, 4(4):558-569, 1993.
  • T. Martinetz and K. Schulten. Topology representing networks. Neural Networks, 7(3):507-522, 1994.
  • Growing Neural Gas videos.
  • Java applet. Neural Gas, Growing Neural Gas und andere Verfahren des kompetitiven Lernens.
  • Fritzkes Seite zu Growing Neural Gas.
  • Java Competitive Learning Applications Unsupervised Neural Networks (including Self-organizing map) in Java mit Quelltexten.
  • Neural Gas Algorithm