Neuroinformatik

Teilgebiet der Informatik und der Neurobiologie, das sich mit der Informationsverarbeitung in neuronalen Systemen befasst
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 4. Januar 2005 um 14:02 Uhr durch Esperantisto (Diskussion | Beiträge) (TU Berlin hinzugefügt). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die Neuroinformatik ist ein Teilgebiet der Informatik. Sie ist die Wissenschaft, die sich mit der Informationsverarbeitung in neuronalen Systemen befaßt, dies schließt sowohl biologische- wie auch Künstliche Neuronale Netze ein. Sie sucht nach Methoden und Anwendungen, um neuronale biologische Informationssysteme auf technische Informationssysteme abzubilden.

Bei der Neuroinformatik handelt es sich um ein stark interdisziplinäres Forschungsgebiet im Grenzbereich von Informatik, Biologie, Mathematik und Kognitionswissenschaft.

Im Gegensatz zur Künstliche Intelligenz, einer Fachrichtung der Informatik deren Ziel es ist Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz, der es aber egal ist, wie diese Intelligenz zustande kommt, arbeitet die Neuroinformatik viel näher an der biologischen Gegebenheiten. Es wird untersucht wie das Gehirn arbeitet, und dann werden einzelne Teile des Gehirns, wie Neurone und Synapsen simuliert.

Teilgebiete der Neuroinformatik

Neuronale Methoden werden vor allem dann eingesetzt, wenn es darum geht aus schlechten oder verrauschten Daten Informationen zu gewinnen, aber auch Algorithmen die sich neuen Situationen anpassen, also lernen sind typisch für die Neuroinformatik, dabei unterscheidet man grundsätzlich überwachtes Lernen und unüberwachtes Lernen, ein Kompromiß zwischen beiden Techniken ist das Reinforcement Lernen. Die Assoziativspeicher sind eine besondere Anwendung neuronaler Methoden, viele Anwendungen finden sich in der Mustererkennung und vor allem in der Computer Vision.

Universitäten

Die Neuroinformatik ist ein relativ junger und kleiner Teil der Informatik dennoch finden sich an vielen deutschen Universitäten Institute, Abteilungen oder Arbeitsgruppen für Neuroinformatik. Die folgende Liste soll diese Universitäten auflisten, erhebt aber bislang keinen Anspruch auf Vollständigkeit:

Biologische Grundlagen neuronaler Netze

 
Zwei verschiedene Neurone, gut zu sehen ist der Zellkörper, das Dentritengeflecht und Axone

Neurone zu deutsch auch Nervenzellen finden sich überall im Körper, besonders gehäuft treten sie jedoch im Gehirn auf, fast alle höheren Tiere verfügen über ein Gehirn. Auf frischen Schnitten durch das Gehirn findet man eine rötlichbraune Schicht, die sogenannte graue Substanz und eine weißliche Schicht, die weiße Substanz.

Jedes Neuron besteht aus drei Teilen:

Die Dendriten und Axone sind zwei verschiedenen Arten von Fortsätzen, die vom Zellkern abgehen. Zumeist entspringen an jedem Zellkern eine Vielzahl von Dendriten, die sich zu einem Baum verzweigen, aber nur ein einzelnes Axon. Die Dendriten und Zellkerne leigen dabei ausschließlich in der grauen Substanz, in der es auch einige wenige Axone gibt, jedoch nur soche die nicht von einer Myelinschicht überzogen sind.

In der weißen Substanz verlaufen nur myelinisierte Axone. Da Myelinscheiden aus Zellmembranen bestehen, die viele Lipide enthalten, ist der Fettanteil relativ hoch und die Schicht erscheint weißlich.

Zwei Neurone sind über Synaptische Kopplungen miteinander verbunden. Synapsen sind die Orte wo die Erregung von einem Neuron in ein anderes übergeht. Die elektrische Erregung wird dabei chemisch, mittel eines Neurotransmitters übertragen. Der Abstand derdabei überbrückt wird, der Synaptische Spalt ist 20-30 nm breit. Man ünterscheidet hemmende inhibitorische Synapsen und erregende exhibitorische Synapsen. Die Synapsen werden über in ihnen fließende Ionenströme gesteuert, dabei sind vor allem Kalium-, Natrium- und Chlor-Ionen bedeutend.

Im Soma werden die über die Dendriten herangetragenden Reize addiert, wird dabei eine bestimmte Reizschwelle überschritten, löst das Neuron ein Aktionspotential (engl. Spike) aus, das sich über die Axone fortpflanzt.

Modelierung neuronaler Netze

Hodgkin-Huxley-Modell

Das berühmteste Modell zur Simulation eines Neurons ist das Hodgkin-Huxley-Modell, das auf Alan Lloyd Hodgkin und Andrew Fielding Huxley zurückgeht. Hier werden die spannungsabhängigen Membranwiderstände für die Ionenströme innderhalb der Synapse durch einstellbare Widerstände modelliert. Die Membrankapazität wird durch einen Kondensator simuliert.

Der Gesamtmembranstrom ist dann die Summe der Ionenströme und des Stroms, der die Membran auflädt. das Membranpotential ist dann durch folgende Differentialgleichung beschrieben:
 
Leider muß aber auch die Leitfähigkeit der Zellmembran für die einzelnen Ionentypen durch Differentialgleichungen dargestellt werden. Das sich ergebende gekopplte, nichtlineare Diffentialgleichungssystem (DGL) läßt sich leider nicht analytisch lösen, d.h. numerische Näherungsverfahren sind notwendig.

Kontinuierliches Grundmodell

Da das Hodgkin-Huxley-Modell sehr komplex und damit unhandlich ist, werden Neurone oft durch das Kontinuierliche Grundmodell oder eine diskretisierte Version das Diskrete Grundmodell modelliert. In diesem Modell werden die einzelnen Ionenkanäle der Synapsen nicht länger modelliert, und deswegen sind auch keine einzelnen Spikes mehr sichtbar, stattdessen müssen diese explizit durch eine Funktion angegeben werden.

Somit ist jedes Neuron durch zwei Modellgleichungen beschrieben:

  1. einem DGL für die Beschreibung des dendritischen Membranpotentials  
  2. eine Funktionsauswertung für das axonale Potential  

In einem neuronalen Netz mit n Neuronen lautet die Modellgleichungen dann:
 
 
Dabei ist:

  •   eine Zeitkonstante
  •   das dendritische Potential des j-ten Neurons
  •   die (zeitliche) Ableitung von  
  •   der extrene Input des j-ten Neurons
  •   die synaptische Kopplungsstärke vom i-ten zum j-ten Neuron
  •   die Lauzeit eines Aktionspotentials von i nach j
  •   das axonale Potential von j
  •   eine Transferfunktion