Neuroinformatik
Die Neuroinformatik ist ein Teilgebiet der Informatik. Sie ist die Wissenschaft, die sich mit der Informationsverarbeitung in neuronalen Systemen befaßt, dies schließt sowohl biologische- wie auch Künstliche Neuronale Netze ein. Sie sucht nach Methoden und Anwendungen, um neuronale biologische Informationssysteme auf technische Informationssysteme abzubilden.
Bei der Neuroinformatik handelt es sich um ein stark interdisziplinäres Forschungsgebiet im Grenzbereich von Informatik, Biologie, Mathematik und Kognitionswissenschaft.
Im Gegensatz zur Künstliche Intelligenz, einer Fachrichtung der Informatik deren Ziel es ist Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz, der es aber egal ist, wie diese Intelligenz zustande kommt, arbeitet die Neuroinformatik viel näher an der biologischen Gegebenheiten. Es wird untersucht wie das Gehirn arbeitet, und dann werden einzelne Teile des Gehirns, wie Neurone und Synapsen simuliert.
Teilgebiete der Neuroinformatik
Neuronale Methoden werden vor allem dann eingesetzt, wenn es darum geht aus schlechten oder verrauschten Daten Informationen zu gewinnen, aber auch Algorithmen die sich neuen Situationen anpassen, also lernen sind typisch für die Neuroinformatik, dabei unterscheidet man grundsätzlich überwachtes Lernen und unüberwachtes Lernen, ein Kompromiß zwischen beiden Techniken ist das Reinforcement Lernen. Die Assoziativspeicher sind eine besondere Anwendung neuronaler Methoden, viele Anwendungen finden sich in der Mustererkennung und vor allem in der Computer Vision.
Universitäten
Die Neuroinformatik ist ein relativ junger und kleiner Teil der Informatik dennoch finden sich an vielen deutschen Universitäten Institute, Abteilungen oder Arbeitsgruppen für Neuroinformatik. Die folgende Liste soll diese Universitäten auflisten, erhebt aber bislang keinen Anspruch auf Vollständigkeit:
- Technische Universität Berlin Homepage der Gruppe
- Universität Bielefeld Homepage der Arbeitsgruppe
- Universität Bochum Instituts Homepage
- Universität Bonn Abteilungs Homepage
- Universität Bremen Homepage der Arbeitsgruppe
- Universität Kassel Homepage der Forschungsgruppe
- Universität Ulm Abteilungs Homepage
Biologische Grundlagen neuronaler Netze
Neurone zu deutsch auch Nervenzellen finden sich überall im Körper, besonders gehäuft treten sie jedoch im Gehirn auf, fast alle höheren Tiere verfügen über ein Gehirn. Auf frischen Schnitten durch das Gehirn findet man eine rötlichbraune Schicht, die sogenannte graue Substanz und eine weißliche Schicht, die weiße Substanz.
Jedes Neuron besteht aus drei Teilen:
- dem Zellkern oder Soma
- dem Dendritenbaum
- dem Axon
Die Dendriten und Axone sind zwei verschiedenen Arten von Fortsätzen, die vom Zellkern abgehen. Zumeist entspringen an jedem Zellkern eine Vielzahl von Dendriten, die sich zu einem Baum verzweigen, aber nur ein einzelnes Axon. Die Dendriten und Zellkerne liegen dabei ausschließlich in der grauen Substanz, in der es auch einige wenige Axone gibt, jedoch nur solche die nicht von einer Myelinschicht überzogen sind.
In der weißen Substanz verlaufen nur myelinisierte Axone. Da Myelinscheiden aus Zellmembranen bestehen, die viele Lipide enthalten, ist der Fettanteil relativ hoch und die Schicht erscheint weißlich.
Zwei Neurone sind über Synaptische Kopplungen miteinander verbunden. Synapsen sind die Orte wo die Erregung von einem Neuron in ein anderes übergeht. Die elektrische Erregung wird dabei chemisch, mittels eines Neurotransmitters übertragen. Der Abstand der dabei überbrückt wird, der Synaptische Spalt ist 20-30 nm breit. Man unterscheidet hemmende inhibitorische Synapsen und erregende exhibitorische Synapsen. Die Synapsen werden über in ihnen fließende Ionenströme gesteuert, dabei sind vor allem Kalium-, Natrium- und Chlor-Ionen bedeutend.
Im Soma werden die über die Dendriten herangetragenden Reize addiert, wird dabei eine bestimmte Reizschwelle überschritten, löst das Neuron ein Aktionspotential (engl. Spike) aus, das sich über die Axone fortpflanzt.
Modellierung neuronaler Netze
Es gibt viele verschiedene Modelle um Neuronale Netze zu modellieren.
- Eines der genausten Modelle ist das Hodgkin-Huxley-Modell, daß auf die englischen BiochemikerAlan Lloyd Hodgkin und Andrew Fielding Huxley zurückgeht. Dieses Modell ist sehr genau und erlaubt es einzelne Aktionspotentiale zu simulieren.
- Wesentlich vereinfacht ist das sogenannte Kontinuirliche Grundmodell, oder die diskretisierte Fassug desselben, das Diskrete Grundmodell. In diesen Modellen ist es nicht möglich einzelne Aktionspotentiale zu modellieren, anstelle dessen kommt eine Transferfunktion zum Einsatz.
Es gibt aber auch viele andere Arten Künstlicher neuronaler Netze:
Netze mit Lehrer
- Perzeptrone und vor allem das Multi-Layer-Perzeptron (MLP)
- Hetero-Assoziative-Netze
- Backpropagation
- Radiale-Basisfunktionen-Netze
- Support-Vector-Maschinen
Netze mit Konkurrenz
- Kohonenkarten
- K-Means Clusteranalyse
- Learnig-Vector-Quantisation (LVM)
- Adaptive Resonaz Theorie (ART)
Netze mit Rückkopplung
Literatur
- Raúl Rojas: Theorie der neuronalen Netze, Springer-Lehrbuch, Berlin, 1996, ISBN 3540563539
- R. Beale und T. Jackson: Neural Computing an Introduction, Adam Hilger, Bristol, 1990
- JA. Hertz, A. Krogh und RG. Palmer: Introduction to the Theory of Neural Computation, Addison-Wesley, 1991
- P.D. Wassermann: Advanced methods in neural Computing, Van Nostrand Reinhold, nex York, 1993
- A. Zell: Simulation neuronaler Netze, Addison Weslex, 1994