Zum Inhalt springen

Künstliche Intelligenz

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 13. Mai 2005 um 19:22 Uhr durch 84.56.224.165 (Diskussion) (Englisch). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Künstliche Intelligenz (KI, beziehungsweise AI vom englischen Artificial Intelligence) ist eine Fachdisziplin der Informatik mit interdisziplinärem Charakter. Ziel der KI ist es, Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz (John McCarthy, 1955).

Neben den Forschungsergebnissen der Kerninformatik selbst sind in die KI Ergebnisse der folgenden Fachgebiete eingeflossen: Psychologie und Neurologie, Mathematik und Logik, Kommunikationswissenschaft, Philosophie und Linguistik. Die Beeinflussung der Neurologie hat sich in der Ausbildung des Bereichs Neuroinformatik, die der Biologie in der bioorientierten Informatik gezeigt. Zusätzlich ist auch der ganze Zweig der Kognitionswissenschaft zu nennen, welcher sich wesentlich auf die Ergebnisse der Künstliche Intelligenz in Zusammenarbeit mit der kognitiven Psychologie stützt.

Im Verständnis des Begriffs Künstliche Intelligenz spiegelt sich oft die aus der Aufklärung stammende Vorstellung vom Menschen als Maschine wieder, dessen Nachahmung sich die sog. starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die wie der Mensch nachdenken und Probleme lösen kann und die sich durch eine Form von Bewusstsein beziehungsweise Selbstbewusstsein sowie Emotionen auszeichnet.

Im Gegensatz zur starken KI geht es der schwachen KI darum, konkrete Anwendungsprobleme zu meistern. Insbesondere sind dabei solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von "Intelligenz" notwendig zu sein scheint. Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik; es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis von Intelligenz.

Während die starke KI an ihrer philosophischen Fragestellung bis heute scheiterte, sind auf der Seite der schwachen KI in den letzten Jahren bedeutende Fortschritte erzielt worden.

Teilgebiete der KI

Man unterscheidet mindestens 4 Intelligenzarten:

  1. visuelle Intelligenz
  2. sprachliche Intelligenz
  3. manipulative Intelligenz
  4. rationale Intelligenz

Des Weiteren kommen, je nach Differenzierungsgrad, solche Intelligenztypen wie emotionale Intelligenz hinzu.

Entsprechend der 4 Intelligenzarten sind z. Z. vier Teilgebiete in der Entwicklung:

Zu 1. der Bereich der Mustererkennung machte Geräte möglich, die Bilder beziehungsweise Formen erkennen können, beispielsweise Fingerabdrücke bei der Verbrechensbekämpfung, die menschliche Iris bei der Personenidentifizierung, Werkstücke bei der maschinellen Fertigung.

Zu 2. man kann heutzutage per Computer einen eingegebenen Text in Sprache umwandeln und umgekehrt Sprache zu Text machen. Die Sprachsynthese und Spracherkennung kann als Schnittstelle zwischen Computer und Mensch fungiern.

Zu 3. in der Fabrikationstechnik werden zunehmend frei programmierbare Automaten eingesetzt, die gefährliche Arbeiten übernehmen, beispielsweise Schweiß- und Lackierarbeiten oder eintönige „Handgriffe“ durchführen.

Zu 4. Computer die in diesen Bereichen eingesetzt werden heißen Expertensysteme. Das sind Datenbanken, in die Fachwissen eingespeichert wurde und das, zusammen mit dem späteren Anwender, dann Fachaufgaben lösen kann. Wichtig ist, dass jede Schlussfolgerung des Programmes von diesem anhand der vorher eingespeicherten Fakten begründet werden kann. Sie werden z.Z. in folgenden Bereichen mit Erfolg eingesetzt:

  • medizinische Computerdiagnose
  • Fehlersuch- und Fehlerbehebungsprogramme
  • industrielle Großfertigung beim Militär, zivile Luftfahrt, Verkehrswesen.

Methoden der KI

Die Methoden der KI lassen sich grob in zwei Dimensionen einordnen: Symbolische vs. Neuronale KI und Simulationsmethode vs. phänomenologische Methode. Die Zusammenhänge veranschaulicht die folgende Graphik:

Zur Einordnung von KI-Methoden und ihren Zusammenhängen

Die Neuronale KI verfolgt einen bottom-up-Ansatz und möchte das menschliche Gehirn möglichst präzise nachbilden. Die Symbolische KI verfolgt umgekehrt einen top-down-Ansatz und nähert sich den Intelligenzleistungen von einer begrifflichen Ebene her. Die Simulationsmethode orientiert sich so nah wie möglich an den tatsächlichen kognitiven Prozessen des Menschen. Dagegen kommt es dem phänomenologischen Ansatz nur auf das Ergebnis an.

Viele ältere Methoden, die in der KI entwickelt wurden, basieren auf heuristischen Lösungsverfahren. In jüngerer Zeit spielen mathematisch fundierte Ansätze aus der Statistik, der Mathematischen Programmierung, und der Approximationstheorie eine bedeutende Rolle.

Die konkreten Techniken der KI lassen sich grob in Gruppen einteilen:

Optimierungsmethoden

Oft führen Aufgabenstellungen der KI zu Optimierungsproblemen. Diese werden je nach Struktur entweder mit Suchalgorithmen aus der Informatik oder, zunehmend, mit Mitteln der Mathematischen Programmierung gelöst. Bekannte heuristische Suchverfahren aus dem Kontext der KI sind Evolutionäre Algorithmen.

Logisches Schließen

Eine Fragestellung der KI ist die Erstellung von Wissensrepräsentationen, die dann für automatisches logisches Schließen benutzt werden können. Menschliches Wissen wird dabei - soweit möglich - formalisiert, um es in eine maschinenlesbare Form zu bringen. Diesem Ziel haben sich die Entwickler diverser Ontologien verschrieben.

Schon früh beschäftigte sich die KI damit, automatische Beweissysteme (Deduktionssysteme) zu konstruieren, die Mathematikern und Informatikern beim Beweisen von Sätzen und beim Programmieren (Logikprogrammierung) behilflich wären. Zwei Schwierigkeiten stellten sich:

  1. Formuliert man Sätze in mächtigen, für den Benutzer bequemen Beschreibungssprachen (beispielsweise Prädikatenlogik), werden die entstehenden Suchprobleme sehr schwierig. In der Praxis machte man Kompromisse, wo die Beschreibungssprache für den Benutzer etwas umständlicher, die zugehörigen Optimierungsprobleme für den Rechner einfacher zu handhaben waren (Prolog, Expertensysteme).
  2. Selbst mächtige Beschreibungssprachen werden unhandlich, wenn man versucht, unsicheres oder unvollständiges Wissen zu formulieren. Für praktische Probleme kann dies eine sehr ernste Einschränkung sein. Die aktuelle Forschung untersucht daher Systeme, die die Regeln der Wahrscheinlichkeitsrechnung verwendet, um Unwissen und Unsicherheit explizit zu modellieren. Algorithmisch unterscheiden sich diese Methoden sehr von den älteren Verfahren (statt Symbolen werden Wahrscheinlichkeitsverteilungen manipuliert).

Approximationsmethoden

In vielen Anwendungen geht es darum, aus einer Menge von Daten eine allgemeine Regel abzuleiten (maschinelles Lernen). Mathematisch führt dies zu einem Approximationsproblem. Im Kontext der KI wurden hierzu Künstliche Neuronale Netze vorgeschlagen. In praktischen Anwendungen verwendet man häufig alternative Verfahren, die mathematisch einfacher zu analysieren sind.

Anwendungen

In der Vergangenheit sind Erkenntnisse der Künstlichen Intelligenz mit der Zeit oft in die anderen Gebiete der Informatik übergegangen: Sobald ein Problem gut genug verstanden wurde hat sich die KI neuen Aufgabenstellungen zugewandt. Zum Beispiel wurden der Compilerbau oder Computeralgebra ursprünglich der Künstlichen Intelligenz zugerechnet.

Zahlreiche Anwendungen wurden auf der Grundlage von Techniken entwickelt, die einst Forschungsgebiete der KI waren oder es noch sind. Einige Beispiele:

Turing-Test

Um ein Maß zu haben, wann eine Maschine eine dem Menschen gleichwertige Intelligenz simuliert, wurde von Alan Turing der nach ihm benannte Turing-Test vorgeschlagen. Dabei sollen Mensch und Maschine über ein Terminal Fragen beantworten und eine Jury soll anhand der Antworten entscheiden, wer der Mensch ist. Solange dies möglich ist, so Turing, sind Maschinen nicht intelligent. Bisher hat keine Maschine diesen Turing-Test bestanden. Seit 1990 existiert der Loebner-Preis für den Turing-Test.

Geschichte der KI

Die Geschiche der KI lässt sich grob in folgende Phasen aufteilen:

  1. Vorgeschichte / geistige Vorläufer (bis Mitte des 20. Jahrhunderts)
  2. Pionierphase (etwa 1950-1956)
  3. Empirische Phase (1957-1965)
  4. Fundierungsphase (1966-1975)
  5. Phase der Praxisorientierung (1976-1980)
  6. Technologische Phase (1981-1985)
  7. Kommerzielle Phase / euphorischer Abschnitt (1986-1991)
  8. Kommerzielle Phase / "die Mühen der Ebene" (1991-1996)
  9. Die Phase der Globalisierung (ab 1996)

Basierend auf den Arbeiten von Alan Turing (unter anderem dem Aufsatz Computing machinery and intelligence) formulierten Allen Newell (1927-1992) und Herbert Simon (1916-2001) von der Carnegie-Mellon-University in Pittsburgh die Physical Symbol System Hypothesis, nach der Denken Informationsverarbeitung ist, Informationsverarbeitung ein Rechenvorgang, also Symbolmanipulation, ist und es auf das Gehirn als solches beim Denken nicht ankommt: Intelligence is mind implemented by any patternable kind of matter.

Diese Auffassung, dass Intelligenz unabhängig von der Trägersubstanz ist, wird von den Vertretern der starken KI-These geteilt wie beispielsweise Marvin Minsky (*1927) vom Massachusetts Institute of Technology (MIT), einem der Pioniere der KI, für den "das Ziel der KI die Überwindung des Todes ist", oder von dem Roboterspezialisten Hans Moravec (*1948) von der Carnegie-Mellon-University, der in seinem Buch Mind Children (Kinder des Geistes) das Szenario der Evolution des postbiologischen Lebens beschreibt, wie ein Roboter das im menschlichen Gehirn gespeicherte Wissen auf einen Computerspeicher überträgt, so dass anschließend die Biomasse des Gehirns überflüssig wird und ein posthumanes Zeitalter beginnen kann, in dem das gespeicherte Wissen beliebig lange zugreifbar bleibt.

Insbesondere die Anfangsphase der KI war geprägt durch eine fast grenzenlose Erwartungshaltung im Hinblick auf die Fähigkeit von Computern, "Aufgaben zu lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen durchgeführt werden" (Minsky). Simon prognostizierte 1957 unter anderem, dass innerhalb der nächsten 10 Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde, Prognosen, die nicht zutrafen und die Simon 1990, allerdings ohne Zeitangabe, wiederholte. Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garry Kasparov in sechs Partien zu schlagen. Newell und Simon entwickelten in den 1960er Jahren den General Problem Solver, ein Programm, das mit einfachen Methoden beliebige Probleme lösen können sollte, ein Projekt, das nach fast zehnjähriger Entwicklungsdauer schließlich eingestellt wurde. McCarthy schlug 1958 vor, das gesamte menschliche Wissen in eine homogene, formale Darstellungsform, die Prädikatenlogik 1. Stufe, zu bringen. Die Idee war, Theorem-Beweiser zu konstruieren, die symbolische Ausdrücke zusammensetzen, um über das Wissen der Welt zu diskutieren.

Ende der 1960er Jahre entwickelte Joseph Weizenbaum (*1923) vom MIT mit einer relativ simplen Strategie das Programm ELIZA, in dem der Dialog eines Psychiaters mit einem Patienten simuliert wird. Die Wirkung des Programms war überwältigend. Weizenbaum war selbst überrascht, dass man auf relativ einfache Weise Menschen die Illusion eines beseelten Partners vermitteln kann. Auf einigen Gebieten erzielte die KI Erfolge, beispielsweise bei Strategiespielen (Schach, Dame, usw.), bei mathematischer Symbolverarbeitung, bei der Simulation von Robotern, beim Beweisen von logischen und mathematischen Sätzen und schließlich bei Expertensystemen. In einem Expertensystem wird Expertenwissen formal, beispielsweise in Form von Regeln, repräsentiert und auf gegebene Fakten angewandt, um auf neue bis dahin nicht bekannte Fakten zu schließen. Expertensysteme können ihre Problemlösung durch Angabe des benutzten Wissens erklären. Einzelne Wissenselemente können relativ leicht hinzugefügt, verändert oder gelöscht werden. Expertensysteme verfügen über komfortable Benutzerschnittstellen und sind in ihrem Anwendungsgebiet hoch kompetent.

Einem der bekanntesten Expertensysteme, dem Anfang der 1970er Jahre von T. Shortliffe an der Stanford-University entwickelten System MYCIN zur Unterstützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis, wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten. Allerdings reagierte das System, als ihm Daten einer Cholera-Erkrankung - bekanntlich eine Darm- und keine Blutinfektionskrankheit - eingegeben wurden, mit Diagnose- und Therapievorschlägen für eine Blutinfektionskrankheit, das heißt, MYCIN erkannte die Grenzen seiner Kompetenz nicht. Dieser Cliff-and-Plateau-Effekt ist bei Expertensystemen, die hochspezialisiert auf ein schmales Wissensgebiet angesetzt sind, nicht untypisch.

In den 1980er Jahren entwickelte sich die KI im Rahmen zunehmender Kommerzialisierung zu einer Schlüsseltechnologie, insbesondere im Bereich der Expertensysteme. Nachdem allerdings viele Prognosen nicht eingehalten werden konnten, reduzierten die Industrie und die Forschungsförderung ihr Engagement in der KI. Mittlerweile hat sich die KI von diesem Einbruch erholt. Es haben sich zahlreiche Subdisziplinen herausgebildet, beispielsweise spezielle Sprachen und Konzepte zur Darstellung und Anwendung von Wissen, Modelle zur Behandlung verschiedener Facetten des Wissens (Revidierbarkeit, Unsicherheit, Ungenauigkeit) und maschinelle Lernverfahren. Erfolgreiche Anwendungen liegen außer auf dem Gebiet der Expertensysteme in den Bereichen natürlich-sprachliche Schnittstellen, Robotik, Fuzzy-Logik und künstliche neuronale Netze.

Abgrenzung zu anderen Feldern der Informatik

Wie lässt sich eine Anwendung, der man Intelligenz-Eigenschaften zubilligt, von anderen Anwendungen unterscheiden? Diese Frage ist nicht ohne weiteres zu beantworten, könnte man doch den Standpunkt vertreten, dass auch bereits primitive Operationen wie Addition, Multiplikation usw. dem Menschen Intelligenz abverlangen. Dennoch würde man eine Anwendung zur Durchführung von Additionen kaum als eine Anwendung der Künstlichen Intelligenz bezeichnen.

Das Problem liegt hier in der Definition und Abgrenzung des Intelligenz-Begriffes selbst. Ein konstruktivistischer Ansatz zur Lösung des Problems besteht darin, wesentliche Intelligenzmerkmale der menschlichen Intelligenz zu abstrahieren und dann die Fähigkeiten einer gegebenen Anwendung an diesen Merkmalen zu messen. Dieser Ansatz hat zahlreiche Merkmale hervorgebracht, von denen mindestens die folgenden drei als notwendige Bedingungen angesehen werden:

  • V1: Die Fähigkeit zur Verarbeitung beliebiger Symbole (nicht nur Zahlen).
  • V2: Der Aufbau eines inneren Modells der äußeren Welt.
  • V3: Die Fähigkeit zu einer zweckentsprechenden Anwendung des Wissens.

Weitere Merkmale und Fähigkeiten, die aber nicht als notwendig erachtet werden, sind etwa logisches Schlussfolgern, Verallgemeinerung und Spezialisierung, Verwendung natürlicher Sprache usw. Insgesamt existieren derzeit inklusive V1 bis V3 zwölf relativ gesicherte Merkmale. Es lässt sich nun sagen, dass eine Anwendung die V1 bis V3 erfüllen muss, um von einer Anwendung der Künstlichen Intelligenz sprechen zu können. Je mehr weitere Merkmale die Anwendung erfüllt, desto höher kann der Grad an Intelligenz, den die Anwendung realisiert bewertet werden. Bislang erfüllt zwar der Mensch sämtliche dieser Merkmale, doch es ist noch nicht gelungen, eine Anwendung zu entwickeln, die zugleich alle 12 Merkmale realisiert.

Insgesamt ist bei dem hier beschriebenen konstruktivistischen Ansatz zur Verwendung des Intelligenz-Begriffes zu beachten, dass dieser zwar zahlreiche Merkmale definiert und so fassbarer macht, dass andererseits jedoch die Fülle der Merkmale auch verhältnismäßig schwierig zu handhaben ist.

Philosophische Aspekte

Die philosophischen Aspekte der KI-Problematik gehören zu den weitreichendsten der gesamten Informatik. Die Antworten, die auf die zentralen Fragen dieses Bereichs gegeben werden, reichen weit in ontologische und erkenntnistheoretische Themen hinein, die das Denken des Menschen schon in den Anfängen der Philosophie beschäftigten. Wer solche Antworten gibt, muss die Konsequenzen daraus auch für den Menschen und sich selbst ziehen. Nicht selten möchte man umgekehrt vorgehen und die Antworten, die man vor der Entwicklung Künstlicher Intelligenz gefunden hat, auf diese übertragen. Doch wie sich zeigte, hat die Künstliche Intelligenz zahlreiche Forscher dazu veranlasst, Probleme wie das Verhältnis von Materie und Geist, die Ursprünge des Bewusstseins, die Grenzen der Erkenntnis, die Möglichkeit außermenschlicher Intelligenz usw. in neuem Licht zu betrachten und zum Teil neu zu bewerten.

Siehe auch

Literatur

Deutsch

Englisch