Künstliche Intelligenz

Teilgebiet der Informatik, das sich mit maschinellen Intelligenzleistungen befasst
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 28. Februar 2004 um 17:24 Uhr durch Hafenbar (Diskussion | Beiträge) (Damespiel-Weltmeister). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Künstliche Intelligenz (KI, bzw. AI vom englischen Artificial Intelligence) ist eine Fachdisziplin der Informatik mit interdisziplinärem Charakter. Ziel der KI ist es, Maschinen zu entwickeln, die sich verhalten, als verfügten sie über menschliche Intelligenz (John McCarthy, 1955).

Genauer geht es darum, Systeme zu entwickeln, die

  • "wie Menschen" denken, oder
  • sich "wie Menschen" verhalten, oder
  • rational denken, oder
  • sich rational verhalten.

Hierbei bezeichnet "Denken" die inneren Problemlösungsmechanismen und "Verhalten" die nach außen sichtbaren Ergebnisse des Denkens. (Quelle: Russell/Norvig)

In der Vergangenheit sind Erkenntnisse der Künstlichen Intelligenz mit der Zeit oft in die andere Gebiete der Informatik übergegangen, sobald ein Problem gut genug verstanden wurde und sich die KI neuen Aufgabenstellungen zuwandte. Zum Beispiel wurde der Compilerbau ursprünglich der Künstlichen Intelligenz zugerechnet.

Methoden der KI

Viele Methoden, die in der KI entwickelt wurden, basieren auf heuristischen Lösungsverfahren. Techniken der KI sind unter anderem: Mustererkennung, Künstliche Neuronale Netze, Evolutionäre Algorithmen, Genetische Algorithmen, Fuzzy-Logik, Expertensysteme, Deduktionssysteme

Anwendungen

Zahlreiche Anwendungen wurden auf der Grundlage von Techniken entwickelt, die einst Forschungsgebiete der KI waren oder es noch sind. Einige Beispiele:

Turing-Test

Um ein Maß zu haben, wann eine Maschine eine dem Menschen gleichwertige Intelligenz aufweist, wurde von Alan Turing der nach ihm benannte Turing-Test vorgeschlagen. Dabei sollen Mensch und Maschine über ein Terminal Fragen beantworten und eine Jury soll anhand der Antworten entscheiden, wer der Mensch ist. Solange dies möglich ist, so Turing, sind Maschinen nicht intelligent. Bisher hat keine Maschine diesen Turing-Test bestanden.

Philosophische Kritik

Antike und Mittelalter

Vom Standpunkt einer aristotelisch-thomistischen Substanz-Metaphysik sind Maschinen als "tote", da unbelebte Wirklichkeiten prinzipiell als in der Seinsordnung niedriger stehend als alle Lebewesen einzustufen, deren höchste Stufe im Bereich der sichtbaren Wirklichkeit der Mensch als "animal rationale" darstellt, d.h. als Lebewesen, das mit Vernunft ausgestattet ist.

Von daher scheint es unmöglich zu sein, dass je eine Maschine jene Art von Intelligenz besitzt, wie sie dem Menschen zukommt. Mag auch die Intelligenz einer Maschine in unvorstellbarem Ausmaß anwachsen, so ist diese Steigerung immer nur graduell und hebt den qualitativ bestehenden Unterschied zwischen Mensch und Maschine nicht auf. Maschinelle Intelligenz ist stets von Rechenoperationen abhängig; Einsicht und Urteilsfähigkeit oder gar Freiheit der Entscheidung kann einer Maschine als solcher nie zukommen - bestenfalls eine derart perfekte Simulation solcher an sich nur dem Menschen möglicher geistiger Prozesse, dass der Schein einer eigenständigen, dem Menschen möglicherweise gar überlegenen Intelligenz entstehen könnte.

Neuzeit

Neuzeitliche Kritiker werfen den Metaphysikern vor, dass die Frage nach Intelligenz nicht mit der Frage nach Stellung in einer hypothetischen gottgegebenen Seinsordnung zusammenhängt: Ein "niedrig stehendes" Wesen kann über genausoviel Intelligenz verfügen wie ein "höher stehendes" Wesen. Um Einsicht, Urteilskraft, Entscheidungsfreiheit (vgl. Bewusstsein) geht es der KI nicht: Sobald es gelingt "die Intelligenz einer Maschine in unvorstellbarem Ausmaß anwachsen" zu lassen, hat die KI ihr Ziel erreicht.

Der Satz "Von daher scheint es unmöglich zu sein, dass je eine Maschine jene Art von Intelligenz besitzt, wie sie dem Menschen zukommt" ist trivialerweise richtig. Ob es eine spezifisch menschliche Form von Intelligenz gibt und ob man sie ggf. ununterscheidbar nachahmen kann, ist gerade die Frage.

Interessanter als die Frage nach der Seinsordnung wären philosophische Argumente wie das Chinese Room-Gedankenexperiment.

Zur Abgrenzung von Mensch und Maschine

Marvin Minsky formulierte den auch als Starke These der Künstlichen Intelligenz bekannten Satz: "The brain happens to be a meat machine" (Das Gehirn ist eine Maschine aus Fleisch). Den Beweis für diesen Satz ist die KI jedoch bislang schuldig geblieben.

Der folgende Abschnitt repräsentiert die persönliche Meinung des Wikipedia-Benutzers Mh
Ein Computer ist jederzeit in einem definierten Zustand. Er gehorcht mathematisch-logischen Gesetzen und man kann im Prinzip zu jedem beliebigen Zeitpunkt seinen Zustand feststellen. Die interessante Frage zur Abgrenzung zwischen Mensch und Maschine ist daher nicht, was der Computer ist, sondern läuft darauf hinaus, genau zu wissen, was der Mensch ist. Würde eine hinreichend exakte Beschreibung von menschlickem Verhalten existieren, so wäre es technisch kein Problem, dieses im Computer abzubilden. Daher läuft diese Frage auf die neue Frage hinaus, ob es irgendetwas gibt, was einen Menschen prinzipiell von der Menschine unterscheidet. Mögliche Antworten wären möglicherweise äquivalent zur Frage der Biologie, was eigentlich Leben ist, bis hin zu philosophischen und religiösen Fragen wie der, ob der Mensch eine Seele hat.

Literatur

Siehe auch: Maschinelles Lernen, Kybernetik, Künstliche Dummheit, Ontologie (Informatik), Prädikatenlogik