Zum Inhalt springen

Benutzer:Phil Buchenrauch/Schreibtisch

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 12. April 2023 um 07:39 Uhr durch Phil Buchenrauch (Diskussion | Beiträge) (Weblinks). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Philosophie der Künstlichen Intelligenz

Die Philosophie der künstlichen Intelligenz (KI) ist ein Teilgebiet der Technikphilosophie, das sich mit den erkenntnistheoretischen Grundlagen der KI, ihren Möglichkeiten und Grenzen sowie ihren Auswirkungen auf die Gesellschaft befasst. Wesentliche Themen der KI-Philosophie sind:

  • Kann eine Maschine überhaupt Intelligenz haben? Auseinandersetzungen über diese Frage werden geführt, seit es Computer gibt, und erst recht seit sich Künstliche Intelligenz mit der Dartmouth Conference 1956 als Forschungsgebiet etabliert hat.
  • Was ist Intelligenz? Sind menschliche Intelligenz und maschinelle Intelligenz dasselbe? Funktioniert das menschliche Gehirn ähnlich wie ein Computer?
  • Kann eine Maschine Bewusstsein oder Emotionen haben?

Die Ethik der Künstlichen Intelligenz untersucht ethische Standards für den Einsatz der KI.

  • Welche Wertvorstellungen müssen KI-Systeme beachten?
  • Welches Missbrauchs- und Gefahrenpotential steckt in KI?
  • Welche Gefahr bedeuten verzerrte Wertmaßstäbe (kognitive Verzerrungen, Gender Bias) in KI-Systemen?
  • Welchen Einfluss hat KI auf die Gesellschaft? Wie verändert KI das Bildungswesen und die Wissenschaften? Verdrängt KI den Menschen aus kreativen und komplexen Tätigkeiten?

Auf der konstruktiven Seite stammen viele Formalismen und Techniken der KI aus der Philosophie: Aussagenlogik und Prädikatenlogik und ihre Erweiterungen: Modallogik für die Modellierung von Möglichkeit und Notwendigkeit; Deontische Logik für die Modellierung von Gebot, Verbot und Erlaubnis; Induktive Logik für das Schließen von einzelnen Beobachtungen auf allgemeine Aussagen; Doxastische Logik für die Modellierung des Glaubens und Meinens; außerdem die philosophische Interpretation von Wahrscheinlichkeit, Probabilistische Aussagen, Praktische Intelligenz und das Planen von Handlungen.

Die Philosophie der Künstlichen Intelligenz hat enge Verbindungen zur Philosophie des Geistes und der Philosophie der Kognition sowie den Konzepten des Funktionalismus, Reduktionismus, Konnektionismus und des subjektiven Erlebnisgehalts (Qualia).

Kann eine Maschine denken? – Alan Turing

Kann eine Maschine intelligentes Verhalten zeigen, das der menschlichen Intelligenz gleichwertig oder sogar überlegen ist? Eine grundsätzliche Schwierigkeit bei der Beantwortung dieser Frage besteht darin, dass Intelligenz viele verschiedene Aspekte hat, die in den Intelligenzmodellen unterschiedlich beschrieben, gewichtet und zusammengefasst werden. Entsprechend kontrovers sind die Ansichten über die prinzipiellen Möglichkeiten künstlicher Intelligenz. Selbst wenn eine Maschine mit erstaunlicher Intelligenz präsentiert würde, könnte man immer noch Aspekte anführen, die bei ihr fehlen oder nur schwach ausgeprägt sind.

Nachdem in der ersten Hälfte des 20. Jahrhunderts sowohl in der Mathematischen Logik als auch in der Algorithmentheorie entscheidende Durchbrüche erzielt und erste Computer gebaut worden waren, beschäftigte sich der britische Mathematiker Alan Turing 1950 als Erster mit der Frage, ob Maschinen mit Intelligenz möglich sind. In seiner berühmten Arbeit Computing Machinery and Intelligence.[1] formulierte er das Problem als Frage Können Maschinen denken? Da die Bedeutung von „Denken“ nur schwer zu definieren ist, schlug er vor, die Frage durch einen Test zu ersetzen, der heute als Turing-Test bekannt ist. Er verwendet das – wahrscheinlich von ihm erfundene[2] – "imitation game", bei dem eine Person, der Tester, zwei anderen Personen, einem Mann (A) und einer Frau (B), die sich in einem anderen Raum befinden, Fragen stellt, um zu entscheiden, wer von beiden Mann bzw. Frau ist. Die Fragen und Antworten werden schriftlich ausgetauscht. Wir stellen nun die Frage: Was wird passieren, wenn eine Maschine in diesem Spiel die Rolle von A übernimmt? Wird der Fragesteller bei einem solchen Spiel genauso oft falsch entscheiden wie bei einem Spiel zwischen einem Mann und einer Frau? Diese Fragen ersetzen unsere ursprüngliche Frage „Können Maschinen denken?“.[1]:434 Es geht also darum, ob eine Maschine sich so verhalten kann, dass ihre intellektuellen Fähigkeiten nicht mehr sicher von denen des Menschen unterschieden werden können. Damit umgeht Turing die Schwierigkeit, „denken“ zu definieren.

Hinsichtlich der zu testenden Maschinen genügt es nach Turing, ausschließlich digitale Computer zu betrachten[3], denn Computer sind – unter der Annahme, dass ihr Speicher beliebig erweiterbar ist - äquivalent zu einer Universellen Turingmaschine, so dass ein solcher Computer gemäß der Church-Turing-These jede prinzipiell berechenbare Funktion ausführen kann. Damit lässt sich der Turing-Test in der heute gebräuchlichen Form formulieren: Ein Fragesteller unterhält sich schriftlich mit zwei ihm unbekannten Gesprächspartnern, einem Menschen und einem Computer. Kann der Fragesteller den Computer nicht zuverlässig vom Menschen unterscheiden, hat der Computer den Test bestanden. Das Ergebnis hängt nicht davon ab, ob der Computer die Fragen richtig beantwortet, sondern nur davon, wie sehr seine Antworten denen eines Menschen ähneln.

Einwände gegen den Turing-Test

Turing setzt sich in diesem Artikel auch mit einer Reihe möglicher Einwände gegen den Test auseinander:

  • Religiöser Einwand: Denken ist eine Fähigkeit der unsterblichen Seele, die nur dem Menschen gegeben wurde, deshalb können Tiere und Maschinen nicht denken. Turing verweist darauf, dass derartige Argumente in der Vergangenheit oft ungenügend waren, z. B. gegenüber Galileo Galilei.
  • Kopf in den Sand stecken, d. h. man kann nur hoffen, dass Maschinen nicht denken können, denn die Folgen wären zu schrecklich, wenn sie es könnten.
  • Argumente von der Form „Maschinen werden niemals x können“. Dabei steht x für: gutmütig, einfallsreich, schön, oder freundlich sein, Initiative zeigen, Sinn für Humor haben, Recht von Unrecht unterscheiden, Fehler machen, sich verlieben, Erdbeeren mit Sahne genießen, aus Erfahrungen lernen, Wörter richtig benutzen, Gegenstand eigener Gedanken sein, so vielfältiges Verhalten wie ein Mensch haben oder etwas wirklich Neues tun (siehe unten Lady Lovelace's Einwand). Turing sieht hinter den meisten dieser Einwände keine tiefere Begründung, die zukünftigen Entwicklungsmöglichkeiten von Computern werden unterschätzt oder es wird der falsche Schluss gezogen, dass etwas nicht sein kann, weil es das bisher nicht gegeben hat. Einige dieser Argumente sind auch verschleierte Formen des Bewußtseinsarguments. Es sei durchaus möglich, Maschinen so zu programmieren, dass sie auch Fehler machen, oder sie ihre eigene Arbeit beobachten zu lassen. Vielfältiges Verhalten sei nur eine Frage von genügend Speicherplatz.
  • Argument der Kontinuität im Nervensystem: Die moderne neurologische Forschung hat gezeigt, dass das Gehirn nicht digital ist. Auch wenn Neuronen nach einer Alles-oder-Nichts-Regel feuern, haben sowohl das genaue Timing des Impulses als auch die Wahrscheinlichkeit seines Auftretens analoge Komponenten. Turing räumt dies ein, argumentiert aber, dass jedes analoge System mit hinreichender Genauigkeit durch einen Computer simuliert werden kann, wenn genügend Rechenleistung zur Verfügung steht.

Mathematisches Argument

In der mathematischen Logik gibt es eine Reihe von Resultaten, die zeigen, dass es Grenzen für die Fähigkeiten von Digitalrechnern gibt. Am bekanntesten ist der Gödelsche Unvollständigkeitssatz von 1931, der zeigt, dass in hinreichend ausdrucksstarken logischen Systemen Aussagen formuliert werden können, die weder beweisbar noch widerlegbar sind, sofern das System widerspruchsfrei ist. Ähnliche Ergebnisse stammen von Alonzo Church[4] und von Turing selbst[5]. In der letztgenannten Arbeit zum Halteproblem beweist er folgendes paradoxe Ergebnis: Wenn es eine Turingmaschine T gäbe, die für jede beliebige andere Turingmaschine entscheiden könnte, ob sie bei gegebenen Anfangswerten zu einem Ende kommt oder endlos weiterläuft, dann könnte man für sie eine „pathologische“ Maschine P konstruieren, die anhält, wenn T die Haltefrage mit „Nein“ beantwortet, und die endlos weiterläuft, wenn T sie mit „Ja“ beantwortet. Der mathematische Einwand lautet dann: „Es gibt Grenzen für Maschinen, denen der menschliche Verstand nicht unterliegt“.

Turing entgegnete: „Es ist zwar erwiesen, dass es Grenzen für die Fähigkeiten einer bestimmten Maschine gibt, aber das wurde nur behauptet, ohne irgendeinen Beweis dafür zu liefern, dass diese Grenzen für den menschlichen Intellekt nicht gelten“. Wir erkennen unsere Überlegenheit gegenüber einer einzelnen Maschine. „Von einem gleichzeitigen Triumph über alle Maschinen kann keine Rede sein. Kurz gesagt, es mag Menschen geben, die klüger sind als eine bestimmte Maschine, aber dann könnte es wieder andere Maschinen geben, die klüger sind, und so weiter“. Mit dem Aufkommen der Künstlichen Intelligenz bekam das mathematische Argument neue Unterstützer, mehr dazu unten.

Argument des Bewusstseins

Geoffrey Jefferson, Neurochirurg an der University of Manchester, formulierte dieses Argument 1948 in seiner Rede zur Verleihung der Lister-Medaille

„Erst wenn eine Maschine in der Lage ist, ein Sonett zu schreiben oder ein Konzert zu komponieren, und zwar auf der Grundlage gefühlter Gedanken und Emotionen und nicht durch das zufällige Aufeinandertreffen von Symbolen, könnten wir uns darauf einigen, dass die Maschine dem Gehirn ebenbürtig ist, d.h. dass sie nicht nur schreibt, sondern auch weiß, dass sie es geschrieben hat. Kein Mechanismus könnte Freude über seine Erfolge empfinden (und sie nicht nur künstlich signalisieren, eine einfache Erfindung), Trauer, wenn seine Ventile versagen, von Schmeicheleien erwärmt, von seinen Fehlern unglücklich gemacht, von Sex bezaubert werden, wütend oder deprimiert sein, wenn er nicht bekommt, was er will.“

Geoffrey Jefferson: The Mind of Mechanical Man[6]

Turing antwortet: Die einzige Möglichkeit, sicher zu sein, dass eine Maschine denkt, besteht darin, selbst die Maschine zu sein und zu fühlen, dass sie denkt. … Ich möchte nicht den Eindruck erwecken, dass ich glaube, es gäbe keine Rätsel des Bewusstseins … aber ich glaube nicht, dass diese Rätsel unbedingt gelöst werden müssen, bevor wir die Frage [ob Maschinen denken können] beantworten können. Da wir nicht wissen können, ob ein anderes Individuum Emotionen empfindet, sollten wir den Test akzeptieren. Das Bewußtseins-Argument wurde 1980 von dem Philosophen John Searle erneut vorgebracht, mehr zu Searles Chinese Room Experiment siehe unten.

Am Ende seines Lister-Vortrags hatte Jefferson prophezeit, „dass der Tag niemals anbrechen wird, an dem die schönen Räume der Royal Society in Garagen umgewandelt werden, um diese neuen Kollegen unterzubringen.“ Dies wurde als Beleidigung der Computer-Entwickler um Max Newman in Manchester aufgefasst. Newman antwortete in der Times und zitiert Alan Turing Dies ist nur ein Vorgeschmack auf das, was kommen wird, und nur ein Schatten dessen, was sein wird. Wir müssen erst einige Erfahrungen mit der Maschine machen, bevor wir ihre Fähigkeiten wirklich kennen. Es kann Jahre dauern, bis wir uns an die neuen Möglichkeiten gewöhnt haben, aber ich sehe keinen Grund, warum sie nicht in alle Bereiche, die normalerweise vom menschlichen Intellekt abgedeckt werden, eintreten und schließlich unter gleichen Bedingungen mit uns konkurrieren sollte.[7]

Lady Lovelace’s Einwand

“The Analytical Engine has no pretensions whatever to originate anything. It can do whatever we know how to order it to perform. It can follow analysis; but it has no power of anticipating any analytical relations or truths. Its province is to assist us in making available what we are already acquainted with.”

„Die Analytical Engine erhebt nicht den Anspruch, etwas zu erfinden. Sie kann alles tun, was wir ihr zu tun befehlen. Sie kann der Analyse folgen, aber sie ist nicht in der Lage, analytische Zusammenhänge oder Wahrheiten zu antizipieren. Ihre Aufgabe ist es, uns zu helfen, das, was wir bereits wissen, verfügbar zu machen.“

Ada Lovelace: Notes[8]

Die Mathematikerin Ada Lovelace arbeitete mit Charles Babbage an der von ihm entwickelten Analytical Engine. Ihr Einwand findet sich in der Note G. Turing argumentiert, dass Computer den Menschen sehr wohl überraschen können, insbesondere dann, wenn die Konsequenzen verschiedener Fakten nicht sofort erkennbar sind. Die Analytical Engine war ein universeller digitaler Computer, so dass sie – genügend Speicherplatz und Geschwindigkeit vorausgesetzt – bei entsprechender Programmierung durchaus in der Lage war zu überraschen, aber Lady Lovelace konnte aus den ihr zur Verfügugn stehenden Anhaltspunkten nicht auf eine solche Eigenschaft schließen. Die Annahme, dass mit der Präsentation einer Tatsache alle ihre Konsequenzen augenblicklich in den Kopf springen, sei ein häufiger Irrtum von Mathematikern und Philosophen).

Argument der Formlosigkeit des Verhaltens

Dieses Argument der Formlosigkeit (englisch informality) besagt, es sei nicht möglich, einen Satz von Regeln aufzustellen, die das Verhalten eines Menschen unter allen denkbaren Umständen beschreiben. dass es nicht möglich ist, eine Reihe von Regeln aufzustellen, die das Verhalten eines Menschen unter allen denkbaren Umständen beschreiben. Mit anderen Worten: „Wenn jeder Mensch einen Satz von Verhaltensregeln hätte, nach denen er sein Leben führen könnte, wäre er nicht besser als eine Maschine.“[1]:452 Turing ist überzeugt, dass hier eine Verwechslung zwischen ‹Regeln, die das Verhalten steuern› (englisch rules of conduct) und ‹Naturgesetzen, die die Reaktionen des Körpers steuern› (englisch laws of behaviour) vorliegt. Die Existenz von Reaktionsgesetzen kann nicht so einfach geleugnet werden, der Mensch ist also doch eine Art Maschine. Die einzige Möglichkeit, solche Gesetze zu finden, sei die wissenschaftliche Beobachtung. Turing ist jedoch skeptisch, ob dies in angemessener Zeit möglich ist. „Angenommen, wir könnten sicher sein, solche Gesetze zu finden, wenn es sie gäbe. Dann wäre es bei einer Maschine mit diskreten Zuständen sicher möglich, durch Beobachtung genug über sie herauszufinden, um ihr zukünftiges Verhalten vorhersagen zu können, und zwar innerhalb einer vernünftigen Zeitspanne, sagen wir tausend Jahre. Aber das scheint nicht der Fall zu sein.“[1]:453 Die Behauptung, dass es unmöglich sei, ein detailliertes mathematisches Modell des menschlichen Gehirns in angemessener Zeit zu erstellen, wird seitdem als Turings Wette bezeichnet englisch Turing's Wager bezeichnet.[9] Das Argument der Formlosigkeit hat Hubert Dreyfus in seiner Kritik der KI wieder aufgegriffen (siehe unten).

Hypothesen der Künstlichen Intelligenz

In der Aufklärung war die Ansicht verbreitet, dass Denken im Grunde mechanisches Rechnen sei, von Thomas Hobbes stammt die These:

  • „Denn die Vernunft ist in diesem Sinne nichts anderes als die Berechnung (d. h. Addieren und Subtrahieren) der Folgerungen aus allgemeinen Namen, die zur Kennzeichnung und Bezeichnung unserer Gedanken vereinbart wurden.“ (englisch "For reason in this sense is nothing but reckoning (that is adding and subtracting) of the consequences of general names agreed upon for the marking and signifying our thoughts.")[10]

Die Hypothese, dass Maschinen alle Aspekte der menschlichen Intelligenz nachbilden können, wurde bereits 1956 im Antrag für die Dartmouth Conference formuliert, mit der die Künstlichen Intelligenz als Forschungsgebiet ihren Anfang nahm:

  • „Die Studie geht von der Annahme aus, dass jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz im Prinzip so genau beschrieben werden kann, dass eine Maschine in der Lage ist, ihn zu simulieren.“ (englisch The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.)[11]

1976 stellten Allen Newell und Herbert A. Simon die Behauptung auf, dass menschliches Denken eine Art Symbolmanipulation ist, weil ein Symbolsystem für Intelligenz notwendig ist, und dass Maschinen intelligent sein können, weil ein Symbolsystem für Intelligenz ausreichend ist. Dies ist der Inhalt ihrer Hypothese über physische Symbolsysteme:

Künstliche Intelligenz mit dem Anspruch, geistige Fähigkeiten, Denkprozesse und Funktionen zu schaffen, die dem menschlichen Gehirn nachempfunden sind, wird als Starke Künstliche Intelligenz bezeichnet. Der Begriff wurde 1980 von dem amerikanischen Philosophen John Searle geprägt, der dieses Ziel jedoch für unerreichbar hielt (siehe unten). Raymond Kurzweil brachte Starke KI auf die kurze Formel „maschinelle Intelligenz mit dem vollen Umfang der menschlichen Intelligenz“ (englisch strong AI, which I describe as machine intelligence with the full range of human intelligence)[13]

Die „Strategie Künstliche Intelligenz der Bundesregierung“ beschreibt als Ziele: Die „starke“ KI formuliert, dass KI-Systeme die gleichen intellektuellen Fertigkeiten wie der Mensch haben oder ihn darin sogar übertreffen können. Die „schwache“ KI ist fokussiert auf die Lösung konkreter Anwendungsprobleme auf Basis der Methoden aus der Mathematik und Informatik, wobei die entwickelten Systeme zur Selbstoptimierung fähig sind. Dazu werden auch Aspekte menschlicher Intelligenz nachgebildet und formal beschrieben bzw. Systeme zur Simulation und Unterstützung menschlichen Denkens konstruiert.[14]

Kann Künstliche Intelligenz „common sense“ nachbilden? – Hubert Dreyfus

Hubert Dreyfus ist einer der wichtigsten Kritiker der Künstlichen Intelligenz. In seinen Büchern What Computers Can’t Do: The Limits of Artificial Intelligence[15] und What Computers Still Can’t Do: A Critique of Artificial Reason.[16] vertrat er vor allem das Argument der Formlosigkeit des menschlichen Verhaltens („Qualifikationsproblem“), das Alan Turing bereits 1950 erkannt hatte. Nach Ansicht von Dreyfus beruht menschliche Intelligenz und Expertise vor allem auf schnellen intuitiven Urteilen und nicht auf schrittweiser symbolischer Manipulation, Menschen arbeiten mit einen „ganzheitlichen Kontext“ oder „Hintergrund“. Am Beispiel des Schachspiels erklärt er: Ein einfacher Schachspieler kann sich vielleicht nicht vorstellen, was zu tun ist, aber ein Großmeister sieht einfach das Brett und weiß, dass ein bestimmter Zug gemacht werden muss … die richtige Antwort springt ihm einfach in den Kopf.[17]:1180 Auf die Entwicklung der KI-Forschung hatte diese Kritik kaum Einfluss, da sie nicht konstruktiv war (wie die Antwort in den Kopf springt), sondern versuchte zu zeigen, dass Künstliche Intelligenz nicht möglich ist. Zudem war Dreyfus' Sprache der Philosophie von Heidegger und Merleau-Ponty nicht die Sprache der KI-Forschung war.

In Mind over machine – the power of human intuition and expertise in the era of the computer[18] behaupten Hubert Dreyfus und sein Bruder Stuart Dreyfus, dass Maschinen bei der Lösung kognitiver Aufgaben, die Intuition und ganzheitliches Denken erfordern, niemals an den Menschen heranreichen werden. Denn Intelligenz sei mehr als kalkulatorische Rationalität, die Computer nachahmen könnten. Vor allem das Verhalten in unstrukturierten Situationen entziehe sich der kalkulatorischen Rationalität, weil es nicht formalisierbar und nicht in mathematische Darstellungen überführbar sei. Im Zentrum ihres Buches steht ein fünfstufiges Modell intelligente Verhaltens beim Menschen. Sie schlagen eine neuronale Netzarchitektur vor, die in einer riesigen „Fallbibliothek“ angeordnet ist, und weisen auf mehrere Probleme hin:[17]:1181

  1. Hintergrundwissen ist für die Verallgemeinerung von Beispielen notwendig, aber niemand weiß, wie Hintergrundwissen in den Lernprozess neuronaler Netze eingebracht werden kann.
  2. Lernen in neuronalen Netzen ist nur als überwachtes Lernen mit einem menschlichen Trainer möglich.
  3. Lernalgorithmen arbeiten nicht gut mit großen Merkmalsmengen, arbeitet man mit kleinen Merkmalsmengen, müssten diese bei Bedarf erweitert werden, wofür aber keine Methode bekannt ist.
  4. Das Gehirn kann seine Sensoren so ausrichten, dass in der gegebenen Situation relevante Informationen gesucht und verarbeitet werden, aber dieser Mechanismus ist noch nicht im Detail verstanden, so dass es keine Ansätze für die KI-Forschung gibt.

Insgesamt sind viele der Aspekte, auf die sich Dreyfus konzentriert hat – Hintergrundwissen, das Qualifikationsproblem, Unsicherheit, Lernen, kompilierte Arten der Entscheidungsfindung – in der Tat wichtige Fragen und sie werden inzwischen beim Standardentwurd intelligenter Agenten berücksichtigt. Unserer Meinung nach ist dies der Beweis für den Fortschritt der KI, nicht für ihre Unmöglichkeit.[17]:1182

Was folgt aus Gödels Unvollständigkeitssatz für die KI? – Lucas und Penrose

Der britische Philosoph John Randolph Lucas stellte 1959 in seinem Vortrag Minds, Machines and Gödel[19] vor der Oxford Philosophical Society die These auf

Gödel, Kurt, 1951, Some basic theorems on the foundations of mathematics and their implications in Solomon Feferman, ed., 1995. Collected works / Kurt Gödel, Vol. III. Oxford University Press: 304-23. - In this lecture, Gödel uses the incompleteness theorem to arrive at the following disjunction: (a) the human mind is not a consistent finite machine, or (b) there exist Diophantine equations for which it cannot decide whether solutions exist. Gödel finds (b) implausible, and thus seems to have believed the human mind was not equivalent to a finite machine, i.e., its power exceeded that of any finite machine. He recognized that this was only a conjecture, since one could never disprove (b). Yet he considered the disjunctive conclusion to be a "certain fact".

Das Argument des Chinesischen Zimmers – John Searle

Das Argument und das Gedankenexperiment des Chinesischen Zimmers veröffentlichte der amerikanische Philosoph John Searle 1980.[20]. Es entfachte eine umfangreiche, kontroverse Diskussion und wurde zu einem der bekanntesten Argumente in der Philosophie des Geistes. Der Artikel besteht aus vier Teilen: a) Experiment des Chinesischen Zimmers und Searles Schlussfolgerung, b) Searles Erwiderung auf wesentliche Argument, die ihm an verschiedenen Universitäten entgegengehalten wurden, c) offene Kommentare von 27 Peer-Reviewern und d) Searles Antworten darauf.

Nach Searle betrachtet schwache KI (englisch weak AI) den Computer als ein mächtiges Werkzeug für die Untersuchung des Geistes, mit seiner Hilfe können Hypothesen viel genauer formuliert und getestet werden. Doch nach der starken KI ist der Computer nicht nur ein Werkzeug für die Erforschung des Geistes; vielmehr ist der richtig programmierte Computer wirklich ein Geist, in dem Sinne, dass Computer mit den richtigen Programmen buchstäblich verstehen und andere kognitive Zustände haben.[20]:417

Searle stützt sich auf das sprachwissenschaftliche Skript-Konzept von Roger Schank,[21] mit dem die menschliche Fähigkeit simuliert wird, Geschichten zu verstehen und Frage darüber zu beantworten, auch wenn die gefragte Information nicht explizit in der Geschichte erwähnt wird.

Das Gedankenexperiment

Searle, der weder chinesiche Schrift noch Sprache beherrscht, stellt sich vor, er sei in ein Zimmer eingeschlossen. Im Zimmer findet er einen Stapel chinesischer Schriftstücke (Skript), einen Stapel in englisch geschriebene Regeln (Programm) und einen chinesischen Text (Story). Die Regeln ermöglichen es mir eine Gruppe von formalen Symbolen mit einer anderen Gruppe von formalen Symbolen in Beziehung zu setzen, und ‹formal› bedeutet hier, dass ich die Symbole ausschließlich anhand ihrer Form identifizieren kann. Nehmen wir nun an, ich erhalte einen dritten Stapel chinesischer Symbole (Fragen) zusammen mit einigen Anweisungen, wiederum in englischer Sprache, die es mir ermöglichen, Elemente dieses dritten Stapels mit den ersten beiden Stapeln zu verknüpfen, und diese Regeln leiten mich an, wie ich bestimmte chinesische Symbole mit bestimmten Formen zurückgeben kann als Antwort auf bestimmte Formen, die mir in der dritten Charge gegeben werden. … Nehmen wir außerdem an, dass ich nach einer Weile so gut darin werde, die Anweisungen zur Manipulation der chinesischen Symbolen zu folgen …, dass sie von außen betrachtet, also d. h. aus der Sicht von jemandem außerhalb des Raumes, in dem ich eingesperrt bin, meine Antworten auf die Fragen von denen chinesischer Muttersprachler absolut nicht zu unterscheiden sind. Niemand, der sich meine Antworten ansieht, kann erkennen, dass ich kein einziges Wort Chinesisch spreche.[20]:418 Searle im Chinesischen Zimmer hätte den Turing-Test bestanden, und die starke KI würde behaupten, dass er chinesische Texte verstanden hat.

Searles Argumente gegen Starke KI

Aus dem Experiment des Chinesischen Zimmers leitet Searle folgende Schlüsse:[22]

  1. Der Mann im Zimmer führt rein formale Symbolmanipulation durch, er verhält sich wie ein Computer. Ein digitaler Computer, auf dem ein äquivalentes Programm zum Verstehen von Chinesisch implementiert wäre, würde dann ebenso wenig Chinesisch verstehen.
  2. Der Verstand (Geist englisch minds) hat einen mentalen oder semantischen Inhalt. Um zu denken oder eine Sprache zu verstehen muss man mehr als nur die Syntax kennen, man muss eine Bedeutung, einen gedanklichen Inhalt mit den Wörtern oder Zeichen verbinden.
  3. Die Syntax allein ist weder ausreichend noch konstitutiv für Semantik. Rein formale, syntaktisch definierte Symbolmanipulationenen garantieren nicht von sich aus eine Verbindung mit einem Gedankeninhalt.
  4. Schlussfolgerung: Implementierte Programme sind nicht konstitutiv für den Geist. Starke KI ist falsch.

„Solange das Programm in Form von Rechenoperationen auf rein formal definierten Elementen beschrieben wird, legt das Beispiel nahe, dass diese für sich genommen keine interessierende Verbindung zum Verstehen haben. Sie sind sicherlich keine hinreichenden Bedingungen, und es wurde nicht der geringste Grund für die Annahme genannt, dass sie notwendige Bedingungen sind oder dass sie sogar einen signifikanten Beitrag zum Verstehen leisten. … Der programmierte Computer versteht, was ein Auto und ein Tischrechner verstehen, nämlich exakt nichts. Das Verstehen des Computers ist nicht partiell oder unvollständig; es ist Null.“

John Searle: Minds, Brains, and Programs[20]

Gegenargumente

  1. System-Argument: der Mann im Zimmer ist nur eine Komponente (der Hauptprozessor) eines größeren Systems, zu dem auch das Skript, Notizzettel als Zwischenspeicher und das Programm gehören. „Searl im Zimmer“ allein versteht nicht Chinesisch, das gesamte System hingegen versteht sehr wohl Chinesisch. Searle entgegenet, wenn er die Anweisungen und die Datenbasis auswendig lernen und alle Berechnungen in seinem Kopf ausführen würde, dann wäre er das gesamte System und würde trotzdem nicht chinesisch verstehen, weil er den formalen Symbolen keinerlei Bedeutung zuordnen kann. Die Erwiderung, dass der englischsprechende Searle nicht für den chinesische Zeichen manipulierenden Searle im Zimmer sprechen kann, weist er zurück.
  2. Roboter-Argument: Wenn, wie Searle annimmt, Verstehen eine Beziehung der Symbole zur Außenwelt (Intentionalität) voraussetzt, dann sollte Searle, eingbaut in einen Roboter mit Sinnesorganen und Bewegungsfähigkeit, echtes Verstehen und andere mentale Zustände haben. Searle behauptet dagegen: dass die Hinzufügung solcher „sensorischen“ und „motorischen“ Fähigkeiten nichts hinzufügt, was das Verstehen im Besonderen oder Intentionalität im Allgemeinen betrifft. … Ich manipuliere lediglich formale Symbole: Ich weiß nichts von diesen anderen Fakten. Ich empfange „Informationen“ aus dem „Wahrnehmungsapparat“ des Roboters, und ich erteile „Anweisungen“ an seinen motorischen Apparat, ohne eine dieser Tatsachen zu kennen. … der Roboter hat überhaupt keine mentalen Zustände[20]:420
  3. Gehirn-Simulator: Wenn man ein Programm entwickelte, das genau das Feuern der Synapsen im Gehirn nachbildete, dann sollte es auch chinesisch verstehen. Searle versucht dieses Argument ins Lächerliche zu ziehen: Man könne sich ja gleich ein System aus Wasserrohren und Ventilen vorstellen, die nach Programm gesteuert werden. Solange es nur die formale Struktur der Abfolge des Feuerns der Neuronen an den Synapsen simuliert, hat es nicht das simuliert, was das Gehirn ausmacht, nämlich seine kausalen Eigenschaften, seine Fähigkeit, intentionale Zustände zu erzeugen.[20]:421
  4. Kombiniertes Argument: Man stelle sich einen Roboter vor mit einem Computer in seinem Inneren, der das Gehirn mit all seinen Synapsen nachbildet, und das als ein geschlossenes integriertes System. Searle akzeptiert, dass wir diesem System Intentionalität zuschreiben würden, solange wir nichts weiter über sein Inneres wissen. Wenn wir aber wissen, dass in dem System nur bedeutungslose Symbole manipuliert werden, dann können wir ihn keine intentionalen Zustände zuschreiben. Anders liegen die Verhältnisse bei Primaten oder Haustieren. Wir können das Verhalten der Tiere ohne die Zuschreibung von Intentionalität nicht erklären und wir können sehen, dass die Tiere aus ähnlichem Material bestehen wie wir ... [deshalb] gehen wir davon aus, dass das Tier mentale Zustände haben muss, die seinem Verhalten zugrunde liegen, und dass die mentalen Zustände durch Mechanismen erzeugt werden müssen, die aus dem gleichen Material stammen wie bei uns.[20]:421 Diese Überzeugung Serales, dass biologisches Material „kausale Faktoren“ besitzt, die in Draht, Blech oder anderem anorganischen Material nicht vorkommen, nennt ein Reviewer Mystizismus: Er stützt seine Ablehnung der Angemessenheit von KI-Modellen auf die Überzeugung, dass die physikalischen Eigenschaften neuronaler Systeme so beschaffen sind, dass sie im Prinzip nicht von einem nicht-protoplasmatischen Computersystem simuliert werden können. An dieser Stelle nimmt Searle Zuflucht in etwas, das man nur als Mystizismus bezeichnen kann.[20]:445 Richard Rorty schreibt: Searle weiß von voraus, dass "nur etwas, das die gleichen kausalen Kräfte wie das Gehirn hat, Intentionalität haben kann“. … Es scheint nur ein Mittel zu sein, um sicherzustellen, dass die geheimen Kräfte des Gehirns immer weiter aus dem Blickfeld verschwinden, wenn ein neues Modell der Gehirnfunktion vorgeschlagen wird. Denn Searle kann uns sagen, dass jedes solche Modell lediglich eine Entdeckung formaler Muster ist und dass uns der "mentale Inhalt" immer noch entgangen ist.[20]:446

Ethik der Künstlichen Intelligenz

KI-Grundsätze der OECD

Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung empfiehlt folgende wertebasierten Grundsätze: [23]

  1. Integratives Wachstum, nachhaltige Entwicklung und Wohlstand
  2. Auf den Menschen ausgerichtete Werte und Fairness
  3. Transparenz und Erklärbarkeit
  4. Robustheit, Sicherheit und Unbedenklichkeit
  5. Rechenschaftspflicht

Grundsätze der Asilomar-Konferenz 2017

Die Asilomar Conference on Beneficial AI war eine vom Future of Life Institute organisierte Konferenz, die vom 5. bis 8. Januar 2017 auf den Asilomar Conference Grounds in Pacific Grove stattfand. Mehr als 100 Forscher aus den Bereichen Wirtschaft, Recht, Ethik und Philosophie erörterten Grundsätze für nutzbringenden KI und formulierten die folgenden Leitlinien:[24]

Ethik und Werte

  1. Sicherheit: KI-Systeme sollten während ihrer gesamten Betriebsdauer nachprüfbar sicher und zuverlässig sein, sofern dies möglich und sinnvoll ist.
  2. Fehlertransparenz: Wenn ein KI-System einen Schaden verursacht, sollte es möglich sein, die Gründe dafür zu ermitteln.
  3. Gerichtliche Transparenz: Jede Beteiligung eines autonomen Systems an gerichtlichen Entscheidungen sollte eine zufriedenstellende Erklärung liefern, die von einer zuständigen menschlichen Behörde überprüft werden kann.
  4. Verantwortung: Die Entwickler und Konstrukteure fortschrittlicher KI-Systeme sind Stakeholder bei den moralischen Auswirkungen der Nutzung, des Missbrauchs und der Handlungen dieser Syssteme und haben die Verantwortung und die Möglichkeit, diese Auswirkungen zu gestalten.
  5. Werteausrichtung: Hochgradig autonome KI-Systeme sollten so konzipiert sein, dass ihre Ziele und ihr Verhalten während ihres gesamten Betriebs mit den menschlichen Werten in Einklang gebracht werden können.
  6. Menschliche Werte: KI-Systeme sollten so konzipiert und betrieben werden, dass sie mit den Idealen der Menschenwürde, der Rechte und Freiheiten sowie der kulturellen Vielfalt vereinbar sind.
  7. Persönliche Privatsphäre: Die Menschen sollten das Recht haben, auf die von ihnen erzeugten Daten zuzugreifen, sie zu verwalten und zu kontrollieren, da KI-Systeme in der Lage sind, diese Daten zu analysieren und zu nutzen.
  8. Freiheit und Privatsphäre: Die Anwendung von KI auf personenbezogene Daten darf die tatsächliche oder gefühlte Freiheit der Menschen nicht unangemessen einschränken.
  9. Gemeinsamer Nutzen: KI-Technologien sollten so vielen Menschen wie möglich zugute kommen und sie unterstützen.
  10. Geteilter Wohlstand: Der durch KI geschaffene wirtschaftliche Wohlstand sollte breit gestreut werden, damit die gesamte Menschheit davon profitiert.
  11. Menschliche Kontrolle: Der Mensch sollte entscheiden, wie und ob er Entscheidungen an KI-Systeme delegiert, um von ihm gewählte Ziele zu erreichen.
  12. Keine Gefährdung der Gesellschaft: Die durch die Kontrolle hochentwickelter KI-Systeme übertragene Macht sollte die sozialen und staatsbürgerlichen Prozesse, von denen das Wohlergehen der Gesellschaft abhängt, respektieren und verbessern, anstatt sie zu untergraben.
  13. KI-Wettrüsten: Ein Wettrüsten bei tödlichen autonomen Waffen sollte vermieden werden.

Längerfristige Aufgaben

  1. Fähigkeiten Vorsicht: Da es keinen Konsens gibt, sollten wir starke Annahmen über Obergrenzen für zukünftige KI-Fähigkeiten vermeiden.
  2. Bedeutung: Fortgeschrittene KI könnte einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde bedeuten und sollte mit entsprechender Sorgfalt und mit entsprechenden Ressourcen geplant und gesteuert werden.
  3. Risiken: Risiken, die von KI-Systemen ausgehen, insbesondere katastrophale oder existenzielle Risiken, müssen entsprechend ihrer erwarteten Auswirkungen geplant und gemindert werden.
  4. Rekursive Selbstverbesserung: KI-Systeme, die so konzipiert sind, dass sie sich in einer Weise rekursiv selbst verbessern oder selbst replizieren, die zu einer rasch steigenden Qualität oder Quantität führen könnte, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.
  5. Gemeinwohl: Superintelligenz sollte nur im Dienste weithin geteilter ethischer Ideale und zum Nutzen der gesamten Menschheit und nicht nur eines Staates oder einer Organisation entwickelt werden.

Der Deutsche Ethikrat veröffentlichte am 20.März 2023 seine Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“.<re>[2]</ref> „Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung.“[25] Die Stellungsnhame gibt Empfehlungen für vier Einsatzbereiche der KI:

  • Für den Medizinbereich: Qualitätssicherung bei der Entwicklung und Nutzung von KI-Produkten, Vermeidung ärztlicher Kompetenzverluste und Sicherung des Einklangs zwischen Privatsphäre von Patientinnen und Patienten mit intensiver Datennutzung in der medizinischen Forschung.
  • Der Einsatz von KI in der schulischen Bildung sollte nicht durch technologische Visionen gesteuert werden, sondern sich an grundlegenden Bildungsvorstellungen orientieren und auf Elemente beschränken, die nachweislich die Kompetenzen und sozialen Interaktionen der Lernenden erweitern, ihre Privatsphäre schützen und die Persönlichkeitsbildung fördern.
  • Im Bereich der öffentlichen Kommunikation und Meinungsbildung empfiehlt der Ethikrat die Weiterentwicklung der Regeln für Online-Plattformen hinsichtlich der Auswahl und Moderation von Inhalten sowie zu personalisierter Werbung und zum Datenhandel.
  • Für den Einsatz von KI in der öffentlichen Verwaltung rät der Ethikrat zu Ansätzen, die vor Diskriminierungen schützen und dem blinden Befolgen maschineller Empfehlungen vorbeugen. Einzelfallbetrachtungen sowie die Einsichts- und Einspruchsrechte von Betroffenen muss gewährleistet werden.

Aufruf zu einer Entwicklungspause für KI-Systeme

Das Future of Life Institute veröffentlichte am 23. März 2023 einen offenen Brief, der zu einer Entwicklungspause für fortgeschrittene Systeme der Künstlichen Intelligenz (KI) aufruft. Innerhalb von 10 Tagen haben fast 1.800 Personen den Brief unterschrieben, darunter Yuval Noah Harari, Elon Musk, Stuart Jonathan Russell und Steve Wozniak.[26]

Die Autoren erkennen einen „außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI-Systeme, die niemand verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Sie sehen darin tiefgreifende Risiken für die Gesellschaft und die Menschheit. Es bestehe die Gefahr, dass Informationskanäle mit Propaganda und Unwahrheiten geflutet und auch erfüllende Jobs wegrationalisiert würden. Sie fragen: „Sollen wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“[26]

Alle KI-Labore werden in dem Schreiben aufgefordert, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen“. Dabei gehe es nicht um eine generelle Pause in der KI-Entwicklung, sondern lediglich um eine „Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Modellen mit emergenten Fähigkeiten“. „Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.“[26]

Die Pause soll dem Text des Schreibens gemäß für folgende Aufgaben genutzt werden:[26]

  • Erarbeitung von Sicherheitsprotokollen für Design und Entwicklung fortgeschrittener KI;
  • Schaffung robuster KI-Governance-Systeme, von Regulierungsbehörden, sowie eines Prüfungs- und Zertifizierungssystems für KI;
  • Entwicklung von Herkunfts- und Wasserzeichensystemen zur Unterscheidung zwischen echten und synthetischen Daten und zur Nachverfolgung von Modelllecks;
  • Einführung von Haftungsregelungen für durch KI verursachte Schäden;
  • Sicherung einer öffentlichen Finanzierung für technische KI-Sicherheitsforschung.

Literatur

  • Selmer Bringsjord, Naveen Sundar Govindarajulu: Artificial Intelligence. In: The Stanford Encyclopedia of Philosophy (Fall 2022 Edition). Edward N. Zalta, Uri Nodelman, abgerufen am 23. März 2023 (englisch, Related Entries verweisen auf weitere relevante Artikel).
  • Larry Hauser: Artificial Intelligence. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Thomas W. Polger: Functionalism. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Larry Hauser: Chinese Room Argument. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Jonathan Waskan: Connectionism. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • John-Stewart Gordon, Sven Nyholm: Ethics of Artificial Intelligence. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Jason Megill: The Lucas-Penrose Argument about Gödel’s Theorem. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (englisch).
  • Map of the Great Debates of AI. Abgerufen am 20. März 2023 (englisch).

Einzelnachweise

  1. a b c d Alan M. Turing: Computing Machinery and Intelligence. In: Mind. Band LIX, Nr. 236, 1950, ISSN 0026-4423, S. 433–460 ([1]).
  2. Did Turing invent the imitation game? Abgerufen am 23. März 2023 (englisch).
  3. Turing hatte bereits Erfahrungen mit dem frühen Computer Manchester Mark I
  4. Alonzo Church: An Unsolvable Problem of Elementary Number Theory. In: American Journal of Mathematics. Band 58, Nr. 2, 1936, S. 345–363, doi:10.2307/2371045.
  5. A. M. Turing: On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. s2-42, Nr. 1, 1937, S. 230–265, doi:10.1112/plms/s2-42.1.230.
  6. Geoffrey Jefferson: The Mind of Mechanical Man. In: American British Medical Journal. Band 4616, Nr. 1, 1949, S. 1110, doi:10.1136/bmj.1.4616.1105.
  7. David Leavitt: The Man Who Knew Too Much: Alan Turing and the Invention of the Computer. 2007, ISBN 978-0-7538-2200-5, S. 237–238.
  8. L. F. Menabrea: Sketch of The Analytical Engine Invented by Charles Babbage. With notes upon the Memoir by the Translator ADA AUGUSTA, COUNTESS OF LOVELACE. In: Bibliothèque universelle de Genève. Band 82. Genf 1842 (Sketch of The Analytical Engine Invented by Charles Babbage (Memento vom 29. September 2015 im Internet Archive)).
  9. Andrew Thwaites, Andrew Soltan, Eric Wieser, Ian Nimmo-Smith: The difficult legacy of Turing's wager. In: Journal of Computational Neuroscience. Band 43, Nr. 1, 2017, S. 1–4, doi:10.1007/s10827-017-0651-y.
  10. Thomas Hobbes: Leviathan. 1. Auflage. London 1651, S. 18 (digitale-sammlungen.de).
  11. John McCarthy, Marvin Minsky, Nathaniel Rochester, Claude Shannon: A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Abgerufen am 12. März 2023.
  12. Computer Science as Empirical Inquiry: Symbols and Search, Communications of the ACM, 19,3(1976), S. 113–126, doi:10.1145/360018.360022Text
  13. Ray Kurzweil: Long Live AI. In: Forbes. 5. August 2005 (archive.org [abgerufen am 12. März 2023]).
  14. Strategie Künstliche Intelligenz der Bundesregierung – Stand: November 2018. (PDF) Abgerufen am 15. März 2023.
  15. Hubert Dreyfus: What Computers Can’t Do: The Limits of Artificial Intelligence. 1972, ISBN 0-06-090613-8. deutsche Ausgabe: Was Computer nicht können. Die Grenzen künstlicher Intelligenz. Athenäum, Königstein/Ts. 1985. ISBN 3-7610-8369-6
  16. Hubert Dreyfus: What Computers Still Can’t Do: A Critique of Artificial Reason. MIT Press, 1979, ISBN 0-262-04134-0 (3. Auflage 1992).
  17. a b c Stuart Russell, Peter Norvig: Künstliche Intelligenz. 3. Auflage. Pearson, München 2012, ISBN 978-3-86894-098-5.
  18. Hubert Dreyfus, Stuart E. Dreyfus: What Computers Still Can’t Do: A Critique of Artificial Reason. Basil Blackwell, Oxford 1986., deutsche Ausgabe: Künstliche Intelligenz – Von den Grenzen der Denkmaschine und dem Wert der Intuition, ISBN 9783499181443, Rowohlt Hamburg 1991
  19. John R. Lucas: Minds, Machines and Gödel. In: Philosophy. Band 36, Nr. 137, 1961, S. 112–127, doi:10.1017/S0031819100057983.
  20. a b c d e f g h i John R. Searle: Minds, Brains, and Programs. In: The Behavioral and Brain Sciences. Band 3, Nr. 3, 1980, S. 417–457, doi:10.1017/S0140525X00005756.
  21. Roger C. Schank, Robert P. Abelson: Scripts, Plans, Goals, and Understanding. 1. Auflage. Psychology Press, New York 1977.
  22. John R. Searle: Chinese Room Argument. In: Robert A. Wilson, Frank C. Keil (Hrsg.): The MIT Encyclopedia of the Cognitive Sciences (MITECS). 1999, ISBN 978-0-262-33816-5, S. 115–116 (mit.edu [abgerufen am 2. April 2023]).
  23. OECD AI Principles. Abgerufen am 30. März 2023 (englisch).
  24. AI Principles. Future of Life Institute, abgerufen am 29. März 2023 (englisch).
  25. Alena Buyx auf der Pressekonferenz
  26. a b c d Pause Giant AI Experiments: An Open Letter. Future of Life Institute, abgerufen am 29. März 2023 (englisch).

Große Sprachmodelle / Large Language Models (LLM)

[3]