Zum Inhalt springen

Artificial General Intelligence

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 11. April 2024 um 22:57 Uhr durch Anonymer Kaktus (Diskussion | Beiträge) (Übersetzung des Abschnitts aus dem Englischen.). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Artificial General Intelligence (AGI), deutsch Künstliche allgemeine Intelligenz, ist die hypothetische Intelligenz eines Computerprogramms, welches die Fähigkeit besitzt, jede intellektuelle Aufgabe zu verstehen oder zu lernen, die ein Mensch ausführen kann. Eine alternative Definition bezeichnet AGI als hochautonomes KI-System, welches bei der Lösung der meisten wirtschaftlich bedeutenden intellektuellen Aufgaben menschliche Fähigkeiten übertrifft.[1]

Umstritten ist, ob Fähigkeiten wie Planung, logisches Ableiten und Argumentieren ebenfalls zu AGI gehören müssten. Definitionen von Intellekt und menschlicher wie maschineller Intelligenz gibt es mehrere, was sich auch auf die Definition von AGI auswirkt.[2] Eine Steigerungsform von AGI wird maschinelle Superintelligenz genannt und wäre eine Art von AGI, welche umfassend intelligenter als Menschen wäre.[2][3]

AGI ist ein Hauptziel von Forschungen zur künstlichen Intelligenz (KI, engl. AI, artificial intelligence) und ein häufiges Thema in Science-Fiction und Zukunftsforschung. AGI kann auch als Strong AI (starke KI) oder Full AI bezeichnet werden – im Gegensatz zu Strong AI ist Weak AI (schwache KI) nicht dazu gedacht, menschenähnliche kognitive Fähigkeiten und Persönlichkeit zu zeigen, sondern beschränkt sich auf die Verwendung von Software zum Lösen ausgewählter vorbestimmter Probleme oder Argumentationsaufgaben (Expertensystem).[4][5]

Einige akademische Quellen behalten sich den Begriff Strong AI für Computerprogramme vor, die zusätzlich Kreativität, Empfindungsvermögen, Selbstbewusstsein und Bewusstsein erfahren können. Bezüglich Kreativität weist Demis Hassabis als Mitgründer der Firma DeepMind Technologies auf das KI-Programm AlphaGo hin, welches aus allen erfassten jemals gespielten Varianten des Brettspiels GO Muster und mögliche Positionen ableitet. Dabei macht das Programm jedoch nicht nur Durchschnittsgewichtungen, sondern leitet durch Extrapolation kreative neue Strategien ab. Allerdings können durch Maschinelles Lernen entsprechend trainierte Rechner noch nicht selbständig derartige neue Spiele erfinden.[6]

Tests

Fachleute haben unterschiedliche Tests zur Prüfung des Erreichens von AGI vorgeschlagen, welche sich auf verschiedene menschliche Fähigkeiten beziehen;[2]

  • Turing-Test: Ein KI-System und ein Mensch diskutieren mit einem weiteren verborgenen Menschen, welcher herausfinden muss, ob es sich beim Gesprächspartner um das KI-System oder um den anderen Menschen handelt. Die Erfolgsquote der KI bei der Täuschung gilt als Maß für das Erreichen von AGI.[7]
  • Studententest: Das KI-System immatrikuliert sich an einer Universität, belegt ein Kursprogramm wie Studenten in Hinblick auf einen bestimmten Studienabschluss. Das KI-System legt daraufhin die notwendigen Prüfungen ab, ohne dass zuvor das Kursmaterial aufgenommen wurde. Die erreichten Prüfungsresultate sind bereits sehr gut.[8]
  • Berufstest: Ein KI-System erledigt Arbeiten in einem bestimmten Beruf so gut wie entsprechende Angestellte – dies ist bereits in gewissen Berufen der Fall.[9] Durch Zugriff auf das Internet und vorhandene andere Softwareprogramme sowie Unternehmens-Datenbanken könnten KI-Systeme, welche als AI Agents bezeichnet werden und Erweiterungen von Chatbots sind, Büroarbeiten übernehmen.[10]
  • IKEA-Test: Ein in einem Paket verpacktes, zerlegtes IKEA-Möbel soll von einem KI-System auf Basis der nach dem Auspacken sichtbaren Komponenten und den Instruktionen in der Verpackungsbeilage durch Steuerung eines Roboters zusammengebaut werden.
  • Kaffeezubereitungstest: Ein KI-gesteuerter Roboter soll ein typisches Haus betreten und herausfinden, wie man dort einen Kaffee zubereitet. Dazu muss zuerst die Kaffeemaschine gefunden werden, um dann den Kaffee, das Wasser und eine Tasse bereitzustellen und durch Betätigen der elektrischen Kaffeemaschine den Kaffee zu brauen.

AI-complete Probleme

Es gibt viele Probleme, die allgemeine Intelligenz erfordern, um sie auf menschlichem Niveau zu lösen. So erfordern selbst bestimmte leicht verständliche Aufgaben wie maschinelle Übersetzung, dass eine Maschine in beiden Sprachen lesen und schreiben kann (Computerlinguistik), der Argumentation des Autors folgt (Verständnis), weiß, wovon die Rede ist (Wissen), und die ursprüngliche Absicht des Autors getreu wiedergeben kann (soziale Intelligenz). Alle diese Probleme müssen gleichzeitig gelöst werden, um eine maschinelle Leistung auf menschlichem Niveau zu erbringen.

Ein Problem wird im Englischen informell als „AI-complete” oder als hart („AI-hard") bezeichnet, wenn man glaubt, dass man zu seiner Lösung eine starke KI (AGI) einsetzen müsste, weil die Lösung die Fähigkeiten eines zweckgebundenen Algorithmus übersteigt[11].

Man nimmt an, dass zu den AI-complete Problemen die Computer Vision, das Verstehen natürlicher Sprache und der Umgang mit unerwarteten Umständen bei der Lösung von Problemen im Kontext der nicht-digitalen Welt gehören.[12] AI-complete Probleme können mit der heutigen Computertechnologie allein nicht gelöst werden und erfordern menschenbasierte Informationsverarbeitung. Diese Einschränkung könnte nützlich sein, um die Anwesenheit von Menschen zu testen, wie es CAPTCHAs tun, und für die Computersicherheit, um Brute-Force-Angriffe abzuwehren.[13][14]

Geschichte

Klassische KI

Die moderne KI-Forschung begann Mitte der 1950er Jahre.[15] Die erste Generation von KI-Forschern war davon überzeugt, dass AGI möglich sei und dass sie innerhalb weniger Jahrzehnte erreicht würde.[16] Der KI-Pionier Herbert A. Simon schrieb 1965: „Maschinen werden innerhalb von zwanzig Jahren in der Lage sein, jede Arbeit zu verrichten, die ein Mensch verrichten kann".[15]

Diese Vorhersagen inspirierten Stanley Kubricks und Arthur C. Clarkes Figur zur Schaffung ihres Charakters HAL 9000, der das verkörperte, was KI-Forscher glaubten, bis zum Jahr 2001 entwickeln zu können. Der KI-Pionier Marvin Minsky war als Berater an dem Projekt beteiligt, HAL 9000 so realistisch wie möglich nach Konsens der damaligen Vorhersagen zu gestalten.[17] Er sagte 1967: "Innerhalb einer Generation... wird das Problem der Schaffung 'künstlicher Intelligenz' im Wesentlichen gelöst sein".[18]

Mehrere Projekte der klassischen KI-Forschung, wie das Cyc-Projekt von Douglas Lenat (das 1984 begann) und das Soar-Projekt von Allen Newell, zielten auf AGI ab. Anfang der 1970er Jahre wurde jedoch deutlich, dass die Forscher die Schwierigkeiten des Projekts stark unterschätzt hatten. Geldgeber wurden skeptisch gegenüber der Entwicklung von AGI und setzten die Forscher zunehmend unter Druck, nützliche „angewandte KI“ zu entwickeln. Anfang der 1980er Jahre weckte das japanische „Fifth Generation Computer Project” das Interesse an AGI erneut, indem es einen Zehn-Jahres-Zeitplan vorstellte, der AGI-Ziele wie „eine lockere Unterhaltung zu führen“ enthielt.[19] Als Reaktion darauf und auf den Erfolg von Expertensystemen pumpten sowohl die Industrie als auch Regierungen Geld in das Feld.[20][21] Das Vertrauen in die KI brach jedoch Ende der 1980er Jahre spektakulär zusammen und die Ziele des Fifth Generation Computer Project wurden nie erreicht.[22] Zum zweiten Mal innerhalb von 20 Jahren hatten sich KI-Forscher geirrt, als sie das baldige Erreichen von AGI voraussagten. In den 1990er Jahren hatten KI-Forscher den Ruf, leere Versprechungen zu machen. Sie zögerten, überhaupt Vorhersagen zu machen[23] und vermieden es, von künstlicher Intelligenz auf „menschlichem Niveau" zu sprechen, aus Angst, als „verrückte Träumer" abgestempelt zu werden.[24]

Forschung an spezialisierter KI

In den 1990er Jahren und zu Beginn des 21. Jahrhunderts erlangte die Mainstream-KI-Entwicklung kommerziellen Erfolg und akademische Anerkennung, indem sie sich auf spezifische Teilprobleme konzentrierte, bei denen KI robuste Ergebnisse und kommerzielle Anwendungen hervorbringen konnte, wie z. B. Spracherkennung und Empfehlungsdienste.[25] Diese „angewandten KI-Systeme” werden heute in der gesamten Technologiebranche umfassend genutzt, und die Forschung in diesem Bereich wird sowohl von der Wissenschaft als auch von der Industrie stark gefördert. Im Jahr 2018 betrachtete man die Entwicklung in diesem Bereich als aufstrebenden Trend und es wurde erwartet, dass in mehr als 10 Jahren ein ausgereiftes Stadium erreicht wäre.[26]

Um die Jahrhundertwende hofften viele Mainstream-KI-Forscher[27], starke KI könne durch die Kombination von Programmen entwickelt werden, die verschiedene Teilprobleme lösen. Hans Moravec schrieb 1988:

Ich bin zuversichtlich, dass dieser „Bottom-up-Weg” zur künstlichen Intelligenz eines Tages den traditionellen „Top-down-Weg” auf halber Strecke treffen wird, bereit, die Kompetenz und das Wissen eines gesunden Menschenverstandes zu liefern, das sich unseren Programmen auf so frustrierende Weise entzogen hat.[27]

Doch selbst zu dieser Zeit war dies umstritten.[28]

Moderne AGI-Forschung

Der Begriff “artificial general intelligence" wurde bereits 1997 von Mark Gubrud[29] in einer Diskussion über die Auswirkungen vollautomatischer militärischer Produktion und Operationen verwendet. Ein mathematischer Formalismus für AGI wurde von Marcus Hutter im Jahr 2000 vorgeschlagen. Der AIXI genannte vorgeschlagene AGI-Akteur maximiert „die Fähigkeit, Ziele in einem breiten Spektrum von Umgebungen zu erfüllen".[30] Diese Art von AGI, die sich durch die Fähigkeit auszeichnet, eine mathematische Definition von Intelligenz zu maximieren, anstatt menschenähnliches Verhalten zu zeigen,[31] wurde auch als universelle künstliche Intelligenz bezeichnet.[32]

Der Begriff AGI wurde um 2002 von Shane Legg und Ben Goertzel erneut eingeführt und popularisiert.[33] Die AGI-Forschungsaktivitäten im Jahr 2006 förderten laut Pei Wang und Goertzel[34] „Veröffentlichungen und vorläufigen Ergebnissen“. Die erste Summer School im Bereich AGI organisierte 2009[35] das Artificial Brain Laboratory der Universität Xiamen und OpenCog in Xiamen, China. Der erste Universitätskurs wurde 2010[36] und 2011[37] an der Universität Plovdiv, Bulgarien, von Todor Arnaudov gehalten. Das MIT veranstaltete 2018 einen Kurs über AGI, der von Lex Fridman organisiert wurde und an dem eine Reihe von Gastdozenten teilnahmen.

Im Jahr 2023 war eine kleine Zahl von Informatikern in der AGI-Forschung tätig, und viele trugen zu einer Reihe von AGI-Konferenzen bei. Allerdings interessieren sich immer mehr Forscher für das sogenannte open ended learning,[38][39] d. h. für die Idee, KI kontinuierliches menschenähnliches Lernen und Innovation zu ermöglichen. Obwohl die meiste Arbeit zu open ended learning immer noch mit Minecraft durchgeführt wird,[19][40][30] können die Anwendungen auf die Robotik und die Wissenschaften ausgeweitet werden.

Machbarkeit

Im Jahr 2024 bleiben vollständige Formen der AGI spekulativ.[41][42] Bisher wurde noch kein System vorgestellt, das die allgemein anerkannten Kriterien für AGI erfüllt. Meinungen darüber, ob und wann es artificial general intelligence geben wird, gehen auseinander. Der KI-Pionier Herbert A. Simon spekulierte 1965, dass „Maschinen innerhalb von zwanzig Jahren in der Lage sein werden, jede Arbeit zu verrichten, die ein Mensch verrichten kann". Diese Vorhersage hat sich nicht bewahrheitet. Der Mitbegründer von Microsoft, Paul Allen, hielt eine solche Intelligenz innerhalb des 21. Jahrhunderts für unwahrscheinlich, da sie „unvorhersehbare und grundsätzlich unvoraussagbare Durchbrüche" und ein „ tiefes wissenschaftliches Verständnis der Kognition" voraussetzen würde.[43] Der Robotiker Alan Winfield behauptete in The Guardian, die Kluft zwischen modernen Computern und künstlicher Intelligenz auf menschlichem Niveau sei so groß wie die Kluft zwischen der derzeitigen Raumfahrt und Raumschiffen mit Überlichtgeschwindigkeit.[44]

Die meisten KI-Forscher glauben, dass starke KI in der Zukunft erreicht werden kann, aber einige Denker wie Hubert Dreyfus und Roger Penrose bestreiten diese Möglichkeit.[45][46] John McCarthy gehört zu denjenigen, die glauben, dass eine KI auf menschlichem Niveau erreicht werden wird, dass aber der gegenwärtige Fortschritt nicht zulässt, ein genaues Datum vorauszusagen.[47] Die Ansichten von KI-Experten über die Machbarkeit von AGI schwanken. Vier in den Jahren 2012 und 2013 durchgeführte Umfragen ergaben, dass die Experten je nach Umfrage im Median ein Datum zwischen 2040 und 2050 angaben, wenn sie nach dem Zeitpunkt gefragt wurden, zu dem sie mit 50-prozentiger Wahrscheinlichkeit von der Entwicklung von AGI ausgehen, wobei der Mittelwert bei 2081 lag. Von den Experten antworteten 16,5 % mit „nie", wenn ihnen dieselbe Frage gestellt wurde, allerdings wurde hier nach dem zeitpunkt gefragt, zu dem sie zu 90% von der Schaffung von AGI ausgehen.[48][49]

In einem Bericht von Stuart Armstrong und Kaj Sotala vom Machine Intelligence Research Institute wurde festgestellt, dass „über einen Zeitraum von 60 Jahren eine starke Tendenz zur Vorhersage des Eintreffens von KI auf menschlichem Niveau in einem Zeitraum von 15 bis 25 Jahren ab dem Zeitpunkt der Vorhersage besteht". Sie analysierten 95 Vorhersagen aus den Jahren 1950 bis 2012, die das Entstehungsdatum von AGI abschätzen sollten.[50]

Im Jahr 2023 veröffentlichten Microsoft-Forscher eine detaillierte Bewertung von GPT-4. Sie kamen zu dem Schluss: „Angesichts des Umfangs und der Tiefe der Fähigkeiten von GPT-4 glauben wir, dass es mit Recht als eine frühe (wenn auch noch unvollständige) Version eines Systems der artificial general intelligence (AGI) angesehen werden kann."[51] Eine weitere Studie aus dem Jahr 2023 berichtete, GPT-4 übertreffe 99 % der Menschen in den Torrance-Tests für kreatives Denken.[52][53]

Zeitlicher Rahmen

In der Einleitung seines 2006 erschienenen Buches[54] sagt Goertzel, dass die Schätzungen der Zeit, die bis zur Schaffung einer wirklich flexiblen AGI benötigt wird, von zehn Jahren bis zu mehr als einem Jahrhundert reichen. 2007 schien der Konsens in der AGI-Forschungsgemeinschaft darin zu bestehen, dass der von Ray Kurzweil 2005 in seinem Buch Menschheit 2.0[55] diskutierte Zeitrahmen (d. h. zwischen 2015 und 2045) plausibel sei.[56] Mainstream-KI-Forscher haben eine breite Palette von Meinungen darüber abgegeben, ob der Fortschritt so schnell sein wird. Eine 2012 durchgeführte Meta-Analyse von 95 derartigen modernen sowie historischen Stellungnahmen ergab eine fehlgeleitete Tendenz zur Vorhersage, dass die Schaffung von AGI innerhalb von 16 bis 26 Jahren erfolgen würde. Die Arbeit wurde aufgrund der Einteilung in Experten- und Nichtexpertenmeinungen kritisiert.[57]

Im Jahr 2012 entwickelten Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton ein neuronales Netzwerk namens AlexNet, das den ImageNet-Wettbewerb mit einem Fehlerquotient von 15,3 % gewann, deutlich besser als die Rate des zweitbesten Teilnehmers von 26,3 % (der traditionelle Ansatz verwendete eine gewichtete Summe der Ergebnisse verschiedener vordefinierter Klassifikatoren).[58] AlexNet wurde als erster Wegbereiter der aktuellen Deep-Learning-Welle angesehen.[58]

Im Jahr 2017 führten die Forscher Feng Liu, Yong Shi und Ying Liu Intelligenztests mit öffentlich verfügbaren und frei zugänglichen schwachen KIs wie Google AI, Apples Siri und anderen durch. Im Maximum erreichten diese einen IQ-Wert von etwa 47, was etwa einem sechsjährigen Kind in der ersten Klasse entspricht. Ein Erwachsener kommt im Durchschnitt auf etwa 100. Ähnliche Tests wurden 2014 durchgeführt, wobei der IQ-Wert einen Höchstwert von 27 erreichte.[59][60]

Im Jahr 2020 entwickelte OpenAI GPT-3, ein Sprachmodell, das in der Lage ist, viele verschiedene Aufgaben ohne spezielles Training auszuführen. Gary Grossman bemerkt in einem VentureBeat-Artikel, dass zwar Konsens darüber besteht, dass GPT-3 kein Beispiel für eine AGI ist, doch wird es von einigen als zu fortschrittlich angesehen, um als schwaches spezialisiertes KI-System eingestuft zu werden.[61]

Im selben Jahr nutzte Jason Rohrer sein GPT-3-Konto, um einen Chatbot zu entwickeln und stellte eine Chatbot-Entwicklungsplattform namens "Project December" zur Verfügung. OpenAI verlangte Änderungen an dem Chatbot, um ihre Sicherheitsrichtlinien zu erfüllen. Daraufhin trennte Rohrer Project December von der GPT-3-API.[62]

Im Jahr 2022 entwickelte DeepMind Gato, ein Allzweck-System, das mehr als 600 verschiedene Aufgaben ausführen kann.[63]

Im Jahr 2023 veröffentlichte Microsoft Research eine Studie über eine frühe Version von OpenAIs GPT-4, in der behauptet wurde, sie verfüge über eine allgemeinere Intelligenz als frühere KI-Modelle und zeige bei Aufgaben in verschiedenen Bereichen wie Mathematik, Codierung und Recht Leistungen auf menschlichem Niveau. Diese Forschung löste eine Debatte darüber aus, ob GPT-4 als eine frühe, unvollständige Version von AGI betrachtet werden könne, und unterstrich die Notwendigkeit weiterer Erforschung und Bewertung solcher Systeme.[39]

Im Jahr 2023 äußerte der KI-Forscher Geoffrey Hinton:[64]

Die Vorstellung, dass diese Dinger tatsächlich schlauer werden könnten als Menschen – ein paar Leute glaubten das, [...]. Aber die meisten Leute dachten, dieser Tag liege in weiter Ferne. Und auch ich dachte, es sei noch ein weiter Weg. Ich dachte, es seien noch 30 bis 50 Jahre oder noch länger. Natürlich glaube ich das jetzt nicht mehr.

Im März 2024 erklärte der CEO von Nvidia, Jensen Huang, er gehe davon aus, dass KI innerhalb von fünf Jahren in der Lage sein wird, jeden Test mindestens genauso gut zu bestehen wie Menschen.

Gehirnsimulation

Nachbildung ganzer Gehirne

Ein möglicher Ansatz zur Verwirklichung von AGI ist die Nachbildung eines gesamten Gehirns: Ein Gehirnmodell wird erstellt, indem ein biologisches Gehirn im Detail gescannt und kartiert wird, um es dann auf einem Computersystem oder einer anderen Recheneinheit zu simulieren. Das Simulationsmodell muss hinreichend originalgetreu sein, so dass es sich praktisch genauso verhält wie das Originalgehirn.[65] Die Nachbildung ganzer Gehirne wird in den Computational Neurosciences und der Neuroinformatik im Zusammenhang mit der Gehirnsimulation für medizinische Forschungszwecke diskutiert. In der Forschung zur künstlichen Intelligenz[56] wurde sie als Ansatz für eine starke KI diskutiert. Die Neuroimaging-Technologien, die das erforderliche detaillierte Verständnis liefern könnten, verbessern sich rasch, und der Futurist Ray Kurzweil sagt in seinem Buch The Singularity Is Near[55] voraus, dass eine Gehirn-Kartierung von ausreichender Qualität in einem ähnlichen Zeitrahmen verfügbar sein wird, wie die für ihre Emulation erforderliche Rechenleistung.

Frühe Einschätzungen

Für eine Low-Level-Simulation des Gehirns wäre angesichts der enormen Anzahl von Synapsen im menschlichen Gehirn ein sehr leistungsfähiges Netz von Computern oder GPUs erforderlich. Jedes der 1011 (hundert Milliarden) Neuronen hat im Durchschnitt 7.000 synaptische Verbindungen (Synapsen) zu anderen Neuronen. Das Gehirn eines dreijährigen Kindes hat etwa 1015 Synapsen (1 Billiarde). Diese Zahl nimmt während der Kindheit ab und stabilisiert sich im Erwachsenenalter. Die Schätzungen für einen Erwachsenen variieren und reichen von 1014 bis 5×1014 Synapsen (100 bis 500 Billionen).[66] Eine Schätzung der Verarbeitungsleistung des Gehirns, die auf einem einfachen Modell für die Neuronenaktivität beruht, liegt bei etwa 1014 (100 Billionen) synaptischen Aktualisierungen pro Sekunde (SUPS).[67]

1997 untersuchte Kurzweil verschiedene Schätzungen für die Hardware, die erforderlich wäre, um mit dem menschlichen Gehirn gleichzuziehen und nahm eine Zahl von 1015 Berechnungen pro Sekunde (cps) an.[68] (Zum Vergleich: Wenn eine "Berechnung" einer "floating-point operation" entspricht – ein Maß, das zur Bewertung aktueller Supercomputer verwendet wird – dann würden 1016 „Berechnungen" 10 Billiarden FLOPS entsprechen, die 2011 erreicht wurden, während 1018 im Jahr 2022 erreicht wurden). Anhand dieser Zahl sagte er voraus, die erforderliche Hardware stünde irgendwann zwischen 2015 und 2025 zur Verfügung, gegeben, das damalige exponentielle Wachstum der Computerleistung würde über den Zeitpunkt der Erstellung des Berichts hinaus anhalten.

Aktuelle Forschung

Das Human Brain Project, eine von der EU finanzierte Initiative, die von 2013 bis 2023 aktiv war, hat einen besonders detaillierten und öffentlich zugänglichen Atlas des menschlichen Gehirns entwickelt.[69] 2023 führten Forscher der Duke University einen hochauflösenden Scan eines Mäusegehirns durch.[70] Ein Supercomputer mit einer ähnlichen Rechenleistung wie das menschliche Gehirn wird für April 2024 erwartet. Er trägt den Namen "DeepSouth" und könnte 228 Billionen synaptische Operationen pro Sekunde ausführen.[71]

Kritik an simulationsbasierten Ansätzen

Das künstliche Neuronenmodell, mit dem Kurzweil arbeitet und das zuletzt in vielen künstlichen neuronalen Netzen verwendet wurde, ist im Vergleich zu biologischen Neuronen simpel. Eine Gehirnsimulation müsste wahrscheinlich das detaillierte zelluläre Verhalten biologischer Neuronen erfassen, das man gegenwärtig nur in groben Zügen versteht. Der Mehraufwand, der durch die vollständige Modellierung der biologischen, chemischen und physikalischen Details neuronalen Verhaltens (insbesondere auf molekularer Ebene) entstünde, würde eine Rechenleistung erfordern, die um mehrere Größenordnungen über Kurzweils Schätzung hinausgeht. Darüber hinaus berücksichtigen die Schätzungen nicht die Gliazellen, von denen bekannt ist, dass sie bei kognitiven Prozessen eine Rolle spielen.[72]

Ein grundlegender Kritikpunkt am Ansatz, Gehirne zu simulieren ergibt sich aus der Theorie des Embodiment, die behauptet, dass die menschliche Verkörperung ein wesentlicher Aspekt der menschlichen Intelligenz und damit notwendig ist, um eine Grundlage für bedeutungsvolle Existenz zu schaffen.[73][70]Wenn diese Theorie richtig liegt, muss jedes voll funktionsfähige Gehirnmodell mehr als nur die Neuronen umfassen (z. B. einen Roboterkörper). Goertzel[56] schlägt eine virtuelle Verkörperung (etwa in Metaversen wie Second Life) als eine Option vor. Es ist aber unklar, ob dies ausreichen würde.

Zeitliche Prognosen

Vorhersagen zur Entwicklung von AGI umfassen eine große zeitliche Bandbreite: KI-Experten und CEOs führender KI-Firmen, darunter Yoshua Bengio, Sam Altman und Demis Hassabis warnten 2023, dass AGI bereits in den nächsten Jahren oder in den 2030er-Jahren existieren könnte.[74][75][76] Geoffrey Hinton, einer der „Väter der KI“, ging im Mai 2023 von 5 bis 20 Jahren aus.[77] Modellierungen aus dem Jahr 2023 geben 2032 bis 2048 als wahrscheinlichste Zeitspanne für die Entwicklung von AGI an.[78] Andere vermuten, dass heutige KI mindestens noch Jahrzehnte von AGI entfernt ist[79] oder bewerten die Erreichbarkeit von AGI kritisch.[80]

Risiken

Da die mit AGI assoziierten Risiken von vielen Experten als essenziell eingestuft werden, forderte das Future of Life Institute (FLI) im März 2023 in einem offenen Brief dazu auf, die Entwicklung für sechs Monate zu pausieren, bis die Fragen der Regulierung geklärt seien. Zu den Unterzeichnern zählten Branchengrößen wie Elon Musk, Apple-Mitgründer Steve Wozniak und der Stability-AI-Chef, Emad Mostaque (Stable Diffusion).[81] Bis Februar 2024 hatten bereits über 33.000 Menschen den offenen Brief des Future of Life Institutes unterzeichnet.[82]

Eine Metaanalyse aus dem Jahr 2023, die auf der Auswertung von 18 für das Thema relevanten Studien beruht, weist auf folgende Risiken hin, die in Zusammenhang mit AGI auftreten könnten:[83]

  • AGI könnte sich der Kontrolle durch Menschen entziehen
  • AGI könnte Ziele verfolgen oder entwickeln, die Sicherheitsrisiken darstellen
  • Es könnten sich AGIs entwickeln, die Defizite in den Bereichen Ethik, Moral und Werte haben
  • Bei unsachgemäßer Handhabung oder in den falschen Händen könnten zweifelhafte politische oder militärische Ziele vorangetrieben werden

Die für die Studie verantwortlichen Wissenschaftler der australischen University of the Sunshine Coast, wiesen in ihrer Schlussbetrachtung eindringlich darauf hin, wie wichtig es sei, sich bereits präventiv mit diesen potenziellen Gefahren zu befassen und sie zugleich weiterhin zu erforschen.[83]

Auf EU-Ebene unterscheidet das Gesetz über künstliche Intelligenz nach folgenden drei Risikoklassen, für die unterschiedliche Anforderungen hinsichtlich Regulierung und Vorschriften zur Transparenz gelten:[84][85]

  • unannehmbares Risiko
  • hohes Risiko und (sogenannte „Hochrisiko-KI-Systeme“)
  • geringes oder minimales Risiko

KI-Systemen, denen ein unannehmbares Risiko bestätigt wurde, sind verboten, wobei sowohl das Inverkehrbringen, als auch die Inbetriebnahme und die Verwendung strafbar sind.[85]

Siehe auch

Einzelnachweise

  1. OpenAI Charter. openai.com. Abgerufen am 2023-11-06.
  2. a b c Shane Legg: Machine Super Intelligence. Universität Lugano, Dissertation, S. 4–11, 16–22, 2008-06. Abgerufen am 2023-11-06.
  3. Nick Barney: Artificial Superintelligence. Enterprise AI, techtarget.com. Abgerufen am 2023-11-06.
  4. MaryAnne M. Gobble: The Road to Artificial General Intelligence. In: Research-Technology Management. Band 62, Nr. 3, 4. Mai 2019, ISSN 0895-6308, S. 55–59, doi:10.1080/08956308.2019.1587336 (tandfonline.com [abgerufen am 7. Februar 2021]).
  5. Pei Wang, Ben Goertzel: Theoretical foundations of artificial general intelligence. Atlantis Press, Amsterdam 2012, ISBN 978-94-91216-62-6.
  6. Hannes Grassegger und Mikael Krogerus: Die Menschheit zur vollen Entfaltung bringen. In: Das Magazin No. 44, 2023-11-04, S. 10. Abgerufen am 2023-11-06.
  7. Roman Yampolskiy: Turing Test as a Defining Feature of AI-Completeness. In: Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM), 3–17, 2012. Abgerufen am 2023-11-06.
  8. Lakshmi Varanasi: AI models like ChatGPT and GPT-4 are acing everything from the bar exam to AP Biology. Here's a list of difficult exams both AI versions have passed. In: Business Insider, 2023-03-21. Abgerufen am 2023-11-06.
  9. Caleb Naysmith: 6 Jobs Artificial Intelligence Is Already Replacing and How Investors Can Capitalize on It. yahoo.com, 2023-02-07. Abgerufen am 2023-11-06.
  10. Cade Metz und Karen Weise: How ‘A.I. Agents’ That Roam the Internet Could One Day Replace Workers. In: New York Times, 2023-10-16. Abgerufen am 2023-11-06.
  11. Stuart C. Shapiro: Artificial Intelligence. In: Stuart C. Shapiro (Hrsg.): Encyclopedia of Artificial Intelligence. 2. Auflage. New York Februar 2016, S. 54–57.
  12. Roman V. Yampolskiy,: Turing Test as a Defining Feature of AI-Completeness. In: Artificial Intelligence, Evolutionary Computation and Metaheuristics. 2012.
  13. Luis von Ahn, Manuel Blum, Nicholas Hopper, John Langford: CAPTCHA: Using Hard AI Problems for Security. In: Proceedings of Eurocrypt. März 2016, S. 294–311.
  14. Richard Bergmair: Natural Language Steganography and an "AI-complete" Security Primitive. CiteSeerX, Januar 2006.
  15. a b Daniel Crevier: AI: The Tumultuous Search for Artificial Intelligence. NY: BasicBooks, New York 1993, ISBN 0-465-02997-3.
  16. Andreas Kaplan: Artificial Intelligence, Business and Civilization – Our Fate Made in Machines. Mai 2022.
  17. Scientist on the Set: An Interview with Marvin Minsky. 16. Juli 2012, abgerufen am 11. April 2024 (englisch).
  18. Marvin Minsky zu Darach (1970), zitiert in Crevier (1993, p. 109).
  19. a b Stuart J. Russell, Peter Norvig: Artificial intelligence: a modern approach (= Prentice Hall series in artificial intelligence). 2nd ed Auflage. Prentice Hall/Pearson Education, Upper Saddle River, N.J 2003, ISBN 978-0-13-790395-5.
  20. NRC: Developments in Artificial Intelligence. In: Funding a Revolution: Government Support for Computing Research. National Academy Press, 1999.
  21. Daniel Crevier: AI: the tumultuous history of the search for artificial intelligence. Hrsg.: NY: Basic Books. Basic books, New York 1993, ISBN 978-0-465-02997-6, S. 161–162.
  22. Daniel Crevier: AI: The Tumultuous Search for Artificial Intelligence. NY: BasicBooks, New York 1993, ISBN 0-465-02997-3, S. 209–212.
  23. John McCarthy: Reply to Lighthill. Stanford University, 2000.
  24. John Markoff: Behind Artificial Intelligence, a Squadron of Bright Real People. In: The New York Times. Oktober 2005.
  25. Stuart Russel, Peter Norvig: Artificial Intelligence: A Modern Approach. 2. Auflage. Upper Saddle River, 2003, ISBN 0-13-790395-2, S. 25–26.
  26. Trends in the Emerging Tech Hype Cycle. In: Gartner Reports.
  27. a b Hans Moravec: Mind Children. Harvard University Press, 1988, S. 20.
  28. Stevan Harnad: The symbol grounding problem. In: Physica D: Nonlinear Phenomena. Band 42, Nr. 1-3, Juni 1990, S. 335–346, doi:10.1016/0167-2789(90)90087-6 (elsevier.com [abgerufen am 11. April 2024]).
  29. Mark Gubrud: Nanotechnology and International Security. In: Fifth Foresight Conference on Molecular Nanotechnology. November 1997.
  30. a b Marcus Hutter: Universal Artificial Intellegence (= Texts in Theoretical Computer Science An EATCS Series). Springer Berlin Heidelberg, Berlin, Heidelberg 2005, ISBN 978-3-540-22139-5, doi:10.1007/b138233 (springer.com [abgerufen am 11. April 2024]).
  31. Shane Legg: Machine Super Intelligence. University of Lugano, 2008.
  32. Artificial General Intelligence: 7th International Conference, AGI 2014, Quebec City, QC, Canada, August 1-4, 2014. Proceedings (= Lecture Notes in Computer Science. Band 8598). Springer International Publishing, Cham 2014, ISBN 978-3-319-09273-7, doi:10.1007/978-3-319-09274-4 (springer.com [abgerufen am 11. April 2024]).
  33. Who coined the term "AGI"? In: goertzel.org. Abgerufen am 11. April 2024.
  34. Advances in artificial general intelligence: concepts, architectures and algorithms: proceedings of the AGI Workshop 2006 (= Frontiers in artificial intelligence and applications. v. 157). IOS Press, Amsterdam ; Washington, DC 2007, ISBN 978-1-58603-758-1.
  35. First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009. Abgerufen am 11. April 2024.
  36. Избираеми дисциплини 2009/2010 – пролетен триместър. In: Elective courses 2009/2010 – spring trimester.
  37. Избираеми дисциплини 2010/2011 – зимен триместър. In: Elective courses 2010/2011 – winter trimester.
  38. Henry Shevlin, Karina Vold, Matthew Crosby, Marta Halina: The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge. In: EMBO reports. Band 20, Nr. 10, 4. Oktober 2019, ISSN 1469-221X, doi:10.15252/embr.201949177, PMC 6776890 (freier Volltext) – (embopress.org [abgerufen am 11. April 2024]).
  39. a b Sébastien Bubeck et al.: Sparks of Artificial General Intelligence: Early experiments with GPT-4. 27. März 2023.
  40. Rolf Pfeifer, Josh Bongard, Simon Grand: How the body shapes the way we think: a new view of intelligence. MIT Press, Cambridge, Mass 2007, ISBN 978-0-262-16239-5 (worldcat.org [abgerufen am 11. April 2024]).
  41. Philip Boucher: Concluding remarks. In: How artificial intelligence works. European Parliamentary Research Service, März 2019.
  42. Beyond Mad?: The Race For Artificial General Intelligence. Abgerufen am 11. April 2024.
  43. Paul Allen, Mark Greaves: The Singularity Isn't Near. MIT Technology Review, 12. Oktober 2011.
  44. Alan Winfield: Artificial intelligence will not turn into a Frankenstein's monster. The Guardian.
  45. William F. Clocksin: Artificial intelligence and the future. In: Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences. Band 361, Nr. 1809, 15. August 2003, ISSN 1364-503X, S. 1721–1748, doi:10.1098/rsta.2003.1232 (royalsocietypublishing.org [abgerufen am 11. April 2024]).
  46. Ragnar Fjelland: Why general artificial intelligence will not be realized. In: Humanities and Social Sciences Communications. Band 7, Nr. 1, 17. Juni 2020, ISSN 2662-9992, doi:10.1057/s41599-020-0494-4 (nature.com [abgerufen am 11. April 2024]).
  47. John McCarthy: From here to human-level AI. In: Artificial Intelligence. Band 171, Nr. 18, Dezember 2007, S. 1174–1182, doi:10.1016/j.artint.2007.10.009 (elsevier.com [abgerufen am 11. April 2024]).
  48. Raffi Khatchadourian: The Doomsday Invention: Will artificial intelligence bring us utopia or destruction? In: The New Yorker. 23. November 2015.
  49. V.C. Müller, Nick Bostrom: Future progress in artificial intelligence: A survey of expert opinion. In: Fundamental issues of artificial intelligence. Springer, 2016, S. 555–572.
  50. Stuart Armstrong, Kaj Sotala: How We’re Predicting AI—or Failing To. In: Beyond AI: Artificial Dreams. University of West Bohemia, Pilsen 2012, S. 52–75.
  51. Microsoft Now Claims GPT-4 Shows 'Sparks' of General Intelligence. Abgerufen am 24. März 2023.
  52. Cary Shimek: AI Outperforms Humans in Creativity Test. Neuroscience News, 6. Juli 2023.
  53. Erik E. Guzik, Christian Byrge, Christian Gilde: The originality of machines: AI takes the Torrance Test. In: Journal of Creativity. Band 33, Nr. 3, Dezember 2023, S. 100065, doi:10.1016/j.yjoc.2023.100065 (elsevier.com [abgerufen am 11. April 2024]).
  54. Artificial general intelligence (= Cognitive technologies). Springer, Berlin ; New York 2007, ISBN 978-3-540-23733-4.
  55. a b Ray Kurzweil: The Singularity is Near. Viking Press, 2005, S. 260.
  56. a b c Ben Goertzel: Human-level artificial general intelligence and the possibility of a technological singularity. In: Artificial Intelligence. Band 171, Nr. 18, Dezember 2007, S. 1161–1173, doi:10.1016/j.artint.2007.10.011 (elsevier.com [abgerufen am 11. April 2024]).
  57. Katja Grace: Error in Armstrong and Sotala 2012. In: AI Impacts. 2016.
  58. a b Martin V. Butz: Towards Strong AI. In: KI - Künstliche Intelligenz. Band 35, Nr. 1, März 2021, ISSN 0933-1875, S. 91–101, doi:10.1007/s13218-021-00705-x (springer.com [abgerufen am 11. April 2024]).
  59. Feng Liu, Yong Shi, Ying Liu: Intelligence Quotient and Intelligence Grade of Artificial Intelligence. In: Annals of Data Science. Band 4, Nr. 2, Juni 2017, ISSN 2198-5804, S. 179–191, doi:10.1007/s40745-017-0109-0 (springer.com [abgerufen am 11. April 2024]).
  60. Jörn Brien: Google-KI doppelt so schlau wie Siri. 5. Oktober 2017.
  61. Gary Grossman: We're entering the AI twilight zone between narrow and general AI. In: Venture Beat. 3. September 2020.
  62. Katyanna Quach: A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down. In: The Register.
  63. Kyle Wiggers: DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots. In: TechCrunch. 13. Mai 2022.
  64. Cade Metz: The Godfather of A.I.' Leaves Google and Warns of Danger Ahead. In: The New York Times. 1. Mai 2023.
  65. John Nosta: The Accelerating Path to Artificial General Intelligence. In: Psychology Today. 5. Januar 2024.
  66. Andreas Sandberg, Nick Boström: Whole Brain Emulation: A Roadmap. In: Future of Humanity Institute. Technical Report #2008-3. Oxford University, 2008.
  67. D. Drachman: Do we have brain to spare? In: Neurology. Nr. 64, 2005.
  68. Hans Moravec: Mind Children. Harvard University Press, 1988.
  69. Amalie Holmgaard Mersh: Decade-long European research project maps the human brain. In: euractiv. 15. September 2023.
  70. a b Angela Thornton: How uploading our minds to a computer might become possible. In: The Conversation. 26. Juni 2023.
  71. Domenico Vicianza: A new supercomputer aims to closely mimic the human brain — it could help unlock the secrets of the mind and advance AI. In: The Conversation. 18. Dezember 2023.
  72. Nikhil Swaminathan: Glia—the other brain cells. In: Discover. Februar 2011.
  73. Symbols and embodiment: debates on meaning and cognition. Oxford University Press, Oxford ; New York 2008, ISBN 978-0-19-921727-4 (worldcat.org [abgerufen am 11. April 2024]).
  74. Max Tegmark: The 'Don't Look Up' Thinking That Could Doom Us With AI. Time Magazine, 25. April 2023.
  75. Tristan Bove: CEO of Google’s DeepMind says we could be ‘just a few years’ from A.I. that has human-level intelligence. Fortune, 3. Mai 2023.
  76. Zohaib Ahmed: When will the world see AGI? Elon Musk, Sam Altman & Geoffrey Hinton make these bold predictions. Indian Express, 8. November 2023.
  77. The ‘Godfather of AI’ Has a Hopeful Plan for Keeping Future AI Friendly. Wired, 11. August 2023.
  78. How Soon is Now? Predicting the Expected Arrival Date of AGI- Artificial General Intelligence. Rupert Macey-Dare, Universität Oxford, 30. Juni 2023.
  79. Cem Dilmegani: When will singularity happen? 995 experts’ opinions on AGI. In: research.aimultiple.com. 8. August 2017, abgerufen am 5. November 2021 (amerikanisches Englisch).
  80. Will Douglas Heaven: Artificial general intelligence: Are we close, and does it even make sense to try? MIT Technology Review, 2020-10-15. Abgerufen am 2023-11-06.
  81. KI-Regulierung. Von Musk und Co geforderte KI-Entwicklungspause verheimlicht reale Gefahren vom 2. April 2023 Der Standard, abgerufen am 10. Februar 2024
  82. Pause Giant AI Experiments: An Open Letter vom 22. März 2023 Future of Life Institute, abgerufen am 10. Februar 2024
  83. a b S. McLean, G.J.M. Read, J. Thompson, C. Baber, N.A. Stanton & P.M. Salmon (2023): The risks associated with Artificial General Intelligence: A systematic review. Journal of Experimental & Theoretical Artificial Intelligence, 35:5, 649–663, doi:10.1080/0952813X.2021.1964003
  84. Artificial Intelligence Act. Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) think digital, abgerufen am 11. Februar 2024
  85. a b Francois Heynike: KPMG Law Insights. Der AI Act kommt: EU möchte Risiken von KI in den Griff bekommen vom 19. Oktober 2023 KPMG, abgerufen am 11. Februar 2024