Technologische Singularität
In der Futurologie bezeichnet der Begriff der technologischen Singularität den Zeitpunkt, zu dem der Prozess des technischen Fortschritts so schnell abläuft, dass ihn ein heutiger Mensch ohne technische Hilfsmittel nicht mehr begreifen kann. Ausgangspunkt für diese Theorie ist die Beobachtung, dass unser technischer und wissenschaftlicher Fortschritt immer rascher abläuft und dass viele Entwicklungen (z.B. die Bevölkerungs- und Wissensentwicklung) einem exponentiellen Wachstum zu folgen scheinen.
Dazu zählt auch die Rechenleistung von Computern, die sich – gemessen an der Anzahl an Transistoren auf einem integrierten Schaltkreis – dem Mooreschen Gesetz nach etwa alle 24 Monate verdoppelt. Wenn sich starke künstliche Intelligenz als machbar erweist und Computer eines Tages die Rechenleistung des menschlichen Gehirns übertreffen, kann es so zu einem Rückkopplungsprozess bei der Erschaffung immer intelligenterer Maschinen kommen.
Eine solche Rückkopplung kann nicht nur durch künstliche Intelligenz, sondern auch durch andere Prozesse hervorgerufen werden, die zu gesteigerter Intelligenz führen. Beispiele dafür sind der Einsatz von technologischen Implantaten, Gehirn-Computer-Schnittstellen und der Einsatz der Gentechnik zur Verbesserung der Leistung des menschlichen Gehirns. Szenarien, die auf Intelligenzverstärkung des Menschen setzen, werden unter dem Begriff Augmented Intelligence geführt.
Ob und wann eine Singularität auftritt, ist unklar. Die prognostizierten Daten schwanken zwischen "in wenigen Jahren" bis "in einigen Jahrhunderten", wobei der am häufigsten genannte Zeitpunkt das Jahr 2030 ist. Wenn das Mooresche Gesetz weiterhin die Entwicklung der Chipindustrie treffend beschreibt und die von Hans Moravec für die Rechenleistung des menschlichen Gehirns genannten 100 Teraflops in etwa stimmen, bieten zu diesem Zeitpunkt handelsübliche PCs eine Rechenleistung, die unser Gehirn bei weitem übertrifft.
Geschichte
Frühe Erwähnungen
Die erste bekannte Erwähnung des Konzepts einer Singularität geht auf Stanislaw Ulam zurück, der sich im Mai 1958 folgendermaßen zu einer Unterhaltung mit John von Neumann äußerte:
- "Ein Gespräch drehte sich um den sich stets beschleunigenden technologischen Fortschritt und um die Veränderungen in der Art und Weise menschlichen Lebens, die den Anschein machen, auf eine unumgängliche Singularität in der Geschichte der Menschheit hinauszulaufen, nach der das Leben der Menschen, so wie wir es kennen, nicht weitergehen kann."
1965 beschrieb der Statistiker I. J. Good ein Konzept, das der heute vorherrschenden Bedeutung von Singularität insofern noch näher kam, als es die Rolle künstlicher Intelligenz mit einbezog:
- "Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat."
Auch die 1970 erschienene wirtschaftliche Trendanalyse Future Shock von Alvin Toffler bezog sich bereits auf die Singularität.
Vernor Vinge
In den 80er Jahren begann der Mathematiker und Autor Dr. Vernor Vinge von einer Singularität zu sprechen, 1993 veröffentlichte er seine Ideen in dem Artikel Technological Singularity. Daraus stammt auch die häufig zitierte Prognose, dass wir "innerhalb von 30 Jahren über die technologischen Mittel verfügen werden, um übermenschliche Intelligenz zu schaffen. Wenig später ist die Ära der Menschen beendet."
Vinge schreibt, dass übermenschliche Intelligenz, unabhängig davon, ob durch kybernetisch erweiterte menschliche Intelligenz oder durch künstliche Intelligenz erreicht, wiederum noch besser dazu in der Lage sein wird, ihre Intelligenz zu steigern. "Wenn Fortschritt von übermenschlicher Intelligenz vorangetrieben wird", so Vinge, "wird dieser Fortschritt deutlich schneller ablaufen." Diese Art von Rückkopplung soll zu sehr großem Fortschritt in sehr kurzer Zeit führen.
Ray Kurzweil
In dem 2001 veröffentlichten Artikel The Law of Accelerating Returns stellt Raymond Kurzweil die These auf, dass das Mooresche Gesetz nur ein Spezialfall eines allgemeineren Gesetzes ist, nach dem die gesamte technologische Evolution verläuft.
Betrachtet man die Entwicklung von mechanischen Rechenmaschinen, über Röhren und Transistoren bis zum heutigen Mikroprozessor, so zeige dies eine doppelt exponentielle Steigerung der Leistungsfähigkeit. Die Rechenleistung pro 1000 Dollar verdoppelte sich in den Jahren 1910 bis 1950 im Abstand von drei Jahren (mechanische Rechenmaschinen), von 1950 bis 1966 etwa alle zwei Jahre und jetzt etwa jährlich.
Ray Kurzweil glaubt, dass das durch das Mooresche Gesetz beschriebene exponentielle Wachstum sich auch in den Technologien fortsetzen wird, die die heutigen Mikroprozessoren ablösen werden, und letztendlich zur Singularität führen wird, die er als "technischen Wandel" definiert, der "so schnell und allumfassend ist, dass er einen Bruch in der Struktur der Geschichte der Menschheit darstellt."
Technologien
Zukunftsforscher erwägen verschiedenste Technologien, die bei der Herbeiführung einer Singularität eine Rolle spielen könnten. Über die Reihenfolge, in der diese Technologien Wirklichkeit werden könnten, besteht jedoch keine Einigkeit, ebenso wenig über die Verwirklichbarkeit der meisten Ideen.
Eine künstliche Intelligenz, die die Fähigkeit besitzt, sich rekursiv selbst zu verbessern und so das Stadium menschlicher Intelligenz zu erreichen und zu überschreiten, wird als Seed AI bezeichnet und würde höchstwahrscheinlich zu einer Singularität führen. Die meisten Anhänger der Singularität sind der Meinung, dass die Schaffung einer Seed AI die größten Chancen bietet, eine Singularität herbeizuführen. Das Singularity Institute for Artificial Intelligence wurde ausdrücklich zu diesem Zweck gegründet.
Die möglichen Gefahren von molekularer Nanotechnologie sind auch vielen Menschen bekannt, die nicht an Futurologie und Transhumanismus interessiert sind. Viele Anhänger der Singularität halten von Menschen gesteuerte Nanotechnologie für eine der größten Bedrohungen der Zukunft der Menschheit (Grey Goo). Aus diesem Grund fordern einige von ihnen, dass molekulare Nanotechnologie nicht vor Auftreten einer Seed AI praktiziert werden sollte.
Andererseits wird von Organisationen wie dem Foresight Institute die Meinung vertreten, dass ein verantwortungsvoller Umgang mit dieser Technologie auch in Prä-Singularitäts-Zeiten möglich sei und dadurch die Realisierung einer für die Menschheit positiven Singularität beschleunigt werden könne.
Andere Technologien
Neben künstlicher Intelligenz und Nanotechnologie wurden auch andere Technologien mit der Singularität in Zusammenhang gebracht:
Direkte Gehirn-Computer-Schnittstellen, die zu dem Bereich Augmented Intelligence gezählt werden, könnten zu verbessertem Gedächtnis, umfangreicherem Wissen oder größerer Rechenkapazität unseres Gehirns führen. Auch Sprach- und Handschrifterkennung, leistungssteigernde Medikamente und gentechnische Methoden können hierzu gezählt werden.
Als alternative Methode zur Schaffung künstlicher Intelligenz wurde, in erster Linie von Science-Fiction-Autoren wie Roger Zelazny, die Methode des Mind Uploadings vorgeschlagen. Anstatt Intelligenz direkt zu programmieren wird hierbei der Aufbau eines menschlichen Gehirns per Scan in den Computer übertragen. Die dazu nötige Auflösung des Scanners, die benötigte Rechenkraft und das erforderliche Wissen über das Gehirn machen dies in der Prä-Singularitäts-Zeit jedoch eher unwahrscheinlich.
Daneben wurde noch die Emergenz intelligenten Verhaltens aus einem hinreichend komplexen Computernetzwerk, so genannte Schwarmintelligenz, in Betracht gezogen, beispielsweise von George Dyson in dem Buch Darwin Among the Machines.
Kritikpunkte
Grundsätzlich lassen sich zwei Arten von negativer Kritik am Konzept der Singularität unterscheiden: Einerseits wird die Möglichkeit des Eintretens einer Singularität in Frage gestellt, andererseits ob ein solches Eintreten überhaupt wünschenswert ist.
Machbarkeit
Eine technologische Singularität wird von manchen Futurologen als eine sehr unwahrscheinliche Entwicklung eingestuft.
Mit Blick auf die Parallelen zwischen der Singularität und dem christlichen Heilsglauben bezeichnet Ken MacLeod die Singularität als "die Entrückung der Nerds" (the Rapture for nerds). Er vertritt die These, dass die heute verbreiteten Ideen einer Singularität nichts Anderes sind als kulturspezifische, ins Science-Fiction-Gewand gepackte Neuauflagen der jahrhundertealten Eschaton-Mythen.
Die meisten Vorstellungen von der Singularität setzen die Möglichkeit künstlicher Intelligenz auf menschenähnlichem Niveau voraus. Ob solche starke KI tatsächlich möglich ist, wird seit Jahrzehnten kontrovers diskutiert. Das Ausbleiben von Erfolgen in Richtung starker KI wird oft als Argument für die Unmöglichkeit dieses Vorhabens gewertet.
Teilweise wird bestritten, dass die Geschwindigkeit technologischen Fortschritts stetig zunimmt. Das exponentielle Wachstum könnte bald schon zu einem linearen Wachstum werden oder in einer Plateauphase stagnieren. Diesem Modell nach ergibt sich anstelle der sich beschleunigenden Gesamtentwicklung ein sprungartiger technologischer Fortschritt immer (und nur) dann, wenn dieser nennenswerte Vorteile für uns Menschen zur Folge hat – und kann so nie zu so rascher Veränderung führen, dass diese als Singularität bezeichnet werden könnte.
Die Singularität muss zudem nicht ein einmaliges, nie dagewesenes Ereignis sein. Historiker verweisen darauf, dass es in der Geschichte der Menschheit viele Zeitpunkte gab, zu denen die Welt, in der wir heute leben, völlig unvorstellbar gewesen wäre (obwohl das nur ein Paradigmenwechsel auf dem langen, aber sich stets verkürzenden Weg zur Singularität ist. Siehe dazu: The Law of Accelerating Returns by Ray Kurzweil). Wenn die Bedeutung der Singularität auf "die Grenze unseres Vorstellungsvermögens" reduziert wird, lässt sich die Behauptung, dass Singularitäten sich regelmäßig wiederholen, durchaus begründen.
Erwünschtheit
Sowohl in Science-Fiction-Romanen als auch anderweitig werden die Ziele einer künstlichen Intelligenz häufig als nicht mit denen der Menschheit vereinbar beschrieben. Die Möglichkeit, dass eine superintelligente KI intellektuell niedrigere Rassen einfach auslöscht und so die Existenz der Menschheit bedroht, kann nicht vollkommen ausgeschlossen werden, ebensowenig die Möglichkeit einer friedlichen Koexistenz.
Des Weiteren wird von Kritikern der Singularität immer wieder vorgebracht, dass fortschrittliche Technologien grundsätzlich eine Gefahr für unsere Gesellschaft darstellen könnten.
Organisationen
Das Singularity Institute for Artificial Intelligence (SIAI) ist eine gemeinnützige Bildungs- und Forschungsorganisation, die sich der Erforschung und Umsetzung von freundlicher künstlicher Intelligenz (Friendly AI) gewidmet hat. Gegründet wurde diese Institution von Eliezer Yudkowsky, Brian Atkins und Sabine Atkins.
Die Acceleration Studies Foundation (ASF) will die Aufmerksamkeit von Wirtschaft, Wissenschaft und Technik auf den sich beschleunigenden technologischen Fortschritt lenken. Dazu wird alljährlich die an der Stanford University stattfindende Konferenz Accelerating Change abgehalten. Zudem betreibt die Organisation Acceleration Watch, eine futurologische Informationswebsite, die aktuelle Entwicklungen im Licht des zunehmenden technologischen Wandels betrachtet.
Prominente Vertreter
- Ben Goertzel
- Damien Broderick
- Eliezer Yudkowsky
- Hans Moravec
- John Smart
- Marvin Minsky
- Michael Anissimov
- Nick Bostrom
- Raymond Kurzweil
- Tyler Emerson
- Vernor Vinge
Literatur
- Alvin Toffler: Der Zukunftsschock. Strategien für die Welt von morgen. München: Goldmann 1983. ISBN 3442113644.
- Damien Broderick: The Spike: How Our Lives Are Being Transformed by Rapidly Advancing Technologies Forge 2001. ISBN 0312877811.
- Raymond Kurzweil: The Singularity Is Near: When Humans Transcend Biology. Viking Books 2005. ISBN 0670033847.
Weblinks
Deutsch
- AI Playground: Sinn und Singularität, Eliezer Yudkowsky
- De:Trans-Deutsche Gesellschaft für Transhumanismus
- Der Mensch, Version 2.0 Artikel von Raymond Kurzweil in Spektrum der Wissenschaft, Januar 2006
- Siggi Beckers Blog zur Singularität
Englisch
- Accelerating Future
- Cory Doctorow: The Rapture of the Geeks (PDF)
- Eliezer Yudkowskys Artikel
- Institute for the Study of Accelerating Change
- Sammlung von Links zur Singularität
- Singularity Institute for Artificial Intelligence
- SL4 Wiki: Ein Wiki zur Diskussion der Singularität
- The Law of Accelerating Returns von Ray Kurzweil
- The Singularity is Near – When Humans Transcend Biology von Ray Kurzweil
- Vernor Vinges Artikel im Original