In einem offenen Brief fordern KI-Forscher und Unternehmer eine Pause der Entwicklung großer KIs wie GPT-4. Damit stoßen sie eine nötige Debatte an – die Technik schreitet schneller voran, als wir die Risiken verstehen lernen...Es sind keine Aluhutträger oder Ludditen, die diese Fragen nun stellen – sondern führende Unternehmer wie Apple-Mitgründer Steve Wozniak, Skype-Mitgründer Jaan Tallinn und Tesla-Chef Elon Musk, der OpenAI selbst gegründet hat und dann ausgestiegen ist. Außerdem sind unter den mehr als 1000 Unterzeichnern Stuart Russell, Autor eines Standardwerks über KI und jahrzehntelang führender Forscher auf dem Feld, sowie Yoshua Bengio, bekannter KI-Forscher an der Universität Montréal und Gary Marcus, KI-Forscher an der New York University.
Als diese Chatbots aufkamen, wurde ich der unmittelbaren Bedrohung für die Menschheit gewahr“, so der Informatiker. Er begründet diese Warnung nicht nur mit dem möglichen Wegfall von Arbeitsplätzen. „Durch diese Art von KI wird es möglich, viel bessere Cyberangriffe zu führen und hocheffiziente, fiese Viren zur biologischen Kriegsführung zu entwickeln“, sagte er dem „Spiegel“. Doch dabei sollte es Hinton nicht belassen: „Es gibt viele Gründe für die Annahme, dass KI außer Kontrolle geraten könnte“, warnte der Informatiker davor, dass am Ende nicht mehr die Menschen die Kontrolle über Leben und Tod hätten. Er begründet diese These mit der Annahme, dass eine „Superintelligenz“ von sich aus mehr Kontrolle erlangen muss, um menschliche Ansprüche zu erfüllen. „Und mehr Kontrolle bekommt sie am besten, indem sie die Menschen aus dem Spiel lässt.“
Vor diesen warnen auch die Preisträger selbst. Hopfield sagte etwa, dass Potenzial und Grenzen der KI unbekannt seien – und das etwas Beunruhigendes an sich hätte. Als Hinton 2023 seinen Job als führender KI-Entwickler bei Google aufgab, tat er das auch, um freier über die Gefahren der Technologie sprechen zu können. "Wir haben keine Erfahrung mit Dingen, die schlauer sind als wir", sagte der zugeschaltete Hinton bei der Nobelpreis-Pressekonferenz am Dienstag...
Die Stellungnahme der Experten zu Risiken durch Künstliche Inteligenz (KI) umfasst nur einen Satz, aber der klingt durchaus dramatisch: "Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg."
Katastrophale KI-Risiken können in vier Schlüsselkategorien eingeteilt werden: Böswillige Verwendung, KI-Wettlauf (könnte Nationen und Unternehmen dazu bringen, die KI-Entwicklung zu beschleunigen und die Kontrolle über diese Systeme aufzugeben), Organisatorische Risiken: (katastrophale Unfälle verursachen, insbesondere wenn sie den Gewinn über die Sicherheit stellen) und "Rogue-KIs" (abtrünnig): (Kontrolle über KIs verlieren, wenn sie leistungsfähiger werden: fehlerhafte Ziele optimieren, von ihren ursprünglichen Zielen abweichen, "power-seeking" (machtsuchend) werden, sich dem Abschalten widersetzen und sich auf Täuschungen einlassen.
Der Starhistoriker Yuval Noah Harari warnt vor dem heranbrechenden KI-Zeitalter. Die Zeit dränge, um die Technologie noch kontrollieren zu können. Wir sind dabei, die Kontrolle zu verlieren. Noch haben wir sie. Noch können wir kluge Entscheidungen treffen, um gefährliche Szenarien zu verhindern. Aber wir haben nicht mehr viel Zeit: KI ist die erste Technologie, die kein Werkzeug ist, sondern ein Agent. Sie kann eigenständig Entscheidungen treffen und Ideen entwickeln.
Der israelische Historiker zeichnet in seinem Essay nach, wie KI und Bürokratie am besten zusammenpassen, welche Wirkung KI auf Social Media hat – und weshalb sowohl Mussolini wie Lenin einst Nachrichtenredaktoren waren.
Der ehemalige Google-Chef Eric Schmidt wird immer skeptischer, wenn es um die Fortentwicklung künstlicher Intelligenz geht... Eric Schmidt spricht deutliche Warnungen aus. Computer würden bald in der Lage sein, ihre eigenen Entscheidungen zu treffen. Spätestens dann müssten die Menschen ihnen den Stecker ziehen, so der langjährige Google-CEO...Bald werde es Computer geben, die „von selbst laufen und entscheiden, was sie tun wollen“, ist sich Schmidt sicher. Zwar konzentriere sich die Branche derzeit eher auf KI-Agenten, aber die Technologie werde „mächtigere Ziele“ haben...„Irgendwann sagt man zum Computer: ‚Lerne alles und mache alles‘, und das ist ein gefährlicher Punkt“, meint er. Wenn das System sich selbst verbessern könne, „müssen wir ernsthaft darüber nachdenken, den Stecker zu ziehen.“
KI-Tools sind bequem und erleichtern vieles – doch dies hat seinen Preis. Eine neue Studie des Zentrums für Strategische Unternehmensvorausschau und Nachhaltigkeit der SBS Swiss Business School zeigt: Die verstärkte Nutzung von KI-Tools geht zulasten des kritischen Denkens...Studienautor Michael Gerlich sieht den Hauptgrund für diesen Effekt in der kognitiven Entlastung der Nutzer. Das heißt, die Menschen verlassen sich zunehmend auf KI-Tools, um die mentale Anstrengung zu reduzieren...Für die Studie haben Gerlich und sein Team 666 Personen in Großbritannien unterschiedlichen Alters und mit verschiedenen Bildungsgraden befragt...Je häufiger die Teilnehmer KI-Tools nutzten, desto schlechter schnitten sie bei Tests zum kritischen Denken ab. Besonders deutlich wurde dies bei jüngeren Nutzern im Alter zwischen 17 und 25 Jahren. Sie nutzten die Tools häufiger, sie schnitten beim kritischen Denken deutlich schlechter ab als ältere Nutzer...Ein höheres Bildungsniveau wirkte sich mit Blick auf das kritische Denken positiv aus: Unabhängig vom Alter schnitten Teilnehmer mit höherer Bildung besser beim kritischen Denken ab. Die Studie legt damit nahe, dass Bildung helfen kann, die potenziell negativen Auswirkungen der KI-Nutzung abzumildern.
Zurzeit liefern sich die Tech-Giganten in der Entwicklung einer hochpotenten KI, einer sogenannten Artificial General Intelligence (AGI) oder einer Artificial Super Intelligence (ASI), ein Wettrennen mit Investitionen in Milliardenhöhe...Die betroffenen Konzerne kennen die warnenden Stimmen von KI-Koryphäen und wissen um die Gefahr, dass bei dieser Entwicklung die KI ausser Kontrolle geraten könnte. Doch in politischen Diskussionen und in einer breiteren Öffentlichkeit wird dieses potenzielle Risiko nicht genügend ernst genommen. Hier besteht Handlungsbedarf. Die Schweiz verfügt über besonders geeignete Voraussetzungen, in diesem Prozess eine Pionierrolle wahrzunehmen...Ein KI-System gilt als «aligned», wenn es sich an die vorgegebenen Ziele hält und keine roten Linien überschreitet. Doch längst nicht alle sind «aligned»: Wegen fehlerhafter Programmierung, unklarer Zielvorgaben oder anderer Mängel können KI-Systeme zu unerwarteten Ergebnissen führen. Da die KI in ihren internen Abläufen nicht nachvollziehbar ist (Black-Box), lässt sich nicht feststellen, wie sie zu den beschriebenen besorgniserregenden Ergebnissen kommt.
Bei allen Akteuren sind ein grösseres Problembewusstsein und ein vorsichtiges pragmatisches Vorgehen, gestützt auf gemeinsam erarbeiteten Sicherheitsstandards, einzufordern. Eine zentrale Aufgabe der schweizerischen Diplomatie in Zusammenarbeit mit der KI-Spitzenforschung könnte darin liegen, dieses Problembewusstsein auch bei politischen Akteuren zu fördern.
Zu Beginn eines KI-Gipfels in Paris haben rund 100 Forscher vor einem „Kontrollverlust“ bei der Entwicklung Künstlicher Intelligenz (KI) gewarnt. Dieser könne dramatische Folgen haben. Neben bereits bekannten Gefahren wie falschen und irreführenden Inhalten gebe es immer mehr Beweise für „zusätzliche Risiken wie biologische Angriffe oder Cyberattacken“, sagte der renommierte Computerwissenschaftler Yoshua Bengio. Die Forscher forderten deshalb eine stärkere staatliche Regulierung.
Während die Künstliche Intelligenz exponentiell voranschreitet, entwickeln sich unsere Kontrollmechanismen und ethischen Rahmenbedingungen nur linear. Wie können wir sicherstellen, dass KI dem Menschen dient und nicht umgekehrt?... Wird Künstliche Intelligenz den Menschen überflüssig machen? Führt uns technischer Fortschritt automatisch in eine bessere Welt? Und wie können wir die Kontrolle über eine Technologie behalten, die sich in atemberaubendem Tempo weiterentwickelt? Diese Fragen treiben nicht nur Entwickler und Politiker um – sie beschäftigen in wachsendem Maße auch Historiker, Soziologen und Philosophen. In der Debatte kristallisieren sich drei zentrale Perspektiven heraus: der historische Blick auf Informationsnetzwerke und ihre gesellschaftlichen Auswirkungen, die Analyse von Transformationsprozessen durch KI und der Versuch, kommende Entwicklungen und ihre Risiken vorherzusehen.
Das entsprechende Gedankenexperiment kursiert schon länger: Eine KI erhält den simplen Auftrag, so viele Büroklammern wie möglich herzustellen. Anfangs steigert sie rational die Effizienz, entdeckt neue Materialien und optimiert Prozesse. Doch was, wenn es sich dabei um eine lernende und generative KI handelt, die fortlaufend eigene Strategien und Lösungen erdenkt und dabei keinerlei Grenzen oder Werte kennt? Dann würde sie alle Ressourcen gnadenlos auf ihr Ziel fokussieren – Rohstoffe, Energie, sogar menschliche Arbeitskraft.
Weltweite Regeln oder Chaos? Der Kampf um Regulierung: Genau hier setzt die Diskussion um Regulierung an. Die Europäische Union versucht, mit dem EU AI Act strikte Richtlinien zu etablieren, von Datenschutz über Erklärbarkeit bis hin zum Schutz von Grundrechten. Kritiker in den USA halten das für überbordende Bürokratie, die den Fortschritt in der Tech-Branche bremse. China verfolgt einen anderen Ansatz: Dort wird KI proaktiv in Überwachungssystemen eingesetzt, wobei ethische Grenzen anders definiert werden als im Westen. Nicht der individuelle Datenschutz steht im Vordergrund, sondern die kollektive Sicherheit und soziale Stabilität...Die entscheidende Frage ist, ob wir uns als Gemeinschaft genügend Zeit nehmen, über den verantwortungsvollen Umgang mit KI nachzudenken...Vielleicht liegt die wahre Gefahr nicht in einer ausser Kontrolle geratenen KI, sondern in unserer eigenen Nachlässigkeit: dem Zögern, klare Grenzen zu setzen, und der Weigerung, Verantwortung zu übernehmen. Was, wenn nicht die KI uns entgleitet, sondern wir selbst – weil wir ihren Fortschritt vorantreiben, ohne zu wissen, wohin er uns führt?
Unser Gehirn ist wie ein Muskel – wer nicht trainiert, wird schwächer. Doch seit ChatGPT & Co. setzen immer mehr Menschen bei Alltagsaufgaben auf die bequeme KI-Abkürzung. Eine neue Studie deutet darauf hin, dass das ein Problem sein könnte. Eine von Microsoft in Auftrag gegebene Studie (externer Link) liefert neue Erkenntnisse zum Einfluss von KI auf unser Denken. Mehr als 300 Wissensarbeiter wurden befragt, wie sie generative KI-Tools wie ChatGPT nutzen. Das Ergebnis: Je mehr sich die Befragten auf KI verließen, desto weniger neigten sie dazu, kritisch zu denken. Die Bereitschaft, die von KI gelieferten Antworten zu hinterfragen, nahm mit erhöhtem Vertrauen in die Technologie ab.
Faktenwissen? Recherche? Das war gestern. Wer in Diskussionen glänzen will, greift auf das Wissen von Chatbots zurück. Warum das hochproblematisch und oftmals einfach falsch ist...Was es aber eben immer benötigt, ist einen kritischen Umgang. Ein Hinterfragen und Überprüfen jeder einzelnen Antwort, die diese Systeme ausspucken. Egal, wie beeindruckend, wie bequem und überzeugend diese Tools auch wirken mögen – oder gerade deswegen. Einfach alles direkt zu übernehmen, was Chatbots und KI-Suchmaschinen behaupten, ist hingegen verantwortungslos – sich selbst, aber auch anderen gegenüber.
Geht es nach den Herstellern von Künstlicher Intelligenz, stehen wir am Beginn einer neuen Ära: Schon in wenigen Jahren sollen Maschinen Menschen als intelligenteste Spezies auf dem Planeten ablösen. Ein Szenario, das auch außerhalb der Marketingschmieden des Silicon Valley in nicht allzu ferner Zukunft eintreten könnte, erklärt KI-Experte Patrick Swanson im Interview mit dem STANDARD. Doch wer wird die erste Super-KI kontrollieren? Und, wie bringen wir sie dazu, dass sie nicht zum Untergang der Menschheit führt?
Medien wie Bilder, Grafiken, Videos und Soundbeispiele und andere stammen aus Wikimedia:Commons, wenn nichts anderes angegeben ist. Die Autoren und Lizenzbedingungen sind ersichtlich, wenn man das Medium anclickt (vergrössert) und dann "Weitere Einzelheiten" aufruft. Die Lizenzbedingungen sind insbesondere dann zu beachten, wenn eine Verwendung ausserhalb der Wikipedia erfolgen soll.
Zitate sind kursiv dargestellt, "→" kennzeichnet redaktionelle Zusammenfassungen