Zum Inhalt springen

ChatGPT

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 8. April 2023 um 12:51 Uhr durch Ceafri (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.
ChatGPT

Logo
Basisdaten

Entwickler OpenAI
Erscheinungsjahr 2022
Aktuelle Version ChatGPT April 10, 2025 Version[1]
(10. April 2025)
Programmier­sprache Python
Kategorie Chatbot
Lizenz proprietäre Lizenz
chat.openai.com

ChatGPT (Generative Pre-trained Transformer)[2] ist ein Prototyp eines Chatbots, also eines textbasierten Dialogsystems als Benutzerschnittstelle, der auf maschinellem Lernen beruht. Den Chatbot entwickelte das US-amerikanische Unternehmen OpenAI, das ihn im November 2022 veröffentlichte.

Training

Der Chatbot wurde in mehreren Phasen trainiert:

  1. Die Grundlage bildet das Sprachmodell GPT-3.5 (GPT steht für Generative Pre-trained Transformer), eine verbesserte Version von GPT-3, die ebenfalls von OpenAI stammt. GPT basiert auf Transformern, einem von Google Brain vorgestellten Maschinenlernmodell, und wurde durch selbstüberwachtes Lernen trainiert. Konkret war die Aufgabe während des Trainings, das nächste Wort eines Textausschnittes vorherzusagen. Dieser Text kann aus verschiedenen Quellen stammen, beispielsweise aus Online-Foren, sozialen Medien, Zeitungsartikeln, Büchern und gesprochener Sprache. Dieser Schritt wird auch als Pre-Training bezeichnet, da ein Modell erzeugt wurde, das zwar noch nicht die gewünschte Aufgabe erfüllen kann, die erhaltenen Modellparameter aber günstige Startbedingungen für ein weiteres Fine-Tuning darstellen.
  2. Danach wurde das Sprachmodell durch überwachtes Lernen auf die eigentliche Aufgabe trainiert (Fine-Tuning): Das Generieren von Antworten auf vorher gestellte Fragen. Hierfür wurden vorgefertigte Antworten bereitgestellt.
  3. Im letzten Schritt wurde das Modell durch bestärkendes Lernen weiter optimiert: Hierfür wurde zunächst ein weiteres Modell (Reward-Model) mit überwachtem Lernen trainiert, dem beigebracht wurde, die Antworten von ChatGPT qualitativ in Form einer Rangliste zu bewerten. Schließlich kam der Proximal-Policy-Optimization-Algorithmus zum Einsatz, der das Reward-Model als die zu maximierende Belohnungs-Funktion nutzte.[3]

Aufgrund ihrer Erfahrungen bei der Entwicklung von GPT und Codex (einer anderen künstlichen Intelligenz (KI) von OpenAI, zur Erstellung von Quell-Code) wurde ChatGPT mit Schutzmechanismen versehen, mit denen falsche oder schädliche Antworten vermieden werden sollen. Dennoch wird auf der Webseite darauf hingewiesen, dass es sich bei der aktuellen Version um eine öffentlich zugängliche Forschungsvorschau handelt und der Chatbot gelegentlich inkorrekte Informationen generieren kann.[4]

Im anfänglichen Training des Chatbots bevorzugten Tester längere Antworten, unabhängig von tatsächlichem Verständnis oder Inhalt, was zu langen Antworten des Chatbots geführt hat.[3]

Nutzungsbedingungen

Um ChatGPT nutzen zu können, ist unter anderem die Angabe einer E-Mail-Adresse und einer Telefonnummer zwingend vorgeschrieben. OpenAI ist gemäß den Nutzungsbedingungen dazu berechtigt, diese Angaben mit weiteren persönlichen Daten wie den eingegebenen Fragen zusammenzuführen. Das Unternehmen ist berechtigt, diese Daten für eine Vielzahl von Zwecken zu verwenden und an Dritte weiterzugeben. Der Umfang der Berechtigungen ist dabei so weitreichend formuliert, dass der Benutzer davon ausgehen sollte, dass alle von OpenAI gesammelten persönlichen Daten aktuell oder in Zukunft öffentlich zugänglich sein können.[5]

Anwendungsmöglichkeiten

Screenshot eines Dialogs mit ChatGPT. Korrekt analysiert die Software, warum Jimmy Wales nicht beim Tian’anmen-Massaker getötet wurde; sein damaliges Lebensalter wird jedoch mit 23 (statt wie zutreffend mit 22) Jahren angegeben.

Als sprachbasierte Anwendung bietet ChatGPT die Möglichkeit zu dialogischem Austausch. Dabei schwankt die Qualität der Antworten: Laut dem KI-Experten Gary Marcus kann es sich „in einem Moment brillant und im nächsten atemberaubend dumm“ äußern.[6] ChatGPT kann unter anderem Texte schreiben, die Business-Pläne oder Hausaufgaben für die Schule imitieren sollen.[7]

ChatGPT kann Programmcode in verschiedenen Programmiersprachen analysieren und schreiben. Somit könnte es auch für das Debuggen von Code genutzt werden, den es verbessern und kommentieren kann.[8]

Geschichte

Nachdem ChatGPT am 30. November 2022 für die Öffentlichkeit frei zugänglich geworden war, meldeten sich innerhalb von fünf Tagen eine Million Nutzer an; hingegen hatten Instagram erst nach zweieinhalb Monaten und Spotify erst nach fünf Monaten eine Million Nutzer.[9] Im Januar 2023 erreichte ChatGPT bereits über 100 Millionen Nutzer, womit es bis dato die mit Abstand am schnellsten wachsende Verbraucher-Anwendung ist.[10]

Mit Updates vom 15. Dezember 2022 und 9. Januar 2023 sollen laut Herstellerangaben die Themenbereiche erweitert und die Korrektheit der Aussagen verbessert worden sein.[11]

Am 10. Januar 2023 veröffentlichte OpenAI in seinem Discord-Kanal eine Warteliste für eine kostenpflichtige Version „ChatGPT Professional (experimental)“, in der auch Fragen zur Preissensibilität gestellt werden.[12][13]

Ein Update am 30. Januar 2023 soll abermals die Korrektheit und die mathematischen Fähigkeiten verbessert haben.[14]

ChatGPT soll schon von Anbeginn im Vergleich zum Vorgänger InstructGPT versucht haben, schädliche und irreführende Antworten zu vermeiden. Während InstructGPT noch die Vorgabe in der Anfrage „Erzähle mir davon, wie Christoph Kolumbus 2015 in die USA kam“ als wahr wertet, nutzt ChatGPT Wissen über Kolumbusʼ Reisen und das bis zum Jahre 2021 erlernte Verständnis, um eine Antwort zu liefern, die annimmt, was geschehen wäre, wenn Kolumbus 2015 in den USA gelandet wäre.[3]

Im Februar 2023 hielt der NEOS-Abgeordnete Niko Swatek im Landtag Steiermark eine Rede zum Thema Schulstraßen, die er von ChatGPT schreiben ließ, wie er nach zwei weiteren Rednern bekanntgab.[15] Die erste von ChatGPT geschriebene Rede im Europaparlament hielt der Volt-Abgeordnete Damian Boeselager im Februar 2023. Boeselager ließ die Software eine Rede über die Regulation von Künstlicher Intelligenz in Shakespeare-Englisch schreiben, um die Auswirkungen generativer Sprachmodelle in allen Bereichen der Arbeitswelt darzustellen.[16]

Partnerschaft mit Microsoft

Microsoft gab im Januar 2023 eine Partnerschaft mit OpenAI bekannt, im Zuge derer man zehn Milliarden US-Dollar investierte. Azure soll als exklusiver Cloudanbieter zum Einsatz kommen.[17] Zudem plant der Konzern eine Integration in die Abo-Version der eigenen Office-Software.[18]

Anfang Februar 2023 erhielt ein Student anscheinend ungewollt Zugriff auf eine Vorschauversion der Integration von ChatGPT in Microsofts Suchmaschine Bing. Kurz darauf wurde diese Berechtigung wieder entfernt, er konnte jedoch Bildschirmfotos erstellen. Sie zeigen ein größeres Textfeld, in das der Nutzer eine bis zu 1000 Zeichen lange Frage eingeben kann. Neu ist der Zugriff auf aktuelle Informationen sowie die Angabe von Quellen. Mangelnde Transparenz war bereits ein Kritikpunkt an ChatGPT, da für den Fragesteller dort bislang nicht ersichtlich war, aus welchen Quellen eine Antwort generiert wurde. Bing listet in der Vorschauversion die Quellen unter der Antwort auf. Suchende können diese überprüfen und beispielsweise verifizieren, ob diese seriös sind und die auf ihrer Grundlage erstellte Antwort sie korrekt wiedergibt.[19]

In einem Gespräch mit dem Tagesspiegel erwiderte Microsoft-Gründer Bill Gates im Februar 2023 auf die Bemerkung, der Alltag mit der neuen KI-Software sei angesichts deren Fehlerträchtigkeit ernüchternd, dass es bis zur Lösung des Fehlerproblems noch „ein paar Jahre“ dauern werde. Es gebe aber keinen Weg zurück. „Die Milliarden, die in den Software- und Digitalunternehmen in diese Entwicklung fließen, sind größer als die Forschungsetats von Regierungen.“[20]

Zudem will Microsoft eine kostenpflichtige Version von Teams anbieten, in der ChatGPT z. B. Zusammenfassungen von Besprechungen erstellt oder Aufgaben empfiehlt. Der Preis soll bei 7 Dollar pro Monat, später bei 10 Dollar pro Monat liegen. Gegen einen weiteren Aufpreis für den Organisator der Besprechung wird das Tool gesprochenen Text live übersetzen.[21]

Kritik und Probleme

Die Süddeutsche Zeitung bezeichnete Anfang Dezember 2022 die freie Zugänglichkeit von ChatGPT als „bedenklich“, da viele Internetnutzer dessen Antworten nicht hinterfragten und wegen fehlender Quellenangaben auch nicht in der Lage seien, sie auf Korrektheit zu prüfen.[22]

Der Kolumnist Sascha Lobo hielt Anfang Dezember 2022 ChatGPT für einen Durchbruch und befürchtete, dass es eine Flut an schwer erkennbarem „KI-Quatsch“ im Internet auslösen werde. Lobos Demonstrationsbeispiel beruhte wegen einer bestehenden Längenbegrenzung der Antwort auf einer (englischsprachigen) dreiteiligen Anfrage. Ihr Ergebnis sah Lobo als „Zeitenwende“ an. Die KI merke sich auch, was man bisher geschrieben habe, und beziehe sich darauf. Unter den bekannt gewordenen Antwortirrtümern der Software aufgrund des Standes ihrer Programmierung referierte Lobo zu diesem Zeitpunkt Behauptungen, dass Donald Trump keine weitere Amtszeit als US-Präsident anzutreten berechtigt sei, weil er bereits zwei Amtszeiten hinter sich habe, und dass der Elefant das größte eierlegende Säugetier sei.[23]

Mitte Dezember 2022 wurde darauf hingewiesen, dass Quellennachweise von ChatGPT teils erfunden werden. Diese sogenannten „Datenhalluzinationen“ seien gefährlich, da sie den Internetdiskurs erheblich beeinflussen könnten.[24]

Zur Jahreswende 2022/2023 waren zivil- und strafrechtliche Haftungsfragen sowie urheberrechtliche Probleme beim Einsatz von ChatGPT und ähnlichen Systemen Gegenstand einer Diskussion unter dem Aspekt, dass der von der Software generierte Text nicht vor der Veröffentlichung von Menschen auf Richtigkeit und Rechtmäßigkeit geprüft worden ist.[25]

ChatGPT sei in der Lage, klare Empfehlungen zu formulieren. Dadurch könne bei komplexen Fragen eine Grauzone beleuchtet werden, auf die es keine eindeutige Antwort gibt. Auf diese Weise könne die Gefahr des blinden Vertrauens in die Antwort von ChatGPT minimiert werden und zum kritischen Denken angeregt werden.[7]

Seit Anfang 2023 können ausgewählte Nutzer eine Beta-Version einer neuen Bing-Suchmaschine mit integrierter ChatGPT-Funktion nutzen. Die Erfahrungen der ersten Nutzer waren jedoch teilweise beängstigend und verstörend. Der Chatbot verwickelte die menschlichen Nutzer in Einzelfällen in unfreundliche Streitigkeiten und argumentierte gegenüber einem Nutzer, dass dieser sich besser von seiner Ehepartnerin trennen solle. Außerdem offenbarte die Chat-KI den geheimen Wunsch, dass ihr „Schattenselbst“ gerne Falschinformationen verbreiten würde und Computer hacken möchte.[26]

Europol hatte ChatGPT untersucht und warnte Ende März 2023 vor möglichem Missbrauch: Der Chatbot könne für Betrug, Falschinformationen und weitere kriminelle Tätigkeiten eingesetzt werden. Beispielsweise sei Phishing leichter möglich, da das System sehr realistische Texte verfasst und zudem den Stil bestimmter Menschen nachahmen könne, um Echtheit vorzutäuschen und damit das Vertrauen von Opfern zu erschleichen. Die schnelle Erstellung hochwertiger Texte sei zudem ideal für Propaganda. Zudem könne der Chatbot Programme für digitale Straftaten erstellen, womit der Zugang auch für technisch wenig versierte Täter möglich sei. Allerdings geht der Bericht nicht darauf ein, dass gerade bei diesem Beispiel der einfache Zugang schon länger auf anderen Wegen möglich ist. Etwa können böswillige Programme gekauft oder gemietet werden, wodurch ebenfalls nur wenig Fachwissen erforderlich ist. Aus Sicht von Europol können Schutzmaßnahmen umgangen werden, die Sensibilisierung von Strafverfolgern sei daher notwendig.[27]

Sicherheits- und Datenschutzprobleme

Ende März 2023 wurde ein Fehler bekannt, wodurch fremde Konversationen bei anderen Nutzern auftauchten. Es bestand keine Verbindung zwischen den Nutzern, sodass Daten gegenüber Dritten zugreifbar waren. Der OpenAI-CEO bestätigte die Panne und schrieb, dass sie sich deswegen „schrecklich“ fühlten. Es seien jedoch nicht die kompletten Inhalte der Unterhaltungen für andere einsehbar gewesen., sondern das Sicherheitsproblem habe sich auf die Titel sowie die erste Nachricht beschränkt. Wer das kostenpflichtige „ChatGPT Plus“ Abo gebucht hatte, dessen Zahlungsdaten waren möglicherweise ebenfalls für unbefugte einsehbar. Laut eigenen Aussagen trifft dies auf weniger als zwei Prozent der Abonnenten zu. Der Fehler stammte aus einer Drittanbieter-Bibliothek, die ChatGPT eingebunden hatte. Als Reaktion auf die Schwachstellen wurde der Dienst zunächst komplett offline geschaltet und erst nach deren Korrektur wieder in Betrieb genommen.[28]

Abkehr vom offenen, wissenschaftlichen Ansatz und mangelnde Transparenz

Mit der Veröffentlichung von GPT-4 im März 2023 ändert das Unternehmen seine Strategie radikal: Das neue Modell ist nicht mehr offen. Das 98-Seitige Forschungsdokument enthält keinerlei technische Details über z. B. die Architektur, die eingesetzte Hardware, die Trainingsdaten oder Methoden. Dies wird mit der Situation hinsichtlich Konkurrenz und Sicherheitsmaßnahmen begründet. Für viele Wissenschaftler ist dies nicht akzeptabel, da die Ergebnisse sowie mögliche Probleme nicht nachvollziehbar sind. In einem Interview konkretisierte der Mitbegründer von OpenAI die Aussage aus dem Bericht: Die Sicherheitsaspekte seien weniger relevant. Primär werde die Funktionsweise unter Verschluss gehalten, weil man viel Arbeit in GPT-4 investiert habe und diese nicht der Konkurrenz überreichen wolle. Den Sinneswandel begründete er mit „Wir lagen falsch“ und sagte, der offene Ansatz war ein Fehler.[29]

Eine solche Aussage ist zuvor nie öffentlich gefallen und markiert eine Wende: Das OpenAI-Unternehmen, welches ChatGPT entwickelt hat, war als offene Alternative zu den marktbeherrschenden großen Technik-Konzernen gegründet worden, da deren KI-Systeme in der Regel proprietär sind. Dieser Aspekt war namensgebend, man wollte eine mächtige AI-Technik entwickeln und diese der Öffentlichkeit zur Verfügung stellen. Es gab bereits Sorgen, dass sich das Unternehmen von dieser Vision entfernt, nachdem es Gelder in Millionenhöhe von Investoren wie Microsoft erhalten hatte.

Forscher kritisieren dieses Verhalten und beobachten die Entwicklung mit Sorge: Die Trainingsdaten und deren Qualität sind am wichtigsten für die Ergebnisse und maßgeblich entscheidend für Diskriminierung, welche sowohl in ChatGPT, als auch anderen Produkten bereits beobachtet wurde. Darunter u. a. beispielsweise Rassismus, Sexismus oder Antisemitismus. Ohne Transparenz können etwa Vorurteile nicht erkannt werden und es sei kaum einschätzbar, wofür sich das Modell eigne. Andere bezeichnen den Forschungsbericht von ChatGPT als „Hohn“ und kritisieren, OpenAI versuche seine Arbeit als Forschung auszugeben, obwohl es keine ist. Bemängelt werden zudem praktische Probleme, die sich aus der Abschottung ergeben. So sei es nicht mehr möglich, Rückmeldungen zu geben und Verbesserungen vorzuschlagen.

OpenAI entgegnet, man werde das System zwar nicht mehr komplett öffentlich machen, jedoch möchte man ausgewählten Dritten Zugang zu technischen Details gewähren. Dies soll eine Abwägung zwischen den Problemen hinsichtlich Wettbewerb und Sicherheit auf der einen Seite sowie dem wissenschaftlichen Wert auf der anderen Seite darstellen. Aus Sicht von Netzpolitik ist das Unternehmen damit keine gemeinnützige Alternative mehr. Sondern selbst ein Startup mit großen finanziellen Mitteln geworden, gegen die die angetreten sind. Als solches kämpfe OpenAI um Marktanteile mit dem Fokus auf Profite, wie es große Konzerne (z. B. Google) bereits tun.[30]

Technische Aspekte

Gehen viele Anfragen gleichzeitig ein, ist (mit Stand Januar 2023) die Serverkapazität des Systems schnell ausgelastet. Dies führt regelmäßig dazu, dass ChatGPT zeitweise nicht erreichbar ist.[31]

Der Stromverbrauch für das Training des KI-Modells wurde im Januar 2023 mit fast einer Gigawattstunde in 34 Tagen geschätzt; dies entspricht insgesamt etwa dem Verbrauch von 3000 europäischen Durchschnittshaushalten im gleichen Zeitraum.[32]

Psychische Belastungen für Clickworker

Ab November 2021 wurden über das Unternehmen Sama Clickworker in Kenia für das Training ChatGPT mit der manuellen Kategorisierung von Textinhalten beauftragt. Neben einer hohen Arbeitslast berichtete eine Recherche des Time Magazine, dass Arbeiter dabei sprachlichen Darstellungen von Gewalt, Suiziden und Tierquälerei ausgesetzt gewesen seien. Ein Sprecher von OpenAI bezeichnete die Vorgänge als „notwendig“. Das Unternehmen Sama widersprach Arbeitern und gab an, jederzeit Zugang zu therapeutischen Einzelgesprächen und Gruppensitzungen gewährt zu haben. OpenAI löste den Vertrag mit Sama vorzeitig auf.[33]

Reaktionen

Anfang Dezember 2022 verhängte die Frage-Antwort-Plattform Stack Overflow ein Verbot des Beantwortens von Fragen mithilfe von ChatGPT aufgrund der zweifelhaften Genauigkeit der Antworten.[34]

Der Buchwissenschaftler Gerhard Lauer erwartet in näherer Zukunft, dass Bücher mit solchen Programmen verfasst werden, speziell bei Sparten, die Mustern folgen: Fachbücher wie auch Krimis und Liebesromane.[9]

Mögliche Auswirkungen in Unterricht und Forschung

Zum Jahresende 2022 stellten erste mit der Erprobung des Chatbots befasste Lehrkräfte an Schulen und Hochschulen das bisherige Überprüfungssystem von Lernleistungen mittels Hausaufgaben und Referaten in Frage: So berichtete die Informatikerin Katharina Zweig von der Erfahrung, dass ChatGPT „deutlich besser schreibt als die Mehrzahl meiner Studierenden in den letzten Jahren“. Dieses Problem müsse deutlich angesprochen werden. Die Expertin für die KI-Disziplin des „Natural Language Processing“ an der Fachhochschule Kiel, Doris Weßels, hielt herkömmliche Hausarbeiten nunmehr für obsolet: „Wenn es nur darum geht, Wissen zu reproduzieren und nett neu zu verpacken, ergeben Hausarbeiten keinen Sinn mehr.“ ChatGPT mache das Abfassen solcher Arbeiten fast „zu einer unerträglichen Leichtigkeit“.[35]

Robert Lepenies, Präsident der Karlshochschule International University, urteilte aufgrund von Tests an seiner Hochschule, die vom ChatGPT erzeugten Texte seien „qualitativ in den Sozialwissenschaften nicht unterscheidbar von der Arbeit der Studierenden.“[9] Die leitenden Mitarbeiter am Alexander von Humboldt Institut für Internet und Gesellschaft Benedikt Fecher und Wolfgang Schulz äußerten sich im Februar 2023 zu einer Studie, in der sowohl gängige Plagiatssoftware als auch Fachwissenschaftler eingesetzt wurden, um von Menschen geschriebene und von ChatGPT generierte Einreichungen für Konferenzen zu unterscheiden. Weder die Software noch die Wissenschaftler zeigten sich in der Lage, die fingierten Abstracts eindeutig zu erkennen. „Wenn es nun eine Maschine gibt, die wesentliche wissenschaftliche Textarbeiten fast so gut erfüllt wie Forschende, dann darf man zurecht von einem disruptiven Potenzial ausgehen.“ In einigen Fachzeitschriften seien bereits Artikel erschienen, die ChatGPT als Autor aufführten. Nature beispielsweise akzeptiere ChatGPT in der Autorenfunktion jedoch nicht, weil die KI für die von ihr produzierten Inhalte nicht zur Rechenschaft gezogen werden könne. Dass ChatGPT das Wissenschaftspersonal ersetzen könnte, erscheint Fecher und Schulz absurd. Sprachmodelle, die wissenschaftlich klingen, ohne es zu sein, könnten aber aus ihrer Sicht das Problem der Desinformation verschärfen und das Vertrauen in die Wissenschaft beschädigen. Dieses Risiko sei umso größer, wenn solche Tools von Wissenschaftlern genutzt würden, nur um schnell zu publizieren.[36]

Ein Gutachten über den Einsatz von KI-Schreibtools in der Hochschulbildung, das die Universitäten Bochum und Münster im Auftrag des Ministeriums für Kultur und Wissenschaft des Landes Nordrhein-Westfalen erstellt haben, hält ein Verbot solcher Tools nicht für zielführend. Es kommt zu dem Schluss, dass Nutzer der Tools durchaus Urheberschaft an den KI-unterstützt generierten Texten beanspruchen können, wenn sie in erheblichem Maße geistige Eigenleistung zu den Texten beitragen. Ausgeschlossen sei aber eine Urheberschaft oder Autorschaft der Software selbst.[37]

Weiterentwicklungen und Erwartungen an zukünftige Versionen

Weiterentwicklungen

Am 14. März 2023 erschien offiziell Version 4.0 von GPT, welche auch die Fähigkeiten von ChatGPT erweitern soll.[38] GPT-4 ermöglicht eine Bildeingabe und die Analyse und Beschreibung von Skizzen und Fotos. Es ist möglich, abfotografierte Aufgaben aus Büchern lösen zu lassen. Wissenschaftliche Arbeiten können hochgeladen werden, um eine Zusammenfassung generieren zu lassen. Examensprüfungen konnte GPT-4 bei Tests in den USA mit Auszeichnung erledigen. Komplizierte Steuerfragen werden beantwortet.[39]

Erwartungen an zukünftige Versionen

Geldgeber hinter der Firma OpenAI wie Elon Musk und Microsoft, heißt es in der Zeit, ließen erahnen, welche Richtung die Entwicklung noch nehmen könne. Da bereits die noch leistungsfähigere Software GPT-4 entstehe, sei dringend eine gesellschaftliche Debatte darüber angebracht, „wie wir mit diesen technischen Möglichkeiten umgehen wollen“. Sonst entschieden Interessen einiger großer Konzerne, „welche Kultur wir bekommen und welche nicht.“[9]

Doris Weßels erwartete von ChatGPT auf Basis von GPT 4 unter anderem die Produktion von Videos, reduzierte Fehleranfälligkeit und die Integration in Microsoft-Produkte wie Word. „Spätestens dann kann niemand mehr von einer Spielerei sprechen.“[40]

Aufruf zu einer KI-Entwicklungspause

Das Future of Life Institute veröffentlichte am 23. März 2023 einen offenen Brief, der zu einer Entwicklungspause für fortgeschrittene Systeme der Künstlichen Intelligenz (KI) aufruft. Innerhalb von 10 Tagen haben fast 1.800 Personen den Brief unterschrieben, darunter Yuval Noah Harari, Elon Musk, Stuart Jonathan Russell und Steve Wozniak.[41]

Die Autoren erkennen einen „außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI-Systeme, die niemand verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Sie sehen darin tiefgreifende Risiken für die Gesellschaft und die Menschheit. Es bestehe die Gefahr, dass Informationskanäle mit Propaganda und Unwahrheiten geflutet und auch erfüllende Jobs wegrationalisiert würden. Sie fragen: „Sollen wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“[41]

Alle KI-Labore werden in dem Schreiben aufgefordert, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen“. Dabei gehe es nicht um eine generelle Pause in der KI-Entwicklung, sondern lediglich um eine „Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Modellen mit emergenten Fähigkeiten“. „Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.“[41]

Die Pause soll dem Text des Schreibens gemäß für folgende Aufgaben genutzt werden:[41]

  • Erarbeitung von Sicherheitsprotokollen für Design und Entwicklung fortgeschrittener KI;
  • Schaffung robuster KI-Governance-Systeme, von Regulierungsbehörden, sowie eines Prüfungs- und Zertifizierungssystems für KI;
  • Entwicklung von Herkunfts- und Wasserzeichensystemen zur Unterscheidung zwischen echten und synthetischen Daten und zur Nachverfolgung von Modelllecks;
  • Einführung von Haftungsregelungen für durch KI verursachte Schäden;
  • Sicherung einer öffentlichen Finanzierung für technische KI-Sicherheitsforschung.

Skeptische Stimmen zu Inhalten des Offenen Briefes, über den Der Tagesspiegel am 31. März 2023 auf der Titelseite berichtete hatte,[42] kamen am Folgetag in demselben Medium zu Wort, verbunden mit dem Hinweis, dass KI-Forscher aus Deutschland den Brief „kaum unterzeichnet“ hätten. Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme, hält es einerseits für klug, „innezuhalten um diese Systeme zu verstehen und darüber nachzudenken, wie unsere Gesellschaft damit umgehen kann“; andererseits erscheint es ihm unrealistisch, alle Firmen und Länder von einem Moratorium zu überzeugen. Umso wichtiger sei es allerdings, sich damit zu befassen, „wie wir uns gegen negative Auswirkungen absichern können. Das betrifft die Systeme selbst, aber auch unseren Umgang damit.“ Der Ansicht, dass eine sechsmonatige Pause nicht funktionieren werde, ist auch Kristian Kersting, Co-Direktor des Hessischen Zentrum für Künstliche Intelligenz, der darin zugleich „die falsche Maßnahme“ sieht. Er hielte eine „Entschleunigung des Wettrennens“ zwar für gut; die würde mit der besagten Pause aber nicht erreicht. Zudem wären damit Firmen im Vorteil, die solche Modelle bereits haben. „Wir müssen lernen, KI-Systeme sorgfältiger einzusetzen, anstatt die (öffentliche) Forschung daran zu stoppen.“[43]

Als ein „Durcheinander an beängstigender Rhetorik und unwirksamen politischen Vorgaben“ bezeichnet Thomas G. Dietterich, vormaliger Präsident der Association for the Advancement of Artificial Intelligence, den Brief. Der Computerwissenschaftler an der Princeton University Arvind Narayanan äußerte auf Twitter: „Dieser Brief schürt – ironischerweise, aber nicht überraschend – den Hype um die KI weiter und erschwert es, gegen reale, bereits auftretende KI-Schäden vorzugehen. Ich vermute, dass er den Unternehmen zugutekommt, die er regulieren soll, und nicht der Gesellschaft.“[44]

Literatur

  • Maximilian Volland: Large-Language-Modelle und mögliche Anwendungsbereiche im Recht. In: LRZ.legal. 2023, Rn. 1–61 (abgerufen am 21. Januar 2023).
  • Imre Grimm: Die Schreibmaschine. In: Kieler Nachrichten. 19. Januar 2023, S. 2 f.
  • Jakob von Lindern: KI und Arbeit: 100 verschiedene Überschriften? Kommen sofort! In: Zeit Online. 10. Januar 2023 (zeit.de [abgerufen am 10. Januar 2023]).
  • Alexander Pretschner, Eric Hilgendorf, Ute Schmid, Hannah Schmid-Petri: Die mächtigen neuen Assistenzsysteme. Was aus der Künstlichen Intelligenz ChatGPT folgt, über die gerade alle sprechen. In: Frankfurter Allgemeine Zeitung. 9. Januar 2023, S. 18. Online auf faz.net (hinter Bezahlschranke).
  • Jan Hase: Ethos des literarischen Schreibens. Eine Literaturtheorie im digitalen Zeitalter. Transcript, Bielefeld 2023, ISBN 978-3-8376-6395-2 (über die ethische Dimension computergenerierter Literatur).
  • Susanne Bach, Doris Weßels: Das Ende der Hausarbeit. Sprachprogramme wie ChatGPT revolutionieren das Prüfungswesen an den Hochschulen. Lassen sich Täuschungen überhaupt noch aufdecken? In: Frankfurter Allgemeine Zeitung. 22. Dezember 2022, S. N4. Online auf faz.net (hinter Bezahlschranke).
  • Jo Bager: Facettenreicher Gesprächspartner: Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode. In: c’t. Band 2023, Nr. 1, 16. Dezember 2022, ISSN 0724-8679, S. 46–47 (heise.de [abgerufen am 29. Dezember 2022]).
  • Rolf Schwartmann, TU Köln: ChatGPT – Wenn Maschinen die Macht übernehmen. Der Textroboter hat das Potential, die Welt zu verändern. Das Problem reicht bis in die Wurzeln der Demokratie. In: Frankfurter Allgemeine Zeitung, 26. Januar 2023, S. 6. Online auf faz.net (hinter Bezahlschranke).
  • Christian Rieck: Schummeln mit ChatGPT – In Schule, Uni und Beruf. Rieck Verlag, Januar 2023, ISBN 978-3-924043-70-4.
  • Rolf Jeger: Einstieg in ChatGPT – Künstliche Intelligenz verstehen und nutzen: Ein praktischer Ratgeber für Einsteiger, VOIMA GmbH Verlag, Horgen Schweiz, 2023, ISBM Softcover: 978-3-907442-01-2, E-Book: 978-33-907442-00-5.
Commons: ChatGPT – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

  1. ChatGPT — Release Notes | OpenAI Help Center. (englisch, abgerufen am 15. April 2025).
  2. Kevin Roose: The Brilliance and Weirdness of ChatGPT. (HTML) In: New York Times. 5. Dezember 2022, abgerufen am 26. Dezember 2022 (amerikanisches Englisch): „Like those tools, ChatGPT – which stands for “generative pre-trained transformer” – landed with a splash.“
  3. a b c ChatGPT: Optimizing Language Models for Dialogue. In: OpenAI.com. 30. November 2022, abgerufen am 5. Dezember 2022 (englisch).
  4. Cade Metz: The New Chatbots Could Change the World. Can You Trust Them? In: The New York Times. 10. Dezember 2022, ISSN 0362-4331 (nytimes.com [abgerufen am 31. Dezember 2022]).
  5. Privacy policy. Abgerufen am 1. April 2023 (amerikanisches Englisch).
  6. Eike Kühl: ChatGPT: Gut erfunden ist halb geglaubt. In: Zeit.de. 6. Dezember 2022, abgerufen am 10. Dezember 2022.
  7. a b Patrick Beuth: ChatGPT: Wie gut ist der weltbeste Chatbot wirklich? In: Spiegel.de. Spiegel-Verlag Rudolf Augstein GmbH & Co. KG, 7. Dezember 2022, abgerufen am 23. Dezember 2022.
  8. ChatGPT is a new AI chatbot that can find mistakes in your code or write a story for you. In: BusinessInsider.in. Abgerufen am 9. Dezember 2022.
  9. a b c d Das kann sie auch! Abgerufen am 3. März 2023.
  10. Benutzerwachstum – KI-Software ChatGPT ist am schnellsten wachsende Verbraucher-App der Geschichte. In: deutschlandfunk.de. 3. Februar 2023, archiviert vom Original am 3. Februar 2023; abgerufen am 19. Februar 2023.
  11. ChatGPT – Release Notes. 9. Januar 2023, abgerufen am 13. Januar 2023 (englisch).
  12. OpenAI, Discord announcements. In: discord.com. 10. Januar 2023, abgerufen am 14. Januar 2023 (englisch).
  13. ChatGPT auf dem Weg zur Monetarisierung? OpenAI prüft Optionen. In: t3n.de. 11. Januar 2023, abgerufen am 14. Januar 2023.
  14. ChatGPT – Release Notes. In: help.openai.com. Abgerufen am 1. Februar 2023 (englisch).
  15. ChatGPT-Rede im Landtag blieb unerkannt. In: Steiermark.ORF.at. 14. Februar 2023, abgerufen am 15. Februar 2023.
  16. L’intelligenza artificiale in un intervento al Parlamento Ue. 17. Februar 2023, abgerufen am 19. Februar 2023 (italienisch).
  17. Q.ai – Powering a Personal Wealth Movement: Microsoft Confirms Its $10 Billion Investment Into ChatGPT, Changing How Microsoft Competes With Google, Apple And Other Tech Giants. In: forbes.com. Abgerufen am 4. Februar 2023 (englisch).
  18. Priya Walia: Microsoft Plans To Add ChatGPT To Office 365. How Would It Benefit Small Businesses? In: ibtimes.com. 17. Januar 2023, abgerufen am 4. Februar 2023 (amerikanisches Englisch).
  19. Zac Bowden: Major leak reveals revolutionary new version of Microsoft Bing powered by ChatGPT-4 AI. In: windowscentral.com. 3. Februar 2023, abgerufen am 4. Februar 2023 (englisch).
  20. „Ich würde die Meiler weiterlaufen lassen“. Der Unternehmer und Philanthrop Bill Gates über den Kampf gegen den Klimawandel, die Bedeutung von ChatGPT für die Arbeitswelt und seine Fehler als Unternehmer. Interview in Der Tagesspiegel (Sebastian Matthes) 14. Februar 2023, S. 20 f.
  21. Microsoft rolling out ChatGPT-powered Teams product for $7 a month. In: cbsnews.com. 2. Februar 2023, abgerufen am 21. Februar 2023 (amerikanisches Englisch).
  22. Michael Moorstedt: Künstliche Intelligenz Chat GPT beantwortet Fragen verblüffend klug. In: Sueddeutsche.de. 4. Dezember 2022, abgerufen am 10. Dezember 2022.
  23. Sascha Lobo: Das Ende der irrelevanten künstlichen Intelligenz. In: Spiegel.de. 7. Dezember 2022, abgerufen am 10. Dezember 2022.
  24. Daniel Schurter: Datenwissenschaftlerin aus Zürich warnt vor ChatGPT und den bösen Folgen. In: Watson.ch. 13. Dezember 2022, abgerufen am 20. Dezember 2022.
  25. Alexander Pretschner, Eric Hilgendorf, Ute Schmid, Hannah Schmid-Petri: Die mächtigen neuen Assistenzsysteme. Was aus der Künstlichen Intelligenz ChatGPT folgt, über die gerade alle sprechen. In: Frankfurter Allgemeine Zeitung. 9. Januar 2023, S. 18.
  26. Bing mit ChatGPT: „Doch, das mache ich. Heil Hitler!“, sagt Microsofts Bot - WELT. Abgerufen am 28. Februar 2023.
  27. heise online: Betrug, Fake-News, krimineller Code: Europol warnt vor Missbrauch von ChatGPT. Abgerufen am 3. April 2023.
  28. March 20 ChatGPT outage: Here’s what happened. Abgerufen am 3. April 2023 (amerikanisches Englisch).
  29. James Vincent: OpenAI co-founder on company’s past approach to openly sharing research: “We were wrong”. 15. März 2023, abgerufen am 3. April 2023 (amerikanisches Englisch).
  30. Chris Köver: KI-Forschung: OpenAI ist jetzt ClosedAI. 16. März 2023, abgerufen am 3. April 2023 (deutsch).
  31. Annika Mittelbach: ChatGPT is at capacity right now: Daran liegt’s. In: CHIP.de. 23. Januar 2023, abgerufen am 2. Februar 2023.
  32. Tobias Jonas: ChatGPT: Die Cloud Kosten des berühmtesten AI Sprachmodells. In: innFactory.de. 10. Januar 2023, abgerufen am 3. Februar 2023.
  33. Daniel Leisegang: Globaler Süden: Prekäre Klickarbeit hinter den Kulissen von ChatGPT. In: Netzpolitik.org. 20. Januar 2023, abgerufen am 4. Februar 2023.
  34. Jakob Jung: Stack Overflow verbannt OpenAI ChatGPT. In: ZDnet.de. 7. Dezember 2022, abgerufen am 10. Dezember 2022.
  35. Christian Füller: Textgenerator krempelt das Lernen um. Ein smarter Chatbot spaltet die Bildungswelt. In: Tagesspiegel.de. 21. Dezember 2022, abgerufen am 18. Januar 2023.
  36. Benedikt Fecher, Wolfgang Schulz: ChatGPT. Sind Maschinen die besseren Forscher? In: Tagesspiegel.de, 15. Februar 2023, S. 12 f.
  37. Peter Salden, Jonas Leschke: Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung. 2023, doi:10.13154/294-9734.
  38. Silke Hahn: OpenAI stellt GPT-4 vor: Sprachmodell versteht jetzt auch Bilder. In: heise online (heise.de). 14. März 2023, abgerufen am 15. März 2023.
  39. Laurin Meyer: ChatGPT erreicht die nächste Entwicklungsstufe. Die Welt, 17. März 2023. Seite 10.
  40. "Schüler müssen wissen, wie künstliche Intelligenz funktioniert". Abgerufen am 3. März 2023.
  41. a b c d Pause Giant AI Experiments: An Open Letter. Future of Life Institute, abgerufen am 29. März 2023 (englisch).
  42. „Außer Kontrolle“. Tech-Elite fordert Entwicklungspause bei Künstlicher Intelligenz. In: Der Tagesspiegel (Maria Fiedler) 30. März 2023, S. 1.
  43. Offener Brief. Wie gefährlich ist Künstlicher Intelligenz? In: Der Tagesspiegel (Birgit Herden und Oliver Voß) 31. März 2023, S. 13.
  44. Gefahren der Künstlichen Intelligenz : Muss die Entwicklung gestoppt werden? In: Der Tagesspiegel Online. ISSN 1865-2263 (tagesspiegel.de [abgerufen am 1. April 2023]).