„Künstliche Intelligenz“ – Versionsunterschied
[ungesichtete Version] | [gesichtete Version] |
K Link raus, die Seite ist grauenhaft, enthält keine Informationen, stattdessen haufenweise Rechtschreib- und Grammatikfehler |
|||
Zeile 1: | Zeile 1: | ||
'''Künstliche Intelligenz''' ( |
'''Künstliche Intelligenz''' ('''KI'''), [[Englische Sprache|englisch]] ''artificial intelligence'', daher auch '''artifizielle Intelligenz''' ('''AI'''), ist ein Teilgebiet der [[Informatik]], das sich mit der [[Automatisierung]] intelligenten Verhaltens und dem [[Maschinelles Lernen|maschinellen Lernen]] befasst. Der Begriff ist schwierig zu definieren, da es verschiedene [[Definition]]en von [[Intelligenz]] gibt. |
||
== Eigenschaften von Intelligenz == |
|||
Im Verständnis des Begriffs ''künstliche Intelligenz'' spiegelt sich oft die aus der [[Zeitalter der Aufklärung|Aufklärung]] stammende <!-- (beispielsweise [[1748]] von [[Julien Offroy de la Mettrie|Mettrie]]) --> [[Vorstellung]] vom ''Menschen als Maschine'' wieder, dessen Nachahmung sich die sogenannte '''starke KI''' zum Ziel setzt: eine Intelligenz zu erschaffen, die wie der Mensch nachdenken und Probleme lösen kann und die sich durch eine Form von [[Bewusstsein]] beziehungsweise [[Selbstbewusstsein]] sowie [[Emotion]]en auszeichnet. Die Ziele der starken KI sind nach Jahrzehnten der Forschung illusionär und vom technischen Fortschritt unbeeindruckt geblieben. |
|||
Versuchsweise wird Intelligenz definiert als die Eigenschaft, die ein Wesen befähigt, angemessen und vorausschauend in seiner Umgebung zu agieren. Dazu gehören die Fähigkeiten: |
|||
* Umgebungsdaten wahrzunehmen, d. h. Sinneseindrücke zu haben und darauf zu reagieren, |
|||
* Informationen: |
|||
** aufzunehmen, |
|||
** zu verarbeiten und |
|||
** als Wissen zu speichern, |
|||
* Sprache: |
|||
** zu verstehen und |
|||
** zu erzeugen, |
|||
* Probleme zu lösen und |
|||
* Ziele zu erreichen. |
|||
Praktische Erfolge der KI werden schnell in die Anwendungsbereiche integriert und zählen dann nicht mehr zur KI. |
|||
Im Gegensatz zur starken KI geht es der '''schwachen KI''' darum, konkrete Anwendungsprobleme zu meistern. Insbesondere sind dabei solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von „Intelligenz“ notwendig zu sein scheint. Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis von Intelligenz. Während die starke KI an ihrer [[philosophie|philosophischen]] Fragestellung bis heute scheiterte, sind auf der Seite der ''schwachen KI'' in den letzten Jahren bedeutende Fortschritte erzielt worden. |
|||
== Begriffsherkunft und Definitionsversuche == |
|||
Neben den Forschungsergebnissen der Kerninformatik selbst sind in die KI Ergebnisse der [[Psychologie]] und [[Neurologie]], [[Mathematik]] und [[Logik]], [[Kommunikationswissenschaft]], [[Philosophie]] und [[Allgemeine Linguistik|Linguistik]] eingeflossen. |
|||
Der Begriff ''artificial intelligence'' (''künstliche Intelligenz'') wurde 1955 geprägt von dem US-amerikanischen Informatiker [[John McCarthy]] im Rahmen eines Förderantrags an die [[Rockefeller-Stiftung]] für das [[Dartmouth Conference|Dartmouth Summer Research Project on Artificial Intelligence]], einem Forschungsprojekt, bei dem sich im Sommer 1956 eine Gruppe von 10 Wissenschaftlern über ca. 8 Wochen mit der Thematik befasste.<ref>{{Internetquelle |url=http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html |titel=A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE |datum=2008-09-30 |sprache=en-US |abruf=2023-05-03}}</ref><ref name="Spektrum_Lexikon_Neuro">{{Internetquelle |url=https://www.spektrum.de/lexikon/neurowissenschaft/kuenstliche-intelligenz/6810 |titel=Lexikon der Neurowissenschaften: Künstliche Intelligenz |werk=Spektrum der Wissenschaft |sprache=de |abruf=2021-07-18}}</ref> |
|||
Die Beeinflussung der Neurologie hat sich in der Ausbildung des Bereichs [[Neuroinformatik]] gezeigt, der der bioorientierten Informatik zugeordnet ist. Zusätzlich ist auch der ganze Zweig der [[Kognitionswissenschaft]] zu nennen, welcher sich wesentlich auf die Ergebnisse der künstlichen Intelligenz in Zusammenarbeit mit der kognitiven Psychologie stützt. |
|||
Es existieren zahlreiche Definitionen für den Begriff der KI. Je nach Sichtweise wird die künstliche Intelligenz in Industrie, Forschung und Politik entweder über die zu erzielenden Anwendungen oder den Blick auf die wissenschaftlichen Grundlagen definiert: |
|||
== Teilgebiete der KI == |
|||
{{Zitat |
|||
Es werden mindestens vier Intelligenzarten unterschieden: |
|||
|Text=Künstliche Intelligenz ist die Eigenschaft eines IT-Systems, ‚menschenähnliche‘, intelligente Verhaltensweisen zu zeigen. |
|||
|Autor=Bitkom e. V. und Deutsches Forschungszentrum für künstliche Intelligenz |
|||
|ref=<ref>{{Internetquelle |url=https://www.dfki.de/fileadmin/user_upload/import/9744_171012-KI-Gipfelpapier-online.pdf |titel=Künstliche Intelligenz |werk=dfki.de |hrsg=Bitkom e. V. und Deutsches Forschungszentrum für künstliche Intelligenz |datum=2017 |seiten=28 |format=PDF |abruf=2021-07-18}}</ref>}} |
|||
{{Zitat |
|||
|Text=Die künstliche Intelligenz [...] ist ein Teilgebiet der Informatik, welches sich mit der Erforschung von Mechanismen des intelligenten menschlichen Verhaltens befasst [...]. |
|||
|Autor=Spektrum der Wissenschaft, Lexikon der Neurowissenschaften |
|||
|Quelle= |
|||
|ref=<ref name="Spektrum_Lexikon_Neuro" />}} |
|||
{{Zitat |
|||
|Text=Unter künstlicher Intelligenz (KI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken. |
|||
|Autor=Microsoft Corp. |
|||
|ref=<ref>{{Internetquelle |url=https://news.microsoft.com/de-de/einfach-erklaert-was-ist-kuenstliche-intelligenz/ |titel=Microsoft erklärt: Was ist künstliche Intelligenz? Definition & Funktionen von KI {{!}} News Center Microsoft |datum=2020-03-04 |sprache=de-DE |abruf=2021-07-18}}</ref>}} |
|||
{{Zitat |
|||
|Text=Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. |
|||
|Autor=Europäisches Parlament (Webseite) |
|||
|ref=<ref>{{Internetquelle |url=https://www.europarl.europa.eu/news/de/headlines/society/20200827STO85804/was-ist-kunstliche-intelligenz-und-wie-wird-sie-genutzt |titel=Was ist künstliche Intelligenz und wie wird sie genutzt? {{!}} Aktuelles {{!}} Europäisches Parlament |datum=2020-09-14 |sprache=de |abruf=2021-07-18}}</ref>}} |
|||
Die Definitionen für künstliche Intelligenz lassen sich nach [[Stuart J. Russell]] und [[Peter Norvig]] in vier Kategorien einteilen:<ref>{{Literatur |Autor=[[Stuart Russell|Stuart J. Russell]], [[Peter Norvig]] |Titel=Künstliche Intelligenz: Ein moderner Ansatz |Verlag=Pearson Studium |Ort=Berkeley |Datum=2004 |ISBN=3-8273-7089-2 |Sprache=de |Originaltitel=Artificial Intelligence: A Modern Approach |Originalsprache=en}}</ref> |
|||
# Visuelle Intelligenz |
|||
* Nachbildung von menschlichem Denken |
|||
# Sprachliche Intelligenz |
|||
* Nachbildung von rationalem Denken |
|||
# Manipulative Intelligenz |
|||
* Nachbildung von menschlichem Verhalten |
|||
# Rationale Intelligenz |
|||
* Nachbildung von rationalem Verhalten |
|||
=== EU-rechtliche Definition === |
|||
Des Weiteren kommen, je nach Differenzierungsgrad, solche Intelligenztypen wie [[emotionale Intelligenz]] hinzu. |
|||
Die [[Verordnung über künstliche Intelligenz|KI-Verordnung]] der [[Europäische Union|EU]] definiert in Artikel 3 (Begriffsbestimmungen) ein „KI-System“ wie folgt: |
|||
Entsprechend der vier Intelligenzarten sind zurzeit vier Teilgebiete in der Entwicklung: |
|||
{{Zitat|Für die Zwecke dieser Verordnung bezeichnet der Ausdruck […] ‚KI-System‘ ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können|ref=<ref name=":2">{{Literatur |Titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz […] (Verordnung über künstliche Intelligenz) |Datum=2024-06-13 |Online=https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32024R1689 |Abruf=2024-12-11}}</ref>}} |
|||
Diese Definition wird im Erwägungsgrund 12 etwas allgemeinverständlicher eingeordnet.<ref name=":2" /> |
|||
==== Alltagstaugliche Definitionen ==== |
|||
# Der Bereich der [[Mustererkennung]] machte Geräte möglich, die Bilder beziehungsweise [[Form]]en erkennen können, beispielsweise Fingerabdrücke bei der Verbrechensbekämpfung, die menschliche [[Iris]] bei der Personenidentifizierung, Werkstücke bei der maschinellen Fertigung. |
|||
Um ein System im Alltag konkret als „KI“ oder „nicht KI“ einordnen zu können, ist in vielen Unternehmen eine Annäherung über möglichst konkrete und verständliche Kriterien notwendig. Diese werden z. B. von IT- und [[IT-Compliance|Compliance]]-[[Stakeholder|Stakeholdern]] erarbeitet, stehen im Kontext vorhandener Informationssicherheits, Compliance- und/oder Risiko[[Managementsystem|management-Systeme]] und orientieren sich - Stand Dezember 2024 - beispielsweise an folgenden Definitionen: |
|||
# Man kann heutzutage per Computer einen eingegebenen Text in Sprache umwandeln und umgekehrt Sprache als Text einlesen. Die [[Sprachsynthese]] und [[Spracherkennung]] kann als Schnittstelle zwischen Computer und Mensch fungieren. |
|||
# In der Fabrikationstechnik werden zunehmend frei programmierbare [[Automat]]en eingesetzt, die gefährliche Arbeiten übernehmen und beispielsweise Schweiß- und Lackierarbeiten oder eintönige „Handgriffe“ durchführen. |
|||
# Computer, die in diesen Bereichen eingesetzt werden heißen [[Expertensysteme]]. Solche Expertensysteme basieren auf einer [[Datenbank]], in der Fachwissen gespeichert ist. Darauf basierend kann das System, zusammen mit dem Anwender, Fachaufgaben lösen. Wichtig ist, dass jede Schlussfolgerung des Programmes von diesem an Hand der vorher eingespeicherten Fakten begründet werden kann. Sie werden zurzeit in folgenden Bereichen mit Erfolg eingesetzt: |
|||
#* medizinische Computerdiagnose |
|||
#* Fehlersuch- und Fehlerbehebungsprogramme |
|||
#* industrielle Großfertigung, beim Militär, zivile Luftfahrt, Verkehrswesen. |
|||
* Ein System wird als „KI-System“ eingestuft, wenn es mindestens eine [[Softwarekomponente|Komponente]] enthält, deren Ausgaben auf Verarbeitungs- bzw. Entscheidungsmustern beruhen, die sie zuvor in einer Lernphase auf Basis großer Datenmengen selbst generiert hat. |
|||
Der Grundgedanke ist es, zu untersuchen, unter welchen Bedingungen Computer Verhaltensweisen von Lebewesen, die auf Intelligenz beruhen, nachvollziehen können. Forschungsbereiche hierzu sind z. B. die Robotik, die Wissensverarbeitung und die Spracherkennung. |
|||
* Ebenfalls als eindeutiges Merkmal gilt, dass die Ausgabe eines KI-Systems zu einer spezifischen Eingabe nicht alleine über [[Programmierung]], [[Konfiguration (Computer)|Konfiguration]] und [[Parameter (Informatik)|Parametrisierung]] vorhergesagt werden kann, sondern bestenfalls auf Basis der Daten, mit denen das System angelernt wurde. Hier liegt ein [[Risikomanagement|risikobasierter]] Ansatz zugrunde, da die KI-Komponente als [[Black Box (Systemtheorie)|Black Box]] eingestuft wird, deren innere Funktionsweise nicht transparent ist. (Vgl. [[Black-Box-Test]]) |
|||
Diese Annäherungen können sowohl auf generative als auch auf prädiktive KI angewendet werden. |
|||
== Methoden der KI == |
|||
Die Methoden der KI lassen sich grob in zwei Dimensionen einordnen: Symbolische vs. Neuronale KI und Simulationsmethode vs. phänomenologische Methode. Die Zusammenhänge veranschaulicht die folgende Graphik: |
|||
Ein Non-KI-System, in dessen Algorithmen ein zuvor woanders erlerntes KI-Verarbeitungsmuster integriert ist, wird aufgrund der Risiken, die sich aus der o. g. Intransparenz ergeben, derzeit meist ebenfalls als KI-System eingeordnet. Dies betrifft beispielsweise die Mehrfachverwendung eines allgemeinen [[Large Language Model|LLM]]-Modells in unterschiedlichen fachlichen Kontexten. (Stand Dezember 2024) |
|||
[[Bild:Ki-methoden.png|Zur Einordnung von KI-Methoden und ihren Zusammenhängen]] |
|||
Der Vorteil der vorgenannten Annäherungen liegt darin, dass sie die Unschärfen des „Intelligenz“-Begriffs sowie Interpretationsspielräume der o. g. EU-Verordnung vermeiden, indem ausschließlich bekannte technische Aspekte der in Frage kommenden Systeme zugrunde gelegt werden: Für jeden [[Quelltext|Quellcode]] ([[White-Box-Test|White Box]]) kann eine eindeutige Aussage abgeleitet werden, ob eine Lernfähigkeit (z. B. nach Art der unten aufgeführten Methoden) eingebaut ist oder nicht. Ist der Quellcode nicht einsehbar, kann der Hersteller/Programmierer konsultiert werden. |
|||
Die Neuronale KI verfolgt einen [[bottom-up]]-Ansatz und möchte das menschliche Gehirn möglichst präzise nachbilden. Die Symbolische KI verfolgt umgekehrt einen [[top-down]]-Ansatz und nähert sich den Intelligenzleistungen von einer begrifflichen Ebene her. Die Simulationsmethode orientiert sich so nah wie möglich an den tatsächlichen kognitiven Prozessen des Menschen. Dagegen kommt es dem phänomenologischen Ansatz nur auf das Ergebnis an. |
|||
Unterscheidungsbeispiel: |
|||
Viele ältere Methoden, die in der KI entwickelt wurden, basieren auf [[Heuristik|heuristischen]] Lösungsverfahren. In jüngerer Zeit spielen mathematisch fundierte Ansätze aus der [[Statistik]], der [[Optimierung (Mathematik)|Mathematischen Programmierung]], und der [[Approximationstheorie]] eine bedeutende Rolle. |
|||
* Ein [[Navigationssystem]] ist ein KI-System, wenn es anhand von Daten zu einer [[Teilmenge]] aller möglichen Fahrten „angelernt“ wurde, für ''jede'' mögliche Fahrt die schnellste Route zu finden. |
|||
* Ein Navigationssystem ist kein KI-System, wenn es die schnellste Route aufgrund unveränderlicher*, mindestens dem Hersteller/Programmierer bekannter Algorithmen und einer zuvor nach ebenso bekannten Regeln optimierten, unveränderlichen* Datenbank ermittelt. (*unveränderlich mit Ausnahme herkömmlicher [[Softwareaktualisierung|Updates]], z. B. für Sicherheit, Effizienzverbesserungen, neue Funktionen und Kartenaktualisierungen) |
|||
Im vorgenannten Beispiel liegt der Fokus auf der Routenfindung. Eine ggf. vorgeschaltete Sprachsteuerung wäre separat zu betrachten. |
|||
=== Metaphorik === |
|||
Der Diskurs über KI ist stark von einer metaphorischen Sprache geprägt<ref>{{Literatur |Autor=Matthijs M Maas |Titel=AI is Like… A Literature Review of AI Metaphors and Why They Matter for Policy |Sammelwerk=AI Foundations Report 2 |Datum=2023 |DOI=10.2139/ssrn.4612468}}</ref><ref>{{Literatur |Autor=Salena Sampson Anderson |Titel=“Places to stand”: Multiple metaphors for framing ChatGPT's corpus |Sammelwerk=Computers and Composition |Band=68 |Datum=2023-06-01 |ISSN=8755-4615 |Seiten=102778 |Online=https://www.sciencedirect.com/science/article/pii/S8755461523000294 |Abruf=2025-01-08 |DOI=10.1016/j.compcom.2023.102778}}</ref><ref name="ReferenceA">{{Literatur |Autor=Melanie Mitchell |Titel=The metaphors of artificial intelligence |Sammelwerk=Science |Band=386 |Nummer=6723 |Datum=2024-11-14 |Seiten=eadt6140 |DOI=10.1126/science.adt6140}}</ref>. Begriffe wie ''künstliche Intelligenz'' und ''maschinelles Lernen'' sind selbst [[Anthropomorphismus|anthropomorphe]] [[Metapher]]n, die auf die menschliche Kognition anspielen. |
|||
Eine weitere gängige Metapher ist die [[Black Box (Systemtheorie)|Black Box]], die die Intransparenz vieler KI-Systeme beschreibt<ref>{{Literatur |Autor=Warren J. von Eschenbach |Titel=Transparency and the Black Box Problem: Why We Do Not Trust AI |Sammelwerk=Philosophy & Technology |Band=34 |Nummer=4 |Datum=2021-12-01 |ISSN=2210-5441 |Seiten=1607–1622 |DOI=10.1007/s13347-021-00477-0}}</ref>. Im wissenschaftlichen Diskurs werden große Sprachmodelle auch als ''stochastische Papageien'' bezeichnet, um darauf hinzuweisen, dass sie Texte erzeugen, ohne den Inhalt wirklich zu verstehen<ref>{{Literatur |Autor=Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell |Titel=On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 |Sammelwerk=Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency |Reihe=FAccT '21 |Verlag=Association for Computing Machinery |Ort=New York, NY, USA |Datum=2021 |ISBN=978-1-4503-8309-7 |Seiten=610–623 |DOI=10.1145/3442188.3445922}}</ref>. Der Autor Ted Chiang vergleicht [[Sprachmodell|große Sprachmodelle]] mit einem unscharfen [[JPEG]] aus dem Netz, um Kompressionsmechanismen zu veranschaulichen<ref>{{Literatur |Autor=Ted Chiang |Titel=ChatGPT Is a Blurry JPEG of the Web |Sammelwerk=The New Yorker |Datum=2023-02-09 |ISSN=0028-792X |Online=https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web |Abruf=2025-01-08}}</ref>. |
|||
Anthropomorphe Metaphern sind umstritten, da sie ein übertriebenes oder verzerrtes Bild von KI-Systemen vermitteln können.<ref>{{Literatur |Autor=Arleen Salles, Kathinka Evers, Michele Farisco |Titel=Anthropomorphism in AI |Datum=2020-04-02 |ISSN=2150-7740 |Seiten=88–95 |Sprache=en |DOI=10.1080/21507740.2020.1740350}}</ref><ref>{{Literatur |Autor=Adriana Placani |Titel=Anthropomorphism in AI: hype and fallacy |Sammelwerk=AI and Ethics |Band=4 |Nummer=3 |Datum=2024-08-01 |ISSN=2730-5961 |Seiten=691–698 |DOI=10.1007/s43681-024-00419-4}}</ref> Alternativ diskutieren Forscher und Journalisten Metaphern wie KI als Werkzeuge,<ref>{{Literatur |Autor=Lucinda McKnight, Cara Shipp |Titel=“Just a tool”? Troubling language and power in generative AI writing |Sammelwerk=English Teaching: Practice & Critique |Band=23 |Nummer=1 |Datum=2024-01-01 |ISSN=1175-8708 |Seiten=23–35 |DOI=10.1108/ETPC-08-2023-0092}}</ref> Spiegel,<ref>Shannon Vallor: The AI Mirror, Oxford University Press, 2024, ISBN 978-0-19-775906-6</ref> Tiere, Organismen oder Naturphänomene.<ref>{{Literatur |Autor=Anuj Gupta, Yasser Atef, Anna Mills, Maha Bali |Titel=Assistant, Parrot, or Colonizing Loudspeaker? ChatGPT Metaphors for Developing Critical AI Literacies |Sammelwerk=Open Praxis |Band=16 |Nummer=1 |Datum=2024-02-02 |ISSN=1369-9997 |DOI=10.55982/openpraxis.16.1.631}}</ref> Die Wahl einer Metapher beeinflusst nicht nur das öffentliche Verständnis von KI<ref name="ReferenceA"/>, sondern spielt auch eine Rolle in der Gesetzgebung<ref>{{Literatur |Titel=What if we chose new metaphors for artificial intelligence? {{!}} Think Tank {{!}} European Parliament |Datum= |Online=https://www.europarl.europa.eu/thinktank/en/document/EPRS_ATA(2021)690024 |Abruf=2025-01-08}}</ref>, Regulierung<ref>{{Literatur |Autor=Matthijs M. Maas |Titel=AI is Like… A Literature Review of AI Metaphors and Why They Matter for Policy |Sammelwerk=AI Foundations Report 2 |Datum=2023 |DOI=10.2139/ssrn.4612468}}</ref> und wissenschaftlichen Forschung<ref>{{Literatur |Autor=Francesco Bianchini |Titel=Evaluating Intelligence and Knowledge in Large Language Models |Sammelwerk=Topoi |Datum=2024-08-01 |ISSN=1572-8749 |DOI=10.1007/s11245-024-10072-5}}</ref>. |
|||
== Starke und schwache KI == |
|||
{{Belege fehlen}} |
|||
Starke KI wären [[Kognitives System|kognitive Systeme]], die auf Augenhöhe mit Menschen die [[Arbeit (Philosophie)#Aufhebung des Arbeitsbegriffs seit Mitte des 20. Jahrhunderts|Arbeit]] zur Erledigung schwieriger Aufgaben übernehmen können. Demgegenüber geht es bei ''schwacher KI'' darum, konkrete Anwendungsprobleme zu meistern. Das menschliche Denken und technische Anwendungen sollen hier in Einzelbereichen unterstützt werden.<ref name="Nilsson-2009" /> |
|||
Die Fähigkeit zu lernen ist eine Hauptanforderung an KI-Systeme und muss ein integraler Bestandteil sein, der ''nicht erst nachträglich'' hinzugefügt werden darf. Ein zweites Hauptkriterium ist die Fähigkeit eines KI-Systems, mit Unsicherheiten und [[Wahrscheinlichkeit]]en (sowie mit ''[[Probabilismus|probabilistischen]] Informationen'') umzugehen.<ref name=":0">[[Nick Bostrom]]: ''Superintelligenz. Szenarien einer kommenden Revolution.'' Suhrkamp, 2016, S. 42.</ref> |
|||
Insbesondere sind solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von „Intelligenz“ notwendig zu sein scheint.<ref>{{Internetquelle |url=https://www.itwm.fraunhofer.de/de/abteilungen/fm/aktuelles/blog/ki-maschinelles-lernen-blog.html |titel=Blog-Beitrag: Was ist Künstliche Intelligenz und was ist Maschinelles Lernen? |sprache=de |abruf=2025-03-16}}</ref> |
|||
Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung von [[Bewusstsein]] oder um ein tieferes Verständnis von Intelligenz. Während die Schaffung starker KI an ihrer [[Philosophie|philosophischen]] Fragestellung bis heute scheiterte, sind auf der Seite der ''schwachen KI'' in den letzten Jahren bedeutende Fortschritte erzielt worden. |
|||
Ein starkes KI-System muss nicht viel mit dem Menschen gemeinsam haben. Es wird wahrscheinlich eine andersartige kognitive Architektur aufweisen und auch in seinen Entwicklungsstadien nicht mit den evolutionären kognitiven Stadien des menschlichen Denkens vergleichbar sein ([[Evolution des Denkens]]). Vor allem ist nicht anzunehmen, dass eine künstliche Intelligenz Gefühle wie Liebe, Hass, Angst oder Freude besitzt.<ref name=":1">Nick Bostrom: ''Superintelligenz. Szenarien einer kommenden Revolution.'' Suhrkamp, Frankfurt am Main. 2016, S. 50 f.</ref> |
|||
== Forschungsgebiete == |
|||
Neben den Forschungsergebnissen der Kerninformatik selbst sind in die Erforschung der KI Ergebnisse der [[Psychologie]], [[Neurologie]] und [[Neurowissenschaften]], der [[Mathematik]] und [[Logik]], [[Kommunikationswissenschaft]], [[Philosophie]] und [[Allgemeine Linguistik|Linguistik]] eingeflossen. Umgekehrt nahm die Erforschung der KI auch ihrerseits Einfluss auf andere Gebiete, vor allem auf die Neurowissenschaften. Dies zeigt sich in der Ausbildung des Bereichs der [[Neuroinformatik]], der der biologieorientierten Informatik zugeordnet ist, sowie der [[Computational Neuroscience]]. |
|||
Bei [[Künstliches neuronales Netz|künstlichen neuronalen Netzen]] handelt es sich um Techniken, die ab Mitte des 20. Jahrhunderts entwickelt wurden und auf der [[Neurophysiologie]] aufbauen. |
|||
KI stellt somit kein geschlossenes Forschungsgebiet dar. Vielmehr werden Techniken aus verschiedenen Disziplinen verwendet, ohne dass diese eine Verbindung miteinander haben müssen. |
|||
Eine wichtige Tagung ist die [[International Joint Conference on Artificial Intelligence]] (IJCAI), die seit 1969 stattfindet. |
|||
Seit der Begriffsprägung im Jahre 1955 hat sich eine Reihe relativ selbständiger Teildisziplinen herausgebildet: |
|||
* [[Mustererkennung]], wozu auch [[Spracherkennung]] und [[Handschrifterkennung]] zählen; |
|||
* [[Wissensmodellierung]] einschließlich [[Logische Programmierung|Logischer Programmierung]] und [[Inferenzmaschine]]n; |
|||
* [[Expertensystem]]e, [[Frage-Antwort-System]]e und [[Chatbot]]s; |
|||
* [[Maschinelles Lernen]]; |
|||
* [[Künstliches neuronales Netz|Künstliche neuronale Netze]] und [[Deep Learning]]; |
|||
* [[Computer Vision]]; |
|||
* [[Robotik]]; |
|||
* und [[General Game Playing|Universelle Spieleprogramme]]. |
|||
Zur Forschungsrichtung [[künstliches Leben]] bestehen enge Beziehungen. Das Fernziel der KI ist die als [[Artificial General Intelligence|starke KI oder künstliche allgemeine Intelligenz]] bezeichnete Fähigkeit eines intelligenten Agenten, jede intellektuelle Aufgabe zu verstehen oder zu erlernen, die der Mensch oder ein anderes Lebewesen bewältigen kann. |
|||
== Geschichte == |
|||
<!-- Hier sollte wenigstens eine kurze Zusammenfassung des Geschichtsartikels stehen, bitte ergänzen! --> |
|||
{{Hauptartikel|Geschichte der künstlichen Intelligenz}} |
|||
== Teilgebiete == |
|||
=== Wissensbasierte Systeme === |
|||
Wissensbasierte Systeme modellieren eine Form rationaler Intelligenz für sogenannte [[Expertensystem]]e. Diese sind in der Lage, auf eine Frage des Anwenders auf Grundlage formalisierten Fachwissens und daraus gezogener [[#Logisches Schließen|logischer Schlüsse]] Antworten zu liefern. Beispielhafte Anwendungen finden sich in der Diagnose von Krankheiten oder der Suche und Beseitigung von Fehlern in technischen Systemen. |
|||
Beispiele für wissensbasierte Systeme sind [[Cyc]] und [[Watson (Künstliche Intelligenz)|Watson]]. |
|||
=== Musteranalyse und Mustererkennung === |
|||
''Visuelle Intelligenz'' ermöglicht es, Bilder bzw. Formen zu [[Mustererkennung|erkennen]] und zu [[Musteranalyse|analysieren]]. Als Anwendungsbeispiele seien hier [[Handschrifterkennung]], Identifikation von Personen durch [[Gesichtserkennung]], Abgleich der [[Fingerabdruck|Fingerabdrücke]] oder der [[Iris (Auge)|Iris]], industrielle Qualitätskontrolle und Fertigungsautomation (letzteres in Kombination mit Erkenntnissen der Robotik) genannt. |
|||
Mittels ''sprachlicher Intelligenz'' ist es beispielsweise möglich, einen geschriebenen Text in gesprochene Sprache umzuwandeln ([[Sprachsynthese]]) und umgekehrt einen gesprochenen Text zu verschriftlichen ([[Spracherkennung]]). Diese automatische Sprachverarbeitung kann erweitert werden, so dass etwa durch [[Latent Semantic Analysis|latente semantische Analyse]] (kurz ''LSI'') Wörtern und Texten Bedeutung beigemessen werden kann. |
|||
Beispiele für Systeme zur Mustererkennung sind [[Google Brain]] und ''Microsoft Adam.''<ref>{{Internetquelle |autor=Daniela Hernandez |url=https://www.wired.com/2014/07/microsoft-adam/ |titel=Microsoft Challenges Google’s Artificial Brain With ‘Project Adam’ |werk=[[Wired]] |datum=2014-07-14 |sprache=en |abruf=2014-08-05}}</ref> |
|||
=== Mustervorhersage === |
|||
Die Mustervorhersage ist eine Erweiterung der Mustererkennung. Sie stellt die Grundlage des von [[Jeff Hawkins]] definierten [[Hierarchischer Temporalspeicher|hierarchischen Temporalspeichers]] dar. |
|||
{{Zitat |
|||
|Text=Prediction is not just one of the things your brain does. It is the primary function of the neocortex, and the foundation of intelligence. |
|||
|Sprache=en |
|||
|Autor=[[Jeff Hawkins]] |
|||
|Quelle=On Intelligence |
|||
|Übersetzung=[[Vorhersage]] ist nicht einfach nur eines der Dinge, die dein [[Gehirn]] tut. Sie ist die Hauptfunktion des [[Neocortex]] und das Fundament der Intelligenz. |
|||
|ref=<ref>{{Literatur |Autor=Jeff Hawkins, Sandra Blakeslee |Titel=On Intelligence |Verlag=Owl Books |Datum=2005 |ISBN=0-8050-7853-3 |Seiten=89}}</ref>}} |
|||
Solche Systeme haben den Vorteil, dass sie z. B. nicht nur ein bestimmtes Objekt in einem Einzelbild erkennen (Mustererkennung), sondern aus einer Serie von Bildern vorhersagen können, wo sich das Objekt als Nächstes befinden wird. |
|||
=== Robotik === |
|||
{{Hauptartikel|Robotik}} |
|||
Die Robotik beschäftigt sich mit manipulativer Intelligenz. Mit Hilfe von [[Roboter]]n können unter anderem gefährliche Tätigkeiten wie etwa die [[Minensuche]] oder auch immer gleiche Manipulationen, wie sie beim Schweißen oder Lackieren auftreten können, automatisiert werden. |
|||
Der Grundgedanke ist es, Systeme zu schaffen, die intelligente Verhaltensweisen von Lebewesen nachvollziehen können. Beispiele für derartige Roboter sind [[ASIMO]] und [[Atlas (Roboter)|Atlas]]. |
|||
=== Künstliches Leben === |
|||
{{Hauptartikel|künstliches Leben}} |
|||
KI überlappt sich mit der Disziplin künstliches Leben (''Artificial life,'' AL),<ref>{{Literatur |Autor=Mark A. Bedau |Hrsg=Department of Philosophy, ReedCollege, 3023 SE Woodstock Blvd., Portland OR 97202, USA |Titel=Artificial life: organization, adaptation and complexity from the bottom up |Sammelwerk=Trends in Cognitive Sciences |Band=7 |Nummer=11 |Ort=Portland, OR, USA |Datum=2003-11 |Online=http://people.reed.edu/~mab/publications/papers/BedauTICS03.pdf |Abruf=2019-03-12}}</ref> und wird als übergeordnete oder auch als eine Subdisziplin gesehen.<ref>Wolfgang Banzhaf, Barry McMullin: ''Artificial Life.'' In: Grzegorz Rozenberg, Thomas Bäck, Joost N. Kok (Hrsg.): ''Handbook of Natural Computing.'' Springer, 2012, ISBN 978-3-540-92909-3.</ref> AL muss deren Erkenntnisse integrieren, da [[Kognition]] eine Kerneigenschaft von natürlichem Leben ist, nicht nur des Menschen. |
|||
=== AI-Alignment === |
|||
Das junge Forschungsfeld der [[AI-Alignment]] (zu deutsch KI-Ausrichtung) beschäftigt sich mit der Ausrichtung von KI nach menschlichen Werten und Normen. Unabhängig von der Frage, ob die jeweilige KI über eine Form von Bewusstsein verfügt, verhält sich jede KI entsprechend ihrem Training. Unter anderem durch Fehler oder Lücken im Training kann einer KI leicht Verhalten antrainiert werden, das nicht mit menschlichen Werten vereinbar ist.<ref name=":0" /> Die Forschung versucht herauszufinden, wie und ob ethisches Verhalten in KI sichergestellt werden kann, um Probleme wie im Einsatz von KI in Krankenhäusern und Gerichtssälen zu verhindern, aber auch, um die Risiken durch weit fortgeschrittene KI wie im Falle von [[Technologische Singularität|Technologischer Singularität]], zu minimieren.<ref name=":1" /> |
|||
== Methoden == |
|||
Die Methoden der KI lassen sich grob in zwei Dimensionen einordnen: symbolische vs. neuronale KI und Simulationsmethode vs. phänomenologische Methode. Die Zusammenhänge veranschaulicht die folgende Grafik: |
|||
{| class="wikitable centered" |
|||
|- |
|||
| [[Datei:Künstliche Intelligenz - Ansätze.svg]] |
|||
|} |
|||
Die Neuronale KI verfolgt einen [[Bottom-up]]-Ansatz und möchte das menschliche Gehirn möglichst präzise nachbilden. Die symbolische KI verfolgt umgekehrt einen [[Top-down]]-Ansatz und nähert sich den Intelligenzleistungen von einer begrifflichen Ebene her. Die Simulationsmethode orientiert sich so nah wie möglich an den tatsächlichen kognitiven Prozessen des Menschen. Dagegen kommt es dem [[Phänomenologie|phänomenologischen]] Ansatz nur auf das Ergebnis an. |
|||
Viele ältere Methoden, die in der KI entwickelt wurden, basieren auf [[Heuristik|heuristischen]] Lösungsverfahren. In jüngerer Zeit spielen mathematisch fundierte Ansätze aus der [[Statistik]], der [[Optimierung (Mathematik)|mathematischen Programmierung]] und der [[Approximationstheorie]] eine bedeutende Rolle. |
|||
Die konkreten Techniken der KI lassen sich grob in Gruppen einteilen: |
Die konkreten Techniken der KI lassen sich grob in Gruppen einteilen: |
||
===Suchen=== |
=== Suchen === |
||
Die KI beschäftigt sich häufig mit Problemen, bei denen nach bestimmten Lösungen gesucht wird. Verschiedene [[Suchalgorithmus|Suchalgorithmen]] werden dabei eingesetzt. Ein Paradebeispiel für die Suche ist der Vorgang der Wegfindung, der in vielen Computerspielen eine zentrale Rolle einnimmt und auf Suchalgorithmen wie |
Die KI beschäftigt sich häufig mit Problemen, bei denen nach bestimmten Lösungen gesucht wird. Verschiedene [[Suchalgorithmus|Suchalgorithmen]] werden dabei eingesetzt. Ein Paradebeispiel für die Suche ist der Vorgang der [[Pathfinding|Wegfindung]], der in vielen Computerspielen eine zentrale Rolle einnimmt und auf Suchalgorithmen wie dem [[A*-Algorithmus]] basiert. |
||
===Planen=== |
=== Planen === |
||
Neben dem Suchen von Lösungen stellt das Planen einen wichtigen Aspekt der KI dar. Der Vorgang des Planens unterteilt sich dabei in |
Neben dem Suchen von Lösungen stellt das Planen einen wichtigen Aspekt der KI dar. Der Vorgang des Planens unterteilt sich dabei in zwei Phasen: |
||
# Die '''Zielformulierung''': Ausgehend vom momentanen Weltzustand wird ein Ziel definiert. Ein Ziel ist hierbei eine '''Menge von Weltzuständen''' bei der ein bestimmtes Zielprädikat erfüllt ist. |
|||
# Die '''Problemformulierung''': Nachdem bekannt ist welche Ziele angestrebt werden sollen wird in der Problemformulierung festgelegt welche Aktionen und Weltzustände betrachtet werden sollen. Es existieren hierbei verschiedene [[Problemtyp]]en. |
|||
# Die ''Zielformulierung'': Ausgehend vom momentanen Umgebungs- bzw. Weltzustand wird ein Ziel definiert. Ein Ziel ist hierbei eine ''Menge von Weltzuständen,'' bei der ein bestimmtes Zielprädikat erfüllt ist. |
|||
[[Software-Agent|Agentensysteme]] planen und erstellen aus solchen Problembeschreibungen Aktionsfolgen, die sie ausführen können, um ihre Ziele zu erreichen. |
|||
# Die ''Problemformulierung'': Nachdem bekannt ist, welche Ziele angestrebt werden sollen, wird in der Problemformulierung festgelegt, welche Aktionen und Weltzustände betrachtet werden sollen. Es existieren hierbei verschiedene [[Problemtyp]]en. |
|||
Planungssysteme planen und erstellen aus solchen Problembeschreibungen Aktionsfolgen, die [[Software-Agent|Agentensysteme]] ausführen können, um ihre Ziele zu erreichen. |
|||
===Optimierungsmethoden=== |
|||
Oft führen Aufgabenstellungen der KI zu Optimierungsproblemen. Diese werden je nach Struktur entweder mit [[Suchalgorithmus|Suchalgorithmen]] aus der Informatik oder, zunehmend, mit Mitteln der Mathematischen Programmierung gelöst. Bekannte [[Heuristik|heuristische]] Suchverfahren aus dem Kontext der KI sind [[Evolutionärer Algorithmus|Evolutionäre Algorithmen]]. |
|||
=== Optimierungsmethoden === |
|||
Oft führen Aufgabenstellungen der KI zu [[Optimierungsproblem]]en. Diese werden je nach Struktur entweder mit Suchalgorithmen aus der Informatik oder, zunehmend, mit Mitteln der [[Mathematische Optimierung|mathematischen Optimierung]] gelöst. Bekannte [[Heuristik|heuristische]] Suchverfahren aus dem Kontext der KI sind [[Evolutionärer Algorithmus|evolutionäre Algorithmen]]. |
|||
=== Logisches Schließen === |
|||
{{Belege fehlen}} |
|||
===Logisches Schließen=== |
|||
Eine Fragestellung der KI ist die Erstellung von [[Wissensrepräsentation]]en, |
Eine Fragestellung der KI ist die Erstellung von [[Wissensrepräsentation]]en, |
||
die dann für automatisches [[logisches Schließen]] benutzt werden können. Menschliches [[Wissen]] wird dabei |
die dann für automatisches [[logisches Schließen]] benutzt werden können. Menschliches [[Wissen]] wird dabei – soweit möglich – formalisiert, um es in eine maschinenlesbare Form zu bringen. Diesem Ziel haben sich die Entwickler diverser [[Ontologie (Informatik)|Ontologien]] verschrieben. |
||
Schon früh beschäftigte sich die KI damit, automatische [[Beweis (Mathematik)|Beweissysteme]] zu konstruieren, die Mathematikern und Informatikern beim Beweisen von Sätzen und beim Programmieren ([[Logikprogrammierung]]) behilflich wären. Zwei Schwierigkeiten zeichneten sich ab: |
|||
# Formuliert man Sätze in den natürlicher Sprache nahen, relativ bequemen Beschreibungssprachen, werden die entstehenden Suchprobleme allzu aufwändig. In der Praxis mussten Kompromisse geschlossen werden, bei denen die Beschreibungssprache für den Benutzer etwas umständlicher, die zugehörigen Optimierungsprobleme für den Rechner dafür jedoch einfacher zu handhaben waren ([[Prolog (Programmiersprache)|Prolog]], [[Expertensystem]]e). |
|||
# Selbst mächtige Beschreibungssprachen werden unhandlich, wenn man versucht, unsicheres oder unvollständiges Wissen zu formulieren. Für praktische Probleme kann dies eine ernste Einschränkung sein. Die aktuelle Forschung untersucht daher Systeme, die die Regeln der [[Wahrscheinlichkeitsrechnung]] anwenden, um Unwissen und Unsicherheit explizit zu modellieren. Algorithmisch unterscheiden sich diese Methoden von den älteren Verfahren: neben [[Symbol]]en werden auch [[Wahrscheinlichkeitsverteilung]]en manipuliert. |
|||
Eine andere Form des logischen Schließens stellt die Induktion dar ([[Induktionsschluss]], [[Induktionslogik]]), in der Beispiele zu Regeln verallgemeinert werden ([[maschinelles Lernen]]). Auch hier spielen Art und Mächtigkeit der [[Wissensrepräsentation]] eine wichtige Rolle. Man unterscheidet zwischen symbolischen Systemen, in denen das Wissen – sowohl die Beispiele als auch die induzierten Regeln – explizit repräsentiert ist, und subsymbolischen Systemen wie neuronalen Netzen, denen zwar ein berechenbares Verhalten „antrainiert“ wird, die jedoch keinen Einblick in die erlernten Lösungswege erlauben. |
|||
=== Approximationsmethoden === |
|||
In vielen Anwendungen geht es darum, aus einer Menge von Daten eine allgemeine Regel abzuleiten ([[maschinelles Lernen]]). Mathematisch führt dies zu einem [[Approximation]]sproblem. Im Kontext der KI wurden hierzu unter anderem künstliche neuronale Netze vorgeschlagen, die als universale Funktionsapproximatoren eingesetzt werden können, jedoch insbesondere bei vielen verdeckten Schichten schwer zu analysieren sind. Manchmal verwendet man deshalb alternative Verfahren, die mathematisch einfacher zu analysieren sind. |
|||
'''Künstliches Neuronales Netz''' |
|||
Schon früh beschäftigte sich die KI damit, automatische [[Beweis (Mathematik)|Beweissysteme]] ([[Deduktionssystem]]e) zu konstruieren, die Mathematikern und Informatikern beim Beweisen von Sätzen und beim Programmieren ([[Logikprogrammierung]]) behilflich wären. Zwei Schwierigkeiten stellten sich: |
|||
{{Hauptartikel|Künstliches neuronales Netz|Deep Learning}} |
|||
# Formuliert man Sätze in mächtigen, für den Benutzer bequemen Beschreibungssprachen (beispielsweise [[Prädikatenlogik]]), werden die entstehenden Suchprobleme sehr schwierig. In der Praxis machte man Kompromisse, wo die Beschreibungssprache für den Benutzer etwas umständlicher, die zugehörigen Optimierungsprobleme für den Rechner einfacher zu handhaben waren ([[Prolog (Programmiersprache)|Prolog]], [[Expertensystem]]e). |
|||
# Selbst mächtige Beschreibungssprachen werden unhandlich, wenn man versucht, unsicheres oder unvollständiges Wissen zu formulieren. Für praktische Probleme kann dies eine sehr ernste Einschränkung sein. Die aktuelle Forschung untersucht daher Systeme, die die Regeln der [[Wahrscheinlichkeitsrechnung]] verwendet, um Unwissen und Unsicherheit explizit zu modellieren. Algorithmisch unterscheiden sich diese Methoden sehr von den älteren Verfahren (statt [[Symbol]]en werden [[Wahrscheinlichkeitsverteilung]]en manipuliert). |
|||
Große Fortschritte erzielt die künstliche Intelligenz in jüngerer Zeit im Bereich künstlicher neuronaler Netze, auch unter dem Begriff Deep Learning bekannt. Dabei werden neuronale Netze, die grob von der Struktur des Gehirns inspiriert sind, künstlich auf dem Computer simuliert. Viele der jüngeren Erfolge wie bei [[Handschrifterkennung]], [[Spracherkennung]], [[Gesichtserkennung]], [[Autonomes Fahren|autonomem Fahren]], [[Maschinelle Übersetzung|maschineller Übersetzung]] wie [[DeepL]], [[AlphaGo]], [[ChatGPT]], [[DeepSeek]] beruhen auf dieser Technik. |
|||
===Approximationsmethoden=== |
|||
In vielen Anwendungen geht es darum, aus einer Menge von Daten eine allgemeine Regel abzuleiten ([[maschinelles Lernen]]). Mathematisch führt dies zu einem [[Approximation]]sproblem. Im Kontext der KI wurden hierzu [[Künstliches neuronales Netz|Künstliche Neuronale Netze]] vorgeschlagen. In praktischen Anwendungen verwendet man häufig alternative Verfahren, die mathematisch einfacher zu analysieren sind. |
|||
== Anwendungen == |
== Anwendungen == |
||
{{Hauptartikel|Anwendungen künstlicher Intelligenz}} |
|||
In der Vergangenheit sind Erkenntnisse der ''Künstlichen Intelligenz'' mit der Zeit oft in die anderen Gebiete der Informatik übergegangen: Sobald ein Problem gut genug verstanden wurde hat sich die ''KI'' neuen Aufgabenstellungen zugewandt. Zum Beispiel wurden der [[Compilerbau]] oder [[Computer Algebra System|Computeralgebra]] ursprünglich der ''Künstlichen Intelligenz'' zugerechnet. |
|||
Künstliche Intelligenz hat eine Vielzahl von Verwendungen in Forschung und Wirtschaft. Mit der rasanten Entwicklung in diesem Bereich entsteht auch ein entsprechender Bedarf an Methoden zur ''AI-Detection''.<ref>[[t3n]]: [https://t3n.de/news/ki-texte-tool-detektoren-gptzero-1653060/ KI-Texte menschlicher schreiben: Dieses KI-Tool soll KI-Detektoren wie GPTZero austricksen], veröffentlicht 2024-10-22</ref> |
|||
Zahlreiche Anwendungen wurden auf der Grundlage von Techniken entwickelt, die einst Forschungsgebiete der KI waren oder es noch sind. Einige Beispiele: |
|||
*Das Programm [[Chinook (Programm)|Chinook]] ist seit [[1994]] [[Damespiel]]-Weltmeister. |
|||
*[[Suchmaschinen]] erleichtern den Umgang mit der im Internet vorhandenen Informationsflut. |
|||
*[[Deep Blue]], ein [[Schachcomputer]], besiegte 1997 den Weltmeister [[Garri Kasparow]]. |
|||
*Bei der [[Exploration]] von [[Ölquelle]]n, der Steuerung von [[Marsroboter]]n oder der medizinischen [[Diagnose]] werden [[Expertensystem]]e eingesetzt. |
|||
*[[Maschinelle Übersetzung]] ist weit verbreitet. Ihre Ergebnisse sind noch nicht vergleichbar mit denen menschlicher Übersetzer, sparen jedoch viel [[Zeit]] und [[Geld]]. |
|||
*[[Maschinelle Textzusammenfassung]] bietet einige versprechende Erfolgsaussichten. |
|||
*[[Analyse]] und [[Vorhersage]] von Aktienkursentwicklungen wird gelegentlich durch [[Künstliches neuronales Netz|künstliche Neuronale Netze]] unterstützt. |
|||
*[[Optische Zeichenerkennung]] liest gedruckte Texte zuverlässig. |
|||
*[[Handschrifterkennung]] wird millionenfach in [[Personal Digital Assistant|PDAs]] verwendet. |
|||
*[[Spracherkennung]] wird kommerziell von Rechtsanwälten, Ärzten und der Deutschen Bahn genutzt. |
|||
*[[Computer Algebra System|Computeralgebra]]-Systeme, wie Mathematica oder Maple, unterstützen Mathematiker, Wissenschaftler und Ingenieure bei ihrer Arbeit. |
|||
*[[Bildverstehen|Computer-Vision]]-Systeme überwachen öffentliche Plätze, Produktionsprozesse oder sichern den Straßenverkehr. |
|||
*In [[Computerspiel]]en dienen die [[Algorithmus|Algorithmen]], die in der KI entwickelt wurden dazu, computergesteuerte Mitspieler intelligenter erscheinen zu lassen. |
|||
*Bei [[Gruppensimulation]]en für Sicherheitsplanung oder [[3D-Computergrafik]] wird ein möglichst realistisches Verhalten von (Menschen-)Massen berechnet. |
|||
== Turing-Test == |
== Turing-Test == |
||
{{Hauptartikel|Turing-Test}} |
|||
Um ein Maß zu haben, wann eine Maschine eine dem Menschen gleichwertige [[Intelligenz]] simuliert, wurde von [[Alan Turing]] der nach ihm benannte [[Turing-Test]] vorgeschlagen. Dabei stellt ein Mensch per Terminal (also ohne Sicht- bzw. Hörkontakt zu den Teilnehmern) einem anderen Menschen und einer KI beliebige Fragen. Der Fragesteller muss danach entscheiden, wer von den beiden Befragten der Mensch ist. Ist der Mensch nicht von der Maschine zu unterscheiden, so ist laut Turing die Maschine intelligent, oder der Mensch ist es nicht. Bisher hat keine Maschine diesen Turing-Test bestanden. Seit [[1990]] existiert der [[Loebner-Preis]] für den Turing-Test. |
|||
Um ein Kriterium zu haben, wann eine Maschine eine dem Menschen gleichwertige [[Intelligenz]] simuliert, wurde von [[Alan Turing]] der nach ihm benannte Turing-Test vorgeschlagen: Dazu stellt ein Mensch per Terminal (Bildschirm und Tastatur, oder auch Lautsprecher und Mikrofon) beliebige Fragen, ohne dabei zu wissen, ob diese von einem anderen Menschen oder einer Maschine beantwortet werden. Der Fragesteller muss danach entscheiden, ob es sich beim Interviewpartner um eine Maschine oder einen Menschen handelte. Ist die Maschine nicht von einem Menschen zu unterscheiden, so ist sie laut Turing intelligent.<ref>Alan Turing: Computing Machinery and Intelligence. Aus: Mind No. 236. Oktober 1950.</ref> Bisher konnte keine Maschine den Turing-Test zweifelsfrei bestehen. Seit 1991 existiert der [[Loebner-Preis]] für den Turing-Test. |
|||
== Geschichte der KI == |
|||
== Technologische Singularität == |
|||
Basierend auf den Arbeiten von [[Alan Turing]] (unter anderem dem Aufsatz ''Computing machinery and intelligence'') formulierten [[Allen Newell]] ([[1927]]-[[1992]]) und [[Herbert Simon]] ([[1916]]-[[2001]]) von der Carnegie-Mellon-University in [[Pittsburgh]] die Physical Symbol System Hypothesis, nach der [[Denken]] [[Informationsverarbeitung]] ist, Informationsverarbeitung ein Rechenvorgang, also Symbolmanipulation, ist und es auf das [[Gehirn]] als solches beim Denken nicht ankommt: Intelligence is mind implemented by any patternable kind of matter. |
|||
{{Hauptartikel|Technologische Singularität}} |
|||
Grob wird unter der technologischen Singularität der hypothetische Zeitpunkt verstanden, an dem künstliche Intelligenz die menschliche Intelligenz übertrifft. Ab diesem Zeitpunkt wird die weitere technologische Entwicklung hauptsächlich von KI vorangetrieben und nicht mehr vom Menschen. |
|||
Diese Auffassung, dass Intelligenz unabhängig von der Trägersubstanz ist, wird von den Vertretern der '''starken KI'''-These geteilt, wie beispielsweise [[Marvin Minsky]] (*1927) vom [[Massachusetts Institute of Technology]] (MIT), einem der Pioniere der KI, für den „das Ziel der KI die Überwindung des Todes ist“, oder von dem Roboterspezialisten [[Hans Moravec]] (*[[1948]]) von der Carnegie-Mellon-University, der in seinem Buch "Mind Children" (Kinder des Geistes) das Szenario der [[Evolution]] des postbiologischen [[Leben]]s beschreibt: Ein Roboter überträgt das im menschlichen Gehirn gespeicherte Wissen in einen Computer, so dass die [[Biomasse]] des Gehirns überflüssig wird und ein posthumanes Zeitalter beginnen kann, in dem das gespeicherte Wissen beliebig lange zugreifbar bleibt. |
|||
== Bewusstsein bei künstlicher Intelligenz == |
|||
Insbesondere die Anfangsphase der KI war geprägt durch eine fast grenzenlose Erwartungshaltung im Hinblick auf die Fähigkeit von Computern, „Aufgaben zu lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen durchgeführt werden“ (Minsky). Simon prognostizierte [[1957]] unter anderem, dass innerhalb der nächsten 10 Jahre ein Computer [[Schachweltmeister]] werden und einen wichtigen mathematischen Satz entdecken und beweisen würde, Prognosen, die nicht zutrafen und die Simon [[1990]], allerdings ohne Zeitangabe, wiederholte. Immerhin gelang es [[1997]] dem von IBM entwickelten System [[Deep Blue]], den Schach-Weltmeister [[Garry Kasparov]] in sechs Partien zu schlagen. |
|||
In den [[Bewusstsein#Neurowissenschaften|Neurowissenschaften]] ist es eine Grundannahme, dass [[Bewusstsein]]sprozesse mit neuronalen Prozessen des Gehirns korrelieren (siehe [[Neuronales Korrelat des Bewusstseins]]). Nach [[Jürgen Schmidhuber]] ist das Bewusstsein nur ein Nebenprodukt des Problemlösens des Gehirns. So sei auch bei künstlichen Problemlösern (z. B. [[Autonomer mobiler Roboter|autonomen mobilen Robotern]]) von Vorteil, wenn diese sich ihrer selbst und ihrer Umgebung „bewusst“ seien. Schmidhuber bezieht sich bei „Bewusstsein“ im Kontext autonomer Roboter auf ein digitales Weltmodell inklusive des Systems selbst, nicht jedoch auf das [[Erleben]] von Zuständen. Ein Weltmodell könnte im Kontext von [[Bestärkendes Lernen|Reinforcement Learning]] dadurch erlernt werden, dass Aktionen belohnt werden, die das Weltmodell erweitern.<ref>[https://www.wiwo.de/unternehmen/mittelstand/hannovermesse/kuenstliche-intelligenz-das-menschliche-bewusstsein/12896382-2.html ''Roboter müssen Steuern zahlen'' Interview mit Jürgen Schmidhuber] In: ''wiwo.de,'' 31. Januar 2016.</ref> |
|||
Newell und Simon entwickelten in den 1960er Jahren den [[General Problem Solver]], ein Programm, das mit einfachen Methoden beliebige Probleme lösen können sollte, ein Projekt, das nach fast zehnjähriger Entwicklungsdauer schließlich eingestellt wurde. [[John McCarthy|McCarthy]] schlug 1958 vor, das gesamte menschliche Wissen in eine homogene, formale Darstellungsform, die [[Prädikatenlogik]] 1. Stufe, zu bringen. Die Idee war, Theorem-Beweiser zu konstruieren, die symbolische Ausdrücke zusammensetzen, um über das Wissen der Welt zu diskutieren. |
|||
== Angrenzende Wissenschaften == |
|||
Ende der 1960er Jahre entwickelte [[Joseph Weizenbaum]] (*[[1923]]) vom MIT mit einer relativ simplen Strategie das Programm [[ELIZA]], in dem der Dialog eines Psychiaters mit einem Patienten simuliert wird. Die Wirkung des Programms war überwältigend. Weizenbaum war selbst überrascht, dass man auf relativ einfache Weise Menschen die Illusion eines beseelten Partners vermitteln kann. Auf einigen Gebieten erzielte die KI Erfolge, beispielsweise bei Strategiespielen (Schach, Dame, usw.), bei mathematischer Symbolverarbeitung, bei der Simulation von Robotern, beim Beweisen von logischen und mathematischen Sätzen und schließlich bei '''[[Expertensystem]]en'''. In einem Expertensystem wird das regelbasierte Wissen eines bestimmten Fachgebiets formal repräsentiert. <br/> |
|||
=== Sprachwissenschaft === |
|||
Das System ermöglicht dann bei konkreten Fragestellungen, diese Regeln automatisch auch in solchen Kombinationen anzuwenden, die (von dem menschlichen Experten) vorher nicht explizit erfasst wurden. Die zu einer bestimmten [[Problemlösen|Problemlösung]] herangezogenen Regeln können dann wiederum auch ausgegeben werden, d.h. das System kann sein Ergebnis "erklären". Einzelne Wissenselemente können hinzugefügt, verändert oder gelöscht werden; moderne [[Expertensysteme]] verfügen dazu über komfortable Benutzerschnittstellen. |
|||
Die Interpretation menschlicher Sprache durch Maschinen besitzt bei der KI-Forschung eine entscheidende Rolle. So ergeben sich etwaige Ergebnisse des [[Turing-Test]]s vor allem in Dialogsituationen, die bewältigt werden müssen. |
|||
Die Sprachwissenschaft liefert mit ihren [[Syntaxtheorie|Grammatikmodellen]] und psycholinguistischen Semantikmodellen wie der [[Semantik#Merkmalssemantik|Merkmals-]] oder der [[Prototypensemantik]] Grundlagen für das maschinelle „Verstehen“ komplexer natürlichsprachlicher Phrasen. Zentral ist die Frage, wie Sprachzeichen eine tatsächliche [[Bedeutung]] für eine künstliche Intelligenz haben können.<ref>[[Stevan Harnad]]: [http://cogprints.org/3106/ ''The Symbol Grounding Problem.''] In: ''Physica D.'' 42, 1990, S. 335–346.</ref> Das [[Chinese Room|Chinese-Room]]-Argument des Philosophen [[John Searle]] sollte indes zeigen, dass es selbst dann möglich wäre, den [[Turing-Test]] zu bestehen, wenn den verwendeten Sprachzeichen dabei keinerlei Bedeutung beigemessen wird. Insbesondere Ergebnisse aus dem Bereich [[Embodiment]] betonen zudem die Relevanz von solchen Erfahrungen, die auf der Verkörperung eines Agenten beruhen sowie dessen Einbindung in eine sinnvolle Umgebung für jede Form von Kognition, also auch zur Konstruktion von Bedeutung durch eine Intelligenz. |
|||
Einem der bekanntesten Expertensysteme, dem Anfang der 1970er Jahre von T. Shortliffe an der [[Stanford University]] entwickelten System [[MYCIN]] zur Unterstützung von [[Diagnose]]- und [[Therapie]]entscheidungen bei Blutinfektionskrankheiten und [[Meningitis]], wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten. Allerdings reagierte das System, als ihm Daten einer Cholera-Erkrankung - bekanntlich eine Darm- und keine Blutinfektionskrankheit - eingegeben wurden, mit Diagnose- und Therapievorschlägen für eine Blutinfektionskrankheit, das heißt, MYCIN erkannte die Grenzen seiner Kompetenz nicht. Dieser Cliff-and-Plateau-Effekt ist bei [[Expertensysteme]]n, die hochspezialisiert auf ein schmales Wissensgebiet angesetzt sind, nicht untypisch. |
|||
Eine Schnittstelle zwischen der Linguistik und der Informatik bildet die [[Computerlinguistik]], die sich unter anderem mit maschineller Sprachverarbeitung und künstlicher Intelligenz beschäftigt. |
|||
In den 1980er Jahren wurde der KI, parallel zu wesentlichen Fortschritten bei Hard- und Software, die Rolle einer Schlüsseltechnologie zugewiesen, insbesondere im Bereich der Expertensysteme. Man erhoffte sich vielfältige industrielle Anwendungen, perspektivisch auch eine Ablösung "eintöniger" menschlicher Arbeit (und deren Kosten) durch KI-gesteuerte Systeme. Nachdem allerdings viele Prognosen nicht eingehalten werden konnten, reduzierten die Industrie und die Forschungsförderung ihr Engagement. |
|||
=== Psychologie === |
|||
Mit den '''[[Neuronale_Netze|Neuronalen Netzen]]''' trat zur gleichen Zeit eine neue Perspektive der KI ans Licht, angestossen u.a. von Arbeiten des finnischen Ingenieurs [[Teuvo Kohonen]]. In diesem Bereich der '''schwachen KI''' löste man sich von Konzepten von "Intelligenz" und analysierte stattdessen, ausgehend von der [[Neurophysiologie]], die Informationsarchitektur des menschlichen (/tierischen) Gehirns. Die Modellierung in Form [[künstliche_neuronale_Netze|künstlicher neuronaler Netze]] illustrierte dann, wie aus einer sehr einfachen Grundstruktur eine komplexe [[Mustererkennung|Musterverarbeitung]] geleistet werden kann. Die [[Neuroinformatik]] hat sich als wissenschaftliche Disziplin zur Untersuchung dieser Verfahren entwickelt.<br/> |
|||
Die Psychologie beschäftigt sich unter anderem mit dem Begriff [[Intelligenz]]. |
|||
Dabei wird deutlich, dass diese Art von Lernen im Gegensatz zu [[Expertensystem]]en nicht auf der Herleitung und Anwendung von Regeln beruht. Daraus folgt auch, dass die besonderen Fähigkeiten des menschlichen Gehirns innerhalb des Tierreichs nicht auf einen solchen regel-basierten Intelligenz-Begriff reduzierbar sind. Die Auswirkungen dieser Einsichten auf die KI-Forschung, aber auch auf [[Lerntheorie]], [[Didaktik]], das Verhältnis zum [[Bewusstsein]] und andere Gebiete werden noch diskutiert. |
|||
=== Psychotherapie === |
|||
In der KI haben sich mittlerweile zahlreiche Subdisziplinen herausgebildet, so spezielle Sprachen und Konzepte zur Darstellung und Anwendung von Wissen, Modelle zu Fragen von Revidierbarkeit, Unsicherheit und Ungenauigkeit und maschinelle Lernverfahren. Die [[Fuzzy-Logik]] hat sich als weitere Form der ''schwachen KI'' etwa bei Maschinensteuerungen etabliert. <br/> |
|||
In der Psychotherapieforschung existieren seit geraumer Zeit experimentelle Anwendungen der künstlichen Intelligenz, um Defizite und Engpässe in der psychotherapeutischen Versorgung zu überbrücken und Kosten zu sparen.<ref>Franz-Josef Hücker: ''Die Pygmalion-Mythologie in der Psychotherapie.'' In: ''Psychotherapie Forum.'' Band 16, Nr. 3, 2008, (Springer), (Wien), S. 128–135.</ref> |
|||
Weitere erfolgreiche KI-Anwendungen liegen in den Bereichen natürlich-sprachlicher Schnittstellen, [[Sensorik]] und [[Robotik]]. |
|||
=== Philosophie === |
|||
== Abgrenzung zu anderen Feldern der Informatik == |
|||
{{Hauptartikel|Philosophie der Künstlichen Intelligenz}} |
|||
Wie lässt sich eine Anwendung, der man Intelligenz-Eigenschaften zubilligt, von anderen Anwendungen unterscheiden? Diese Frage ist nicht ohne weiteres zu beantworten, könnte man doch den Standpunkt vertreten, dass auch bereits primitive Operationen wie Addition, Multiplikation usw. dem Menschen Intelligenz abverlangen. Dennoch würde man eine Anwendung zur Durchführung von Additionen kaum als eine Anwendung der Künstlichen Intelligenz bezeichnen. |
|||
Die [[Philosophie|philosophischen]] Aspekte der KI-Problematik gehören zu den weitreichendsten der gesamten Informatik. |
|||
Die Antworten, die auf die zentralen Fragen dieses Bereiches gegeben werden, reichen weit in [[Ontologie|ontologische]] und [[Erkenntnistheorie|erkenntnistheoretische]] Themen hinein, die das Denken des Menschen schon seit den Anfängen der Philosophie beschäftigen. Wer solche Antworten gibt, muss die Konsequenzen daraus auch für den Menschen und sich selbst ziehen. Nicht selten möchte man umgekehrt vorgehen und die Antworten, die man vor der Entwicklung künstlicher Intelligenz gefunden hat, auf diese übertragen. Doch wie sich zeigte, hat die künstliche Intelligenz zahlreiche Forscher dazu veranlasst, Probleme wie das Verhältnis zwischen [[Materie (Philosophie)|Materie]] und [[Geist]], die Ursprünge des Bewusstseins, die Grenzen der Erkenntnis, das Problem der [[Emergenz]], die Möglichkeit außermenschlicher Intelligenz usw. in einem neuen Licht zu betrachten und zum Teil neu zu bewerten. |
|||
Eine dem [[Metaphysik|metaphysischen]] bzw. auch idealistischen Denken verpflichtete Sichtweise hält es (im Sinn einer schwachen KI) für unmöglich, dass Maschinen jemals mehr als nur simuliertes Bewusstsein mit wirklicher Erkenntnis und Freiheit besitzen könnten. Aus ontologischer Sicht kritisiert der amerikanische Philosoph [[Hubert Dreyfus]] die Auffassung der starken KI. Aufbauend auf der von [[Martin Heidegger]] in dessen Werk [[Sein und Zeit]] entwickelten Ontologie der „Weltlichkeit der Welt“ versucht Dreyfus zu zeigen, dass hinter das Phänomen der Welt als sinnhafte Bedeutungsganzheit nicht zurückgegangen werden kann: Sinn, d. h. Beziehungen der Dinge in der Welt aufeinander, sei ein Emergenzphänomen, denn es gibt nicht „etwas Sinn“ und dann „mehr Sinn“. Damit erweist sich jedoch auch die Aufgabe, die sinnhaften Beziehungen zwischen den Dingen der Welt in einen Computer einzuprogrammieren, als eigentlich unmögliches bzw. unendliches Vorhaben. Dies deshalb, weil Sinn nicht durch Addition von zunächst sinnlosen Elementen hergestellt werden kann.<ref>Vgl. Hubert Dreyfus: ''In-der-Welt-sein und Weltlichkeit: Heideggers Kritik des Cartesianismus.'' In: Thomas Rentsch: ''Sein und Zeit.'' Akademie Verlag, Berlin 2001, S. 69ff.</ref> |
|||
Eine evolutionär-progressive Denkrichtung sieht es hingegen (im Sinn einer starken KI) als möglich an, dass Systeme der künstlichen Intelligenz einmal den Menschen in dem übertreffen könnten, was derzeit noch als spezifisch menschlich gilt. Dies birgt zum einen die Gefahr, dass solche KI-Maschinen sich gegen die Interessen der Menschen wenden könnten. Andererseits birgt diese Technologie die Chance, Probleme zu lösen, deren Lösung dem Menschen wegen seiner limitierten Kapazitäten schwerfällt (siehe auch [[technologische Singularität]]). |
|||
Weitere Anknüpfungspunkte lassen sich in der [[Analytische Philosophie|analytischen Philosophie]] finden. |
|||
Die [[Ethik der Künstlichen Intelligenz]] erforscht ethische Normen für Entwurf, Herstellung, Testung, Zertifizierung und den Einsatz künstlich intelligenter Systeme und fragt nach Prinzipien für das ethische Verhalten von KI-Systemen. Intensiv untersuchte Themen sind dabei ethische Fragen des [[Autonomes Fahren|Autonomen Fahrens]] und [[Lethal Autonomous Weapon System|Autonomer Waffensysteme]] sowie die Probleme und Realisierungsmöglichkeiten künstlicher moralischer Agenten.<ref>Tanja Oppelt: [https://www.br.de/nachrichten/deutschland-welt/ethikkommission-stellt-in-berlin-ergebnisse-vor ''Ethikkommission stellt in Berlin Ergebnisse vor: Selbstfahrende Autos und die Moral.''] Bayerischer Rundfunk, 20. Juni 2017; abgerufen am 20. August 2019.</ref><ref>Christoph Stockburger: [https://www.spiegel.de/auto/aktuell/autonomes-fahren-moral-machine-gewissensfragen-zu-leben-und-tod-a-1108401.html ''Autonomes Fahren: Was soll Ihr Auto jetzt tun?''] [[Spiegel Online]], 29. August 2016; abgerufen am 20. März 2018.</ref> |
|||
[[Rechtsphilosophie]] und [[Roboterethik]] gehen der Frage nach, ob eine KI für ihr gesetzwidriges Handeln oder Fehlverhalten verantwortlich gemacht werden kann (z. B. bei einem Autounfall durch ein autonomes Fahrzeug) und wer dafür haftet.<ref>{{Internetquelle |autor=heise online |url=https://www.heise.de/meldung/Wenn-Computer-ueber-Leben-und-Tod-entscheiden-Wer-haftet-wenn-die-KI-toetet-3997722.html |titel=Wenn Computer über Leben und Tod entscheiden: Wer haftet, wenn die KI tötet? |sprache=de-DE |abruf=2018-03-20}}</ref> |
|||
Der russisch-amerikanische Biochemiker und Sachbuchautor [[Isaac Asimov]] beschreibt in seinen drei [[Robotergesetze]]n die Voraussetzungen für ein friedliches und unterstützendes Zusammenleben zwischen KI und Mensch. Diese Gesetze wurden später von anderen Autoren erweitert. |
|||
Bei [[Karl Marx]] finden sich im sogenannten [[Maschinenfragment]], einem Teil der [[Grundrisse der Kritik der politischen Ökonomie|Grundrisse (1857–58)]], Überlegungen zur Ersetzung menschlicher Arbeitskraft durch Maschinen, die sich auch auf Maschinen mit Künstlicher Intelligenz anwenden lassen.<ref>Thomas Weiß, Künstliche Intelligenz – eine marxistische Betrachtung. In: Anna Strasser, [[Wolfgang Sohst]], Ralf Stapelfeldt, Katja Stepec (Hrsg.): ''Künstliche Intelligenz – Die große Verheißung'' Xenomoi, Berlin 2021. S. 379–405.</ref> |
|||
=== Menschenrechte === |
|||
Zu den zentralen Fragen beim KI-Einsatz gehören die Aufteilung rechtlicher Verpflichtungen zwischen Staaten und Unternehmen sowie die Implikationen der Menschenrechte im Hinblick auf den Einsatz von KI in bestimmten Anwendungsbereichen, z. B. bei der Gesichtserkennung oder Erleichterung der Entscheidungsfindung von Gerichten. Auch wird das Ausmaß der technologischen Zusammenarbeit im Bereich der KI mit Staaten, die sich nicht an menschenrechtliche Grundstandards halten, aus wirtschaftsethischer und völkerrechtlicher Perspektive diskutiert.<ref>Alexander Kriebitz und Christoph Lütge: [https://www.cambridge.org/core/journals/business-and-human-rights-journal/article/artificial-intelligence-and-human-rights-a-business-ethical-assessment/33D07AB42FC76A4BA49B03F600186E1B ''Artificial Intelligence and Human Rights: A Business Ethical Assessment''] [[Business and Human Rights Journal]], Januar 2020; abgerufen am 28. Juli 2020.</ref><ref>David Kaye: [https://ohchr.org/EN/Issues/FreedomOpinion/Pages/ReportGA73.aspx ''Report of the Special Rapporteur to the General Assembly on AI and its impact on freedom of opinion and expression''] [[OHCHR]], Januar 2020; abgerufen am 28. Juli 2020.</ref> |
|||
=== Klimatologie und Ökologie === |
|||
Der exponentiell zunehmende massiv ansteigende Energieverbrauch durch KI und der damit verbundene erhöhte Ausstoß des klimaaktiven Gases Kohlendioxid wirft grundlegende Fragen auf, wie sich die neue Technologie auf den menschengemachten Klimawandel auswirken wird. Auch der enorme Wasserverbrauch zur Kühlung der Rechenzentren wird seit einiger Zeit genauer untersucht. |
|||
Im Januar 2024 veröffentlichte die Internationale Energieagentur (IEA) die Publikation „Electricity 2024, Analysis and Forecast to 2026“, eine Prognose zum Stromverbrauch.<ref>IEA: [https://www.iea.org/reports/electricity-2024 ''Electricity 2024 – Analysis.''] In: [[Internationale Energieagentur|IEA]], Januar 2024, aufgerufen am 21. Juli 2024.</ref> Dies ist der erste IEA-Bericht, der Prognosen für Rechenzentren und den Stromverbrauch für künstliche Intelligenz und Kryptowährungen enthält. Der Bericht besagt, dass sich der Strombedarf für diese Anwendungen von 2024 bis 2026 verdoppeln könnte, wobei der zusätzliche Stromverbrauch dem Stromverbrauch von ganz Japan entsprechen würde.<ref>Calvert Brian: [https://www.vox.com/climate/2024/3/28/24111721/ai-uses-a-lot-of-energy-experts-expect-it-to-double-in-just-a-few-years ''AI already uses as much energy as a small country. It's only the beginning''] [[Vox (Website)|Vox.com]], März 2024; abgerufen am 21. Juli 2024.</ref> |
|||
Der enorme Stromverbrauch von KI ist somit für einen Anstieg der Nutzung fossiler Brennstoffe mitverantwortlich und könnte weltweit die Schließung veralteter, kohlenstoffemittierender Kohlekraftwerke verzögern. So wird z. B. in den gesamten USA im ersten Halbjahr 2024 in großem Ausmaß mit dem Bau von Rechenzentren begonnen, was international führende Technologieunternehmen (z. B. ChatGPT, Meta, Google, Amazon) quasi über Nacht zu Marktteilnehmern mit massiv steigendem Stromverbrauch macht. Der prognostizierte Stromverbrauch ist so immens, dass die Sorge besteht, dass er die Maßnahmen gegen menschengemachten Klimawandel negativ beeinflussen wird.<ref>Manuel G. Pascual: [https://english.elpais.com/technology/2024-07-16/artificial-intelligence-is-already-an-environmental-problem.html# ''Artificial intelligence is already an environmental problem''] [[El País]], Juli 2024; abgerufen am 21. Juli 2024.</ref> So verbraucht eine ChatGPT-Suche zehn bis zwanzigmal so viel elektrische Energie wie eine bisherige normale Google-Suche.<ref>Dieter Kranzlmüller, Professor für Informatik Münchner LMU: [https://www.sueddeutsche.de/wirtschaft/ki-stromverbrauch-chat-gpt-1.6309789?reduced=true Süddeutsche Zeitung ''Warum Chat-GPT so viel Strom frisst''] [[Süddeutsche Zeitung]], November 2023; abgerufen am 21. Juli 2024.</ref> |
|||
Auch der Wasserverbrauch von K.I. ist zurzeit immens: Laut einer Forschungsarbeit der University of California wird für eine einzelne Anfrage an ChatGPT das Äquivalent von einer Flasche Wasser benötigt.<ref>Shaolei Ren, University of California: [https://fortune.com/2023/09/09/ai-chatgpt-usage-fuels-spike-in-microsoft-water-consumption/ ''A.I. tools fueled a 34 % spike in Microsoft’s water consumption.''] In: [[Fortune (Zeitschrift)|Fortune]], September 2023; abgerufen am 21. Juli 2024.</ref> |
|||
=== Informatik === |
|||
Das Problem liegt hier in der Definition und Abgrenzung des Intelligenz-Begriffes selbst. Ein [[Konstruktivismus (Lernpsychologie)|konstruktivistischer]] Ansatz zur Lösung des Problems besteht darin, wesentliche Intelligenzmerkmale der menschlichen Intelligenz zu abstrahieren und dann die Fähigkeiten einer gegebenen Anwendung an diesen Merkmalen zu messen. Dieser Ansatz hat zahlreiche Merkmale hervorgebracht, von denen mindestens die folgenden drei als notwendige Bedingungen angesehen werden: |
|||
{{Belege fehlen}} |
|||
Die ''künstliche Intelligenz'' ist mit den anderen Disziplinen der Informatik eng verzahnt. Eine Abgrenzung kann anhand der erzielten Ergebnisse versucht werden. Hierzu scheint es sinnvoll, verschiedene Dimensionen von Intelligenz zu unterscheiden: |
|||
# Die Fähigkeit zur Verarbeitung beliebiger |
# Die Fähigkeit zur Verarbeitung beliebiger [[Symbol]]e (nicht nur Zahlen). |
||
# Der Aufbau eines inneren Modells der äußeren Welt. |
# Der Aufbau eines inneren Modells der äußeren Welt, eines Selbstmodells, sowie der Beziehung von Selbst und Welt. |
||
# Die Fähigkeit zu einer zweckentsprechenden Anwendung des Wissens. |
# Die Fähigkeit zu einer zweckentsprechenden Anwendung des Wissens. |
||
# Die Fähigkeit, die im gespeicherten Wissen enthaltenen Zusammenhänge aufzudecken, d. h. logisch schlussfolgern zu können. |
|||
# Die Fähigkeit zur Verallgemeinerung (Abstraktion) und zur Spezialisierung (d. h. zu Anwendung allgemeiner Zusammenhänge auf konkrete Sachverhalte). |
|||
# Das Vermögen, erworbenes Wissen und vorhandene Erfahrung auf neue, bisher unbekannte Situationen zu übertragen. |
|||
# Die Fähigkeit, sich planvoll zu verhalten und entsprechende Strategien zum Erreichen der Ziele bilden zu können. |
|||
# Anpassungsfähigkeit an verschiedene, u. U. sich zeitlich ändernde Situationen und Problemumgebungen. |
|||
# Lernfähigkeit, verbunden mit dem Vermögen, partiellen Fortschritt oder Rückschritt einschätzen zu können. |
|||
# Die Fähigkeit, auch in unscharf bzw. unvollständig beschriebenen oder erkannten Situationen handeln zu können. |
|||
# Die Fähigkeit zur Mustererkennung (Besitz von Sensoren) und zur aktiven Auseinandersetzung mit der Umwelt (Besitz von Effektoren). |
|||
# Über ein Kommunikationsmittel von der Komplexität und Ausdrucksfähigkeit der menschlichen Sprache verfügen. |
|||
Seit 1966 wird mit dem [[Turing Award]] ein Informatikpreis vergeben. Viele der Preisträger wurden wegen ihrer Errungenschaften im Bereich der Erforschung und Entwicklung Künstlicher Intelligenz ausgezeichnet. |
|||
== Kritik an der KI-Forschung == |
|||
Weitere Merkmale und Fähigkeiten, die aber nicht als notwendig erachtet werden, sind etwa logisches Schlussfolgern, Verallgemeinerung und Spezialisierung, Verwendung natürlicher Sprache usw. Insgesamt existieren derzeit inklusive V1 bis V3 zwölf relativ gesicherte Merkmale. Es lässt sich nun sagen, dass eine Anwendung die V1 bis V3 erfüllen muss, um von einer Anwendung der Künstlichen Intelligenz sprechen zu können. Je mehr weitere Merkmale die Anwendung erfüllt, desto höher kann der Grad an Intelligenz, den die Anwendung realisiert bewertet werden. Bislang erfüllt zwar der Mensch sämtliche dieser Merkmale, doch es ist noch nicht gelungen, eine Anwendung zu entwickeln, die zugleich alle 12 Merkmale realisiert. |
|||
[[Stephen Hawking]] warnte 2014 vor der KI und sah darin eine Bedrohung für die Menschheit. Durch die KI könnte das [[Ende der Menschheit]] eingeleitet werden. Ob die Maschinen irgendwann die Kontrolle übernehmen werden, werde die Zukunft zeigen. Aber es sei klar, dass die Maschinen die Menschen zunehmend vom Arbeitsmarkt verdrängen.<ref name="handelsblatt.com-2014">Hilal Kalafat: [https://www.handelsblatt.com/technik/forschung-innovation/stephen-hawking-physiker-warnt-vor-kuenstlicher-intelligenz/11067072.html ''Physiker warnt vor künstlicher Intelligenz.''] In: ''[[Handelsblatt]].'' 3. Dezember 2014.</ref><ref name="gulli2014">{{Webarchiv |url=http://www.gulli.com/news/25318-stephen-hawking-warnt-vor-kuenstlicher-intelligenz-2014-12-09 |text=Stephen Hawking warnt vor Künstlicher Intelligenz |archive-is=20150718154203}}</ref><ref>{{Literatur |Autor=Rory Cellan-Jones |Titel=Stephen Hawking – will AI kill or save humankind? |Sammelwerk=BBC News |Datum=2016-10-20 |Online=https://www.bbc.com/news/technology-37713629 |Abruf=2018-10-28}}</ref> |
|||
Im August 2017 forderten 116 Unternehmer und Experten aus der Technologiebranche (u. a. [[Mustafa Suleyman]], [[Elon Musk]], [[Yoshua Bengio]], [[Stuart Russell]], [[Jürgen Schmidhuber]]) in einem offenen Brief an die UN, dass autonome Waffen verboten werden sollten bzw. auf die seit 1983 bestehende CCW-Liste gesetzt werden sollen. Die Certain Conventional Weapons sind von der [[Vereinte Nationen|UN]] verboten und beinhalten unter anderem Chemiewaffen. Nach Schwarzpulver und der Atombombe drohe die dritte Revolution der Kriegsführung. Zitat aus dem Schreiben: „Wenn diese [[Büchse der Pandora]] einmal geöffnet ist, wird es schwierig, sie wieder zu schließen“ und „Einmal erfunden, könnten sie bewaffnete Konflikte erlauben in einem nie dagewesenen Ausmaß, und schneller, als Menschen sie begreifen können“. Terroristen und Despoten könnten die autonomen Waffen nutzen und sogar hacken.<ref>[https://t3n.de/news/elon-musk-killer-roboter-849412/ Elon Musk und 116 Experten fordern Verbot von Killer-Robotern], t3n.de.</ref><ref>[https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz-elon-musk-warnt-vor-killer-robotern-15161436.html Elon Musk und Co. warnen vor Killer-Robotern], faz.net.</ref> |
|||
Insgesamt ist bei dem hier beschriebenen konstruktivistischen Ansatz zur Verwendung des Intelligenz-Begriffes zu beachten, dass dieser zwar zahlreiche Merkmale definiert und so fassbarer macht, dass andererseits jedoch die Fülle der Merkmale auch verhältnismäßig schwierig zu handhaben ist. |
|||
Argumentativ entgegengetreten sind solchen Positionen u. a. [[Rodney Brooks]] und [[Jean-Gabriel Ganascia]].<ref>{{Internetquelle |autor=[[Gero von Randow]] |url=http://www.zeit.de/2017/38/kuenstliche-intelligenz-autonome-roboter-siri-alltag |titel=Künstliche Intelligenz: Zu intelligent fürs Leben |werk=[[Die Zeit]] |datum=2017-09-14 |abruf=2017-09-27}}</ref> [[Jörg Phil Friedrich]] vertritt den Standpunkt, es sei weniger eine künstliche Intelligenz, die uns in den KI-Systemen begegne, „sondern eine über weite Strecken degenerierte menschliche Intelligenz“.<ref>{{Internetquelle |autor=Jörg Phil Friedrich |url=https://www.welt.de/kultur/plus243234583/ChatGPT-Co-Woran-man-Kuenstliche-Intelligenz-immer-erkennt.html |titel=Woran man Künstliche Intelligenz immer erkennt |werk=[[Die Welt]] |datum=2023-01-19 |abruf=2024-01-12}}</ref> |
|||
== Philosophische Aspekte == |
|||
Die [[Philosophie|philosophischen]] Aspekte der KI-Problematik gehören zu den weitreichendsten der gesamten Informatik. |
|||
Die Antworten, die auf die zentralen Fragen dieses Bereichs gegeben werden, reichen weit in [[Ontologie|ontologische]] und [[Erkenntnistheorie|erkenntnistheoretische]] Themen hinein, die das Denken des Menschen schon in den Anfängen der Philosophie beschäftigten. Wer solche Antworten gibt, muss die Konsequenzen daraus auch für den Menschen und sich selbst ziehen. Nicht selten möchte man umgekehrt vorgehen und die Antworten, die man vor der Entwicklung Künstlicher Intelligenz gefunden hat, auf diese übertragen. Doch wie sich zeigte, hat die künstliche Intelligenz zahlreiche Forscher dazu veranlasst, Probleme wie das Verhältnis von [[Materie]] und [[Geist]], die Ursprünge des Bewusstseins, die Grenzen der Erkenntnis, die Möglichkeit außermenschlicher Intelligenz usw. in neuem Licht zu betrachten und zum Teil neu zu bewerten. Siehe [http://www.kurzweilai.net/meme/frame.html?m=4 Will Machines Become Conscious?] |
|||
Im Februar 2018 wurde ein Bericht einer Projektgruppe führender Experten im Bereich KI veröffentlicht, der vor möglichen „Bösartige[n] Nutzungen künstlicher Intelligenz“ (englischer Originaltitel: „The Malicious Use of Artificial Intelligence“) warnt.<ref name="Malicious Use">{{Internetquelle |autor=Miles Brundage, Shahar Avin, Jack Clark, Helen Toner, Peter Eckersley, Ben Garfinkel, Allan Dafoe, Paul Scharre, Thomas Zeitzoff, Bobby Filar, Hyrum Anderson, Heather Roff, Gregory C. Allen, Jacob Steinhardt, Carrick Flynn, Seán Ó hÉigeartaigh, Simon Beard, Haydn Belfield, Sebastian Farquhar, Clare Lyle, Rebecca Crootof, Owain Evans, Michael Page, Joanna Bryson, Roman Yampolskiy, Dario Amodei |url=https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf |titel=The Malicious Use of Artificial Intelligence |hrsg=Centre of the Study for Existential Risk |datum=2018-02-20 |format=PDF |sprache=en |abruf=2018-03-09}}</ref> Beteiligt waren daran unter anderem Forscher der Universitäten von Oxford, Yale und Stanford, sowie Entwickler von Microsoft und Google. Der Bericht nimmt Bezug auf schon existierende Technologien und demonstriert anhand von diversen Szenarien, wie diese von Terroristen, Kriminellen und despotischen Regierungen missbraucht werden könnten.<ref name="Malicious Use" /> Die Autoren des Berichts fordern daher eine engere Zusammenarbeit von Forschern, Entwicklern und Gesetzgeber im Bereich KI und schlagen konkrete Maßnahmen vor, wie die Gefahren des Missbrauchs verringert werden könnten.<ref name="Malicious Use" /> |
|||
== Siehe auch == |
|||
Der Historiker [[Yuval Noah Harari]] sagt, „künstliche Intelligenz und [[Biotechnologie]] können zerstören, was den Menschen ausmacht.“ Er warnt vor einem Wettrüsten im Bereich der künstlichen Intelligenz und empfiehlt globale Zusammenarbeit angesichts dieser „existenziellen Bedrohung.“<ref>{{Internetquelle |autor=Gabor Kiss |url=https://de.euronews.com/2019/05/14/yuval-noah-harari-verlierer-wird-die-menschheit-sein |titel=Yuval Noah Harari: „Verlierer wird die Menschheit sein“ |werk=euronews |datum=2019-05-14 |sprache=de |abruf=2020-11-15}}</ref> 2024 äußerte er sich im Wochenmagazin [[Stern (Zeitschrift)|Stern]] besorgt, weil KI „die erste Technologie“ sei, „die eigene Entscheidungen treffen“ könne. Noch komme sie „recht primitiv daher“, doch schreite die Entwicklung zu schnell voran, ohne dass gegenwärtig die damit verbundenen Risiken eingeschätzt werden könnten. Es sei zu befürchten, die KI könnte eines Tages „Waffensysteme selbständig kontrollieren“ und „allein entscheiden, welche Person sie töten“. Die Risiken für die Demokratie bringt Harari mit der potentiellen Fähigkeit der KI in Verbindung, „das erste totale Überwachungssystem der Geschichte zu errichten“.<ref>{{Literatur |Autor=Steffen Gassel, Alexandra Kraft |Titel=„Lasst Euch nicht hetzen! Wenn wir Menschen uns den Algorithmen anpassen, ist das unser Ende“ |TitelErg=Exklusiv-Gespräch mit Yuval Noah Harari |Sammelwerk=[[Stern (Zeitschrift)|Stern]] |Nummer=37 |Datum=2024-09-05 |Seiten=38–45}}</ref> |
|||
* [[Agent]] |
|||
* [[DFKI|Deutsches Forschungszentrum für Künstliche Intelligenz]] |
|||
* [[Gruppensimulation (Computergrafik)]] |
|||
* [[Kognitionswissenschaft]] |
|||
* [[Kybernetik]] |
|||
* [[SciFi-Technologie]] |
|||
* [[Singularität (Technologie)|Technologische Singularität]] |
|||
[[Richard David Precht]] wendet sich gegen die Vorstellung, dass künftig böser Wille oder Machtstreben seitens einer entwickelten künstlichen Intelligenz drohe; das Gefahrenpotential liege vielmehr in ihrem falschen Einsatz.<ref>''Roboter können keine Moral. Warum das Gerede von superintelligenten, allmächtigen Maschinen nur ein großes Ablenkungsmanöver ist.'' In: [[Die Zeit]], 18. Juni 2020, S. 32.</ref> |
|||
== Literatur == |
|||
*Görz, Rollinger, Schneeberger (Hrsg.): ''Handbuch der Künstlichen Intelligenz'', 4. Auflage 2003, Oldenbourg, ISBN 3486272128 |
|||
Die ehemalige Google-Teamleiterin [[Timnit Gebru]] warnt vor dem ''[[Kognitive Verzerrung|bias]]'' und dem Energiebedarf großer Sprachmodelle, was [[Diskriminierung]] und [[Klimakrise]] verschärfen könnte.<ref>{{Internetquelle |autor=Chris Köver |url=https://netzpolitik.org/2020/ki-forscherin-timnit-gebru-tausende-google-angestellte-protestieren-nach-rauswurf/ |titel=KI-Forscherin Timnit Gebru – Tausende Google-Angestellte protestieren nach Rauswurf |werk=Netzpolitik.org |datum=2020-12-09 |sprache=de-DE |abruf=2021-12-23}}</ref> Um solchen ungewollten Effekten vorzubeugen, versucht der Forschungsbereich des [[AI-Alignment]]s (zu deutsch KI-Ausrichtung) sicherzustellen, dass KI nach menschlichen Werten wie etwa [[Egalitarismus]] handelt. (Siehe auch: [[Green IT]]) |
|||
*[[Stuart Russell]], [[Peter Norvig]]: ''[http://aima.cs.berkeley.edu/ Artificial Intelligence: A Modern Approach]'', 2. Auflage, 2002, Prentice Hall. (Das aktuelle englischsprachige Standardwerk zum Thema.) |
|||
*[[Stuart Russell]], [[Peter Norvig]]: ''[http://aima.cs.berkeley.edu/ Künstliche Intelligenz: Ein moderner Ansatz]'', August 2004, Pearson Studium, ISBN 3827370892 (deutsche Übersetzung der 2. Auflage) |
|||
[[Caroline Criado-Perez|Caroline Criado Perez]]<ref>{{Literatur |Autor=Caroline Criado-Perez |Titel=Invisible Women: Exposing Data Bias in a World Designed for Men |Datum= |ISBN=978-1-78470-628-9}}</ref> zeigt in ihrer ausführlichen Recherchearbeit das bestehende [[Gender-Data-Gap]]s einen negativen Einfluss auf Trainingsdaten von KI nehmen und so bestehende Diskriminierungen reproduziert werden. |
|||
*[[Karl Steinbuch]]: ''Automat und Mensch''. Berlin 1971 |
|||
*[[Dietrich Dörner]]: ''Bauplan für eine Seele''. Reinbek : Rowohlt, 2001. - ISBN 3-499-61193-7 |
|||
Als [[Feminismus|feministische]] Kritik im Bezug auf Daten und Technologisierung entwickelten sich bereits in den Anfängen des [[Internet]]s feministische Praxen wie [[Cyberfeminismus]] oder [[Technofeminismus]] und prägen den Diskurs der [[feministischen KI]]. |
|||
*[[Roger Penrose]]: ''Computerdenken - Des Kaisers neue Kleider oder die Debatte um künstliche Intelligenz, Bewusstsein und die Gesetze der Natur'', Übersetzung der englischen Originalausgabe "The Emperor's New Mind", mit einem Vorwort von Martin Gardner und einem Vorwort zur deutschen Ausgabe von Dieter Wandschneider, Heidelberg 1991 |
|||
*Roger Penrose: Schatten des Geistes - Wege zu einer neuen Physik des Bewußtseins, Übersetzung der englischen Originalausgabe "Shadows of the Mind", Heidelberg 1995 |
|||
=== Vorschläge zum Umgang mit KI === |
|||
*[[Howard Gardner]]: ''Dem Denken auf der Spur (KI als Teil der interdisziplinären Kognitionswissenschaft)'', Stuttgart 1989, ISBN 3-608-93099-X |
|||
Der Präsident von [[Microsoft]], Brad Smith, schlug vor, einen [[Verhaltenskodex]] aufzustellen, wie etwa eine ''Digitale [[Genfer Konvention]],'' um Risiken der künstlichen Intelligenz zu verringern. |
|||
*[[Marvin Minsky]]: ''Mentopolis'', Stuttgart 1990, ISBN 3-608-93117-1 |
|||
*[[Douglas R. Hofstadter]], ''Gödel, Escher, Bach, ein Endloses Geflochtenes Band'', dtv, ISBN 3423300175 |
|||
Der Ethiker [[Peter Dabrock]] empfiehlt im Kontext der Benutzung und Programmierung von künstlicher Intelligenz nicht nur die digitale Kompetenz der Beteiligten zu erhöhen, sondern auch auf klassische Bildungselemente zu setzen. Um mit den dazugehörigen Herausforderungen zurechtzukommen sowie die Fähigkeiten zur Unterscheidung und zur Erkennung von Mehrdeutigkeit zu erhöhen, seien Kenntnisse aus Religion, Literatur, Mathematik, Fremdsprachen, Musik und Sport eine gute Voraussetzung.<ref>Peter Dabrock: ''Wir sollten auf klassische Bildung setzen.'' In: ''Aufbruch Künstliche Intelligenz – Was sie bedeutet und wie sie unser Leben verändert.'' Google LLC, SZ Scala GmbH, 2018, S. 34.</ref> |
|||
* [[Rolf Pfeifer]], Christian Scheier, Alex Riegler: Understanding Intelligence. Bradford Books. 2001. ISBN 026266125X |
|||
* Michael Kary, Martin Mahner: ''How Would You Know if You Synthesized a Thinking Thing?'' Minds and Machines 12, 2002, 61-86. |
|||
Der [[Deutscher Bundestag|Deutsche Bundestag]] hat am 28. Juni 2018 eine [[Enquete-Kommission Künstliche Intelligenz|Enquete-Kommission ''Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale'']] eingesetzt.<ref>{{Literatur |Autor=Lisa Brüssler |Titel=Deutscher Bundestag – Enquete-Kommission zur künstlichen Intelligenz eingesetzt |Sammelwerk=Deutscher Bundestag |Datum= |Online=https://www.bundestag.de/dokumente/textarchiv/2018/kw26-de-enquete-kommission-kuenstliche-intelligenz/560330 |Abruf=2018-09-06}}</ref> Am 28. Oktober 2020 hat die Kommission ihren Abschlussbericht vorgelegt. Künstliche Intelligenz ist demnach die nächste Stufe der Digitalisierung. Unter dem Leitbild einer „menschenzentrierten KI“ wird eine „demokratische Gestaltung“ der Entwicklung gefordert, so dass KI-Anwendungen vorrangig auf das Wohl und die Würde der Menschen ausgerichtet seien und einen gesellschaftlichen Nutzen bringen. Um einer Diskriminierung von Menschen entgegenzuwirken „braucht es, wenn KI über Menschen urteilt, einen Anspruch auf Transparenz, Nachvollziehbarkeit und Erklärbarkeit von KI-Entscheidungen, damit eine gerichtliche Überprüfung automatisierter Entscheidungen möglich ist“.<ref>{{Internetquelle |url=https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki |titel=Deutscher Bundestag – Enquete-Kommission „Künstliche Intelligenz“ |sprache=de |offline=1 |archiv-url=https://web.archive.org/web/20201031234913/https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki |archiv-datum=2020-10-31 |abruf=2022-11-19}}</ref> |
|||
2021 veröffentlichte die [[Europäische Kommission|EU-Kommission]] einen Vorschlag über eine [[KI-Verordnung]], über die derzeit verhandelt wird. |
|||
Im März 2023 wurde ein u. a. von Elon Musk unterstützter [[ChatGPT#Aufruf zu einer KI-Entwicklungspause|Aufruf zu einer 6-monatigen KI-Entwicklungspause]] veröffentlicht.<ref>Bernd Müller: [https://www.telepolis.de/features/Elon-Musk-Yoshua-Bengio-und-Hunderte-von-Unterzeichnern-fuer-Pause-beim-KI-Training-8255832.html ''Elon Musk, Yoshua Bengio und Hunderte von Unterzeichnern für Pause beim KI-Training.''] [[Telepolis]], 31. März 2023</ref> |
|||
Der KI-Investor [[Fabian Westerheide]] verwies im Zusammenhang mit seinem 2024 erschienenen Buch ''Die KI-Nation'' auf hohe Investitionen einiger Staaten – insbesondere Chinas – in eine eigene KI-Strategie, warnte vor der Gefahr einer Überwachung durch [[Backdoor]]s beim Einsatz ausländischer KI und betonte die Bedeutung deutscher und gesamteuropäischer Pläne zur KI.<ref>{{Internetquelle |autor=Fabian Westerheide |url=https://www.capital.de/wirtschaft-politik/wie-china-zur-ki-supermacht-wurde---und-was-das-land-damit-vorhat-34633812.html |titel=Wie China zur KI-Supermacht wurde – und was das Land damit vorhat |werk=capital.de |datum=2024-04-18 |abruf=2024-06-01}}</ref> |
|||
=== Verbreitung von KI in Deutschland === |
|||
Die Zahl der Betriebe, die KI-Technologien einsetzen, ist in Deutschland noch relativ gering. Ende 2018 haben nur 6 Prozent der Unternehmen KI genutzt oder implementiert. 17 Prozent haben angegeben, KI-Einsätze zu testen oder zumindest solche zu planen.<ref>{{Literatur |Autor=PwC |Titel=Künstliche Intelligenz in Unternehmen |Datum=2019 |Online={{Webarchiv |url=https://www.pwc.de/de/digitale-transformation/kuenstliche-intelligenz/studie-kuenstliche-intelligenz-in-unternehmen.pdf |text=pwc.de |wayback=20200625222418}} |Format=PDF |KBytes=567}}</ref> Auch die ZEW-Studie<ref>{{Internetquelle |autor=Bundesministerium für Wirtschaft und Energie |url=https://www.bmwi.de/Redaktion/DE/Publikationen/Wirtschaft/einsatz-von-ki-deutsche-wirtschaft.html |titel=Einsatz von Künstlicher Intelligenz in der Deutschen Wirtschaft |abruf=2020-06-22}}</ref> kommt zu einem ähnlichen Ergebnis. Im Jahr 2019 haben rund 17.500 Unternehmen im Berichtskreis der Innovationserhebung (produzierendes Gewerbe und überwiegend unternehmensorientierte Dienstleistungen) KI in Produkten, Dienstleistungen oder internen Prozessen eingesetzt. Das sind 5,8 Prozent der Unternehmen im Berichtskreis. |
|||
=== Das KI-Observatorium === |
|||
Mit dem Observatorium Künstliche Intelligenz in Arbeit und Gesellschaft (kurz: KI-Observatorium), einem Projekt der Denkfabrik Digitale Arbeitsgesellschaft, fokussiert das [[Bundesministerium für Arbeit und Soziales]] die Frage nach den Auswirkungen von KI auf Arbeit und Gesellschaft. Das KI-Observatorium agiert an der Schnittstelle zwischen Politik, Wissenschaft, Wirtschaft und Gesellschaft; es fungiert als Wissensträger und Impulsgeber. Das KI-Observatorium hat die Aufgabe, Effekte von KI in der Arbeitswelt frühzeitig zu antizipieren und Handlungsbedarfe aufzuzeigen. Auf diese Weise leistet die im März 2020 gestartete Arbeitseinheit einen Beitrag zur Realisierung der in der KI-Strategie der Bundesregierung formulierten Ziele – etwa zum sicheren und gemeinwohlorientierten Einsatz von KI. Darüber hinaus soll das KI-Observatorium mithilfe von Dialog- und Beteiligungsformaten unterschiedliche gesellschaftliche Akteure im Umgang mit künstlicher Intelligenz befähigen und bestärken.<ref>{{Internetquelle |url=https://www.denkfabrik-bmas.de/projekte/ki-observatorium |titel=KI-Observatorium |werk=Denkfabrik Digitale Arbeitsgesellschaft |hrsg=Bundesministerium für Arbeit und Soziales (BAMS) |sprache=de |abruf=2023-04-02}}</ref> |
|||
Die konkreten Aufgabenschwerpunkte des Observatoriums sind in den fünf Handlungsfeldern festgehalten:<ref>{{Internetquelle |url=https://www.denkfabrik-bmas.de/die-denkfabrik/ki-observatorium/die-fuenf-handlungsfelder |titel=Die 5 Handlungsfelder des KI-Observatoriums |sprache=de |offline=1 |archiv-url=https://web.archive.org/web/20200625161533/https://www.denkfabrik-bmas.de/die-denkfabrik/ki-observatorium/die-fuenf-handlungsfelder |archiv-datum=2020-06-25 |abruf=2020-06-22}}</ref> |
|||
# Technologie-Foresight und Technikfolgenabschätzung |
|||
# KI in der Arbeits- und Sozialverwaltung |
|||
# Ordnungsrahmen für KI/soziale Technikgestaltung |
|||
# Aufbau internationaler und europäischer Strukturen |
|||
# Gesellschaftlicher Dialog und Vernetzung |
|||
== Grundlegende Schwachstellen der KI == |
|||
Zu den auch Ende des Jahres 2024 deutlich feststellbaren grundlegenden [[Mangel (Qualität)|Schwachstellen]] der KI gehören u. a.: |
|||
* [[Generatives KI-Modell|Generative KI]] beinhaltet systemimmanente Probleme, die zum so genannten [[Halluzination (Künstliche Intelligenz)|Halluzinieren]] führen können, bei dem überzeugende Antworten verfasst werden, die angeblich wahr sind, obwohl es sich tatsächlich um Phantasieprodukte handelt.<ref>{{Internetquelle |url=https://www.heise.de/news/Googles-KI-Uebersichten-ist-immer-noch-nicht-zu-trauen-10186919.html |titel=Googles KI-Übersichten ist immer noch nicht zu trauen |werk=heise.de |datum=2024-12-23 |sprache=de |abruf=2024-12-27}}</ref><ref>{{Internetquelle |url=https://www.heise.de/news/BBC-warnt-vor-fehlerhaften-KI-Nachrichtenzusammenfassungen-10278955.html |titel=BBC warnt vor fehlerhaften KI-Nachrichtenzusammenfassungen |werk=heise.de |datum=2025-02-12 |sprache=de |abruf=2025-02-17}}</ref> |
|||
* Wenige marktbeherrschende Unternehmen im Zusammenhang mit den weltweiten [[Big Tech|Big-Tech-Unternehmen]] kontrollieren durch Ausnutzung ihrer bestehenden [[Marktführer|Dominanz]] und durch gezieltes Aufkaufen von KI-Startups die Entwicklung der Künstlichen Intelligenz und verstärken dadurch umso mehr ihre [[monopol]]artigen Marktstellungen mit all den damit zusammenhängenden Nachteilen.<ref>{{Internetquelle |url=https://www.heise.de/news/KI-und-Machtkonzentration-Wie-ChatGPT-Co-die-Macht-von-Big-Tech-verfestigen-8971056.html |titel=KI und Machtkonzentration: Wie ChatGPT & Co. die Macht von Big Tech verfestigen |werk=heise.de |datum=2023-04-20 |sprache=de |abruf=2024-12-27}}</ref> |
|||
* Manipulierbarkeit der Anwendung schon allein durch Auswahl der verwendeten KI-„Trainingsdaten“. |
|||
* Zum Teil gravierende Sicherheitsbedenken: Nutzer von insbesondere generativen KI-Modellen haben kaum Möglichkeiten, Sicherheitslücken zu erkennen. Beispielsweise ist mit Stand Februar 2025 bei der [[DeepSeek]]-AI von einer sehr weitreichenden Speicherung von auch vertraulichen Nutzerdaten auszugehen.<ref>{{Internetquelle |url=https://www.heise.de/news/Datenschutzbedenken-Nach-Italien-verbietet-auch-Suedkorea-DeepSeek-10284146.html |titel=Datenschutzbedenken: Nach Italien verbietet auch Südkorea DeepSeek |werk=heise.de |datum=2025-02-17 |sprache=de |abruf=2025-02-17}}</ref> |
|||
* KI neigt dazu, bereits bestehende gesellschaftliche [[Diskriminierung]]sverhältnisse zu reproduzieren. Wenn die Daten, mit denen eine KI trainiert wird, z. B. bereits einen [[Sexismus|sexistischen]] oder [[Rassismus|rassistischen]] [[Kognitive Verzerrung|Bias]] haben, wirkt sich dieser auch auf die Funktionen der KI aus. Es gibt vor allem bei mittels KI automatisierten Entscheidungsprozessen eine Reihe von Beispielen, bei denen [[Marginalisierung|marginalisierte]] Gruppen benachteiligt werden.<ref>{{Literatur |Autor=Phillip Lücking |Titel=Automatisierte Ungleichheit. Wie algorithmische Entscheidungssysteme gesellschaftliche Machtverhältnisse (re)produzieren |Hrsg=netzforma* e. V. |Sammelwerk=Wenn KI, dann feministisch. Impulse aus Wissenschaft und Aktivismus |Ort=Berlin |Datum=2020 |Seiten=65–76 |Online=https://netzforma.org/wp-content/uploads/2021/01/2020_wenn-ki-dann-feministisch_netzforma.pdf |Abruf=2025-04-06}}</ref><ref>{{Internetquelle |autor=Katrin Fritsch, Helene von Schwichow |url=https://www.kite-bga.de/fileadmin/documents/MOTIF__KI___Feminismus.pdf |titel=Künstliche Intelligenz und Feminismus: Aktuelle Debatten |hrsg=MOTIF Institute for Digital Culture |seiten=11 ff|datum=2021-02-25 |abruf=2025-04-06}}</ref> |
|||
== Regulierung und Gesetzgebung == |
|||
=== Europäische Union === |
|||
Die [[Verordnung über künstliche Intelligenz]] (informell meist ''KI-Verordnung,'' [[Englische Sprache|englisch]] ''AI Act'') ist eine [[Verordnung (EU)|EU-Verordnung]] für die [[Regulierung von künstlicher Intelligenz]]. Es ist die weltweit erste umfassende Regulierung dieser Art. Das Gesetz regelt den Einsatz von KI unter anderem für die kritische Infrastruktur, Sicherheitsbehörden und Personalverwaltung.<ref>{{Internetquelle |url=https://www.zeit.de/digital/2023-12/eu-kuenstliche-intelligenz-gesetz-regeln-einigung |titel=EU einigt sich auf Regeln für künstliche Intelligenz |werk=Zeit Online |datum=2023-12-09 |sprache=de |abruf=2023-12-22}}</ref> Die [[Europäische Kommission]] hat das Gesetz am 21. April 2021 vorgeschlagen und einen ersten Entwurf veröffentlicht.<ref>{{Internetquelle |url=https://www.spiegel.de/netzwelt/netzpolitik/ai-act-eu-erzielt-einigung-auf-regeln-fuer-kuenstliche-intelligenz-a-54d0ff03-d275-4c3a-b1b9-c491a0a258cd |titel=EU einigt sich auf Regeln für künstliche Intelligenz |werk=Der Spiegel |datum=2023-12-09 |sprache=de |abruf=2023-12-22}}</ref> Am 28. September 2022 hat die Europäische Kommission in dem Zusammenhang auch den Entwurf einer Richtlinie über Produkthaftung<ref>{{CELEX|52022PC0495|''Vorschlag für eine RICHTLINIE DES EUROPÄISCHEN PARLAMENTS UND DES RATES über die Haftung für fehlerhafte Produkte (COM(2022) 495 final)''|abruf=2023-12-22}}</ref> und einer Richtlinie über KI-Haftung veröffentlicht.<ref>{{CELEX|52022PC0496|''Vorschlag für eine RICHTLINIE DES EUROPÄISCHEN PARLAMENTS UND DES RATES zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung)'' (COM/2022/496 final)|abruf=2023-12-22}}</ref> Haftungsfragen waren zuvor aus der Verordnung herausgenommen worden.<ref>{{Internetquelle |autor=Falk Steiner |url=https://www.heise.de/select/ct/2022/27/2225907563157625549 |titel=Im Regulierungsrausch |werk=c't |hrsg=Heise |datum=2022-12 |abruf=2023-12-22}}</ref> In dem Kontext steht auch die Überarbeitung der [[Richtlinie 2006/42/EG (Maschinenrichtlinie)|Maschinenrichtlinie]] zur EU-Maschinenverordnung, die am 14. Juni 2023 in Kraft getreten ist. Am 9. Dezember 2023 einigten sich die EU-Gesetzgebungsinstitutionen auf die Grundzüge des Gesetzes.<ref>[https://www.sueddeutsche.de/wirtschaft/ai-act-kuenstliche-intelligenz-bruessel-ki-1.6316909 ''Wie Europa Chat-GPT & Co. Zügel anlegt.''] SZ, 9. Dezember 2023</ref><ref>[https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/ai-act-eu-einigt-sich-auf-ki-verordnung-19372808.html ''Weltweit restriktivste Regulierung von Künstlicher Intelligenz.''] Holger Schmidt, FAZ, 9. Dezember 2023</ref> |
|||
Am 12. Juni 2024 hat die EU die KI-Verordnung mit dem Titel „''Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)''“ veröffentlicht.<ref>{{Internetquelle |url=https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689#tit_1 |titel=Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates |werk=eur-lex.europa.eu |hrsg=EU Parlament und Rat |datum=2024-06-13 |sprache=de |abruf=2025-01-08}}</ref> Hier sind Vorschriften zum Inverkehrbringen, Inbetriebnahme und die Verwendung von KI-Systemen festgelegt. Verbotene Praktiken sind in Kapitel II benannt.<ref>{{Internetquelle |url=https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689#cpt_II |titel=KAPITEL II VERBOTENE PRAKTIKEN IM KI-BEREICH |werk=eur-lex.europa.eu |hrsg=EU Parlament und Rat |datum=2024-06-13 |sprache=de |abruf=2025-01-08}}</ref> Ebenso sind die Kriterien zur Einstufung von KI-Systemen als Hochrisiko-KI-Systeme in Kapitel III beschrieben.<ref>{{Internetquelle |url=https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689#cpt_III |titel=KAPITEL III HOCHRISIKO-KI-SYSTEME |werk=eur-lex.europa.eu |hrsg=EU Parlament und Rat |datum=2024-06-13 |sprache=de |abruf=2025-01-08}}</ref> Für Hochrisiko-KI-Systeme wird die EU eine Datenbank errichten.<ref>{{Internetquelle |url=https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689#cpt_VIII |titel=Artikel 71 EU-Datenbank für die in Anhang III aufgeführten Hochrisiko-KI-Systeme |werk=eur-lex.europa.eu |hrsg=EU Parlament und Rat |datum=2024-06-13 |abruf=2025-01-08}}</ref> Sanktionen gegen die Missachtung der Richtlinie sind mit Geldbußen von 35 Millionen Euro oder 7 % des gesamten weltweiten Umsatzes des verstoßenden Unternehmens belegt.<ref>{{Internetquelle |url=https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689#cpt_XII |titel=Artikel 99 Sanktionen |werk=eur-lex.europa.eu |hrsg=EU Parlament und Rat |datum=2024-06-13 |sprache=de |abruf=2025-01-08}}</ref> Wie jede EU-Richtlinie muss sie in nationale Gesetze übernommen werden. Für KI-Systeme ist eine [[EU-Konformitätserklärung]] vorgeschrieben.<ref>{{Internetquelle |url=https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689#anx_V |titel=ANHANG V EU-Konformitätserklärung |werk=eur-lex.europa.eu |hrsg=EU Parlament und Rat |datum=2024-06-13 |sprache=de |abruf=2025-01-08}}</ref> |
|||
Da die KI-Systeme viele Bereiche tangieren, wie am Titel der Verordnung ersichtlich, wurden folgende Richtlinien geändert: Richtlinie 2014/90/EU über Schiffsausrüstung, [[Interoperabilität im Schienenverkehr#Rechtliche Rahmenbedingungen|Richtlinie (EU) 2016/797 über die Interoperabilität des Eisenbahnsystems]] in der Europäischen Union. Folgende Verordnungen wurden mit der KI-RL auch geändert: Verordnung (EG) Nr. 300/2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt, Verordnung (EU) Nr. 167/2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen, Verordnung (EU) Nr. 168/2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen, Verordnung (EU) 2018/858 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, Verordnung (EU) 2018/1139 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit, Verordnung (EU) 2019/2144 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern.<ref>{{Internetquelle |url=https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689#cpt_XIII |titel=KAPITEL XIII SCHLUSSBESTIMMUNGEN |werk=eur-lex.europa.eu |hrsg=EU Parlament und Rat |datum=2024-06-13 |sprache=de |abruf=2025-01-08}}</ref> |
|||
Basierend auf den Verordnungen der EU haben einige nationale Stellen bereits eigenen Regularien zum Einsatz im öffentlich-rechtlichen Umfeld ausgearbeitet.<ref>Bundesministerium des Innern und für Heimat, 2025: [https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/moderne-verwaltung/ki/BMI25020-leitlinien-ki-bundesverwaltung.pdf?__blob=publicationFile&v=4 Leitlinien für den Einsatz Künstlicher Intelligenz in der Bundesverwaltung (pdf)]</ref> |
|||
=== Vereinigte Staaten === |
|||
In den [[Vereinigte Staaten|Vereinigten Staaten]] gibt es bislang keine Bundesgesetzgebung, die die Verwendung von künstlicher Intelligenz explizit und umfassend reguliert. |
|||
Dass der Einsatz von KI möglichst global reguliert wird, halten viele US-amerikanische Juristen jedoch für notwendig, so zum Beispiel Anwalt Shabbi S. Khan: „Generative KI hat das Potenzial, katastrophal zu sein“.<ref>{{Internetquelle |autor=Felix Huesmann |url=https://www.rnd.de/politik/kuenstliche-intelligenz-usa-drohen-bei-regulierung-ins-globale-hintertreffen-zu-geraten-JJNZA6ELF5HPJJTC2CYGOZQ2T4.html |titel=Regulierung von künstlicher Intelligenz: USA drohen ins globale Hintertreffen zu geraten |werk=RedaktionsNetzwerkes Deutschland |datum=2023-10-04 |sprache=de |abruf=2023-12-22}}</ref> Auch die [[US-Regierung]] hat erkannt, dass die Machtfülle der großen Tech-Unternehmen zu einer Bedrohung der [[Demokratie]] werden kann. Im Juli 2023 wollte US-Präsident Joe Biden eine freiwillige Selbstverpflichtung führender KI-Unternehmen einholen, um zu einer sicheren und transparenten KI-Entwicklung beizutragen.<ref>{{Internetquelle |autor=Corinna Visser |url=https://www.fr.de/politik/ki-kuenstliche-intelligenz-regulierung-usa-freiwillige-commitments-ai-kuenstliche-intelligenz-tbl-zr-92434421.html |titel=Schwerpunkte und Tempo: Das machen die USA bei der KI-Regulierung besser |werk=Frankfurter Rundschau |datum=2023-08-01 |sprache=de |abruf=2023-12-22}}</ref> |
|||
== Darstellung in Film, Videospielen, Literatur und Musik == |
|||
Künstliche Wesen, die denken können, tauchen seit der Antike als Figuren in Erzählungen auf und sind ein ständiges Thema in der Science-Fiction.<ref>{{Literatur |Autor=Pamela McCorduck |Titel=Machines Who Think |Auflage=2. |Datum=2004 |ISBN=1-56881-205-1 |Sprache=en}}</ref> |
|||
Seit der [[Klassische Moderne|Klassischen Moderne]] wird KI in Kunst, Film und Literatur behandelt.<ref>Lisa Xanke, Elisabeth Bärenz: [http://digbib.ubka.uni-karlsruhe.de/volltexte/documents/2055128 ''Künstliche Intelligenz in Literatur und Film – Fiktion oder Realität?''] Online-Artikel der Universität Karlsruhe, abgerufen am 20. Juli 2012, S. 1.</ref> Dabei geht es bei der künstlerischen Verarbeitung – im Gegensatz zur KI-Forschung, bei der die technische Realisierung im Vordergrund steht – vor allem um die moralischen, ethischen und religiösen Aspekte und Folgen einer nicht-menschlichen, „maschinellen Intelligenz“. |
|||
In der [[Renaissance]] wurde der Begriff des ''[[Homunculus]]'' geprägt, eines künstlichen Miniaturmenschen ohne Seele.<ref>Xanke, Bärenz, S. 37.</ref> Im 18. und 19. Jahrhundert erschienen in der Literatur menschenähnliche Automaten, beispielsweise in [[E. T. A. Hoffmann]]s ''Der Sandmann'' und [[Jean Paul]]s ''Der Maschinenmann.'' |
|||
Im 20. und 21. Jahrhundert greift die [[Science-Fiction]] in [[Film]] und [[Prosa]] das Thema mannigfach auf.<ref name="Xanke38">Xanke, Bärenz, S. 38.</ref> 1920 prägte der Schriftsteller [[Karel Čapek]] den Begriff „Roboter“ in seinem Bühnenstück ''[[R.U.R.]]''; 1926 thematisierte [[Fritz Lang]] in [[Metropolis (Film)|Metropolis]] Roboter, welche die Arbeit der Menschen übernehmen.<ref name="Xanke38" /> |
|||
Ein häufiges Motiv im Film und der Literatur begann mit [[Mary Shelley]]s Roman [[Frankenstein (Roman)|''Frankenstein'']] (1818), in dem eine menschliche Schöpfung zu einer Bedrohung für ihre Meister wird. Dazu gehören Werke wie [[Arthur C. Clarke]]s und Stanley Kubricks ''2001:'' ''Odyssee im Weltraum'' (beide 1968), mit [[HAL 9000]], dem mörderischen Computer, der das Raumschiff ''Discovery One'' steuert, sowie die Terminator-Filmreihe (ab 1984) und ''The Matrix'' (1999). Im Gegensatz dazu sind die seltenen loyalen Roboter wie Gort aus ''[[Der Tag, an dem die Erde stillstand (1951)|Der Tag an dem die Erde stillstand]]'' (1951) und ''Bishop'' aus [[Aliens – Die Rückkehr|''A''liens]] (1986) in der Populärkultur weniger präsent.<ref>{{Literatur |Autor=G. Buttazzo |Titel=Artificial consciousness: Utopia or real possibility?. Computer. |Band=7 |Nummer=34 |Datum=2001 |Seiten=24–30 |Sprache=en |DOI=10.1109/2.933500}}</ref> |
|||
Mehrere Werke nutzen die künstliche Intelligenz, um uns mit der grundlegenden Frage zu konfrontieren, was uns zu Menschen macht, indem sie uns künstliche Wesen zeigen, die die Fähigkeit haben, zu fühlen und somit zu leiden. Dies geschieht in Karel Čapeks R.U.R., dem Film ''[[A.I. – Künstliche Intelligenz|A.I. Artificial Intelligence]]'' von [[Steven Spielberg]] (2001) und anhand der Androidin ''Ava'' im Kinofilm ''[[Ex Machina (Film)|Ex Machina]]'' (2015) von [[Alex Garland]] sowie in dem Roman ''[[Träumen Androiden von elektrischen Schafen?]]'' (1968) von [[Philip K. Dick]]. Dick befasst sich mit der Idee, dass unser Verständnis der menschlichen Subjektivität durch die mit künstlicher Intelligenz geschaffene Technologie verändert wird.<ref>{{Literatur |Autor=Jill Galvan |Titel="Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of electric Sheep?"" |Sammelwerk=Science Fiction Studies |Band=3 |Nummer=24 |Datum=1997-01 |Seiten=413–429 |Sprache=en |JSTOR=4240644}}</ref> |
|||
Am 30. September 2016 veröffentlichte die [[Vereinigte Staaten|US-amerikanische]] [[Pop-Rock]]-Band [[OneRepublic]] mit dem englischen [[Singer-Songwriter]] und [[Rockmusik]]er [[Peter Gabriel]] das [[Lied]] ''[[A.I. (Lied)|A.I.]]''<ref name="OR+PG-A.I.-Peter Gabriel">{{Internetquelle |autor=Peter Gabriel Ltd. |url=https://petergabriel.com/news/i-featuring-peter-released/ |titel=A.I. featuring Peter released – 30th September, 2016 |hrsg=PeterGabriel.com |datum=2024 |sprache=en-GB |abruf=2024-08-22}}</ref> als digitale [[Single (Musik)|Single]] und am 7. Oktober 2016 auf dem [[Musikalbum|Album]] ''Oh My My'' von OneRepublic.<ref name="OR-Oh My My-Discogs">{{Internetquelle |url=https://www.discogs.com/de/release/9148820-OneRepublic-Oh-My-My |titel=OneRepublic – Oh My My |hrsg=[[Discogs]] |datum=2024 |sprache=en-US |abruf=2024-08-22}}</ref><ref name="OR-Oh My My-Digital Spy">{{Internetquelle |autor=Charlotte Whistlecroft |url=https://www.digitalspy.com/music/new-music/a809723/onerepublic-releases-new-single-peter-gabriel-album-oh-my-my/ |titel=OneRepublic have dropped an incredible new single with Peter Gabriel |titelerg=Oh My My is it good. |hrsg=[[Digital Spy]] |datum=2016-10-01 |sprache=en-US |abruf=2024-08-22}}</ref> Der [[Song]] ist inspiriert von dem Film ''A.I. Artificial Intelligence'' von [[Steven Spielberg]] aus dem Jahr 2001.<ref name="OR+PG-A.I.-Billboard">{{Internetquelle |autor=Nerisha Penrose |url=https://www.billboard.com/music/pop/onerepublic-peter-gabriel-ai-7526734/ |titel=OneRepublic Taps Peter Gabriel for ‘A.I.’-Inspired Track: Listen |titelerg=What was once a dream has now become reality for OneRepublic. The pop group released their new collaborative track with Peter Gabriel "A.I" -- which oddly enough was inspired by the 2001 movie of the… |hrsg=[[Billboard (Magazin)|Billboard]] |datum=2016-10-03 |sprache=en-US |abruf=2024-08-22}}</ref> |
|||
Die beiden großen [[Science-Fiction]]-[[Franchise (Medien)|Franchises]] des frühen 21. Jahrhunderts, ''[[Star Wars]]'' und ''[[Star Trek]]'', gehen sehr unterschiedlich mit dem Thema KI um. Während bei ''Star Wars'' KI vor allem in Form von [[Roboter]]n und [[Androide]]n (gleichermaßen als [[Statist]]en und [[Protagonist|Hauptfiguren]]) von Beginn an selbstverständlich und allgegenwärtig erscheint, nahm ''Star Trek'' im Laufe der Zeit immer wieder sehr dedizierte, wechselnde Perspektiven ein, obwohl KI auch dort meist selbstverständlich ist (z. B. Simulierte Lebewesen auf [[Holodeck]]s). Beispielsweise wurde die Folge ''[[Wem gehört Data?]]'' (1989) zum Arbeitsthema mehrerer Wissenschaftler. |
|||
'''Roboter und Androide''' |
|||
[[Isaac Asimov]] führte die Drei Gesetze der Robotik in vielen Büchern und Geschichten ein, vor allem in der „''Multivac''“-Serie über einen superintelligenten Computer gleichen Namens. Asimovs Gesetze werden oft in Laiendiskussionen über Maschinenethik erwähnt;<ref>{{Literatur |Autor=Susan Leigh Anderson |Titel=Asimov's "three laws of robotics" and machine metaethics. |Sammelwerk=AI & Society |Band=4 |Nummer=22 |Datum=2008 |Seiten=477–493 |Sprache=en |DOI=10.1007/s00146-007-0094-5}}</ref> während fast alle Forscher im Bereich der künstlichen Intelligenz mit Asimovs Gesetzen durch die Populärkultur vertraut sind, halten sie die Gesetze im Allgemeinen aus vielen Gründen für nutzlos, einer davon ist ihre Zweideutigkeit.<ref>{{Literatur |Autor=Lee McCauley |Titel="AI armageddon and the three laws of robotics" |Sammelwerk=Ethics and Information Technology |Datum=2007 |Seiten=153–164 |Sprache=en |DOI=10.1007/s10676-007-9138-2}}</ref> |
|||
Dem Filmpublikum wurden in den unterschiedlichen Werken die Roboter als intelligente und differenzierte Maschinen mit ganz unterschiedlichen Persönlichkeiten präsentiert: Sie werden entwickelt, um sie für gute Zwecke einzusetzen, wandeln sich aber häufig zu gefährlichen Maschinen, die feindselige Pläne gegen Menschen entwickeln.<ref name="Xanke39">Xanke, Bärenz, S. 39.</ref> Im Lauf der Filmgeschichte werden sie zunehmend zu selbstbewussten Wesen, die sich die Menschheit unterwerfen wollen.<ref name="Xanke39" /> |
|||
'''Simulierte Realität''' |
|||
Die simulierte Realität ist zu einem häufigen Thema in der Science-Fiction geworden, wie beispielsweise in dem Film The Matrix aus dem Jahr 1999 zu sehen ist, in dem eine Welt dargestellt wird, in der künstlich intelligente Roboter die Menschheit in einer Simulation versklaven, die in der heutigen Welt angesiedelt ist.<ref>{{Internetquelle |autor=Jamie Allen |url=https://prezi.com/ybxwvr21r9lz/the-matrix-and-postmodernism/ |titel=The Matrix and Postmodernism |werk=prezi.com/ |sprache=en |abruf=2024-05-15}}</ref> Zuvor thematisierte bereits die [[Raumschiff Enterprise – Das nächste Jahrhundert|Star Trek TNG]] - Episode ''[[Das Schiff in der Flasche]]'' (1993) die Steuerung einer simulierten Realität durch eine böswillige KI, welche zuvor in der Episode ''[[Sherlock Data Holmes]]'' (1988) versehentlich erschaffen worden war. |
|||
=== Beispiele === |
|||
'''Auswahl Filme und Literatur''': |
|||
* Der ''Maschinenmensch'' (aka die ''falsche Maria'') in [[Fritz Lang]]s [[Metropolis (Film)|''Metropolis'']] (1927). |
|||
* Der Computer ''[[HAL 9000]]'' im Kinofilm ''[[2001: Odyssee im Weltraum|2001 Odyssee im Weltraum]]'' (1968) von [[Stanley Kubrick]] |
|||
* ''[[Ich heiße Nomad|Nomad]]'' (und andere) in der TV-Serie ''[[Raumschiff Enterprise]]'' (1966–1969) und später ''V'ger'' in ''[[Star Trek: Der Film]]'' (1979), dem ersten Kinofilm zur vorgenannten Serie. |
|||
* Die Elektronengehirne ''Colossus ''und ''Guardian ''im Film ''[[Colossus (Film)|Colossus]]'' (1969) von [[Joseph Sargent|Joseph Sartgent]] |
|||
* Die Androiden im Kinofilm ''[[Westworld (Film)|Westworld]]'' (1973) und der US-amerikanischen Fernsehserie ''[[Westworld (Fernsehserie)|Westworld]]'' (2016) |
|||
* Die sprechenden Bomben im Film ''[[Dark Star – Finsterer Stern]]'' (1974) von [[John Carpenter]] |
|||
* Die meisten der seit 1977 im [[Star Wars|''Star Wars Franchise'']] (Filme, Serien, Videospiele) sichtbaren Roboter und Androide, einschließlich ''[[R2-D2]]'' und ''[[C-3PO]]''. |
|||
* Der [[Supercomputer]] ''Golem'' aus den Büchern ''[[Golem XIV]]'' und ''Also sprach Golem'' von [[Stanisław Lem]] (1981) |
|||
* ''Das Master Control Programm'' im Film ''[[Tron (Film)|Tron]]'' (1982) von [[Steven Lisberger]] |
|||
* Die Replikanten im [[Blade Runner]] Film von [[Ridley Scott]] (1982) und [[Blade Runner 2049]] Film von [[Denis Villeneuve]] (2017) |
|||
* Das Auto ''K.I.T.T.'' in der US-amerikanischen Fernsehserie ''[[Knight Rider]]'' (1982–1986) |
|||
* Das [[Expertensystem]] des lernfähigen Computers ''WOPR (War Operation Plan Response)'' in ''[[WarGames – Kriegsspiele]]'' (1983) |
|||
* Die zentrale Maschineninstanz ''Skynet'' in der ''[[Terminator (Film)|Terminator-Filmreihe]]'' (ab 1984) |
|||
* Die Roboter der fliegenden Insel Laputa im japanischen Anime-Filmklassiker ''[[Das Schloss im Himmel]]'' (1986) von [[Hayao Miyazaki]] ([[Studio Ghibli]]). |
|||
* Der Androide ''[[Figuren im Star-Trek-Universum#Lieutenant Commander Data|Data]]'' in der US-amerikanischen Fernsehserie ''[[Raumschiff Enterprise – Das nächste Jahrhundert]]'' (1987–1994). Hervorzuheben ist hier die Episode ''"[[Wem gehört Data?]]"''. |
|||
* Holografische Lebewesen und diverse Computersysteme im [[Star Trek|Star Trek Franchise]] (Filme, Serien, Videospiele), insbesondere ''der Doktor'' aus ''[[Star Trek: Raumschiff Voyager|Star Trek: Voyager]]'' und zuletzt z. B. die KIs ''Control'' und ''Zora'' in [[Star Trek: Discovery|''Start Trek: Discovery'']] |
|||
* Der Roboter ''Nummer 5'' in den Filmen ''[[Nummer 5 lebt!]]'' (1986) und ''[[Nummer 5 gibt nicht auf]]'' (1988) |
|||
* Die ''Maschinen'' sowie sämtliche Programme (''Orakel,'' ''Architek''t, ''Agent'' etc.) im Film ''[[The Matrix]]'' (1999) von den Geschwistern Lana und Lilly [[Wachowskis|Wachowski]] und den darauf basierenden Produktionen (3 weitere Filme, Serie, Spiele). |
|||
* Der Androide ''Andrew Martin'' im Film ''[[Der 200 Jahre Mann]]'' (2000) von [[Chris Columbus (Filmproduzent)|Chris Columbus]] |
|||
* Die Zentralcomputer ''Red Queen'' und ''White Queen'' in den [[Resident Evil (Realfilmreihe)|''Resident-Evil'' Realfilmreihe]] (2002–2026) |
|||
* Der Roboter ''Sonny'' im Film ''[[I, Robot (Film)|I, Robot]]'' (2004) von [[Alex Proyas]] |
|||
* Die ''Tachikomas'', Kampfmaschinen deren KIs in der japanischen Anime-Serie [[Ghost in the Shell: S.A.C. 2nd GIG|''Ghost In The Shell: S.A.C. 2nd GIG'']] (2005) ein Bewusstsein entwickeln. |
|||
* Der Computer ''[[42 (Antwort)|Deep Thought]],'' in der Roman- sowie [[Hörspiel]]reihe des englischen Autors [[Douglas Adams]] und dem Film ''[[Per Anhalter durch die Galaxis (Film)|Per Anhalter durch die Galaxis]]'' (2005) von [[Garth Jennings]] |
|||
* Das geheime KI-Überwachungssystem in der US-amerikanischen Fernsehserie ''[[Person of Interest]]'' (2011–2016) |
|||
* Die Androiden in der schwedischen Fernsehserie ''[[Real Humans – Echte Menschen]]'' (2012–2014) |
|||
* Das Betriebssystem ''Samantha'' im Film ''[[Her (2013)|Her]]'' (2013) von [[Spike Jonze]] |
|||
* Die Androiden in der [[Vereinigtes Königreich|britisch]]-US-amerikanischen Fernsehserie ''[[Humans]]'' (2015) |
|||
* Der Androide ''John of Us'' im Roman ''[[Qualityland]]'' (2017) von [[Marc-Uwe Kling]] |
|||
* Die Spezies der ''[[The Orville#Kaylon|Kaylon]]'' in der Serie ''[[The Orville]]'' (2017–2023). |
|||
* Das KI-System ''A.R.E.S.'' in Frank Schätzings Roman ''[[Die Tyrannei des Schmetterlings]]'' (2018) |
|||
* Die KI ''TAU'' im gleichnamigen Film [[TAU (Film)|TAU]] von Federico D’Alessandro |
|||
* Die KI-Puppe ''M3GAN'' im US-amerikanischen Science-Fiction-[[Horrorfilm]] ''[[M3GAN]]'' (2023) von Gerard Johnstone |
|||
* Die Entität im Film ''[[Mission: Impossible – Dead Reckoning Teil Eins]]'' (2023) von [[Christopher McQuarrie]]. |
|||
* ''Raputa'', eine militärische KI im japanischen Manga ''Deep Raputa'' (2024) von Kitanoda Sorakara<ref>{{Internetquelle |url=https://mangaplus.shueisha.co.jp/titles/100321 |titel=Deep Raputa |werk=MangaPlus by Shueisha |sprache=en |abruf=2024-12-18}}</ref> |
|||
'''Auswahl Videospiele''': |
|||
* Roboter in ''[[Beneath a Steel Sky]]'' (1994) und ''[[Beyond a Steel Sky]]'' (2020) |
|||
* Androiden in ''[[Blade Runner (Computerspiel, 1997)|Blade Runner]]'' (1997) |
|||
* Androiden in ''Vandell: Knight of the Tortured Souls'' (2002) |
|||
* [[GLaDOS]] in ''[[Portal (Computerspiel)|Portal]]'' und ''[[Portal 2]]'' (2007) |
|||
* Androiden in ''[[Detroit: Become Human]]'' (2018) |
|||
* Die KI Esme in ''Annie and the Ai'' (2023) |
|||
=== Kritik === |
|||
2025 veröffentlichten 1000 britische Künstler und Gruppen das Album ''[[Is This What We Want?]]'' als Protest gegen Versuche der britischen Regierung den [[Urheberrecht]]sschutz zu Gunsten der KI-Industrie aufzuweichen.<ref name="isthiswhatwewant">{{Internetquelle |url=https://www.isthiswhatwewant.com/ |titel=Is This What We Want? |sprache=en |abruf=2025-02-26}}</ref> |
|||
== Soziale Auswirkungen == |
|||
Im Zuge der [[Industrielle Revolution|industriellen Revolution]] wurde durch die Erfindung der Dampfmaschine die Muskelkraft von der Maschine ersetzt ([[Pferdestärke|PS]] durch [[Watt (Einheit)|Watt]]). Durch die [[digitale Revolution]] könnte die menschliche Denkleistung durch maschinelle KI ersetzt<ref>{{Toter Link |date=2023-05-25 |url=http://www.ardmediathek.de/tv/Quarks-Co/Au%C3%9Fer-Kontrolle-Wenn-Computer-die-Macht/WDR-Fernsehen/Video?bcastId=7450356&documentId=37554680 |text=ARD Quarks und Co: Außer Kontrolle – Wenn Computer die Macht übernehmen, 2016, Minute 16:30, 6. September 2016}}</ref> beziehungsweise ergänzt<ref>{{Literatur |Autor=Thomas Knaus et AI |Hrsg=Ludwigsburger Beiträge Zur Medienpädagogik – LBzM |Titel=Künstliche Intelligenz und Bildung: Was sollen wir wissen? Was können wir tun? Was dürfen wir hoffen? Und was ist diese KI? Ein kollaborativer Aufklärungsversuch. |Nummer=23 |Datum=2023 |Seiten=11–16 |DOI=10.21240/lbzm/23/19 |Umfang=1–42}}</ref> werden. |
|||
Der US-amerikanische Unternehmer Elon Musk prognostiziert, dass es zukünftig immer weniger Erwerbsarbeit geben werde, die nicht von einer Maschine besser und günstiger gemacht werden könne, weshalb [[Technologische Arbeitslosigkeit|immer weniger Arbeitskräfte benötigt]] würden. Durch die weitgehend maschinelle Produktion würden die Produkte und Dienstleistungen sehr billig werden. In diesem Zusammenhang unterstützt er die Einführung eines [[Bedingungsloses Grundeinkommen|bedingungslosen Grundeinkommens]].<ref>[https://www.youtube.com/watch?v=e6HPdNBicM8 video: Interview with Elon Musk: Elon Musk says Universal Basic Income is “going to be necessary.”] 19. Februar 2017.</ref> Der Physiker [[Stephen Hawking]] meinte: Bereits heute sei klar, dass die Maschinen die Menschen zunehmend vom Arbeitsmarkt verdrängen.<ref name="handelsblatt.com-2014" /><ref name="gulli2014" /> Microsoft-Gründer [[Bill Gates]] sieht die Entwicklung ähnlich. Er fordert eine Robotersteuer, um die sozialen Aufgaben der Zukunft bewältigen zu können.<ref>[https://t3n.de/news/bill-gates-robotersteuer-797167/ ''Elon Musk: Bedingungsloses Grundeinkommen ist unvermeidlich''] 19. Februar 2017.</ref> |
|||
Die Informatikerin [[Constanze Kurz]] erklärte in einem Interview, technischen Fortschritt habe es schon immer gegeben. Jedoch vollzog sich der technische Wandel in der Vergangenheit meist über Generationen, so dass genug Zeit blieb, sich für neue Aufgaben auszubilden. Heute verlaufe der technische Wandel innerhalb von wenigen Jahren, so dass die Menschen nicht genug Zeit hätten, sich für neue Aufgaben weiterzubilden.<ref>[https://www.youtube.com/watch?v=9o4LHVVtgO0 ARD alpha: Constanze Kurz: Die totale Automatisierung, 2014]</ref> Der Sprecher des [[Chaos Computer Club]]s, [[Frank Rieger]], warnte in verschiedenen Publikationen (z. B. dem Buch ''Arbeitsfrei'')<ref>Frank Rieger, [[Constanze Kurz]]: [https://www.penguinrandomhouse.de/ebook/Arbeitsfrei/Constanze-Kurz/Riemann/e433060.rhd ''Arbeitsfrei: Eine Entdeckungsreise zu den Maschinen, die uns ersetzen.'']</ref> davor, dass durch die beschleunigte Automatisierung vieler Arbeitsbereiche in naher Zukunft immer mehr Menschen ihre Beschäftigung verlieren würden (z. B. LKW-Fahrer durch [[Autonomes Fahren|selbstfahrende Autos]]). Darin bestehe unter anderem eine Gefahr der Schwächung von Gewerkschaften, die an Mitgliedern verlieren könnten. Rieger plädiert daher für eine „Vergesellschaftung der Automatiserungsdividende“, also einer Besteuerung von nichtmenschlicher Arbeit, damit durch das Wachstum der Wirtschaft in Form eines Grundeinkommens auch der allgemeine Wohlstand wächst und gerecht verteilt wird.<ref>Frank Rieger: [https://www.faz.net/aktuell/feuilleton/debatten/automatisierungsdividende-fuer-alle-roboter-muessen-unsere-rente-sichern-11754772.html?printPagedArticle=true#pageIndex_2 ''Roboter müssen unsere Rente sichern.''] In: ''[[Frankfurter Allgemeine Zeitung|FAZ]],'' 18. Mai 2012.</ref> |
|||
Wissenschaftler der Universität Oxford haben in einer Studie im Jahr 2013 eine Vielzahl von Jobs auf ihre Automatisierbarkeit überprüft. Dabei unterteilten die Wissenschaftler die Jobs in verschiedene Risikogruppen. 47 Prozent der betrachteten Jobs in den USA wurden in die höchste Risikogruppe eingeteilt, d. h., dass für diese Jobs die Wahrscheinlichkeit hoch ist, dass innerhalb eines unbestimmten Zeitraums die nötige Technologie entwickelt wird, um sie automatisieren zu können. Die Studie macht jedoch keine Aussage dazu, wie viele Jobs tatsächlich automatisiert werden, da nur die technologischen Entwicklungen und keine weiteren Faktoren betrachtet werden. Ein solcher Faktor wäre zum Beispiel die Höhe der Kosten, also ob eine Automatisierung teurer wäre als das Gehalt für einen menschlichen Arbeiter.<ref>[https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf ''The Future Of Employment: How Susceptible Are Jobs To Computerisation?''] (PDF; 1,1 MB) oxfordmartin.ox.ac.uk, 17. September 2013.</ref> |
|||
[[Jürgen Schmidhuber]] antwortete auf die Frage, ob KIs uns bald den Rang ablaufen werden bzw. ob wir uns Sorgen um unsere Jobs machen müssten: „Künstliche Intelligenzen werden fast alles erlernen, was Menschen können – und noch viel mehr. Ihre neuronalen Netzwerke werden aus Erfahrung klüger und wegen der sich rasch verbilligenden Hardware alle zehn Jahre hundertmal mächtiger. Unsere formelle Theorie des Spaßes erlaubt sogar, Neugierde und Kreativität zu implementieren, um künstliche Wissenschaftler und Künstler zu bauen.“ und „Alle fünf Jahre wird das Rechnen 10-mal billiger. Hält der Trend an, werden kleine Rechner bald so viel rechnen können wie ein menschliches Gehirn, 50 Jahre später wie alle 10 Milliarden Hirne zusammen.“<ref name="luzernerzeitung.ch-2017">[https://www.luzernerzeitung.ch/nachrichten/wirtschaft/sehen-menschen-schon-sehr-aehnlich-ein-roboter-an-einem-presse-event-in-tokio-bild-franck-robichon-epa-2-februar-2017;art178477,1112150 Schmidhuber: «Unsere Roboter zeigen Gefühle»] 1. Oktober 2017.</ref> Siehe dazu auch: [[Mooresches Gesetz]]. Als Konsequenz aus der aus seiner Sicht unabwendbar fortschreitenden Automatisierung und dem damit einhergehenden Wegfall von Erwerbsarbeitsplätzen sieht Schmidhuber die Notwendigkeit eines bedingungslosen Grundeinkommens.<ref>Presseagentur APA/sda: [https://diepresse.com/home/wirtschaft/boerse/5154666/RoboterForscher-befuerwortet-bedingungsloses-Grundeinkommen ''Roboter-Forscher befürwortet bedingungsloses Grundeinkommen.''] In: ''diepresse.com,'' 15. Januar 2017; abgerufen am 7. April 2017.</ref> |
|||
{{" |Roboterbesitzer werden Steuern zahlen müssen, um die Mitglieder unserer Gesellschaft zu ernähren, die keine existenziell notwendigen Jobs mehr ausüben. Wer dies nicht bis zu einem gewissen Grad unterstützt, beschwört geradezu die Revolution Mensch gegen Maschine herauf. |ref=<ref>Jürgen Schmidhuber: [http://www.blick.ch/news/wirtschaft/forscher-zum-umgang-mit-kuenstlicher-intelligenz-wir-muessen-roboter-wie-kinder-erziehen-id6054139.html ''Wir müssen Roboter erziehen wie Kinder.''] Interview durch Vinzenz Greiner, 15. Januar 2017.</ref>}} |
|||
[[Erik Brynjolfsson]] ist der Auffassung, das Aufkommen radikaler Parteien in den USA und Europa sei die Folge davon, dass viele Menschen heute schon nicht mehr mit dem technischen Fortschritt mithalten könnten. Wenn Menschen ihre Jobs verlieren, werden diese Menschen wütend, so Brynjolfsson. Auch er meint, dass in Zukunft die meisten Jobs von Maschinen erledigt würden.<ref>{{Toter Link |date=2023-05-25 |url=http://www.ardmediathek.de/tv/Quarks-Co/Au%C3%9Fer-Kontrolle-Wenn-Computer-die-Macht/WDR-Fernsehen/Video?bcastId=7450356&documentId=37554680 |text=ARD Quarks und Co: Außer Kontrolle – Wenn Computer die Macht übernehmen, 2016, Minute 16:50 und 19:30, 6. September 2016}}</ref> |
|||
[[Mark Zuckerberg]] äußerte bei einer Rede vor Harvard-Absolventen, dass die Einführung eines bedingungslosen Grundeinkommens notwendig sei. Es könne etwas nicht mehr in Ordnung sein, wenn er als Harvard-Abbrecher innerhalb weniger Jahre Milliarden machen könne, während Millionen von Uni-Absolventen ihre Schulden nicht abbezahlen könnten. Es brauche eine Basis, auf der jeder innovativ und kreativ sein könne.<ref>{{Webarchiv |url=http://www.businessinsider.de/zuckerberg-spricht-sich-fuer-bedingungsloses-grundeinkommen-aus-2017-5 |text=''Mark Zuckerberg erklärt, warum jeder ein bedingungsloses Grundeinkommen erhalten sollte.'' |wayback=20171012233903}} businessinsider.de, 26. Mai 2017; abgerufen am 15. Oktober 2017.</ref><ref>[https://news.harvard.edu/gazette/story/2017/05/mark-zuckerbergs-speech-as-written-for-harvards-class-of-2017/ ''Mark Zuckerberg’s Commencement address at Harvard.''] news.harvard.edu, 25. November 2017; abgerufen am 15. Oktober 2017.</ref> |
|||
Im November 2017 stellte der Deutsche-Bank-Chef [[John Cryan]] einen starken Stellenabbau in Aussicht. Das Unternehmen beschäftigt 97.000 Menschen. Bereits in den letzten 12 Monaten wurden 4.000 Stellen abgebaut. In naher Zukunft sollen 9.000 weitere Stellen abgebaut werden. Mittelfristig sollen die Hälfte aller Stellen abgebaut werden. Cryan begründete diesen Schritt damit, dass die Konkurrenz bereits heute mit etwa der Hälfte der Mitarbeiter vergleichbare Leistung erbringe. Cryan sagte: „Wir machen zu viel Handarbeit, was uns fehleranfällig und ineffizient macht“. Vor allem durch das maschinelle Lernen bzw. künstliche Intelligenzen könnte das Unternehmen noch viel effizienter werden. Viele Banker arbeiteten ohnehin wie Roboter, so Cryan. An die Stelle qualifizierter Mitarbeiter sollen qualifizierte Maschinen treten, so Cryan.<ref>[https://www.faz.net/aktuell/wirtschaft/deutsche-bank-john-cryan-plant-erheblichen-stellenabbau-15284756.html ''Maschinen statt Mitarbeiter: Deutsche-Bank-Chef stellt erheblichen Stellenabbau in Aussicht.''] faz.net, 9. November 2017; abgerufen am 10. November 2017.</ref> |
|||
Der Zukunftsforscher Lars Thomson prognostizierte im November 2017 für die nächsten 10 Jahre gewaltige Umbrüche in Technologie, Arbeit, Werten und Gesellschaft. Im Jahr 2025 könne ein Haushalts-Roboter den Frühstückstisch decken, Fenster putzen, Pflegedienste übernehmen usw. wodurch Arbeitsplätze vernichtet würden. Heute schon gebe es 181 Firmen weltweit, die an klugen Robotern arbeiten. Der Preis eines solchen Roboters betrage heute etwa 20.000 Euro. Der Markt der künstlichen Intelligenz werde in wenigen Jahren größer sein als der Automobilmarkt. Wie schnell 10 Jahre vergingen, würde man sehen, wenn man 10 Jahre zurückblicke, als das erste Smartphone auf den Markt kam. Er bedauert, dass in unserer Gesellschaft kaum jemand diese Entwicklung erkenne, die unsere Gesellschaft komplett verändern werde. In Hotels würden in 10 Jahren Roboter die Arbeiten der heutigen Zimmermädchen übernehmen. Der Vorteil für den Hotelmanager: Der Roboter wolle keinen Lohn, keine freien Tage, müsse nicht versteuert und versichert werden. Der Nachteil: Der Staat erhalte keine Steuern mehr und die Menschen seien arbeitslos. Deshalb werde man nicht an einem bedingungslosen Grundeinkommen und der Einführung einer Robotersteuer vorbeikommen. Thomson sieht die Gefahr einer Spaltung der Gesellschaft, wenn das Tempo der Veränderung die Wandlungsfähigkeit der Menschen übersteige. Gleichzeitig werde die KI den Menschen von der Arbeit befreien. Die Gesellschaft müsse Leitplanken für die KIs definieren.<ref>{{Toter Link |date=2023-05-25 |url=http://www.schwaebische.de/region_artikel,-Forscher-sagt-dramatischen-Wandel-voraus-_arid,10766488_toid,310.html |text=Forscher sagt dramatischen Wandel voraus}}</ref> |
|||
In einem Interview im Januar 2018 meinte der CEO von Google [[Sundar Pichai]], die aktuelle Entwicklung der künstlichen Intelligenz sei für den Werdegang der Menschheit bedeutender als es die Entdeckung des Feuers und die Entwicklung der Elektrizität waren. Durch die aktuelle Entwicklung der KI werde kein Stein auf dem anderen bleiben. Deshalb sei es wichtig, dass die Gesellschaft sich mit dem Thema auseinandersetze. Nur so könne man die Risiken eingrenzen und die Potentiale ausschöpfen. Google gehört derzeit zu den führenden Unternehmen im Bereich der KI. Allein der KI-Assistent von Google ist bereits auf hunderten Millionen Android-Smartphones installiert. Aber auch in den Suchmaschinen kommt KI derzeit bereits milliardenfach zum Einsatz. Die von Google gekaufte Firma [[DeepMind]] eilt bei der KI-Forschung von Meilenstein zu Meilenstein u. a. mit [[AlphaGo]], AlphaGo Zero, [[AlphaZero]].<ref>Matthias Bastian: {{Webarchiv |url=https://vrodo.de/google-chef-kuenstliche-intelligenz-wichtiger-als-feuer-und-elektrizitaet/ |text=Google-Chef: Künstliche Intelligenz „wichtiger als Feuer und Elektrizität“ |wayback=20180123072432}}, vrodo.de vom 20. Januar 2018.</ref> |
|||
Das [[Institut für Arbeitsmarkt- und Berufsforschung]] (IAB), das zur Bundesagentur für Arbeit gehört, hat in einer Studie von 4/2018<ref>[https://doku.iab.de/kurzber/2018/kb0918.pdf Arbeitsmarkteffekte der Digitalisierung bis 2035], iab.de von 4/2019</ref> dargelegt, welche menschliche Arbeit in Deutschland von Maschinen ersetzt werden kann. Die Studie kommt zum Ergebnis, dass im Jahr 2016 25 Prozent der bezahlten menschlichen Tätigkeiten von Maschinen hätten erledigt werden können, was etwa acht Millionen Arbeitsplätzen in Deutschland entspricht. Eine frühere Studie kam für das Jahr 2013 noch auf einen Wert von 15 Prozent. Am stärksten betroffen mit etwa 83 Prozent sind Fertigungsberufe, aber auch unternehmensbezogene Dienstleistungsberufe mit 60 Prozent, Berufe in der Unternehmensführung und -organisation mit 57 Prozent, Berufe in Land- und Forstwirtschaft und Gartenbau mit 44 Prozent usw. Im Vergleich von 2013 zu 2016 sind besonders stark Logistik- und Verkehrsberufe gestiegen (von 36 auf 56 Prozent), ein Bereich, in dem in Deutschland etwa 2,4 Millionen Menschen beschäftigt sind. Insgesamt geht die Studie davon aus, dass in naher Zukunft 70 Prozent der menschlichen bezahlten Tätigkeiten von Maschinen übernommen werden könnten. Maschinen könnten z. B. übernehmen: Wareneingangskontrolle, Montageprüfung, Kommissionierung, Versicherungsanträge, Steuererklärungen usw. Die Techniken, die diese Veränderungen vorantreiben, seien: künstliche Intelligenzen, Big Data, 3D-Druck und virtuelle Realität. Auch wenn es nicht zu Entlassungen komme, müssten Mitarbeiter zumindest mit starken Veränderungen in ihrem Berufsbild und damit starkem Umlernen rechnen. Es entstünden auch neue Berufsfelder. Auch werde nicht alles, was heute schon möglich ist, auch umgesetzt und schon gar nicht sofort. Ein Faktor für diese Verzögerung seien ethische und rechtliche Aspekte, aber auch die hohen Kosten der Automatisierung. Nicht immer sei die künstliche Intelligenz billiger als die menschliche Intelligenz.<ref>[https://www.welt.de/wirtschaft/article173642209/Jobverlust-Diese-Jobs-werden-als-erstes-durch-Roboter-ersetzt.html Diese Jobs sind besonders von Robotern bedroht], welt.de vom 16. Februar 2018.</ref> |
|||
In einem Gastbeitrag im Februar 2018 meinte der SAP-Chef [[Bill McDermott]], dass sich die Menschen fürchten würden vor den Veränderungen, die eine Welt mit Robotern und KIs mit sich bringt. Ein erster Meilenstein sei der [[Deep Blue – Kasparow, Philadelphia 1996, 1. Wettkampfpartie|Sieg der Maschine Deep Blue über den amtierenden Schachweltmeister Gary Kasparov]] im Jahr 1997 gewesen. Ein weiterer Meilenstein sei der Sieg der Maschine [[Watson (Künstliche Intelligenz)|Watson]] über den Menschen in der Quiz-Show Jeopardy im Jahr 2011 gewesen. Und der nächste große Schritt waren dann die Siege von [[AlphaGo]] und seinen Nachfolgern AlphaGo Zero und [[AlphaZero]] im Jahr 2016 und 2017. Die tiefgreifenden Veränderungen, die KI auch am Arbeitsplatz mit sich bringen würden, seien heute nun in aller Munde. Um etwaige negative Auswirkungen der neuen Techniken auf die Gesellschaft zu vermeiden, brauche es nun eine durchdachte Planung. Behörden, Privatwirtschaft und Bildungswesen müssten zusammenarbeiten, um jungen Menschen die Fähigkeiten zu vermitteln, die diese in der digitalen Wirtschaft benötigten. Umschulungen und lebenslanges Lernen seien heute die neue Normalität. Jobs würden nicht komplett von Maschinen ersetzt, sondern meist in Teilbereichen. Es entstünden auch viele neue Jobs. Die wirtschaftliche Entwicklung werde durch die KI befeuert. Man rechne für 2030 mit einer Wertschöpfung im Bereich von 16 Billionen US-Dollar und einem Wachstum des Bruttoinlandsprodukts um 26 Prozent. Durch die Automatisierung könnten Unternehmen zukünftig jährlich drei bis vier Billionen US-Dollar einsparen.<ref>{{Toter Link |date=2023-05-25 |url=https://www.produktion.de/iot-by-sap/sap-chef-mcdermott-ki-bringt-bald-billionen-umsaetze-312.html |text=SAP-Chef McDermott: KI bringt bald Billionen-Umsätze (auf produktion.de vom 26. Februar 2018)}}</ref> |
|||
== Umweltaspekte == |
|||
KI kann auch dazu genutzt werden, mehr [[Nachhaltigkeit]] zu erreichen. Eine vom [[Fraunhofer-Institut für Produktionstechnik und Automatisierung]] und dem [[Fraunhofer-Institut für Arbeitswirtschaft und Organisation]] in Auftrag gegebene Studie sieht hierbei große Potenziale für produzierende Unternehmen. Der Einsatz von KI könne zu effizienteren Produktionsprozessen führen und Ressourcen schonen.<ref>{{Literatur |Autor=David Koch, Joachim Lentes, Frauke Schuseil, Lara Waltersmann |Titel=Nachhaltigkeit durch KI. Potenziale und Handlungsleitfaden für produzierende Unternehmen |Datum=2022 |DOI=10.24406/publica-301}}</ref> Das Unternehmen [[Robert Bosch GmbH|Bosch]] gab 2023 an, durch den Einsatz von generativer KI in einem türkischen Werk den Wasserverbrauch, den [[Fehlproduktion|Ausschuss]] sowie den Energiebedarf verringert zu haben. Gleichzeitig sei die Anlageneffektivität um ca. zehn Prozent angestiegen.<ref>{{Internetquelle |url=https://www.bosch-presse.de/pressportal/de/de/bosch-bringt-generative-ki-in-die-produktion-260806.html |titel=Bosch bringt generative KI in die Produktion |werk=bosch-presse.de |datum=2023-12-07 |abruf=2025-04-06}}</ref> |
|||
In der Forschung wird allerdings angemahnt, nicht nur auf Nachhaltigkeit ''durch'' KI, sondern auch ''von'' KI zu achten.<ref>{{Literatur |Autor=Aimee van Wynsberghe |Titel=Sustainable AI: AI for sustainability and the sustainability of AI |Sammelwerk=AI and Ethics |Band=1 |Datum=2021 |Seiten=213–218 |DOI=10.1007/s43681-021-00043-6}}</ref> Die [[Supercomputer]], die die Nutzung von KI ermöglichen, haben einen überaus hohen Strombedarf. Die [[Internationale Energieagentur]] schätzt, dass sich der weltweite Stromverbrauch durch [[Rechenzentrum|Rechenzentren]], die diese Supercomputer beherbergen, bis 2026 im Vergleich zu 2022 verdoppeln könnte.<ref>{{Internetquelle |autor=Christian Feld |url=https://www.tagesschau.de/ausland/europa/ki-energie-100.html |titel=Kann Künstliche Intelligenz grün sein? |werk=[[tagesschau.de]] |datum=2025-03-23 |abruf=2025-04-06}}</ref> Darüber hinaus benötigen Supercomputer großer Mengen an Kühlwasser. Allein das Training von [[GPT-3]] soll schätzungsweise 700.000 Liter Trinkwasser verbraucht haben.<ref>{{Literatur |Autor=Pengfei Li, Jianyi Yang, Mohammad A. Islam, Shaolei Ren |Titel=Making AI Less »Thirsty«: Uncovering and Addressing the Secret Water Footprint of AI Models |Datum=2023 |Seiten=1 |arXiv=2304.03271}}</ref> Genaue Zahlen zum Energie- und Wasserverbrauch durch KI fehlen zumeist, da Unternehmen nicht verpflichtet sind, diese offenzulegen. |
|||
Eine Studie, die sich mit dem Nutzen von KI für die [[Ziele für nachhaltige Entwicklung]] beschäftigte, kommt zu dem Schluss, dass bei 79 % von diesen die Nutzung von KI einen positiven Effekt haben könnte. Gleichzeitig könnten auch bei 35 % der Ziele negative Auswirkungen aus dem Einsatz von KI resultieren.<ref>{{Literatur |Autor=Ricardo Vinuesa, Hossein Azizpour, Iolanda Leite, Madeline Balaam, Virginia Dignum, Sami Domisch, Anna Felländer, Simone Daniela Langhans, Max Tegmark, Francesco Fuso Nerini |Titel=The role of artificial intelligence in achieving the Sustainable Development Goals |Sammelwerk=Nature Communications |Band=11 |Datum=2020 |Seiten=2 |DOI=10.1038/s41467-019-14108-y}}</ref> Der Informatiker Rainer Rehak warnte in einem Interview mit der ''[[taz]]'' allerdings davor, Klimaziele allein durch die Nutzung von KI erreichen zu wollen. Maßnahmen, die mit einer grundsätzlichen Neuorientierung z. B. bei der Stadtentwicklung einhergehen, könnten gegebenenfalls deutlich besser zur Verhinderung von Treibhausgasemissionen beitragen.<ref>{{Literatur |Autor=Svenja Bergt |Titel=Stromfresser Künstliche Intelligenz: „Die Energieverbräuche durch KI gehen durch die Decke“ |Sammelwerk=taz |Datum=2025-04-05 |Online=https://taz.de/Stromfresser-Kuenstliche-Intelligenz/!6077262/ |Abruf=2025-04-06}}</ref> |
|||
''Siehe auch: [[Green IT]]'' |
|||
== Siehe auch == |
|||
* [[Anwendungen künstlicher Intelligenz]] |
|||
* [[Deutsches Forschungszentrum für Künstliche Intelligenz]] |
|||
* [[Ethik der künstlichen Intelligenz]] |
|||
* [[Artificial General Intelligence]] |
|||
* [[Existenzielles Risiko durch künstliche Intelligenz]] |
|||
* [[Verordnung über künstliche Intelligenz]] seitens der [[Rechtsetzung der Europäischen Union |EU]] |
|||
* [[Regulierung von künstlicher Intelligenz]] |
|||
* [[Künstliche Intelligenz in der Medizin]] |
|||
* [[Rationale Ignoranz]] |
|||
== Weblinks == |
== Weblinks == |
||
{{Commonscat|Artificial intelligence|Künstliche Intelligenz|audio=1|video=1}} |
|||
* {{DNB-Portal|4033447-8}} |
|||
'''Deutsch''' |
|||
* [https://link.springer.com/journal/13218 Deutsche Zeitschrift für Künstliche Intelligenz] |
|||
* [https://www.kuenstliche-intelligenz.de/ Fachbereich Künstliche Intelligenz der Gesellschaft für Informatik (GI)] |
|||
* [https://www.heise.de/thema/K%C3%BCnstliche-Intelligenz Artikel zum Thema Künstliche Intelligenz] bei [[Heise online|heise.de]] |
|||
* ''Österreichische Gesellschaft für Artificial Intelligence'' (ÖGAI): [http://www.oegai.at/ oegai.at] |
|||
* [[Computerwoche|Computerwoche.de]]: [https://www.computerwoche.de/a/was-sie-zum-thema-ki-wissen-muessen,3544140 ''FAQ Künstliche Intelligenz''] |
|||
* Thomas Brandstetter: [https://www.spektrum.de/news/neuromorphe-computer-rechnen-wie-das-gehirn/2196684 ''Mit dem Gehirn als Vorbild zu besserer KI''] in [[Spektrum.de]] vom 4. November 2023 |
|||
'''Audios''' |
|||
=== Deutsch === |
|||
* {{Internetquelle |
|||
|url=https://archive.org/details/phil.-argumente-gegen-ki |
|||
|titel=Elektrotechnik-Ingenieur und Philosoph Rolf Eraßme im Gespräch: Warum man Menschen nicht nachbauen kann. Philosophische Argumente gegen die Künstliche Intelligenz |
|||
|werk=Bayerischer Rundfunk |
|||
|datum=2018-05-11 |
|||
|format=Podcast; 40 Min. |
|||
|abruf=2025-01-04 |
|||
|kommentar=Moderation: Ania Mauruschat}} |
|||
* {{Internetquelle |
|||
|url=https://www.digitalkompakt.de/podcast/kuenstliche-intelligenz-ki/ |
|||
|titel=Zum aktuellen Stand von Künstlicher Intelligenz |
|||
|werk=digitalkompakt |
|||
|datum=2016-08-25 |
|||
|format=Podcast; 55 Min. |
|||
|abruf=2021-11-18}} |
|||
* [https://www.ardaudiothek.de/sendung/der-ki-podcast/94632864/ ARD – Der KI-Podcast – Wissen] |
|||
'''Videos''' |
|||
*[http://www.i-ki.de Öffentliche Diskussionen zu Themen der künstliche Intelligenz] |
|||
* [https://archive.org/details/iHuman-DE iHuman, Tonje Hessen Schei, 2019] |
|||
*[http://ki2005.uni-koblenz.de/ 28. Deutsche Jahrestagung - Künstliche Intelligenz] |
|||
* |
* [https://www.youtube.com/watch?v=rafhHIQgd2A Vortrag von Jürgen Schmidhuber: Künstliche Intelligenz wird alles ändern, 2016] |
||
* [https://www.arte.tv/de/videos/115067-000-A/schlaue-neue-welt-das-ki-wettrennen/ Schlaue neue Welt – Das KI-Wettrennen. Dokumentation, RBB, 2024] |
|||
*[http://psydok.sulb.uni-saarland.de/volltexte/2004/102/ R. Eraßme: ''Der Mensch und die "Künstliche Intelligenz"''] (Dissertation) |
|||
*[http://www.kreissl.info/diggs/ki_inhalt.php Einführung in die künstliche Intelligenz- Online Tutorial] |
|||
*[http://www.intelligente-ampel.tk Regelung einer Ampel mittels künstlicher Intelligenz] |
|||
*[http://20q.net Beispiel: 20q.net - Ein neurales Netz im Internet] |
|||
*[http://www.post-net.ch/files/SVA.pdf Vertiefungsarbeit über "Künstliche Intelligenz im Alltag"] |
|||
'''Englisch''' |
|||
* [[Peter Norvig]], [http://aima.cs.berkeley.edu/ai.html aima.cs.berkeley.edu: ''AI on the Web''] – Zusammenstellung weiterführender Links |
|||
*{{SEP|http://plato.stanford.edu/entries/logic-ai/ ''Logic and Artifical Intelligence.''}} |
|||
* [https://claire-ai.org/ claire-ai.org: ''Confederation of Laboratories for Artificial Intelligence in Europe''] (CLAIRE, Föderation von KI-Forschungseinrichtungen in Europa) |
|||
*[http://ai-news.elzemozgurce.net/ Artificial Intelligence News] |
|||
* [https://www.eurai.org/ eurai.org: ''European Association for Artificial Intelligence''] (EurAI, früher ECCAI) |
|||
*[http://www.kurzweilai.net/meme/frame.html?m=3 How To Build A Brain] |
|||
* [https://www.jair.org/ Journal of Artificial Intelligence Research (JAIR)] |
|||
*[http://www.kurzweilai.net/meme/frame.html?m=4 Will Machines Become Conscious?] |
|||
* {{IEP|https://iep.utm.edu/artificial-intelligence/|Artificial Intelligence|Larry Hauser}} |
|||
*[http://www.ai.univie.ac.at/biblio.html Bibliografie zum Thema KI] |
|||
** {{IEP|https://iep.utm.edu/ethics-of-artificial-intelligence/|Ethics of Artificial Intelligence|John-Stewart Gordon, Sven Nyholm}} |
|||
*[http://www.eccai.org European Coordinating Committee for Artificial Intelligence (ECCAI)] |
|||
* {{SEP|https://plato.stanford.edu/entries/artificial-intelligence/|Artifical Intelligence|Selmer Bringsjord, Naveen Sundar Govindarajulu}} |
|||
*[http://www.jair.org Journal of Artificial Intelligence Research (JAIR)] |
|||
* |
** {{SEP|https://plato.stanford.edu/entries/logic-ai/|Logic and Artifical Intelligence|Richmond Thomason}} |
||
** {{SEP|https://plato.stanford.edu/entries/reasoning-automated/|Automated Reasoning|Frederic Portoraro}} |
|||
*[http://www.ifi.unizh.ch/ailab/aiwiki/aiw.cgi Artificial Intelligence Wiki] |
|||
== Literatur == |
|||
* {{Literatur |
|||
|Autor=[[Stuart Russell|Stuart J. Russell]], [[Peter Norvig]] |
|||
|Titel=Künstliche Intelligenz: Ein moderner Ansatz |
|||
|Verlag=Pearson Studium |
|||
|Ort=Berkeley |
|||
|Datum=2004 |
|||
|ISBN=3-8273-7089-2 |
|||
|Sprache=de |
|||
|Originaltitel=Artificial Intelligence: A Modern Approach |
|||
|Originalsprache=en}} |
|||
* {{Literatur |Autor=Marie-Sophie Adeoso, Eva Berendsen, Leo Fischer, [[Deborah Schnabel]] |Titel=Code & Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus |Verlag=Verbrecher Verlag |Ort=Berlin |Datum=2024 |ISBN=978-3-95732-589-1}} |
|||
* {{Literatur |
|||
|Autor=Ingo Boersch, Jochen Heinsohn, Rolf Socher |
|||
|Titel=Wissensverarbeitung – Eine Einführung in die Künstliche Intelligenz |
|||
|Verlag=Elsevier |
|||
|Datum=2006 |
|||
|ISBN=3-8274-1844-5}} |
|||
* {{Literatur |
|||
|Autor=Stefan Buijsman |
|||
|Titel=Ada und die Algorithmen. Wahre Geschichten aus der Welt der künstlichen Intelligenz |
|||
|Verlag=C.H.Beck |
|||
|Ort=München |
|||
|Datum=2021 |
|||
|ISBN=978-3-406-77563-5 |
|||
|Originaltitel=AI – Alsmaar intelligenter. Een kijkjeachter de beeldschermen |
|||
|Originalsprache=nl |
|||
|Originaljahr=2020 |
|||
|Originalort=Amsterdam |
|||
|Übersetzer=Bärbel Jänicke}} |
|||
* {{Literatur |
|||
|Autor=[[Ulrich Eberl]] |
|||
|Titel=Smarte Maschinen: Wie Künstliche Intelligenz unser Leben verändert |
|||
|Verlag=Carl Hanser Verlag |
|||
|Ort=München |
|||
|Datum=2016 |
|||
|ISBN=978-3-446-44870-4}} |
|||
* {{Literatur |
|||
|Autor=[[Wolfgang Ertel (Informatiker)|Wolfgang Ertel]] |
|||
|Titel=Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung |
|||
|Auflage=3. |
|||
|Verlag=Springer Vieweg |
|||
|Ort=Wiesbaden |
|||
|Datum=2013 |
|||
|ISBN=978-3-8348-1677-1}} |
|||
* {{Literatur |
|||
|Autor=[[Jörg Phil Friedrich]] |
|||
|Titel=Degenerierte Vernunft. Künstliche Intelligenz und die Natur des Denkens |
|||
|Verlag=Claudius Verlag |
|||
|Datum=2023 |
|||
|ISBN=978-3-532-62892-8}} |
|||
* {{Literatur |
|||
|Autor=Görz, Rollinger, Schneeberger |
|||
|Titel=Handbuch der Künstlichen Intelligenz |
|||
|Auflage=5. |
|||
|Verlag=Oldenbourg |
|||
|Datum=2013 |
|||
|ISBN=978-3-486-71979-6}} |
|||
* {{Literatur |
|||
|Titel=Künstliche Intelligenz: Die Revolution der Roboter |
|||
|Verlag=Konradin Mediengruppe |
|||
|Datum=2019 |
|||
|ISSN=0006-2375 |
|||
|Umfang=99 Seiten}} |
|||
* {{Literatur |
|||
|Autor=Uwe Lämmel, Jürgen Cleve |
|||
|Titel=Künstliche Intelligenz |
|||
|Auflage=3. |
|||
|Verlag=Carl Hanser Verlag |
|||
|Ort=München |
|||
|Datum=2008 |
|||
|ISBN=978-3-446-41398-6 |
|||
|Online=http://www.wi.hs-wismar.de/ki-buch/}} |
|||
* {{Literatur |
|||
|Autor=Manuela Lenzen |
|||
|Titel=Künstliche Intelligenz. Was sie kann und was uns erwartet |
|||
|Verlag=C.H.Beck |
|||
|Ort=München |
|||
|Datum=2018 |
|||
|ISBN=978-3-406-71869-4}} |
|||
* {{Literatur |
|||
|Autor=Manuela Lenzen |
|||
|Titel=Der elektronische Spiegel. Menschliches Denken und künstliche Intelligenz |
|||
|Verlag=C.H.Beck |
|||
|Ort=München |
|||
|Datum=2023 |
|||
|ISBN=978-3-406-79208-3}} |
|||
* [[Vincent C. Müller]], [[Martin Hähnel]]: ''Was ist, was kann, was soll KI? Ein philosophisches Gespräch'', Meiner, Hamburg 2024, ISBN 978-3-7873-4672-1. |
|||
* [[Julian Nida-Rümelin]], Natalie Weidenfeld: ''Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz'', Pieper, München <sup>3</sup>2023 (<sup>1</sup>2020), ISBN 978-3-492-31616-3. |
|||
* {{Literatur |
|||
|Autor=[[Nils Nilsson (Informatiker)|Nils John Nilsson]] |
|||
|Titel=Die Suche nach Künstlicher Intelligenz – Eine Geschichte von Ideen und Erfolgen |
|||
|Auflage=1. |
|||
|Verlag=AKA |
|||
|Ort=Berlin |
|||
|Datum=2014 |
|||
|ISBN=978-3-89838-665-4 |
|||
|Originaltitel=The quest for artificial intelligence. A history of ideas and achievements |
|||
|Originalsprache=en |
|||
|Originaljahr=2010 |
|||
|Originalort=Cambridge}} |
|||
* {{Literatur |Autor=Matteo Pasquinelli |Titel=Das Auge des Meisters. Eine Sozialgeschichte künstlicher Intelligenz |Verlag=Unrast |Ort=Münster |Datum=2024 |ISBN=978-3-89771-390-1 |Originalsprache=en |Übersetzer=Karina Hermes}} |
|||
* {{Literatur |
|||
|Autor=[[Roger Penrose]] |
|||
|Titel=Schatten des Geistes. Wege zu einer neuen Physik des Bewußtseins |
|||
|Verlag=Heidelberg |
|||
|Datum=1995 |
|||
|Originaltitel=Shadows of the Mind |
|||
|Originalsprache=en}} |
|||
* {{Literatur |
|||
|Autor=[[Rolf Pfeifer]], Christian Scheier, Alex Riegler |
|||
|Titel=Understanding Intelligence |
|||
|Verlag=Bradford Books |
|||
|Datum=2001 |
|||
|ISBN=0-262-66125-X |
|||
|Sprache=en}} |
|||
* {{Literatur |
|||
|Autor=David L. Poole, Alan K. Mackworth |
|||
|Titel=Artificial Intelligence: Foundations of Computational Agents |
|||
|Auflage=2. |
|||
|Verlag=Cambridge University Press |
|||
|Datum=2017 |
|||
|ISBN=978-1-107-19539-4 |
|||
|Sprache=en}} |
|||
* {{Literatur |
|||
|Autor=[[Thomas Ramge]] |
|||
|Titel=Mensch und Maschine. Wie Künstliche Intelligenz und Roboter unser Leben verändern |
|||
|Verlag=Reclam-Verlag |
|||
|Ort=Stuttgart |
|||
|Datum=2018 |
|||
|ISBN=978-3-15-019499-7}} |
|||
* {{Literatur |
|||
|Autor=Anna Strasser, [[Wolfgang Sohst]], Ralf Stapelfeldt, Katja Stepec |
|||
|Titel=Künstliche Intelligenz – Die große Verheißung |
|||
|Verlag=Xenomoi |
|||
|Ort=Berlin |
|||
|Datum=2021 |
|||
|ISBN=978-3-942106-79-5}} |
|||
* {{Literatur |
|||
|Autor=Mustafa Suleyman, Michael Bhaskar |
|||
|Titel=The Coming Wave. Künstliche Intelligenz, Macht und das größte Dilemma des 21. Jahrhunderts |
|||
|Verlag=C.H.Beck |
|||
|Datum=2024 |
|||
|ISBN=978-3-406-81412-9 |
|||
|Originalsprache=en |
|||
|Übersetzer=Andreas Wirthensohn}} |
|||
* {{Literatur |
|||
|Autor=[[Bernd Vowinkel]] |
|||
|Titel=Maschinen mit Bewusstsein – Wohin führt die künstliche Intelligenz? |
|||
|Verlag=Wiley-VCH |
|||
|Datum=2006 |
|||
|ISBN=3-527-40630-1}} |
|||
* {{Literatur |
|||
|Autor=[[Joseph Weizenbaum]] |
|||
|Titel=Die Macht der Computer und die Ohnmacht der Vernunft |
|||
|Auflage=12. |
|||
|Verlag=Suhrkamp |
|||
|Datum=1978 |
|||
|ISBN=3-518-27874-6}} |
|||
* {{Literatur |
|||
|Autor=Emmanouil Billis, Nandor Knust, Jon-Petter Rui |
|||
|Titel=Künstliche Intelligenz und der Grundsatz der Verhältnismäßigkeit |
|||
|TitelErg=M. Engelhart, H. Kudlich, B. Vogel (Hrsg.), Digitalisierung, Globalisierung und Risikoprävention – Festschrift für Ulrich Sieber zum 70. Geburtstag, Teilband II |
|||
|Verlag=Duncker & Humblot |
|||
|Ort=Berlin |
|||
|Datum=2021 |
|||
|ISBN=978-3-428-15971-0 |
|||
|Seiten=693–725}} |
|||
== Einzelnachweise == |
|||
<references responsive> |
|||
<ref name="Nilsson-2009"> |
|||
Nils J. Nilsson: ''The Quest for Artificial Intelligence. A History of Ideas and Achievements.'' Cambridge University Press, New York 2009. (amerikanisches Englisch) |
|||
</ref> |
|||
</references> |
|||
{{Navigationsleiste Teilgebiete der Kybernetik}} |
|||
{{Normdaten|TYP=s|GND=4033447-8|LCCN=sh85008180|NDL=00574798}} |
|||
{{SORTIERUNG:Kunstliche Intelligenz}} |
|||
[[Kategorie:Künstliche Intelligenz| ]] |
[[Kategorie:Künstliche Intelligenz| ]] |
||
[[Kategorie:Kybernetik]] |
[[Kategorie:Kybernetik]] |
||
[[Kategorie:Kognitionswissenschaft]] |
[[Kategorie:Kognitionswissenschaft]] |
||
[[ar:ذكاء اصطناعي]] |
|||
[[bg:Изкуствен интелект]] |
|||
[[bs:Vještačka inteligencija]] |
|||
[[ca:Intel·ligència artificial]] |
|||
[[cs:Umělá inteligence]] |
|||
[[da:Kunstig intelligens]] |
|||
[[en:Artificial intelligence]] |
|||
[[eo:Artefarita inteligenteco]] |
|||
[[es:Inteligencia artificial]] |
|||
[[et:Tehisintellekt]] |
|||
[[eu:Adimen artifiziala]] |
|||
[[fa:هوش مصنوعی]] |
|||
[[fi:Tekoäly]] |
|||
[[fr:Intelligence artificielle]] |
|||
[[gl:Intelixencia artificial]] |
|||
[[he:בינה מלאכותית]] |
|||
[[hi:आर्टिफिशियल इंटेलिजेंस]] |
|||
[[hr:Umjetna inteligencija]] |
|||
[[hu:Mesterséges intelligencia]] |
|||
[[id:Kecerdasan Buatan]] |
|||
[[io:Artifical inteligenteso]] |
|||
[[is:Gervigreind]] |
|||
[[it:Intelligenza artificiale]] |
|||
[[ja:人工知能]] |
|||
[[ko:인공 지능]] |
|||
[[lt:Dirbtinis intelektas]] |
|||
[[nl:Kunstmatige intelligentie]] |
|||
[[no:Kunstig intelligens]] |
|||
[[pl:Sztuczna inteligencja]] |
|||
[[pt:Inteligência artificial]] |
|||
[[ro:Inteligenţă artificială]] |
|||
[[ru:Искусственный интеллект]] |
|||
[[simple:Artificial intelligence]] |
|||
[[sk:Umelá inteligencia]] |
|||
[[sl:Umetna inteligenca]] |
|||
[[sv:Artificiell intelligens]] |
|||
[[th:ปัญญาประดิษฐ์]] |
|||
[[tr:Yapay zeka]] |
|||
[[uk:Штучний інтелект]] |
|||
[[vi:Trí tuệ nhân tạo]] |
|||
[[zh:人工智能]] |
Aktuelle Version vom 23. Juni 2025, 05:09 Uhr
Künstliche Intelligenz (KI), englisch artificial intelligence, daher auch artifizielle Intelligenz (AI), ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist schwierig zu definieren, da es verschiedene Definitionen von Intelligenz gibt.
Eigenschaften von Intelligenz
[Bearbeiten | Quelltext bearbeiten]Versuchsweise wird Intelligenz definiert als die Eigenschaft, die ein Wesen befähigt, angemessen und vorausschauend in seiner Umgebung zu agieren. Dazu gehören die Fähigkeiten:
- Umgebungsdaten wahrzunehmen, d. h. Sinneseindrücke zu haben und darauf zu reagieren,
- Informationen:
- aufzunehmen,
- zu verarbeiten und
- als Wissen zu speichern,
- Sprache:
- zu verstehen und
- zu erzeugen,
- Probleme zu lösen und
- Ziele zu erreichen.
Praktische Erfolge der KI werden schnell in die Anwendungsbereiche integriert und zählen dann nicht mehr zur KI.
Begriffsherkunft und Definitionsversuche
[Bearbeiten | Quelltext bearbeiten]Der Begriff artificial intelligence (künstliche Intelligenz) wurde 1955 geprägt von dem US-amerikanischen Informatiker John McCarthy im Rahmen eines Förderantrags an die Rockefeller-Stiftung für das Dartmouth Summer Research Project on Artificial Intelligence, einem Forschungsprojekt, bei dem sich im Sommer 1956 eine Gruppe von 10 Wissenschaftlern über ca. 8 Wochen mit der Thematik befasste.[1][2]
Es existieren zahlreiche Definitionen für den Begriff der KI. Je nach Sichtweise wird die künstliche Intelligenz in Industrie, Forschung und Politik entweder über die zu erzielenden Anwendungen oder den Blick auf die wissenschaftlichen Grundlagen definiert:
„Künstliche Intelligenz ist die Eigenschaft eines IT-Systems, ‚menschenähnliche‘, intelligente Verhaltensweisen zu zeigen.“
„Die künstliche Intelligenz [...] ist ein Teilgebiet der Informatik, welches sich mit der Erforschung von Mechanismen des intelligenten menschlichen Verhaltens befasst [...].“
„Unter künstlicher Intelligenz (KI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken.“
„Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.“
Die Definitionen für künstliche Intelligenz lassen sich nach Stuart J. Russell und Peter Norvig in vier Kategorien einteilen:[6]
- Nachbildung von menschlichem Denken
- Nachbildung von rationalem Denken
- Nachbildung von menschlichem Verhalten
- Nachbildung von rationalem Verhalten
EU-rechtliche Definition
[Bearbeiten | Quelltext bearbeiten]Die KI-Verordnung der EU definiert in Artikel 3 (Begriffsbestimmungen) ein „KI-System“ wie folgt:
„Für die Zwecke dieser Verordnung bezeichnet der Ausdruck […] ‚KI-System‘ ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“[7]
Diese Definition wird im Erwägungsgrund 12 etwas allgemeinverständlicher eingeordnet.[7]
Alltagstaugliche Definitionen
[Bearbeiten | Quelltext bearbeiten]Um ein System im Alltag konkret als „KI“ oder „nicht KI“ einordnen zu können, ist in vielen Unternehmen eine Annäherung über möglichst konkrete und verständliche Kriterien notwendig. Diese werden z. B. von IT- und Compliance-Stakeholdern erarbeitet, stehen im Kontext vorhandener Informationssicherheits, Compliance- und/oder Risikomanagement-Systeme und orientieren sich - Stand Dezember 2024 - beispielsweise an folgenden Definitionen:
- Ein System wird als „KI-System“ eingestuft, wenn es mindestens eine Komponente enthält, deren Ausgaben auf Verarbeitungs- bzw. Entscheidungsmustern beruhen, die sie zuvor in einer Lernphase auf Basis großer Datenmengen selbst generiert hat.
- Ebenfalls als eindeutiges Merkmal gilt, dass die Ausgabe eines KI-Systems zu einer spezifischen Eingabe nicht alleine über Programmierung, Konfiguration und Parametrisierung vorhergesagt werden kann, sondern bestenfalls auf Basis der Daten, mit denen das System angelernt wurde. Hier liegt ein risikobasierter Ansatz zugrunde, da die KI-Komponente als Black Box eingestuft wird, deren innere Funktionsweise nicht transparent ist. (Vgl. Black-Box-Test)
Diese Annäherungen können sowohl auf generative als auch auf prädiktive KI angewendet werden.
Ein Non-KI-System, in dessen Algorithmen ein zuvor woanders erlerntes KI-Verarbeitungsmuster integriert ist, wird aufgrund der Risiken, die sich aus der o. g. Intransparenz ergeben, derzeit meist ebenfalls als KI-System eingeordnet. Dies betrifft beispielsweise die Mehrfachverwendung eines allgemeinen LLM-Modells in unterschiedlichen fachlichen Kontexten. (Stand Dezember 2024)
Der Vorteil der vorgenannten Annäherungen liegt darin, dass sie die Unschärfen des „Intelligenz“-Begriffs sowie Interpretationsspielräume der o. g. EU-Verordnung vermeiden, indem ausschließlich bekannte technische Aspekte der in Frage kommenden Systeme zugrunde gelegt werden: Für jeden Quellcode (White Box) kann eine eindeutige Aussage abgeleitet werden, ob eine Lernfähigkeit (z. B. nach Art der unten aufgeführten Methoden) eingebaut ist oder nicht. Ist der Quellcode nicht einsehbar, kann der Hersteller/Programmierer konsultiert werden.
Unterscheidungsbeispiel:
- Ein Navigationssystem ist ein KI-System, wenn es anhand von Daten zu einer Teilmenge aller möglichen Fahrten „angelernt“ wurde, für jede mögliche Fahrt die schnellste Route zu finden.
- Ein Navigationssystem ist kein KI-System, wenn es die schnellste Route aufgrund unveränderlicher*, mindestens dem Hersteller/Programmierer bekannter Algorithmen und einer zuvor nach ebenso bekannten Regeln optimierten, unveränderlichen* Datenbank ermittelt. (*unveränderlich mit Ausnahme herkömmlicher Updates, z. B. für Sicherheit, Effizienzverbesserungen, neue Funktionen und Kartenaktualisierungen)
Im vorgenannten Beispiel liegt der Fokus auf der Routenfindung. Eine ggf. vorgeschaltete Sprachsteuerung wäre separat zu betrachten.
Metaphorik
[Bearbeiten | Quelltext bearbeiten]Der Diskurs über KI ist stark von einer metaphorischen Sprache geprägt[8][9][10]. Begriffe wie künstliche Intelligenz und maschinelles Lernen sind selbst anthropomorphe Metaphern, die auf die menschliche Kognition anspielen.
Eine weitere gängige Metapher ist die Black Box, die die Intransparenz vieler KI-Systeme beschreibt[11]. Im wissenschaftlichen Diskurs werden große Sprachmodelle auch als stochastische Papageien bezeichnet, um darauf hinzuweisen, dass sie Texte erzeugen, ohne den Inhalt wirklich zu verstehen[12]. Der Autor Ted Chiang vergleicht große Sprachmodelle mit einem unscharfen JPEG aus dem Netz, um Kompressionsmechanismen zu veranschaulichen[13].
Anthropomorphe Metaphern sind umstritten, da sie ein übertriebenes oder verzerrtes Bild von KI-Systemen vermitteln können.[14][15] Alternativ diskutieren Forscher und Journalisten Metaphern wie KI als Werkzeuge,[16] Spiegel,[17] Tiere, Organismen oder Naturphänomene.[18] Die Wahl einer Metapher beeinflusst nicht nur das öffentliche Verständnis von KI[10], sondern spielt auch eine Rolle in der Gesetzgebung[19], Regulierung[20] und wissenschaftlichen Forschung[21].
Starke und schwache KI
[Bearbeiten | Quelltext bearbeiten]Starke KI wären kognitive Systeme, die auf Augenhöhe mit Menschen die Arbeit zur Erledigung schwieriger Aufgaben übernehmen können. Demgegenüber geht es bei schwacher KI darum, konkrete Anwendungsprobleme zu meistern. Das menschliche Denken und technische Anwendungen sollen hier in Einzelbereichen unterstützt werden.[22]
Die Fähigkeit zu lernen ist eine Hauptanforderung an KI-Systeme und muss ein integraler Bestandteil sein, der nicht erst nachträglich hinzugefügt werden darf. Ein zweites Hauptkriterium ist die Fähigkeit eines KI-Systems, mit Unsicherheiten und Wahrscheinlichkeiten (sowie mit probabilistischen Informationen) umzugehen.[23] Insbesondere sind solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von „Intelligenz“ notwendig zu sein scheint.[24]
Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis von Intelligenz. Während die Schaffung starker KI an ihrer philosophischen Fragestellung bis heute scheiterte, sind auf der Seite der schwachen KI in den letzten Jahren bedeutende Fortschritte erzielt worden.
Ein starkes KI-System muss nicht viel mit dem Menschen gemeinsam haben. Es wird wahrscheinlich eine andersartige kognitive Architektur aufweisen und auch in seinen Entwicklungsstadien nicht mit den evolutionären kognitiven Stadien des menschlichen Denkens vergleichbar sein (Evolution des Denkens). Vor allem ist nicht anzunehmen, dass eine künstliche Intelligenz Gefühle wie Liebe, Hass, Angst oder Freude besitzt.[25]
Forschungsgebiete
[Bearbeiten | Quelltext bearbeiten]Neben den Forschungsergebnissen der Kerninformatik selbst sind in die Erforschung der KI Ergebnisse der Psychologie, Neurologie und Neurowissenschaften, der Mathematik und Logik, Kommunikationswissenschaft, Philosophie und Linguistik eingeflossen. Umgekehrt nahm die Erforschung der KI auch ihrerseits Einfluss auf andere Gebiete, vor allem auf die Neurowissenschaften. Dies zeigt sich in der Ausbildung des Bereichs der Neuroinformatik, der der biologieorientierten Informatik zugeordnet ist, sowie der Computational Neuroscience.
Bei künstlichen neuronalen Netzen handelt es sich um Techniken, die ab Mitte des 20. Jahrhunderts entwickelt wurden und auf der Neurophysiologie aufbauen.
KI stellt somit kein geschlossenes Forschungsgebiet dar. Vielmehr werden Techniken aus verschiedenen Disziplinen verwendet, ohne dass diese eine Verbindung miteinander haben müssen.
Eine wichtige Tagung ist die International Joint Conference on Artificial Intelligence (IJCAI), die seit 1969 stattfindet.
Seit der Begriffsprägung im Jahre 1955 hat sich eine Reihe relativ selbständiger Teildisziplinen herausgebildet:
- Mustererkennung, wozu auch Spracherkennung und Handschrifterkennung zählen;
- Wissensmodellierung einschließlich Logischer Programmierung und Inferenzmaschinen;
- Expertensysteme, Frage-Antwort-Systeme und Chatbots;
- Maschinelles Lernen;
- Künstliche neuronale Netze und Deep Learning;
- Computer Vision;
- Robotik;
- und Universelle Spieleprogramme.
Zur Forschungsrichtung künstliches Leben bestehen enge Beziehungen. Das Fernziel der KI ist die als starke KI oder künstliche allgemeine Intelligenz bezeichnete Fähigkeit eines intelligenten Agenten, jede intellektuelle Aufgabe zu verstehen oder zu erlernen, die der Mensch oder ein anderes Lebewesen bewältigen kann.
Geschichte
[Bearbeiten | Quelltext bearbeiten]Teilgebiete
[Bearbeiten | Quelltext bearbeiten]Wissensbasierte Systeme
[Bearbeiten | Quelltext bearbeiten]Wissensbasierte Systeme modellieren eine Form rationaler Intelligenz für sogenannte Expertensysteme. Diese sind in der Lage, auf eine Frage des Anwenders auf Grundlage formalisierten Fachwissens und daraus gezogener logischer Schlüsse Antworten zu liefern. Beispielhafte Anwendungen finden sich in der Diagnose von Krankheiten oder der Suche und Beseitigung von Fehlern in technischen Systemen.
Beispiele für wissensbasierte Systeme sind Cyc und Watson.
Musteranalyse und Mustererkennung
[Bearbeiten | Quelltext bearbeiten]Visuelle Intelligenz ermöglicht es, Bilder bzw. Formen zu erkennen und zu analysieren. Als Anwendungsbeispiele seien hier Handschrifterkennung, Identifikation von Personen durch Gesichtserkennung, Abgleich der Fingerabdrücke oder der Iris, industrielle Qualitätskontrolle und Fertigungsautomation (letzteres in Kombination mit Erkenntnissen der Robotik) genannt.
Mittels sprachlicher Intelligenz ist es beispielsweise möglich, einen geschriebenen Text in gesprochene Sprache umzuwandeln (Sprachsynthese) und umgekehrt einen gesprochenen Text zu verschriftlichen (Spracherkennung). Diese automatische Sprachverarbeitung kann erweitert werden, so dass etwa durch latente semantische Analyse (kurz LSI) Wörtern und Texten Bedeutung beigemessen werden kann.
Beispiele für Systeme zur Mustererkennung sind Google Brain und Microsoft Adam.[26]
Mustervorhersage
[Bearbeiten | Quelltext bearbeiten]Die Mustervorhersage ist eine Erweiterung der Mustererkennung. Sie stellt die Grundlage des von Jeff Hawkins definierten hierarchischen Temporalspeichers dar.
“Prediction is not just one of the things your brain does. It is the primary function of the neocortex, and the foundation of intelligence.”
„Vorhersage ist nicht einfach nur eines der Dinge, die dein Gehirn tut. Sie ist die Hauptfunktion des Neocortex und das Fundament der Intelligenz.“
Solche Systeme haben den Vorteil, dass sie z. B. nicht nur ein bestimmtes Objekt in einem Einzelbild erkennen (Mustererkennung), sondern aus einer Serie von Bildern vorhersagen können, wo sich das Objekt als Nächstes befinden wird.
Robotik
[Bearbeiten | Quelltext bearbeiten]Die Robotik beschäftigt sich mit manipulativer Intelligenz. Mit Hilfe von Robotern können unter anderem gefährliche Tätigkeiten wie etwa die Minensuche oder auch immer gleiche Manipulationen, wie sie beim Schweißen oder Lackieren auftreten können, automatisiert werden.
Der Grundgedanke ist es, Systeme zu schaffen, die intelligente Verhaltensweisen von Lebewesen nachvollziehen können. Beispiele für derartige Roboter sind ASIMO und Atlas.
Künstliches Leben
[Bearbeiten | Quelltext bearbeiten]KI überlappt sich mit der Disziplin künstliches Leben (Artificial life, AL),[28] und wird als übergeordnete oder auch als eine Subdisziplin gesehen.[29] AL muss deren Erkenntnisse integrieren, da Kognition eine Kerneigenschaft von natürlichem Leben ist, nicht nur des Menschen.
AI-Alignment
[Bearbeiten | Quelltext bearbeiten]Das junge Forschungsfeld der AI-Alignment (zu deutsch KI-Ausrichtung) beschäftigt sich mit der Ausrichtung von KI nach menschlichen Werten und Normen. Unabhängig von der Frage, ob die jeweilige KI über eine Form von Bewusstsein verfügt, verhält sich jede KI entsprechend ihrem Training. Unter anderem durch Fehler oder Lücken im Training kann einer KI leicht Verhalten antrainiert werden, das nicht mit menschlichen Werten vereinbar ist.[23] Die Forschung versucht herauszufinden, wie und ob ethisches Verhalten in KI sichergestellt werden kann, um Probleme wie im Einsatz von KI in Krankenhäusern und Gerichtssälen zu verhindern, aber auch, um die Risiken durch weit fortgeschrittene KI wie im Falle von Technologischer Singularität, zu minimieren.[25]
Methoden
[Bearbeiten | Quelltext bearbeiten]Die Methoden der KI lassen sich grob in zwei Dimensionen einordnen: symbolische vs. neuronale KI und Simulationsmethode vs. phänomenologische Methode. Die Zusammenhänge veranschaulicht die folgende Grafik:
![]() |
Die Neuronale KI verfolgt einen Bottom-up-Ansatz und möchte das menschliche Gehirn möglichst präzise nachbilden. Die symbolische KI verfolgt umgekehrt einen Top-down-Ansatz und nähert sich den Intelligenzleistungen von einer begrifflichen Ebene her. Die Simulationsmethode orientiert sich so nah wie möglich an den tatsächlichen kognitiven Prozessen des Menschen. Dagegen kommt es dem phänomenologischen Ansatz nur auf das Ergebnis an.
Viele ältere Methoden, die in der KI entwickelt wurden, basieren auf heuristischen Lösungsverfahren. In jüngerer Zeit spielen mathematisch fundierte Ansätze aus der Statistik, der mathematischen Programmierung und der Approximationstheorie eine bedeutende Rolle.
Die konkreten Techniken der KI lassen sich grob in Gruppen einteilen:
Suchen
[Bearbeiten | Quelltext bearbeiten]Die KI beschäftigt sich häufig mit Problemen, bei denen nach bestimmten Lösungen gesucht wird. Verschiedene Suchalgorithmen werden dabei eingesetzt. Ein Paradebeispiel für die Suche ist der Vorgang der Wegfindung, der in vielen Computerspielen eine zentrale Rolle einnimmt und auf Suchalgorithmen wie dem A*-Algorithmus basiert.
Planen
[Bearbeiten | Quelltext bearbeiten]Neben dem Suchen von Lösungen stellt das Planen einen wichtigen Aspekt der KI dar. Der Vorgang des Planens unterteilt sich dabei in zwei Phasen:
- Die Zielformulierung: Ausgehend vom momentanen Umgebungs- bzw. Weltzustand wird ein Ziel definiert. Ein Ziel ist hierbei eine Menge von Weltzuständen, bei der ein bestimmtes Zielprädikat erfüllt ist.
- Die Problemformulierung: Nachdem bekannt ist, welche Ziele angestrebt werden sollen, wird in der Problemformulierung festgelegt, welche Aktionen und Weltzustände betrachtet werden sollen. Es existieren hierbei verschiedene Problemtypen.
Planungssysteme planen und erstellen aus solchen Problembeschreibungen Aktionsfolgen, die Agentensysteme ausführen können, um ihre Ziele zu erreichen.
Optimierungsmethoden
[Bearbeiten | Quelltext bearbeiten]Oft führen Aufgabenstellungen der KI zu Optimierungsproblemen. Diese werden je nach Struktur entweder mit Suchalgorithmen aus der Informatik oder, zunehmend, mit Mitteln der mathematischen Optimierung gelöst. Bekannte heuristische Suchverfahren aus dem Kontext der KI sind evolutionäre Algorithmen.
Logisches Schließen
[Bearbeiten | Quelltext bearbeiten]Eine Fragestellung der KI ist die Erstellung von Wissensrepräsentationen, die dann für automatisches logisches Schließen benutzt werden können. Menschliches Wissen wird dabei – soweit möglich – formalisiert, um es in eine maschinenlesbare Form zu bringen. Diesem Ziel haben sich die Entwickler diverser Ontologien verschrieben.
Schon früh beschäftigte sich die KI damit, automatische Beweissysteme zu konstruieren, die Mathematikern und Informatikern beim Beweisen von Sätzen und beim Programmieren (Logikprogrammierung) behilflich wären. Zwei Schwierigkeiten zeichneten sich ab:
- Formuliert man Sätze in den natürlicher Sprache nahen, relativ bequemen Beschreibungssprachen, werden die entstehenden Suchprobleme allzu aufwändig. In der Praxis mussten Kompromisse geschlossen werden, bei denen die Beschreibungssprache für den Benutzer etwas umständlicher, die zugehörigen Optimierungsprobleme für den Rechner dafür jedoch einfacher zu handhaben waren (Prolog, Expertensysteme).
- Selbst mächtige Beschreibungssprachen werden unhandlich, wenn man versucht, unsicheres oder unvollständiges Wissen zu formulieren. Für praktische Probleme kann dies eine ernste Einschränkung sein. Die aktuelle Forschung untersucht daher Systeme, die die Regeln der Wahrscheinlichkeitsrechnung anwenden, um Unwissen und Unsicherheit explizit zu modellieren. Algorithmisch unterscheiden sich diese Methoden von den älteren Verfahren: neben Symbolen werden auch Wahrscheinlichkeitsverteilungen manipuliert.
Eine andere Form des logischen Schließens stellt die Induktion dar (Induktionsschluss, Induktionslogik), in der Beispiele zu Regeln verallgemeinert werden (maschinelles Lernen). Auch hier spielen Art und Mächtigkeit der Wissensrepräsentation eine wichtige Rolle. Man unterscheidet zwischen symbolischen Systemen, in denen das Wissen – sowohl die Beispiele als auch die induzierten Regeln – explizit repräsentiert ist, und subsymbolischen Systemen wie neuronalen Netzen, denen zwar ein berechenbares Verhalten „antrainiert“ wird, die jedoch keinen Einblick in die erlernten Lösungswege erlauben.
Approximationsmethoden
[Bearbeiten | Quelltext bearbeiten]In vielen Anwendungen geht es darum, aus einer Menge von Daten eine allgemeine Regel abzuleiten (maschinelles Lernen). Mathematisch führt dies zu einem Approximationsproblem. Im Kontext der KI wurden hierzu unter anderem künstliche neuronale Netze vorgeschlagen, die als universale Funktionsapproximatoren eingesetzt werden können, jedoch insbesondere bei vielen verdeckten Schichten schwer zu analysieren sind. Manchmal verwendet man deshalb alternative Verfahren, die mathematisch einfacher zu analysieren sind.
Künstliches Neuronales Netz
Große Fortschritte erzielt die künstliche Intelligenz in jüngerer Zeit im Bereich künstlicher neuronaler Netze, auch unter dem Begriff Deep Learning bekannt. Dabei werden neuronale Netze, die grob von der Struktur des Gehirns inspiriert sind, künstlich auf dem Computer simuliert. Viele der jüngeren Erfolge wie bei Handschrifterkennung, Spracherkennung, Gesichtserkennung, autonomem Fahren, maschineller Übersetzung wie DeepL, AlphaGo, ChatGPT, DeepSeek beruhen auf dieser Technik.
Anwendungen
[Bearbeiten | Quelltext bearbeiten]Künstliche Intelligenz hat eine Vielzahl von Verwendungen in Forschung und Wirtschaft. Mit der rasanten Entwicklung in diesem Bereich entsteht auch ein entsprechender Bedarf an Methoden zur AI-Detection.[30]
Turing-Test
[Bearbeiten | Quelltext bearbeiten]Um ein Kriterium zu haben, wann eine Maschine eine dem Menschen gleichwertige Intelligenz simuliert, wurde von Alan Turing der nach ihm benannte Turing-Test vorgeschlagen: Dazu stellt ein Mensch per Terminal (Bildschirm und Tastatur, oder auch Lautsprecher und Mikrofon) beliebige Fragen, ohne dabei zu wissen, ob diese von einem anderen Menschen oder einer Maschine beantwortet werden. Der Fragesteller muss danach entscheiden, ob es sich beim Interviewpartner um eine Maschine oder einen Menschen handelte. Ist die Maschine nicht von einem Menschen zu unterscheiden, so ist sie laut Turing intelligent.[31] Bisher konnte keine Maschine den Turing-Test zweifelsfrei bestehen. Seit 1991 existiert der Loebner-Preis für den Turing-Test.
Technologische Singularität
[Bearbeiten | Quelltext bearbeiten]Grob wird unter der technologischen Singularität der hypothetische Zeitpunkt verstanden, an dem künstliche Intelligenz die menschliche Intelligenz übertrifft. Ab diesem Zeitpunkt wird die weitere technologische Entwicklung hauptsächlich von KI vorangetrieben und nicht mehr vom Menschen.
Bewusstsein bei künstlicher Intelligenz
[Bearbeiten | Quelltext bearbeiten]In den Neurowissenschaften ist es eine Grundannahme, dass Bewusstseinsprozesse mit neuronalen Prozessen des Gehirns korrelieren (siehe Neuronales Korrelat des Bewusstseins). Nach Jürgen Schmidhuber ist das Bewusstsein nur ein Nebenprodukt des Problemlösens des Gehirns. So sei auch bei künstlichen Problemlösern (z. B. autonomen mobilen Robotern) von Vorteil, wenn diese sich ihrer selbst und ihrer Umgebung „bewusst“ seien. Schmidhuber bezieht sich bei „Bewusstsein“ im Kontext autonomer Roboter auf ein digitales Weltmodell inklusive des Systems selbst, nicht jedoch auf das Erleben von Zuständen. Ein Weltmodell könnte im Kontext von Reinforcement Learning dadurch erlernt werden, dass Aktionen belohnt werden, die das Weltmodell erweitern.[32]
Angrenzende Wissenschaften
[Bearbeiten | Quelltext bearbeiten]Sprachwissenschaft
[Bearbeiten | Quelltext bearbeiten]Die Interpretation menschlicher Sprache durch Maschinen besitzt bei der KI-Forschung eine entscheidende Rolle. So ergeben sich etwaige Ergebnisse des Turing-Tests vor allem in Dialogsituationen, die bewältigt werden müssen.
Die Sprachwissenschaft liefert mit ihren Grammatikmodellen und psycholinguistischen Semantikmodellen wie der Merkmals- oder der Prototypensemantik Grundlagen für das maschinelle „Verstehen“ komplexer natürlichsprachlicher Phrasen. Zentral ist die Frage, wie Sprachzeichen eine tatsächliche Bedeutung für eine künstliche Intelligenz haben können.[33] Das Chinese-Room-Argument des Philosophen John Searle sollte indes zeigen, dass es selbst dann möglich wäre, den Turing-Test zu bestehen, wenn den verwendeten Sprachzeichen dabei keinerlei Bedeutung beigemessen wird. Insbesondere Ergebnisse aus dem Bereich Embodiment betonen zudem die Relevanz von solchen Erfahrungen, die auf der Verkörperung eines Agenten beruhen sowie dessen Einbindung in eine sinnvolle Umgebung für jede Form von Kognition, also auch zur Konstruktion von Bedeutung durch eine Intelligenz.
Eine Schnittstelle zwischen der Linguistik und der Informatik bildet die Computerlinguistik, die sich unter anderem mit maschineller Sprachverarbeitung und künstlicher Intelligenz beschäftigt.
Psychologie
[Bearbeiten | Quelltext bearbeiten]Die Psychologie beschäftigt sich unter anderem mit dem Begriff Intelligenz.
Psychotherapie
[Bearbeiten | Quelltext bearbeiten]In der Psychotherapieforschung existieren seit geraumer Zeit experimentelle Anwendungen der künstlichen Intelligenz, um Defizite und Engpässe in der psychotherapeutischen Versorgung zu überbrücken und Kosten zu sparen.[34]
Philosophie
[Bearbeiten | Quelltext bearbeiten]Die philosophischen Aspekte der KI-Problematik gehören zu den weitreichendsten der gesamten Informatik.
Die Antworten, die auf die zentralen Fragen dieses Bereiches gegeben werden, reichen weit in ontologische und erkenntnistheoretische Themen hinein, die das Denken des Menschen schon seit den Anfängen der Philosophie beschäftigen. Wer solche Antworten gibt, muss die Konsequenzen daraus auch für den Menschen und sich selbst ziehen. Nicht selten möchte man umgekehrt vorgehen und die Antworten, die man vor der Entwicklung künstlicher Intelligenz gefunden hat, auf diese übertragen. Doch wie sich zeigte, hat die künstliche Intelligenz zahlreiche Forscher dazu veranlasst, Probleme wie das Verhältnis zwischen Materie und Geist, die Ursprünge des Bewusstseins, die Grenzen der Erkenntnis, das Problem der Emergenz, die Möglichkeit außermenschlicher Intelligenz usw. in einem neuen Licht zu betrachten und zum Teil neu zu bewerten.
Eine dem metaphysischen bzw. auch idealistischen Denken verpflichtete Sichtweise hält es (im Sinn einer schwachen KI) für unmöglich, dass Maschinen jemals mehr als nur simuliertes Bewusstsein mit wirklicher Erkenntnis und Freiheit besitzen könnten. Aus ontologischer Sicht kritisiert der amerikanische Philosoph Hubert Dreyfus die Auffassung der starken KI. Aufbauend auf der von Martin Heidegger in dessen Werk Sein und Zeit entwickelten Ontologie der „Weltlichkeit der Welt“ versucht Dreyfus zu zeigen, dass hinter das Phänomen der Welt als sinnhafte Bedeutungsganzheit nicht zurückgegangen werden kann: Sinn, d. h. Beziehungen der Dinge in der Welt aufeinander, sei ein Emergenzphänomen, denn es gibt nicht „etwas Sinn“ und dann „mehr Sinn“. Damit erweist sich jedoch auch die Aufgabe, die sinnhaften Beziehungen zwischen den Dingen der Welt in einen Computer einzuprogrammieren, als eigentlich unmögliches bzw. unendliches Vorhaben. Dies deshalb, weil Sinn nicht durch Addition von zunächst sinnlosen Elementen hergestellt werden kann.[35]
Eine evolutionär-progressive Denkrichtung sieht es hingegen (im Sinn einer starken KI) als möglich an, dass Systeme der künstlichen Intelligenz einmal den Menschen in dem übertreffen könnten, was derzeit noch als spezifisch menschlich gilt. Dies birgt zum einen die Gefahr, dass solche KI-Maschinen sich gegen die Interessen der Menschen wenden könnten. Andererseits birgt diese Technologie die Chance, Probleme zu lösen, deren Lösung dem Menschen wegen seiner limitierten Kapazitäten schwerfällt (siehe auch technologische Singularität).
Weitere Anknüpfungspunkte lassen sich in der analytischen Philosophie finden.
Die Ethik der Künstlichen Intelligenz erforscht ethische Normen für Entwurf, Herstellung, Testung, Zertifizierung und den Einsatz künstlich intelligenter Systeme und fragt nach Prinzipien für das ethische Verhalten von KI-Systemen. Intensiv untersuchte Themen sind dabei ethische Fragen des Autonomen Fahrens und Autonomer Waffensysteme sowie die Probleme und Realisierungsmöglichkeiten künstlicher moralischer Agenten.[36][37]
Rechtsphilosophie und Roboterethik gehen der Frage nach, ob eine KI für ihr gesetzwidriges Handeln oder Fehlverhalten verantwortlich gemacht werden kann (z. B. bei einem Autounfall durch ein autonomes Fahrzeug) und wer dafür haftet.[38]
Der russisch-amerikanische Biochemiker und Sachbuchautor Isaac Asimov beschreibt in seinen drei Robotergesetzen die Voraussetzungen für ein friedliches und unterstützendes Zusammenleben zwischen KI und Mensch. Diese Gesetze wurden später von anderen Autoren erweitert.
Bei Karl Marx finden sich im sogenannten Maschinenfragment, einem Teil der Grundrisse (1857–58), Überlegungen zur Ersetzung menschlicher Arbeitskraft durch Maschinen, die sich auch auf Maschinen mit Künstlicher Intelligenz anwenden lassen.[39]
Menschenrechte
[Bearbeiten | Quelltext bearbeiten]Zu den zentralen Fragen beim KI-Einsatz gehören die Aufteilung rechtlicher Verpflichtungen zwischen Staaten und Unternehmen sowie die Implikationen der Menschenrechte im Hinblick auf den Einsatz von KI in bestimmten Anwendungsbereichen, z. B. bei der Gesichtserkennung oder Erleichterung der Entscheidungsfindung von Gerichten. Auch wird das Ausmaß der technologischen Zusammenarbeit im Bereich der KI mit Staaten, die sich nicht an menschenrechtliche Grundstandards halten, aus wirtschaftsethischer und völkerrechtlicher Perspektive diskutiert.[40][41]
Klimatologie und Ökologie
[Bearbeiten | Quelltext bearbeiten]Der exponentiell zunehmende massiv ansteigende Energieverbrauch durch KI und der damit verbundene erhöhte Ausstoß des klimaaktiven Gases Kohlendioxid wirft grundlegende Fragen auf, wie sich die neue Technologie auf den menschengemachten Klimawandel auswirken wird. Auch der enorme Wasserverbrauch zur Kühlung der Rechenzentren wird seit einiger Zeit genauer untersucht.
Im Januar 2024 veröffentlichte die Internationale Energieagentur (IEA) die Publikation „Electricity 2024, Analysis and Forecast to 2026“, eine Prognose zum Stromverbrauch.[42] Dies ist der erste IEA-Bericht, der Prognosen für Rechenzentren und den Stromverbrauch für künstliche Intelligenz und Kryptowährungen enthält. Der Bericht besagt, dass sich der Strombedarf für diese Anwendungen von 2024 bis 2026 verdoppeln könnte, wobei der zusätzliche Stromverbrauch dem Stromverbrauch von ganz Japan entsprechen würde.[43]
Der enorme Stromverbrauch von KI ist somit für einen Anstieg der Nutzung fossiler Brennstoffe mitverantwortlich und könnte weltweit die Schließung veralteter, kohlenstoffemittierender Kohlekraftwerke verzögern. So wird z. B. in den gesamten USA im ersten Halbjahr 2024 in großem Ausmaß mit dem Bau von Rechenzentren begonnen, was international führende Technologieunternehmen (z. B. ChatGPT, Meta, Google, Amazon) quasi über Nacht zu Marktteilnehmern mit massiv steigendem Stromverbrauch macht. Der prognostizierte Stromverbrauch ist so immens, dass die Sorge besteht, dass er die Maßnahmen gegen menschengemachten Klimawandel negativ beeinflussen wird.[44] So verbraucht eine ChatGPT-Suche zehn bis zwanzigmal so viel elektrische Energie wie eine bisherige normale Google-Suche.[45]
Auch der Wasserverbrauch von K.I. ist zurzeit immens: Laut einer Forschungsarbeit der University of California wird für eine einzelne Anfrage an ChatGPT das Äquivalent von einer Flasche Wasser benötigt.[46]
Informatik
[Bearbeiten | Quelltext bearbeiten]Die künstliche Intelligenz ist mit den anderen Disziplinen der Informatik eng verzahnt. Eine Abgrenzung kann anhand der erzielten Ergebnisse versucht werden. Hierzu scheint es sinnvoll, verschiedene Dimensionen von Intelligenz zu unterscheiden:
- Die Fähigkeit zur Verarbeitung beliebiger Symbole (nicht nur Zahlen).
- Der Aufbau eines inneren Modells der äußeren Welt, eines Selbstmodells, sowie der Beziehung von Selbst und Welt.
- Die Fähigkeit zu einer zweckentsprechenden Anwendung des Wissens.
- Die Fähigkeit, die im gespeicherten Wissen enthaltenen Zusammenhänge aufzudecken, d. h. logisch schlussfolgern zu können.
- Die Fähigkeit zur Verallgemeinerung (Abstraktion) und zur Spezialisierung (d. h. zu Anwendung allgemeiner Zusammenhänge auf konkrete Sachverhalte).
- Das Vermögen, erworbenes Wissen und vorhandene Erfahrung auf neue, bisher unbekannte Situationen zu übertragen.
- Die Fähigkeit, sich planvoll zu verhalten und entsprechende Strategien zum Erreichen der Ziele bilden zu können.
- Anpassungsfähigkeit an verschiedene, u. U. sich zeitlich ändernde Situationen und Problemumgebungen.
- Lernfähigkeit, verbunden mit dem Vermögen, partiellen Fortschritt oder Rückschritt einschätzen zu können.
- Die Fähigkeit, auch in unscharf bzw. unvollständig beschriebenen oder erkannten Situationen handeln zu können.
- Die Fähigkeit zur Mustererkennung (Besitz von Sensoren) und zur aktiven Auseinandersetzung mit der Umwelt (Besitz von Effektoren).
- Über ein Kommunikationsmittel von der Komplexität und Ausdrucksfähigkeit der menschlichen Sprache verfügen.
Seit 1966 wird mit dem Turing Award ein Informatikpreis vergeben. Viele der Preisträger wurden wegen ihrer Errungenschaften im Bereich der Erforschung und Entwicklung Künstlicher Intelligenz ausgezeichnet.
Kritik an der KI-Forschung
[Bearbeiten | Quelltext bearbeiten]Stephen Hawking warnte 2014 vor der KI und sah darin eine Bedrohung für die Menschheit. Durch die KI könnte das Ende der Menschheit eingeleitet werden. Ob die Maschinen irgendwann die Kontrolle übernehmen werden, werde die Zukunft zeigen. Aber es sei klar, dass die Maschinen die Menschen zunehmend vom Arbeitsmarkt verdrängen.[47][48][49]
Im August 2017 forderten 116 Unternehmer und Experten aus der Technologiebranche (u. a. Mustafa Suleyman, Elon Musk, Yoshua Bengio, Stuart Russell, Jürgen Schmidhuber) in einem offenen Brief an die UN, dass autonome Waffen verboten werden sollten bzw. auf die seit 1983 bestehende CCW-Liste gesetzt werden sollen. Die Certain Conventional Weapons sind von der UN verboten und beinhalten unter anderem Chemiewaffen. Nach Schwarzpulver und der Atombombe drohe die dritte Revolution der Kriegsführung. Zitat aus dem Schreiben: „Wenn diese Büchse der Pandora einmal geöffnet ist, wird es schwierig, sie wieder zu schließen“ und „Einmal erfunden, könnten sie bewaffnete Konflikte erlauben in einem nie dagewesenen Ausmaß, und schneller, als Menschen sie begreifen können“. Terroristen und Despoten könnten die autonomen Waffen nutzen und sogar hacken.[50][51]
Argumentativ entgegengetreten sind solchen Positionen u. a. Rodney Brooks und Jean-Gabriel Ganascia.[52] Jörg Phil Friedrich vertritt den Standpunkt, es sei weniger eine künstliche Intelligenz, die uns in den KI-Systemen begegne, „sondern eine über weite Strecken degenerierte menschliche Intelligenz“.[53]
Im Februar 2018 wurde ein Bericht einer Projektgruppe führender Experten im Bereich KI veröffentlicht, der vor möglichen „Bösartige[n] Nutzungen künstlicher Intelligenz“ (englischer Originaltitel: „The Malicious Use of Artificial Intelligence“) warnt.[54] Beteiligt waren daran unter anderem Forscher der Universitäten von Oxford, Yale und Stanford, sowie Entwickler von Microsoft und Google. Der Bericht nimmt Bezug auf schon existierende Technologien und demonstriert anhand von diversen Szenarien, wie diese von Terroristen, Kriminellen und despotischen Regierungen missbraucht werden könnten.[54] Die Autoren des Berichts fordern daher eine engere Zusammenarbeit von Forschern, Entwicklern und Gesetzgeber im Bereich KI und schlagen konkrete Maßnahmen vor, wie die Gefahren des Missbrauchs verringert werden könnten.[54]
Der Historiker Yuval Noah Harari sagt, „künstliche Intelligenz und Biotechnologie können zerstören, was den Menschen ausmacht.“ Er warnt vor einem Wettrüsten im Bereich der künstlichen Intelligenz und empfiehlt globale Zusammenarbeit angesichts dieser „existenziellen Bedrohung.“[55] 2024 äußerte er sich im Wochenmagazin Stern besorgt, weil KI „die erste Technologie“ sei, „die eigene Entscheidungen treffen“ könne. Noch komme sie „recht primitiv daher“, doch schreite die Entwicklung zu schnell voran, ohne dass gegenwärtig die damit verbundenen Risiken eingeschätzt werden könnten. Es sei zu befürchten, die KI könnte eines Tages „Waffensysteme selbständig kontrollieren“ und „allein entscheiden, welche Person sie töten“. Die Risiken für die Demokratie bringt Harari mit der potentiellen Fähigkeit der KI in Verbindung, „das erste totale Überwachungssystem der Geschichte zu errichten“.[56]
Richard David Precht wendet sich gegen die Vorstellung, dass künftig böser Wille oder Machtstreben seitens einer entwickelten künstlichen Intelligenz drohe; das Gefahrenpotential liege vielmehr in ihrem falschen Einsatz.[57]
Die ehemalige Google-Teamleiterin Timnit Gebru warnt vor dem bias und dem Energiebedarf großer Sprachmodelle, was Diskriminierung und Klimakrise verschärfen könnte.[58] Um solchen ungewollten Effekten vorzubeugen, versucht der Forschungsbereich des AI-Alignments (zu deutsch KI-Ausrichtung) sicherzustellen, dass KI nach menschlichen Werten wie etwa Egalitarismus handelt. (Siehe auch: Green IT)
Caroline Criado Perez[59] zeigt in ihrer ausführlichen Recherchearbeit das bestehende Gender-Data-Gaps einen negativen Einfluss auf Trainingsdaten von KI nehmen und so bestehende Diskriminierungen reproduziert werden.
Als feministische Kritik im Bezug auf Daten und Technologisierung entwickelten sich bereits in den Anfängen des Internets feministische Praxen wie Cyberfeminismus oder Technofeminismus und prägen den Diskurs der feministischen KI.
Vorschläge zum Umgang mit KI
[Bearbeiten | Quelltext bearbeiten]Der Präsident von Microsoft, Brad Smith, schlug vor, einen Verhaltenskodex aufzustellen, wie etwa eine Digitale Genfer Konvention, um Risiken der künstlichen Intelligenz zu verringern.
Der Ethiker Peter Dabrock empfiehlt im Kontext der Benutzung und Programmierung von künstlicher Intelligenz nicht nur die digitale Kompetenz der Beteiligten zu erhöhen, sondern auch auf klassische Bildungselemente zu setzen. Um mit den dazugehörigen Herausforderungen zurechtzukommen sowie die Fähigkeiten zur Unterscheidung und zur Erkennung von Mehrdeutigkeit zu erhöhen, seien Kenntnisse aus Religion, Literatur, Mathematik, Fremdsprachen, Musik und Sport eine gute Voraussetzung.[60]
Der Deutsche Bundestag hat am 28. Juni 2018 eine Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale eingesetzt.[61] Am 28. Oktober 2020 hat die Kommission ihren Abschlussbericht vorgelegt. Künstliche Intelligenz ist demnach die nächste Stufe der Digitalisierung. Unter dem Leitbild einer „menschenzentrierten KI“ wird eine „demokratische Gestaltung“ der Entwicklung gefordert, so dass KI-Anwendungen vorrangig auf das Wohl und die Würde der Menschen ausgerichtet seien und einen gesellschaftlichen Nutzen bringen. Um einer Diskriminierung von Menschen entgegenzuwirken „braucht es, wenn KI über Menschen urteilt, einen Anspruch auf Transparenz, Nachvollziehbarkeit und Erklärbarkeit von KI-Entscheidungen, damit eine gerichtliche Überprüfung automatisierter Entscheidungen möglich ist“.[62]
2021 veröffentlichte die EU-Kommission einen Vorschlag über eine KI-Verordnung, über die derzeit verhandelt wird.
Im März 2023 wurde ein u. a. von Elon Musk unterstützter Aufruf zu einer 6-monatigen KI-Entwicklungspause veröffentlicht.[63]
Der KI-Investor Fabian Westerheide verwies im Zusammenhang mit seinem 2024 erschienenen Buch Die KI-Nation auf hohe Investitionen einiger Staaten – insbesondere Chinas – in eine eigene KI-Strategie, warnte vor der Gefahr einer Überwachung durch Backdoors beim Einsatz ausländischer KI und betonte die Bedeutung deutscher und gesamteuropäischer Pläne zur KI.[64]
Verbreitung von KI in Deutschland
[Bearbeiten | Quelltext bearbeiten]Die Zahl der Betriebe, die KI-Technologien einsetzen, ist in Deutschland noch relativ gering. Ende 2018 haben nur 6 Prozent der Unternehmen KI genutzt oder implementiert. 17 Prozent haben angegeben, KI-Einsätze zu testen oder zumindest solche zu planen.[65] Auch die ZEW-Studie[66] kommt zu einem ähnlichen Ergebnis. Im Jahr 2019 haben rund 17.500 Unternehmen im Berichtskreis der Innovationserhebung (produzierendes Gewerbe und überwiegend unternehmensorientierte Dienstleistungen) KI in Produkten, Dienstleistungen oder internen Prozessen eingesetzt. Das sind 5,8 Prozent der Unternehmen im Berichtskreis.
Das KI-Observatorium
[Bearbeiten | Quelltext bearbeiten]Mit dem Observatorium Künstliche Intelligenz in Arbeit und Gesellschaft (kurz: KI-Observatorium), einem Projekt der Denkfabrik Digitale Arbeitsgesellschaft, fokussiert das Bundesministerium für Arbeit und Soziales die Frage nach den Auswirkungen von KI auf Arbeit und Gesellschaft. Das KI-Observatorium agiert an der Schnittstelle zwischen Politik, Wissenschaft, Wirtschaft und Gesellschaft; es fungiert als Wissensträger und Impulsgeber. Das KI-Observatorium hat die Aufgabe, Effekte von KI in der Arbeitswelt frühzeitig zu antizipieren und Handlungsbedarfe aufzuzeigen. Auf diese Weise leistet die im März 2020 gestartete Arbeitseinheit einen Beitrag zur Realisierung der in der KI-Strategie der Bundesregierung formulierten Ziele – etwa zum sicheren und gemeinwohlorientierten Einsatz von KI. Darüber hinaus soll das KI-Observatorium mithilfe von Dialog- und Beteiligungsformaten unterschiedliche gesellschaftliche Akteure im Umgang mit künstlicher Intelligenz befähigen und bestärken.[67]
Die konkreten Aufgabenschwerpunkte des Observatoriums sind in den fünf Handlungsfeldern festgehalten:[68]
- Technologie-Foresight und Technikfolgenabschätzung
- KI in der Arbeits- und Sozialverwaltung
- Ordnungsrahmen für KI/soziale Technikgestaltung
- Aufbau internationaler und europäischer Strukturen
- Gesellschaftlicher Dialog und Vernetzung
Grundlegende Schwachstellen der KI
[Bearbeiten | Quelltext bearbeiten]Zu den auch Ende des Jahres 2024 deutlich feststellbaren grundlegenden Schwachstellen der KI gehören u. a.:
- Generative KI beinhaltet systemimmanente Probleme, die zum so genannten Halluzinieren führen können, bei dem überzeugende Antworten verfasst werden, die angeblich wahr sind, obwohl es sich tatsächlich um Phantasieprodukte handelt.[69][70]
- Wenige marktbeherrschende Unternehmen im Zusammenhang mit den weltweiten Big-Tech-Unternehmen kontrollieren durch Ausnutzung ihrer bestehenden Dominanz und durch gezieltes Aufkaufen von KI-Startups die Entwicklung der Künstlichen Intelligenz und verstärken dadurch umso mehr ihre monopolartigen Marktstellungen mit all den damit zusammenhängenden Nachteilen.[71]
- Manipulierbarkeit der Anwendung schon allein durch Auswahl der verwendeten KI-„Trainingsdaten“.
- Zum Teil gravierende Sicherheitsbedenken: Nutzer von insbesondere generativen KI-Modellen haben kaum Möglichkeiten, Sicherheitslücken zu erkennen. Beispielsweise ist mit Stand Februar 2025 bei der DeepSeek-AI von einer sehr weitreichenden Speicherung von auch vertraulichen Nutzerdaten auszugehen.[72]
- KI neigt dazu, bereits bestehende gesellschaftliche Diskriminierungsverhältnisse zu reproduzieren. Wenn die Daten, mit denen eine KI trainiert wird, z. B. bereits einen sexistischen oder rassistischen Bias haben, wirkt sich dieser auch auf die Funktionen der KI aus. Es gibt vor allem bei mittels KI automatisierten Entscheidungsprozessen eine Reihe von Beispielen, bei denen marginalisierte Gruppen benachteiligt werden.[73][74]
Regulierung und Gesetzgebung
[Bearbeiten | Quelltext bearbeiten]Europäische Union
[Bearbeiten | Quelltext bearbeiten]Die Verordnung über künstliche Intelligenz (informell meist KI-Verordnung, englisch AI Act) ist eine EU-Verordnung für die Regulierung von künstlicher Intelligenz. Es ist die weltweit erste umfassende Regulierung dieser Art. Das Gesetz regelt den Einsatz von KI unter anderem für die kritische Infrastruktur, Sicherheitsbehörden und Personalverwaltung.[75] Die Europäische Kommission hat das Gesetz am 21. April 2021 vorgeschlagen und einen ersten Entwurf veröffentlicht.[76] Am 28. September 2022 hat die Europäische Kommission in dem Zusammenhang auch den Entwurf einer Richtlinie über Produkthaftung[77] und einer Richtlinie über KI-Haftung veröffentlicht.[78] Haftungsfragen waren zuvor aus der Verordnung herausgenommen worden.[79] In dem Kontext steht auch die Überarbeitung der Maschinenrichtlinie zur EU-Maschinenverordnung, die am 14. Juni 2023 in Kraft getreten ist. Am 9. Dezember 2023 einigten sich die EU-Gesetzgebungsinstitutionen auf die Grundzüge des Gesetzes.[80][81]
Am 12. Juni 2024 hat die EU die KI-Verordnung mit dem Titel „Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)“ veröffentlicht.[82] Hier sind Vorschriften zum Inverkehrbringen, Inbetriebnahme und die Verwendung von KI-Systemen festgelegt. Verbotene Praktiken sind in Kapitel II benannt.[83] Ebenso sind die Kriterien zur Einstufung von KI-Systemen als Hochrisiko-KI-Systeme in Kapitel III beschrieben.[84] Für Hochrisiko-KI-Systeme wird die EU eine Datenbank errichten.[85] Sanktionen gegen die Missachtung der Richtlinie sind mit Geldbußen von 35 Millionen Euro oder 7 % des gesamten weltweiten Umsatzes des verstoßenden Unternehmens belegt.[86] Wie jede EU-Richtlinie muss sie in nationale Gesetze übernommen werden. Für KI-Systeme ist eine EU-Konformitätserklärung vorgeschrieben.[87]
Da die KI-Systeme viele Bereiche tangieren, wie am Titel der Verordnung ersichtlich, wurden folgende Richtlinien geändert: Richtlinie 2014/90/EU über Schiffsausrüstung, Richtlinie (EU) 2016/797 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union. Folgende Verordnungen wurden mit der KI-RL auch geändert: Verordnung (EG) Nr. 300/2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt, Verordnung (EU) Nr. 167/2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen, Verordnung (EU) Nr. 168/2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen, Verordnung (EU) 2018/858 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, Verordnung (EU) 2018/1139 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit, Verordnung (EU) 2019/2144 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern.[88]
Basierend auf den Verordnungen der EU haben einige nationale Stellen bereits eigenen Regularien zum Einsatz im öffentlich-rechtlichen Umfeld ausgearbeitet.[89]
Vereinigte Staaten
[Bearbeiten | Quelltext bearbeiten]In den Vereinigten Staaten gibt es bislang keine Bundesgesetzgebung, die die Verwendung von künstlicher Intelligenz explizit und umfassend reguliert.
Dass der Einsatz von KI möglichst global reguliert wird, halten viele US-amerikanische Juristen jedoch für notwendig, so zum Beispiel Anwalt Shabbi S. Khan: „Generative KI hat das Potenzial, katastrophal zu sein“.[90] Auch die US-Regierung hat erkannt, dass die Machtfülle der großen Tech-Unternehmen zu einer Bedrohung der Demokratie werden kann. Im Juli 2023 wollte US-Präsident Joe Biden eine freiwillige Selbstverpflichtung führender KI-Unternehmen einholen, um zu einer sicheren und transparenten KI-Entwicklung beizutragen.[91]
Darstellung in Film, Videospielen, Literatur und Musik
[Bearbeiten | Quelltext bearbeiten]Künstliche Wesen, die denken können, tauchen seit der Antike als Figuren in Erzählungen auf und sind ein ständiges Thema in der Science-Fiction.[92]
Seit der Klassischen Moderne wird KI in Kunst, Film und Literatur behandelt.[93] Dabei geht es bei der künstlerischen Verarbeitung – im Gegensatz zur KI-Forschung, bei der die technische Realisierung im Vordergrund steht – vor allem um die moralischen, ethischen und religiösen Aspekte und Folgen einer nicht-menschlichen, „maschinellen Intelligenz“.
In der Renaissance wurde der Begriff des Homunculus geprägt, eines künstlichen Miniaturmenschen ohne Seele.[94] Im 18. und 19. Jahrhundert erschienen in der Literatur menschenähnliche Automaten, beispielsweise in E. T. A. Hoffmanns Der Sandmann und Jean Pauls Der Maschinenmann.
Im 20. und 21. Jahrhundert greift die Science-Fiction in Film und Prosa das Thema mannigfach auf.[95] 1920 prägte der Schriftsteller Karel Čapek den Begriff „Roboter“ in seinem Bühnenstück R.U.R.; 1926 thematisierte Fritz Lang in Metropolis Roboter, welche die Arbeit der Menschen übernehmen.[95]
Ein häufiges Motiv im Film und der Literatur begann mit Mary Shelleys Roman Frankenstein (1818), in dem eine menschliche Schöpfung zu einer Bedrohung für ihre Meister wird. Dazu gehören Werke wie Arthur C. Clarkes und Stanley Kubricks 2001: Odyssee im Weltraum (beide 1968), mit HAL 9000, dem mörderischen Computer, der das Raumschiff Discovery One steuert, sowie die Terminator-Filmreihe (ab 1984) und The Matrix (1999). Im Gegensatz dazu sind die seltenen loyalen Roboter wie Gort aus Der Tag an dem die Erde stillstand (1951) und Bishop aus Aliens (1986) in der Populärkultur weniger präsent.[96]
Mehrere Werke nutzen die künstliche Intelligenz, um uns mit der grundlegenden Frage zu konfrontieren, was uns zu Menschen macht, indem sie uns künstliche Wesen zeigen, die die Fähigkeit haben, zu fühlen und somit zu leiden. Dies geschieht in Karel Čapeks R.U.R., dem Film A.I. Artificial Intelligence von Steven Spielberg (2001) und anhand der Androidin Ava im Kinofilm Ex Machina (2015) von Alex Garland sowie in dem Roman Träumen Androiden von elektrischen Schafen? (1968) von Philip K. Dick. Dick befasst sich mit der Idee, dass unser Verständnis der menschlichen Subjektivität durch die mit künstlicher Intelligenz geschaffene Technologie verändert wird.[97]
Am 30. September 2016 veröffentlichte die US-amerikanische Pop-Rock-Band OneRepublic mit dem englischen Singer-Songwriter und Rockmusiker Peter Gabriel das Lied A.I.[98] als digitale Single und am 7. Oktober 2016 auf dem Album Oh My My von OneRepublic.[99][100] Der Song ist inspiriert von dem Film A.I. Artificial Intelligence von Steven Spielberg aus dem Jahr 2001.[101]
Die beiden großen Science-Fiction-Franchises des frühen 21. Jahrhunderts, Star Wars und Star Trek, gehen sehr unterschiedlich mit dem Thema KI um. Während bei Star Wars KI vor allem in Form von Robotern und Androiden (gleichermaßen als Statisten und Hauptfiguren) von Beginn an selbstverständlich und allgegenwärtig erscheint, nahm Star Trek im Laufe der Zeit immer wieder sehr dedizierte, wechselnde Perspektiven ein, obwohl KI auch dort meist selbstverständlich ist (z. B. Simulierte Lebewesen auf Holodecks). Beispielsweise wurde die Folge Wem gehört Data? (1989) zum Arbeitsthema mehrerer Wissenschaftler.
Roboter und Androide
Isaac Asimov führte die Drei Gesetze der Robotik in vielen Büchern und Geschichten ein, vor allem in der „Multivac“-Serie über einen superintelligenten Computer gleichen Namens. Asimovs Gesetze werden oft in Laiendiskussionen über Maschinenethik erwähnt;[102] während fast alle Forscher im Bereich der künstlichen Intelligenz mit Asimovs Gesetzen durch die Populärkultur vertraut sind, halten sie die Gesetze im Allgemeinen aus vielen Gründen für nutzlos, einer davon ist ihre Zweideutigkeit.[103]
Dem Filmpublikum wurden in den unterschiedlichen Werken die Roboter als intelligente und differenzierte Maschinen mit ganz unterschiedlichen Persönlichkeiten präsentiert: Sie werden entwickelt, um sie für gute Zwecke einzusetzen, wandeln sich aber häufig zu gefährlichen Maschinen, die feindselige Pläne gegen Menschen entwickeln.[104] Im Lauf der Filmgeschichte werden sie zunehmend zu selbstbewussten Wesen, die sich die Menschheit unterwerfen wollen.[104]
Simulierte Realität
Die simulierte Realität ist zu einem häufigen Thema in der Science-Fiction geworden, wie beispielsweise in dem Film The Matrix aus dem Jahr 1999 zu sehen ist, in dem eine Welt dargestellt wird, in der künstlich intelligente Roboter die Menschheit in einer Simulation versklaven, die in der heutigen Welt angesiedelt ist.[105] Zuvor thematisierte bereits die Star Trek TNG - Episode Das Schiff in der Flasche (1993) die Steuerung einer simulierten Realität durch eine böswillige KI, welche zuvor in der Episode Sherlock Data Holmes (1988) versehentlich erschaffen worden war.
Beispiele
[Bearbeiten | Quelltext bearbeiten]Auswahl Filme und Literatur:
- Der Maschinenmensch (aka die falsche Maria) in Fritz Langs Metropolis (1927).
- Der Computer HAL 9000 im Kinofilm 2001 Odyssee im Weltraum (1968) von Stanley Kubrick
- Nomad (und andere) in der TV-Serie Raumschiff Enterprise (1966–1969) und später V'ger in Star Trek: Der Film (1979), dem ersten Kinofilm zur vorgenannten Serie.
- Die Elektronengehirne Colossus und Guardian im Film Colossus (1969) von Joseph Sartgent
- Die Androiden im Kinofilm Westworld (1973) und der US-amerikanischen Fernsehserie Westworld (2016)
- Die sprechenden Bomben im Film Dark Star – Finsterer Stern (1974) von John Carpenter
- Die meisten der seit 1977 im Star Wars Franchise (Filme, Serien, Videospiele) sichtbaren Roboter und Androide, einschließlich R2-D2 und C-3PO.
- Der Supercomputer Golem aus den Büchern Golem XIV und Also sprach Golem von Stanisław Lem (1981)
- Das Master Control Programm im Film Tron (1982) von Steven Lisberger
- Die Replikanten im Blade Runner Film von Ridley Scott (1982) und Blade Runner 2049 Film von Denis Villeneuve (2017)
- Das Auto K.I.T.T. in der US-amerikanischen Fernsehserie Knight Rider (1982–1986)
- Das Expertensystem des lernfähigen Computers WOPR (War Operation Plan Response) in WarGames – Kriegsspiele (1983)
- Die zentrale Maschineninstanz Skynet in der Terminator-Filmreihe (ab 1984)
- Die Roboter der fliegenden Insel Laputa im japanischen Anime-Filmklassiker Das Schloss im Himmel (1986) von Hayao Miyazaki (Studio Ghibli).
- Der Androide Data in der US-amerikanischen Fernsehserie Raumschiff Enterprise – Das nächste Jahrhundert (1987–1994). Hervorzuheben ist hier die Episode "Wem gehört Data?".
- Holografische Lebewesen und diverse Computersysteme im Star Trek Franchise (Filme, Serien, Videospiele), insbesondere der Doktor aus Star Trek: Voyager und zuletzt z. B. die KIs Control und Zora in Start Trek: Discovery
- Der Roboter Nummer 5 in den Filmen Nummer 5 lebt! (1986) und Nummer 5 gibt nicht auf (1988)
- Die Maschinen sowie sämtliche Programme (Orakel, Architekt, Agent etc.) im Film The Matrix (1999) von den Geschwistern Lana und Lilly Wachowski und den darauf basierenden Produktionen (3 weitere Filme, Serie, Spiele).
- Der Androide Andrew Martin im Film Der 200 Jahre Mann (2000) von Chris Columbus
- Die Zentralcomputer Red Queen und White Queen in den Resident-Evil Realfilmreihe (2002–2026)
- Der Roboter Sonny im Film I, Robot (2004) von Alex Proyas
- Die Tachikomas, Kampfmaschinen deren KIs in der japanischen Anime-Serie Ghost In The Shell: S.A.C. 2nd GIG (2005) ein Bewusstsein entwickeln.
- Der Computer Deep Thought, in der Roman- sowie Hörspielreihe des englischen Autors Douglas Adams und dem Film Per Anhalter durch die Galaxis (2005) von Garth Jennings
- Das geheime KI-Überwachungssystem in der US-amerikanischen Fernsehserie Person of Interest (2011–2016)
- Die Androiden in der schwedischen Fernsehserie Real Humans – Echte Menschen (2012–2014)
- Das Betriebssystem Samantha im Film Her (2013) von Spike Jonze
- Die Androiden in der britisch-US-amerikanischen Fernsehserie Humans (2015)
- Der Androide John of Us im Roman Qualityland (2017) von Marc-Uwe Kling
- Die Spezies der Kaylon in der Serie The Orville (2017–2023).
- Das KI-System A.R.E.S. in Frank Schätzings Roman Die Tyrannei des Schmetterlings (2018)
- Die KI TAU im gleichnamigen Film TAU von Federico D’Alessandro
- Die KI-Puppe M3GAN im US-amerikanischen Science-Fiction-Horrorfilm M3GAN (2023) von Gerard Johnstone
- Die Entität im Film Mission: Impossible – Dead Reckoning Teil Eins (2023) von Christopher McQuarrie.
- Raputa, eine militärische KI im japanischen Manga Deep Raputa (2024) von Kitanoda Sorakara[106]
Auswahl Videospiele:
- Roboter in Beneath a Steel Sky (1994) und Beyond a Steel Sky (2020)
- Androiden in Blade Runner (1997)
- Androiden in Vandell: Knight of the Tortured Souls (2002)
- GLaDOS in Portal und Portal 2 (2007)
- Androiden in Detroit: Become Human (2018)
- Die KI Esme in Annie and the Ai (2023)
Kritik
[Bearbeiten | Quelltext bearbeiten]2025 veröffentlichten 1000 britische Künstler und Gruppen das Album Is This What We Want? als Protest gegen Versuche der britischen Regierung den Urheberrechtsschutz zu Gunsten der KI-Industrie aufzuweichen.[107]
Soziale Auswirkungen
[Bearbeiten | Quelltext bearbeiten]Im Zuge der industriellen Revolution wurde durch die Erfindung der Dampfmaschine die Muskelkraft von der Maschine ersetzt (PS durch Watt). Durch die digitale Revolution könnte die menschliche Denkleistung durch maschinelle KI ersetzt[108] beziehungsweise ergänzt[109] werden.
Der US-amerikanische Unternehmer Elon Musk prognostiziert, dass es zukünftig immer weniger Erwerbsarbeit geben werde, die nicht von einer Maschine besser und günstiger gemacht werden könne, weshalb immer weniger Arbeitskräfte benötigt würden. Durch die weitgehend maschinelle Produktion würden die Produkte und Dienstleistungen sehr billig werden. In diesem Zusammenhang unterstützt er die Einführung eines bedingungslosen Grundeinkommens.[110] Der Physiker Stephen Hawking meinte: Bereits heute sei klar, dass die Maschinen die Menschen zunehmend vom Arbeitsmarkt verdrängen.[47][48] Microsoft-Gründer Bill Gates sieht die Entwicklung ähnlich. Er fordert eine Robotersteuer, um die sozialen Aufgaben der Zukunft bewältigen zu können.[111]
Die Informatikerin Constanze Kurz erklärte in einem Interview, technischen Fortschritt habe es schon immer gegeben. Jedoch vollzog sich der technische Wandel in der Vergangenheit meist über Generationen, so dass genug Zeit blieb, sich für neue Aufgaben auszubilden. Heute verlaufe der technische Wandel innerhalb von wenigen Jahren, so dass die Menschen nicht genug Zeit hätten, sich für neue Aufgaben weiterzubilden.[112] Der Sprecher des Chaos Computer Clubs, Frank Rieger, warnte in verschiedenen Publikationen (z. B. dem Buch Arbeitsfrei)[113] davor, dass durch die beschleunigte Automatisierung vieler Arbeitsbereiche in naher Zukunft immer mehr Menschen ihre Beschäftigung verlieren würden (z. B. LKW-Fahrer durch selbstfahrende Autos). Darin bestehe unter anderem eine Gefahr der Schwächung von Gewerkschaften, die an Mitgliedern verlieren könnten. Rieger plädiert daher für eine „Vergesellschaftung der Automatiserungsdividende“, also einer Besteuerung von nichtmenschlicher Arbeit, damit durch das Wachstum der Wirtschaft in Form eines Grundeinkommens auch der allgemeine Wohlstand wächst und gerecht verteilt wird.[114]
Wissenschaftler der Universität Oxford haben in einer Studie im Jahr 2013 eine Vielzahl von Jobs auf ihre Automatisierbarkeit überprüft. Dabei unterteilten die Wissenschaftler die Jobs in verschiedene Risikogruppen. 47 Prozent der betrachteten Jobs in den USA wurden in die höchste Risikogruppe eingeteilt, d. h., dass für diese Jobs die Wahrscheinlichkeit hoch ist, dass innerhalb eines unbestimmten Zeitraums die nötige Technologie entwickelt wird, um sie automatisieren zu können. Die Studie macht jedoch keine Aussage dazu, wie viele Jobs tatsächlich automatisiert werden, da nur die technologischen Entwicklungen und keine weiteren Faktoren betrachtet werden. Ein solcher Faktor wäre zum Beispiel die Höhe der Kosten, also ob eine Automatisierung teurer wäre als das Gehalt für einen menschlichen Arbeiter.[115]
Jürgen Schmidhuber antwortete auf die Frage, ob KIs uns bald den Rang ablaufen werden bzw. ob wir uns Sorgen um unsere Jobs machen müssten: „Künstliche Intelligenzen werden fast alles erlernen, was Menschen können – und noch viel mehr. Ihre neuronalen Netzwerke werden aus Erfahrung klüger und wegen der sich rasch verbilligenden Hardware alle zehn Jahre hundertmal mächtiger. Unsere formelle Theorie des Spaßes erlaubt sogar, Neugierde und Kreativität zu implementieren, um künstliche Wissenschaftler und Künstler zu bauen.“ und „Alle fünf Jahre wird das Rechnen 10-mal billiger. Hält der Trend an, werden kleine Rechner bald so viel rechnen können wie ein menschliches Gehirn, 50 Jahre später wie alle 10 Milliarden Hirne zusammen.“[116] Siehe dazu auch: Mooresches Gesetz. Als Konsequenz aus der aus seiner Sicht unabwendbar fortschreitenden Automatisierung und dem damit einhergehenden Wegfall von Erwerbsarbeitsplätzen sieht Schmidhuber die Notwendigkeit eines bedingungslosen Grundeinkommens.[117] „Roboterbesitzer werden Steuern zahlen müssen, um die Mitglieder unserer Gesellschaft zu ernähren, die keine existenziell notwendigen Jobs mehr ausüben. Wer dies nicht bis zu einem gewissen Grad unterstützt, beschwört geradezu die Revolution Mensch gegen Maschine herauf.“[118]
Erik Brynjolfsson ist der Auffassung, das Aufkommen radikaler Parteien in den USA und Europa sei die Folge davon, dass viele Menschen heute schon nicht mehr mit dem technischen Fortschritt mithalten könnten. Wenn Menschen ihre Jobs verlieren, werden diese Menschen wütend, so Brynjolfsson. Auch er meint, dass in Zukunft die meisten Jobs von Maschinen erledigt würden.[119]
Mark Zuckerberg äußerte bei einer Rede vor Harvard-Absolventen, dass die Einführung eines bedingungslosen Grundeinkommens notwendig sei. Es könne etwas nicht mehr in Ordnung sein, wenn er als Harvard-Abbrecher innerhalb weniger Jahre Milliarden machen könne, während Millionen von Uni-Absolventen ihre Schulden nicht abbezahlen könnten. Es brauche eine Basis, auf der jeder innovativ und kreativ sein könne.[120][121]
Im November 2017 stellte der Deutsche-Bank-Chef John Cryan einen starken Stellenabbau in Aussicht. Das Unternehmen beschäftigt 97.000 Menschen. Bereits in den letzten 12 Monaten wurden 4.000 Stellen abgebaut. In naher Zukunft sollen 9.000 weitere Stellen abgebaut werden. Mittelfristig sollen die Hälfte aller Stellen abgebaut werden. Cryan begründete diesen Schritt damit, dass die Konkurrenz bereits heute mit etwa der Hälfte der Mitarbeiter vergleichbare Leistung erbringe. Cryan sagte: „Wir machen zu viel Handarbeit, was uns fehleranfällig und ineffizient macht“. Vor allem durch das maschinelle Lernen bzw. künstliche Intelligenzen könnte das Unternehmen noch viel effizienter werden. Viele Banker arbeiteten ohnehin wie Roboter, so Cryan. An die Stelle qualifizierter Mitarbeiter sollen qualifizierte Maschinen treten, so Cryan.[122]
Der Zukunftsforscher Lars Thomson prognostizierte im November 2017 für die nächsten 10 Jahre gewaltige Umbrüche in Technologie, Arbeit, Werten und Gesellschaft. Im Jahr 2025 könne ein Haushalts-Roboter den Frühstückstisch decken, Fenster putzen, Pflegedienste übernehmen usw. wodurch Arbeitsplätze vernichtet würden. Heute schon gebe es 181 Firmen weltweit, die an klugen Robotern arbeiten. Der Preis eines solchen Roboters betrage heute etwa 20.000 Euro. Der Markt der künstlichen Intelligenz werde in wenigen Jahren größer sein als der Automobilmarkt. Wie schnell 10 Jahre vergingen, würde man sehen, wenn man 10 Jahre zurückblicke, als das erste Smartphone auf den Markt kam. Er bedauert, dass in unserer Gesellschaft kaum jemand diese Entwicklung erkenne, die unsere Gesellschaft komplett verändern werde. In Hotels würden in 10 Jahren Roboter die Arbeiten der heutigen Zimmermädchen übernehmen. Der Vorteil für den Hotelmanager: Der Roboter wolle keinen Lohn, keine freien Tage, müsse nicht versteuert und versichert werden. Der Nachteil: Der Staat erhalte keine Steuern mehr und die Menschen seien arbeitslos. Deshalb werde man nicht an einem bedingungslosen Grundeinkommen und der Einführung einer Robotersteuer vorbeikommen. Thomson sieht die Gefahr einer Spaltung der Gesellschaft, wenn das Tempo der Veränderung die Wandlungsfähigkeit der Menschen übersteige. Gleichzeitig werde die KI den Menschen von der Arbeit befreien. Die Gesellschaft müsse Leitplanken für die KIs definieren.[123]
In einem Interview im Januar 2018 meinte der CEO von Google Sundar Pichai, die aktuelle Entwicklung der künstlichen Intelligenz sei für den Werdegang der Menschheit bedeutender als es die Entdeckung des Feuers und die Entwicklung der Elektrizität waren. Durch die aktuelle Entwicklung der KI werde kein Stein auf dem anderen bleiben. Deshalb sei es wichtig, dass die Gesellschaft sich mit dem Thema auseinandersetze. Nur so könne man die Risiken eingrenzen und die Potentiale ausschöpfen. Google gehört derzeit zu den führenden Unternehmen im Bereich der KI. Allein der KI-Assistent von Google ist bereits auf hunderten Millionen Android-Smartphones installiert. Aber auch in den Suchmaschinen kommt KI derzeit bereits milliardenfach zum Einsatz. Die von Google gekaufte Firma DeepMind eilt bei der KI-Forschung von Meilenstein zu Meilenstein u. a. mit AlphaGo, AlphaGo Zero, AlphaZero.[124]
Das Institut für Arbeitsmarkt- und Berufsforschung (IAB), das zur Bundesagentur für Arbeit gehört, hat in einer Studie von 4/2018[125] dargelegt, welche menschliche Arbeit in Deutschland von Maschinen ersetzt werden kann. Die Studie kommt zum Ergebnis, dass im Jahr 2016 25 Prozent der bezahlten menschlichen Tätigkeiten von Maschinen hätten erledigt werden können, was etwa acht Millionen Arbeitsplätzen in Deutschland entspricht. Eine frühere Studie kam für das Jahr 2013 noch auf einen Wert von 15 Prozent. Am stärksten betroffen mit etwa 83 Prozent sind Fertigungsberufe, aber auch unternehmensbezogene Dienstleistungsberufe mit 60 Prozent, Berufe in der Unternehmensführung und -organisation mit 57 Prozent, Berufe in Land- und Forstwirtschaft und Gartenbau mit 44 Prozent usw. Im Vergleich von 2013 zu 2016 sind besonders stark Logistik- und Verkehrsberufe gestiegen (von 36 auf 56 Prozent), ein Bereich, in dem in Deutschland etwa 2,4 Millionen Menschen beschäftigt sind. Insgesamt geht die Studie davon aus, dass in naher Zukunft 70 Prozent der menschlichen bezahlten Tätigkeiten von Maschinen übernommen werden könnten. Maschinen könnten z. B. übernehmen: Wareneingangskontrolle, Montageprüfung, Kommissionierung, Versicherungsanträge, Steuererklärungen usw. Die Techniken, die diese Veränderungen vorantreiben, seien: künstliche Intelligenzen, Big Data, 3D-Druck und virtuelle Realität. Auch wenn es nicht zu Entlassungen komme, müssten Mitarbeiter zumindest mit starken Veränderungen in ihrem Berufsbild und damit starkem Umlernen rechnen. Es entstünden auch neue Berufsfelder. Auch werde nicht alles, was heute schon möglich ist, auch umgesetzt und schon gar nicht sofort. Ein Faktor für diese Verzögerung seien ethische und rechtliche Aspekte, aber auch die hohen Kosten der Automatisierung. Nicht immer sei die künstliche Intelligenz billiger als die menschliche Intelligenz.[126]
In einem Gastbeitrag im Februar 2018 meinte der SAP-Chef Bill McDermott, dass sich die Menschen fürchten würden vor den Veränderungen, die eine Welt mit Robotern und KIs mit sich bringt. Ein erster Meilenstein sei der Sieg der Maschine Deep Blue über den amtierenden Schachweltmeister Gary Kasparov im Jahr 1997 gewesen. Ein weiterer Meilenstein sei der Sieg der Maschine Watson über den Menschen in der Quiz-Show Jeopardy im Jahr 2011 gewesen. Und der nächste große Schritt waren dann die Siege von AlphaGo und seinen Nachfolgern AlphaGo Zero und AlphaZero im Jahr 2016 und 2017. Die tiefgreifenden Veränderungen, die KI auch am Arbeitsplatz mit sich bringen würden, seien heute nun in aller Munde. Um etwaige negative Auswirkungen der neuen Techniken auf die Gesellschaft zu vermeiden, brauche es nun eine durchdachte Planung. Behörden, Privatwirtschaft und Bildungswesen müssten zusammenarbeiten, um jungen Menschen die Fähigkeiten zu vermitteln, die diese in der digitalen Wirtschaft benötigten. Umschulungen und lebenslanges Lernen seien heute die neue Normalität. Jobs würden nicht komplett von Maschinen ersetzt, sondern meist in Teilbereichen. Es entstünden auch viele neue Jobs. Die wirtschaftliche Entwicklung werde durch die KI befeuert. Man rechne für 2030 mit einer Wertschöpfung im Bereich von 16 Billionen US-Dollar und einem Wachstum des Bruttoinlandsprodukts um 26 Prozent. Durch die Automatisierung könnten Unternehmen zukünftig jährlich drei bis vier Billionen US-Dollar einsparen.[127]
Umweltaspekte
[Bearbeiten | Quelltext bearbeiten]KI kann auch dazu genutzt werden, mehr Nachhaltigkeit zu erreichen. Eine vom Fraunhofer-Institut für Produktionstechnik und Automatisierung und dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation in Auftrag gegebene Studie sieht hierbei große Potenziale für produzierende Unternehmen. Der Einsatz von KI könne zu effizienteren Produktionsprozessen führen und Ressourcen schonen.[128] Das Unternehmen Bosch gab 2023 an, durch den Einsatz von generativer KI in einem türkischen Werk den Wasserverbrauch, den Ausschuss sowie den Energiebedarf verringert zu haben. Gleichzeitig sei die Anlageneffektivität um ca. zehn Prozent angestiegen.[129]
In der Forschung wird allerdings angemahnt, nicht nur auf Nachhaltigkeit durch KI, sondern auch von KI zu achten.[130] Die Supercomputer, die die Nutzung von KI ermöglichen, haben einen überaus hohen Strombedarf. Die Internationale Energieagentur schätzt, dass sich der weltweite Stromverbrauch durch Rechenzentren, die diese Supercomputer beherbergen, bis 2026 im Vergleich zu 2022 verdoppeln könnte.[131] Darüber hinaus benötigen Supercomputer großer Mengen an Kühlwasser. Allein das Training von GPT-3 soll schätzungsweise 700.000 Liter Trinkwasser verbraucht haben.[132] Genaue Zahlen zum Energie- und Wasserverbrauch durch KI fehlen zumeist, da Unternehmen nicht verpflichtet sind, diese offenzulegen.
Eine Studie, die sich mit dem Nutzen von KI für die Ziele für nachhaltige Entwicklung beschäftigte, kommt zu dem Schluss, dass bei 79 % von diesen die Nutzung von KI einen positiven Effekt haben könnte. Gleichzeitig könnten auch bei 35 % der Ziele negative Auswirkungen aus dem Einsatz von KI resultieren.[133] Der Informatiker Rainer Rehak warnte in einem Interview mit der taz allerdings davor, Klimaziele allein durch die Nutzung von KI erreichen zu wollen. Maßnahmen, die mit einer grundsätzlichen Neuorientierung z. B. bei der Stadtentwicklung einhergehen, könnten gegebenenfalls deutlich besser zur Verhinderung von Treibhausgasemissionen beitragen.[134]
Siehe auch: Green IT
Siehe auch
[Bearbeiten | Quelltext bearbeiten]- Anwendungen künstlicher Intelligenz
- Deutsches Forschungszentrum für Künstliche Intelligenz
- Ethik der künstlichen Intelligenz
- Artificial General Intelligence
- Existenzielles Risiko durch künstliche Intelligenz
- Verordnung über künstliche Intelligenz seitens der EU
- Regulierung von künstlicher Intelligenz
- Künstliche Intelligenz in der Medizin
- Rationale Ignoranz
Weblinks
[Bearbeiten | Quelltext bearbeiten]Deutsch
- Deutsche Zeitschrift für Künstliche Intelligenz
- Fachbereich Künstliche Intelligenz der Gesellschaft für Informatik (GI)
- Artikel zum Thema Künstliche Intelligenz bei heise.de
- Österreichische Gesellschaft für Artificial Intelligence (ÖGAI): oegai.at
- Computerwoche.de: FAQ Künstliche Intelligenz
- Thomas Brandstetter: Mit dem Gehirn als Vorbild zu besserer KI in Spektrum.de vom 4. November 2023
Audios
- Elektrotechnik-Ingenieur und Philosoph Rolf Eraßme im Gespräch: Warum man Menschen nicht nachbauen kann. Philosophische Argumente gegen die Künstliche Intelligenz. (Podcast; 40 Min.) In: Bayerischer Rundfunk. 11. Mai 2018, abgerufen am 4. Januar 2025 (Moderation: Ania Mauruschat).
- Zum aktuellen Stand von Künstlicher Intelligenz. (Podcast; 55 Min.) In: digitalkompakt. 25. August 2016, abgerufen am 18. November 2021.
- ARD – Der KI-Podcast – Wissen
Videos
- iHuman, Tonje Hessen Schei, 2019
- Vortrag von Jürgen Schmidhuber: Künstliche Intelligenz wird alles ändern, 2016
- Schlaue neue Welt – Das KI-Wettrennen. Dokumentation, RBB, 2024
Englisch
- Peter Norvig, aima.cs.berkeley.edu: AI on the Web – Zusammenstellung weiterführender Links
- claire-ai.org: Confederation of Laboratories for Artificial Intelligence in Europe (CLAIRE, Föderation von KI-Forschungseinrichtungen in Europa)
- eurai.org: European Association for Artificial Intelligence (EurAI, früher ECCAI)
- Journal of Artificial Intelligence Research (JAIR)
- Larry Hauser: Artificial Intelligence. In: James Fieser, Bradley Dowden (Hrsg.): Internet Encyclopedia of Philosophy.
- John-Stewart Gordon, Sven Nyholm: Ethics of Artificial Intelligence. In: James Fieser, Bradley Dowden (Hrsg.): Internet Encyclopedia of Philosophy.
- Selmer Bringsjord, Naveen Sundar Govindarajulu: Artifical Intelligence. In: Edward N. Zalta (Hrsg.): Stanford Encyclopedia of Philosophy.
- Richmond Thomason: Logic and Artifical Intelligence. In: Edward N. Zalta (Hrsg.): Stanford Encyclopedia of Philosophy.
- Frederic Portoraro: Automated Reasoning. In: Edward N. Zalta (Hrsg.): Stanford Encyclopedia of Philosophy.
Literatur
[Bearbeiten | Quelltext bearbeiten]- Stuart J. Russell, Peter Norvig: Künstliche Intelligenz: Ein moderner Ansatz. Pearson Studium, Berkeley 2004, ISBN 3-8273-7089-2 (englisch: Artificial Intelligence: A Modern Approach.).
- Marie-Sophie Adeoso, Eva Berendsen, Leo Fischer, Deborah Schnabel: Code & Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus. Verbrecher Verlag, Berlin 2024, ISBN 978-3-95732-589-1.
- Ingo Boersch, Jochen Heinsohn, Rolf Socher: Wissensverarbeitung – Eine Einführung in die Künstliche Intelligenz. Elsevier, 2006, ISBN 3-8274-1844-5.
- Stefan Buijsman: Ada und die Algorithmen. Wahre Geschichten aus der Welt der künstlichen Intelligenz. C.H.Beck, München 2021, ISBN 978-3-406-77563-5 (niederländisch: AI – Alsmaar intelligenter. Een kijkjeachter de beeldschermen. Amsterdam 2020. Übersetzt von Bärbel Jänicke).
- Ulrich Eberl: Smarte Maschinen: Wie Künstliche Intelligenz unser Leben verändert. Carl Hanser Verlag, München 2016, ISBN 978-3-446-44870-4.
- Wolfgang Ertel: Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung. 3. Auflage. Springer Vieweg, Wiesbaden 2013, ISBN 978-3-8348-1677-1.
- Jörg Phil Friedrich: Degenerierte Vernunft. Künstliche Intelligenz und die Natur des Denkens. Claudius Verlag, 2023, ISBN 978-3-532-62892-8.
- Görz, Rollinger, Schneeberger: Handbuch der Künstlichen Intelligenz. 5. Auflage. Oldenbourg, 2013, ISBN 978-3-486-71979-6.
- Künstliche Intelligenz: Die Revolution der Roboter. Konradin Mediengruppe, 2019, ISSN 0006-2375 (99 Seiten).
- Uwe Lämmel, Jürgen Cleve: Künstliche Intelligenz. 3. Auflage. Carl Hanser Verlag, München 2008, ISBN 978-3-446-41398-6 (hs-wismar.de).
- Manuela Lenzen: Künstliche Intelligenz. Was sie kann und was uns erwartet. C.H.Beck, München 2018, ISBN 978-3-406-71869-4.
- Manuela Lenzen: Der elektronische Spiegel. Menschliches Denken und künstliche Intelligenz. C.H.Beck, München 2023, ISBN 978-3-406-79208-3.
- Vincent C. Müller, Martin Hähnel: Was ist, was kann, was soll KI? Ein philosophisches Gespräch, Meiner, Hamburg 2024, ISBN 978-3-7873-4672-1.
- Julian Nida-Rümelin, Natalie Weidenfeld: Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz, Pieper, München 32023 (12020), ISBN 978-3-492-31616-3.
- Nils John Nilsson: Die Suche nach Künstlicher Intelligenz – Eine Geschichte von Ideen und Erfolgen. 1. Auflage. AKA, Berlin 2014, ISBN 978-3-89838-665-4 (englisch: The quest for artificial intelligence. A history of ideas and achievements. Cambridge 2010.).
- Matteo Pasquinelli: Das Auge des Meisters. Eine Sozialgeschichte künstlicher Intelligenz. Unrast, Münster 2024, ISBN 978-3-89771-390-1.
- Roger Penrose: Schatten des Geistes. Wege zu einer neuen Physik des Bewußtseins. Heidelberg, 1995 (englisch: Shadows of the Mind.).
- Rolf Pfeifer, Christian Scheier, Alex Riegler: Understanding Intelligence. Bradford Books, 2001, ISBN 0-262-66125-X (englisch).
- David L. Poole, Alan K. Mackworth: Artificial Intelligence: Foundations of Computational Agents. 2. Auflage. Cambridge University Press, 2017, ISBN 978-1-107-19539-4 (englisch).
- Thomas Ramge: Mensch und Maschine. Wie Künstliche Intelligenz und Roboter unser Leben verändern. Reclam-Verlag, Stuttgart 2018, ISBN 978-3-15-019499-7.
- Anna Strasser, Wolfgang Sohst, Ralf Stapelfeldt, Katja Stepec: Künstliche Intelligenz – Die große Verheißung. Xenomoi, Berlin 2021, ISBN 978-3-942106-79-5.
- Mustafa Suleyman, Michael Bhaskar: The Coming Wave. Künstliche Intelligenz, Macht und das größte Dilemma des 21. Jahrhunderts. C.H.Beck, 2024, ISBN 978-3-406-81412-9.
- Bernd Vowinkel: Maschinen mit Bewusstsein – Wohin führt die künstliche Intelligenz? Wiley-VCH, 2006, ISBN 3-527-40630-1.
- Joseph Weizenbaum: Die Macht der Computer und die Ohnmacht der Vernunft. 12. Auflage. Suhrkamp, 1978, ISBN 3-518-27874-6.
- Emmanouil Billis, Nandor Knust, Jon-Petter Rui: Künstliche Intelligenz und der Grundsatz der Verhältnismäßigkeit. M. Engelhart, H. Kudlich, B. Vogel (Hrsg.), Digitalisierung, Globalisierung und Risikoprävention – Festschrift für Ulrich Sieber zum 70. Geburtstag, Teilband II. Duncker & Humblot, Berlin 2021, ISBN 978-3-428-15971-0, S. 693–725.
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE. 30. September 2008, abgerufen am 3. Mai 2023 (amerikanisches Englisch).
- ↑ a b Lexikon der Neurowissenschaften: Künstliche Intelligenz. In: Spektrum der Wissenschaft. Abgerufen am 18. Juli 2021.
- ↑ Künstliche Intelligenz. (PDF) In: dfki.de. Bitkom e. V. und Deutsches Forschungszentrum für künstliche Intelligenz, 2017, S. 28, abgerufen am 18. Juli 2021.
- ↑ Microsoft erklärt: Was ist künstliche Intelligenz? Definition & Funktionen von KI | News Center Microsoft. 4. März 2020, abgerufen am 18. Juli 2021 (deutsch).
- ↑ Was ist künstliche Intelligenz und wie wird sie genutzt? | Aktuelles | Europäisches Parlament. 14. September 2020, abgerufen am 18. Juli 2021.
- ↑ Stuart J. Russell, Peter Norvig: Künstliche Intelligenz: Ein moderner Ansatz. Pearson Studium, Berkeley 2004, ISBN 3-8273-7089-2 (englisch: Artificial Intelligence: A Modern Approach.).
- ↑ a b Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz […] (Verordnung über künstliche Intelligenz). 13. Juni 2024 (europa.eu [abgerufen am 11. Dezember 2024]).
- ↑ Matthijs M Maas: AI is Like… A Literature Review of AI Metaphors and Why They Matter for Policy. In: AI Foundations Report 2. 2023, doi:10.2139/ssrn.4612468.
- ↑ Salena Sampson Anderson: “Places to stand”: Multiple metaphors for framing ChatGPT's corpus. In: Computers and Composition. Band 68, 1. Juni 2023, ISSN 8755-4615, S. 102778, doi:10.1016/j.compcom.2023.102778 (sciencedirect.com [abgerufen am 8. Januar 2025]).
- ↑ a b Melanie Mitchell: The metaphors of artificial intelligence. In: Science. Band 386, Nr. 6723, 14. November 2024, S. eadt6140, doi:10.1126/science.adt6140.
- ↑ Warren J. von Eschenbach: Transparency and the Black Box Problem: Why We Do Not Trust AI. In: Philosophy & Technology. Band 34, Nr. 4, 1. Dezember 2021, ISSN 2210-5441, S. 1607–1622, doi:10.1007/s13347-021-00477-0.
- ↑ Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell: On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. In: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (= FAccT '21). Association for Computing Machinery, New York, NY, USA 2021, ISBN 978-1-4503-8309-7, S. 610–623, doi:10.1145/3442188.3445922.
- ↑ Ted Chiang: ChatGPT Is a Blurry JPEG of the Web. In: The New Yorker. 9. Februar 2023, ISSN 0028-792X (newyorker.com [abgerufen am 8. Januar 2025]).
- ↑ Arleen Salles, Kathinka Evers, Michele Farisco: Anthropomorphism in AI. 2. April 2020, ISSN 2150-7740, S. 88–95, doi:10.1080/21507740.2020.1740350 (englisch).
- ↑ Adriana Placani: Anthropomorphism in AI: hype and fallacy. In: AI and Ethics. Band 4, Nr. 3, 1. August 2024, ISSN 2730-5961, S. 691–698, doi:10.1007/s43681-024-00419-4.
- ↑ Lucinda McKnight, Cara Shipp: “Just a tool”? Troubling language and power in generative AI writing. In: English Teaching: Practice & Critique. Band 23, Nr. 1, 1. Januar 2024, ISSN 1175-8708, S. 23–35, doi:10.1108/ETPC-08-2023-0092.
- ↑ Shannon Vallor: The AI Mirror, Oxford University Press, 2024, ISBN 978-0-19-775906-6
- ↑ Anuj Gupta, Yasser Atef, Anna Mills, Maha Bali: Assistant, Parrot, or Colonizing Loudspeaker? ChatGPT Metaphors for Developing Critical AI Literacies. In: Open Praxis. Band 16, Nr. 1, 2. Februar 2024, ISSN 1369-9997, doi:10.55982/openpraxis.16.1.631.
- ↑ What if we chose new metaphors for artificial intelligence? | Think Tank | European Parliament. (europa.eu [abgerufen am 8. Januar 2025]).
- ↑ Matthijs M. Maas: AI is Like… A Literature Review of AI Metaphors and Why They Matter for Policy. In: AI Foundations Report 2. 2023, doi:10.2139/ssrn.4612468.
- ↑ Francesco Bianchini: Evaluating Intelligence and Knowledge in Large Language Models. In: Topoi. 1. August 2024, ISSN 1572-8749, doi:10.1007/s11245-024-10072-5.
- ↑ Nils J. Nilsson: The Quest for Artificial Intelligence. A History of Ideas and Achievements. Cambridge University Press, New York 2009. (amerikanisches Englisch)
- ↑ a b Nick Bostrom: Superintelligenz. Szenarien einer kommenden Revolution. Suhrkamp, 2016, S. 42.
- ↑ Blog-Beitrag: Was ist Künstliche Intelligenz und was ist Maschinelles Lernen? Abgerufen am 16. März 2025.
- ↑ a b Nick Bostrom: Superintelligenz. Szenarien einer kommenden Revolution. Suhrkamp, Frankfurt am Main. 2016, S. 50 f.
- ↑ Daniela Hernandez: Microsoft Challenges Google’s Artificial Brain With ‘Project Adam’. In: Wired. 14. Juli 2014, abgerufen am 5. August 2014 (englisch).
- ↑ Jeff Hawkins, Sandra Blakeslee: On Intelligence. Owl Books, 2005, ISBN 0-8050-7853-3, S. 89.
- ↑ Mark A. Bedau: Artificial life: organization, adaptation and complexity from the bottom up. In: Department of Philosophy, ReedCollege, 3023 SE Woodstock Blvd., Portland OR 97202, USA (Hrsg.): Trends in Cognitive Sciences. Band 7, Nr. 11. Portland, OR, USA November 2003 (reed.edu [PDF; abgerufen am 12. März 2019]).
- ↑ Wolfgang Banzhaf, Barry McMullin: Artificial Life. In: Grzegorz Rozenberg, Thomas Bäck, Joost N. Kok (Hrsg.): Handbook of Natural Computing. Springer, 2012, ISBN 978-3-540-92909-3.
- ↑ t3n: KI-Texte menschlicher schreiben: Dieses KI-Tool soll KI-Detektoren wie GPTZero austricksen, veröffentlicht 2024-10-22
- ↑ Alan Turing: Computing Machinery and Intelligence. Aus: Mind No. 236. Oktober 1950.
- ↑ Roboter müssen Steuern zahlen Interview mit Jürgen Schmidhuber In: wiwo.de, 31. Januar 2016.
- ↑ Stevan Harnad: The Symbol Grounding Problem. In: Physica D. 42, 1990, S. 335–346.
- ↑ Franz-Josef Hücker: Die Pygmalion-Mythologie in der Psychotherapie. In: Psychotherapie Forum. Band 16, Nr. 3, 2008, (Springer), (Wien), S. 128–135.
- ↑ Vgl. Hubert Dreyfus: In-der-Welt-sein und Weltlichkeit: Heideggers Kritik des Cartesianismus. In: Thomas Rentsch: Sein und Zeit. Akademie Verlag, Berlin 2001, S. 69ff.
- ↑ Tanja Oppelt: Ethikkommission stellt in Berlin Ergebnisse vor: Selbstfahrende Autos und die Moral. Bayerischer Rundfunk, 20. Juni 2017; abgerufen am 20. August 2019.
- ↑ Christoph Stockburger: Autonomes Fahren: Was soll Ihr Auto jetzt tun? Spiegel Online, 29. August 2016; abgerufen am 20. März 2018.
- ↑ heise online: Wenn Computer über Leben und Tod entscheiden: Wer haftet, wenn die KI tötet? Abgerufen am 20. März 2018 (deutsch).
- ↑ Thomas Weiß, Künstliche Intelligenz – eine marxistische Betrachtung. In: Anna Strasser, Wolfgang Sohst, Ralf Stapelfeldt, Katja Stepec (Hrsg.): Künstliche Intelligenz – Die große Verheißung Xenomoi, Berlin 2021. S. 379–405.
- ↑ Alexander Kriebitz und Christoph Lütge: Artificial Intelligence and Human Rights: A Business Ethical Assessment Business and Human Rights Journal, Januar 2020; abgerufen am 28. Juli 2020.
- ↑ David Kaye: Report of the Special Rapporteur to the General Assembly on AI and its impact on freedom of opinion and expression OHCHR, Januar 2020; abgerufen am 28. Juli 2020.
- ↑ IEA: Electricity 2024 – Analysis. In: IEA, Januar 2024, aufgerufen am 21. Juli 2024.
- ↑ Calvert Brian: AI already uses as much energy as a small country. It's only the beginning Vox.com, März 2024; abgerufen am 21. Juli 2024.
- ↑ Manuel G. Pascual: Artificial intelligence is already an environmental problem El País, Juli 2024; abgerufen am 21. Juli 2024.
- ↑ Dieter Kranzlmüller, Professor für Informatik Münchner LMU: Süddeutsche Zeitung Warum Chat-GPT so viel Strom frisst Süddeutsche Zeitung, November 2023; abgerufen am 21. Juli 2024.
- ↑ Shaolei Ren, University of California: A.I. tools fueled a 34 % spike in Microsoft’s water consumption. In: Fortune, September 2023; abgerufen am 21. Juli 2024.
- ↑ a b Hilal Kalafat: Physiker warnt vor künstlicher Intelligenz. In: Handelsblatt. 3. Dezember 2014.
- ↑ a b Stephen Hawking warnt vor Künstlicher Intelligenz ( vom 18. Juli 2015 im Webarchiv archive.today)
- ↑ Rory Cellan-Jones: Stephen Hawking – will AI kill or save humankind? In: BBC News. 20. Oktober 2016 (bbc.com [abgerufen am 28. Oktober 2018]).
- ↑ Elon Musk und 116 Experten fordern Verbot von Killer-Robotern, t3n.de.
- ↑ Elon Musk und Co. warnen vor Killer-Robotern, faz.net.
- ↑ Gero von Randow: Künstliche Intelligenz: Zu intelligent fürs Leben. In: Die Zeit. 14. September 2017, abgerufen am 27. September 2017.
- ↑ Jörg Phil Friedrich: Woran man Künstliche Intelligenz immer erkennt. In: Die Welt. 19. Januar 2023, abgerufen am 12. Januar 2024.
- ↑ a b c Miles Brundage, Shahar Avin, Jack Clark, Helen Toner, Peter Eckersley, Ben Garfinkel, Allan Dafoe, Paul Scharre, Thomas Zeitzoff, Bobby Filar, Hyrum Anderson, Heather Roff, Gregory C. Allen, Jacob Steinhardt, Carrick Flynn, Seán Ó hÉigeartaigh, Simon Beard, Haydn Belfield, Sebastian Farquhar, Clare Lyle, Rebecca Crootof, Owain Evans, Michael Page, Joanna Bryson, Roman Yampolskiy, Dario Amodei: The Malicious Use of Artificial Intelligence. (PDF) Centre of the Study for Existential Risk, 20. Februar 2018, abgerufen am 9. März 2018 (englisch).
- ↑ Gabor Kiss: Yuval Noah Harari: „Verlierer wird die Menschheit sein“. In: euronews. 14. Mai 2019, abgerufen am 15. November 2020.
- ↑ Steffen Gassel, Alexandra Kraft: „Lasst Euch nicht hetzen! Wenn wir Menschen uns den Algorithmen anpassen, ist das unser Ende“. Exklusiv-Gespräch mit Yuval Noah Harari. In: Stern. Nr. 37, 5. September 2024, S. 38–45.
- ↑ Roboter können keine Moral. Warum das Gerede von superintelligenten, allmächtigen Maschinen nur ein großes Ablenkungsmanöver ist. In: Die Zeit, 18. Juni 2020, S. 32.
- ↑ Chris Köver: KI-Forscherin Timnit Gebru – Tausende Google-Angestellte protestieren nach Rauswurf. In: Netzpolitik.org. 9. Dezember 2020, abgerufen am 23. Dezember 2021 (deutsch).
- ↑ Caroline Criado-Perez: Invisible Women: Exposing Data Bias in a World Designed for Men. ISBN 978-1-78470-628-9.
- ↑ Peter Dabrock: Wir sollten auf klassische Bildung setzen. In: Aufbruch Künstliche Intelligenz – Was sie bedeutet und wie sie unser Leben verändert. Google LLC, SZ Scala GmbH, 2018, S. 34.
- ↑ Lisa Brüssler: Deutscher Bundestag – Enquete-Kommission zur künstlichen Intelligenz eingesetzt. In: Deutscher Bundestag. (bundestag.de [abgerufen am 6. September 2018]).
- ↑ Deutscher Bundestag – Enquete-Kommission „Künstliche Intelligenz“. Archiviert vom (nicht mehr online verfügbar) am 31. Oktober 2020; abgerufen am 19. November 2022.
- ↑ Bernd Müller: Elon Musk, Yoshua Bengio und Hunderte von Unterzeichnern für Pause beim KI-Training. Telepolis, 31. März 2023
- ↑ Fabian Westerheide: Wie China zur KI-Supermacht wurde – und was das Land damit vorhat. In: capital.de. 18. April 2024, abgerufen am 1. Juni 2024.
- ↑ PwC: Künstliche Intelligenz in Unternehmen. 2019 (pwc.de ( vom 25. Juni 2020 im Internet Archive) [PDF; 567 kB]).
- ↑ Bundesministerium für Wirtschaft und Energie: Einsatz von Künstlicher Intelligenz in der Deutschen Wirtschaft. Abgerufen am 22. Juni 2020.
- ↑ KI-Observatorium. In: Denkfabrik Digitale Arbeitsgesellschaft. Bundesministerium für Arbeit und Soziales (BAMS), abgerufen am 2. April 2023.
- ↑ Die 5 Handlungsfelder des KI-Observatoriums. Archiviert vom (nicht mehr online verfügbar) am 25. Juni 2020; abgerufen am 22. Juni 2020.
- ↑ Googles KI-Übersichten ist immer noch nicht zu trauen. In: heise.de. 23. Dezember 2024, abgerufen am 27. Dezember 2024.
- ↑ BBC warnt vor fehlerhaften KI-Nachrichtenzusammenfassungen. In: heise.de. 12. Februar 2025, abgerufen am 17. Februar 2025.
- ↑ KI und Machtkonzentration: Wie ChatGPT & Co. die Macht von Big Tech verfestigen. In: heise.de. 20. April 2023, abgerufen am 27. Dezember 2024.
- ↑ Datenschutzbedenken: Nach Italien verbietet auch Südkorea DeepSeek. In: heise.de. 17. Februar 2025, abgerufen am 17. Februar 2025.
- ↑ Phillip Lücking: Automatisierte Ungleichheit. Wie algorithmische Entscheidungssysteme gesellschaftliche Machtverhältnisse (re)produzieren. In: netzforma* e. V. (Hrsg.): Wenn KI, dann feministisch. Impulse aus Wissenschaft und Aktivismus. Berlin 2020, S. 65–76 (netzforma.org [PDF; abgerufen am 6. April 2025]).
- ↑ Katrin Fritsch, Helene von Schwichow: Künstliche Intelligenz und Feminismus: Aktuelle Debatten. MOTIF Institute for Digital Culture, 25. Februar 2021, S. 11 ff, abgerufen am 6. April 2025.
- ↑ EU einigt sich auf Regeln für künstliche Intelligenz. In: Zeit Online. 9. Dezember 2023, abgerufen am 22. Dezember 2023.
- ↑ EU einigt sich auf Regeln für künstliche Intelligenz. In: Der Spiegel. 9. Dezember 2023, abgerufen am 22. Dezember 2023.
- ↑ Vorschlag für eine RICHTLINIE DES EUROPÄISCHEN PARLAMENTS UND DES RATES über die Haftung für fehlerhafte Produkte (COM(2022) 495 final), abgerufen am 22. Dezember 2023
- ↑ Vorschlag für eine RICHTLINIE DES EUROPÄISCHEN PARLAMENTS UND DES RATES zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung) (COM/2022/496 final), abgerufen am 22. Dezember 2023
- ↑ Falk Steiner: Im Regulierungsrausch. In: c't. Heise, Dezember 2022, abgerufen am 22. Dezember 2023.
- ↑ Wie Europa Chat-GPT & Co. Zügel anlegt. SZ, 9. Dezember 2023
- ↑ Weltweit restriktivste Regulierung von Künstlicher Intelligenz. Holger Schmidt, FAZ, 9. Dezember 2023
- ↑ Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates. In: eur-lex.europa.eu. EU Parlament und Rat, 13. Juni 2024, abgerufen am 8. Januar 2025.
- ↑ KAPITEL II VERBOTENE PRAKTIKEN IM KI-BEREICH. In: eur-lex.europa.eu. EU Parlament und Rat, 13. Juni 2024, abgerufen am 8. Januar 2025.
- ↑ KAPITEL III HOCHRISIKO-KI-SYSTEME. In: eur-lex.europa.eu. EU Parlament und Rat, 13. Juni 2024, abgerufen am 8. Januar 2025.
- ↑ Artikel 71 EU-Datenbank für die in Anhang III aufgeführten Hochrisiko-KI-Systeme. In: eur-lex.europa.eu. EU Parlament und Rat, 13. Juni 2024, abgerufen am 8. Januar 2025.
- ↑ Artikel 99 Sanktionen. In: eur-lex.europa.eu. EU Parlament und Rat, 13. Juni 2024, abgerufen am 8. Januar 2025.
- ↑ ANHANG V EU-Konformitätserklärung. In: eur-lex.europa.eu. EU Parlament und Rat, 13. Juni 2024, abgerufen am 8. Januar 2025.
- ↑ KAPITEL XIII SCHLUSSBESTIMMUNGEN. In: eur-lex.europa.eu. EU Parlament und Rat, 13. Juni 2024, abgerufen am 8. Januar 2025.
- ↑ Bundesministerium des Innern und für Heimat, 2025: Leitlinien für den Einsatz Künstlicher Intelligenz in der Bundesverwaltung (pdf)
- ↑ Felix Huesmann: Regulierung von künstlicher Intelligenz: USA drohen ins globale Hintertreffen zu geraten. In: RedaktionsNetzwerkes Deutschland. 4. Oktober 2023, abgerufen am 22. Dezember 2023.
- ↑ Corinna Visser: Schwerpunkte und Tempo: Das machen die USA bei der KI-Regulierung besser. In: Frankfurter Rundschau. 1. August 2023, abgerufen am 22. Dezember 2023.
- ↑ Pamela McCorduck: Machines Who Think. 2. Auflage. 2004, ISBN 1-56881-205-1 (englisch).
- ↑ Lisa Xanke, Elisabeth Bärenz: Künstliche Intelligenz in Literatur und Film – Fiktion oder Realität? Online-Artikel der Universität Karlsruhe, abgerufen am 20. Juli 2012, S. 1.
- ↑ Xanke, Bärenz, S. 37.
- ↑ a b Xanke, Bärenz, S. 38.
- ↑ G. Buttazzo: Artificial consciousness: Utopia or real possibility?. Computer. Band 7, Nr. 34, 2001, S. 24–30, doi:10.1109/2.933500 (englisch).
- ↑ Jill Galvan: "Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of electric Sheep?"" In: Science Fiction Studies. Band 3, Nr. 24, Januar 1997, S. 413–429, JSTOR:4240644 (englisch).
- ↑ Peter Gabriel Ltd.: A.I. featuring Peter released – 30th September, 2016. PeterGabriel.com, 2024, abgerufen am 22. August 2024 (britisches Englisch).
- ↑ OneRepublic – Oh My My. Discogs, 2024, abgerufen am 22. August 2024 (amerikanisches Englisch).
- ↑ Charlotte Whistlecroft: OneRepublic have dropped an incredible new single with Peter Gabriel. Oh My My is it good. Digital Spy, 1. Oktober 2016, abgerufen am 22. August 2024 (amerikanisches Englisch).
- ↑ Nerisha Penrose: OneRepublic Taps Peter Gabriel for ‘A.I.’-Inspired Track: Listen. What was once a dream has now become reality for OneRepublic. The pop group released their new collaborative track with Peter Gabriel "A.I" -- which oddly enough was inspired by the 2001 movie of the… Billboard, 3. Oktober 2016, abgerufen am 22. August 2024 (amerikanisches Englisch).
- ↑ Susan Leigh Anderson: Asimov's "three laws of robotics" and machine metaethics. In: AI & Society. Band 4, Nr. 22, 2008, S. 477–493, doi:10.1007/s00146-007-0094-5 (englisch).
- ↑ Lee McCauley: "AI armageddon and the three laws of robotics". In: Ethics and Information Technology. 2007, S. 153–164, doi:10.1007/s10676-007-9138-2 (englisch).
- ↑ a b Xanke, Bärenz, S. 39.
- ↑ Jamie Allen: The Matrix and Postmodernism. In: prezi.com/. Abgerufen am 15. Mai 2024 (englisch).
- ↑ Deep Raputa. In: MangaPlus by Shueisha. Abgerufen am 18. Dezember 2024 (englisch).
- ↑ Is This What We Want? Abgerufen am 26. Februar 2025 (englisch).
- ↑ ARD Quarks und Co: Außer Kontrolle – Wenn Computer die Macht übernehmen, 2016, Minute 16:30, 6. September 2016 (Seite nicht mehr abrufbar, festgestellt im Mai 2023. Suche in Webarchiven)
- ↑ Thomas Knaus et AI: Künstliche Intelligenz und Bildung: Was sollen wir wissen? Was können wir tun? Was dürfen wir hoffen? Und was ist diese KI? Ein kollaborativer Aufklärungsversuch. Hrsg.: Ludwigsburger Beiträge Zur Medienpädagogik – LBzM. Nr. 23, 2023, S. 11–16, doi:10.21240/lbzm/23/19 (1–42 S.).
- ↑ video: Interview with Elon Musk: Elon Musk says Universal Basic Income is “going to be necessary.” 19. Februar 2017.
- ↑ Elon Musk: Bedingungsloses Grundeinkommen ist unvermeidlich 19. Februar 2017.
- ↑ ARD alpha: Constanze Kurz: Die totale Automatisierung, 2014
- ↑ Frank Rieger, Constanze Kurz: Arbeitsfrei: Eine Entdeckungsreise zu den Maschinen, die uns ersetzen.
- ↑ Frank Rieger: Roboter müssen unsere Rente sichern. In: FAZ, 18. Mai 2012.
- ↑ The Future Of Employment: How Susceptible Are Jobs To Computerisation? (PDF; 1,1 MB) oxfordmartin.ox.ac.uk, 17. September 2013.
- ↑ Schmidhuber: «Unsere Roboter zeigen Gefühle» 1. Oktober 2017.
- ↑ Presseagentur APA/sda: Roboter-Forscher befürwortet bedingungsloses Grundeinkommen. In: diepresse.com, 15. Januar 2017; abgerufen am 7. April 2017.
- ↑ Jürgen Schmidhuber: Wir müssen Roboter erziehen wie Kinder. Interview durch Vinzenz Greiner, 15. Januar 2017.
- ↑ ARD Quarks und Co: Außer Kontrolle – Wenn Computer die Macht übernehmen, 2016, Minute 16:50 und 19:30, 6. September 2016 (Seite nicht mehr abrufbar, festgestellt im Mai 2023. Suche in Webarchiven)
- ↑ Mark Zuckerberg erklärt, warum jeder ein bedingungsloses Grundeinkommen erhalten sollte. ( vom 12. Oktober 2017 im Internet Archive) businessinsider.de, 26. Mai 2017; abgerufen am 15. Oktober 2017.
- ↑ Mark Zuckerberg’s Commencement address at Harvard. news.harvard.edu, 25. November 2017; abgerufen am 15. Oktober 2017.
- ↑ Maschinen statt Mitarbeiter: Deutsche-Bank-Chef stellt erheblichen Stellenabbau in Aussicht. faz.net, 9. November 2017; abgerufen am 10. November 2017.
- ↑ Forscher sagt dramatischen Wandel voraus (Seite nicht mehr abrufbar, festgestellt im Mai 2023. Suche in Webarchiven)
- ↑ Matthias Bastian: Google-Chef: Künstliche Intelligenz „wichtiger als Feuer und Elektrizität“ ( vom 23. Januar 2018 im Internet Archive), vrodo.de vom 20. Januar 2018.
- ↑ Arbeitsmarkteffekte der Digitalisierung bis 2035, iab.de von 4/2019
- ↑ Diese Jobs sind besonders von Robotern bedroht, welt.de vom 16. Februar 2018.
- ↑ SAP-Chef McDermott: KI bringt bald Billionen-Umsätze (auf produktion.de vom 26. Februar 2018) (Seite nicht mehr abrufbar, festgestellt im Mai 2023. Suche in Webarchiven)
- ↑ David Koch, Joachim Lentes, Frauke Schuseil, Lara Waltersmann: Nachhaltigkeit durch KI. Potenziale und Handlungsleitfaden für produzierende Unternehmen. 2022, doi:10.24406/publica-301.
- ↑ Bosch bringt generative KI in die Produktion. In: bosch-presse.de. 7. Dezember 2023, abgerufen am 6. April 2025.
- ↑ Aimee van Wynsberghe: Sustainable AI: AI for sustainability and the sustainability of AI. In: AI and Ethics. Band 1, 2021, S. 213–218, doi:10.1007/s43681-021-00043-6.
- ↑ Christian Feld: Kann Künstliche Intelligenz grün sein? In: tagesschau.de. 23. März 2025, abgerufen am 6. April 2025.
- ↑ Pengfei Li, Jianyi Yang, Mohammad A. Islam, Shaolei Ren: Making AI Less »Thirsty«: Uncovering and Addressing the Secret Water Footprint of AI Models. 2023, S. 1, arxiv:2304.03271.
- ↑ Ricardo Vinuesa, Hossein Azizpour, Iolanda Leite, Madeline Balaam, Virginia Dignum, Sami Domisch, Anna Felländer, Simone Daniela Langhans, Max Tegmark, Francesco Fuso Nerini: The role of artificial intelligence in achieving the Sustainable Development Goals. In: Nature Communications. Band 11, 2020, S. 2, doi:10.1038/s41467-019-14108-y.
- ↑ Svenja Bergt: Stromfresser Künstliche Intelligenz: „Die Energieverbräuche durch KI gehen durch die Decke“. In: taz. 5. April 2025 (taz.de [abgerufen am 6. April 2025]).