Zum Inhalt springen

Benutzer:Nina

aus Wikipedia, der freien Enzyklopädie

Wissenschaftliches Schreiben im KI-Zeitalter

Autorschaft. Generative KI kann kein Autor sein. KI-Tools haben kein Verständnis von irgendwas, sie sind stochastische Papageien und können keine Verantwortung für ihren Output übernehmen. Aus diesem Grund können sie auch nicht als Co-Autoren angegeben werden. Die Verantwortung für die Veröffentlichung eines wissenschaftlichen Textes liegt beim menschlichen Autor, egal ob KI-Tools zum Einsatz kamen oder nicht.[1][2] Auch aus rechtlicher Sicht und im Hinblick auf die der Gute wissenschaftliche Praxis ist diese Auffassung Konsens.[3]

Transparenz. Zu den Grundprinzipien wissenschaftlicher Integrität gehört die Transparenz und Nachvollziehbarkeit des Forschungsprozesses. Das wissenschaftliche Publizieren ist der letzte Schritt im Forschungsprozess: das Zugänglichmachen der Ergebnisse. Autoren müssen daher kenntlich machen, ob und welche LLMs zu welchem Zweck und in welchem Umfang beim Schreiben eingesetzt wurden.[4]

Schreiben wir bei Wikipedia wissenschaftliche Texte? Nein, aber wir bedienen uns der Methode des Zitierens, die einer der Grundpfeiler wissenschaftlichen Arbeitens ist. Eigentlich sind enzyklopädische Texte noch viel eingeschränkter als wissenschaftliche: Eine Funktion wissenschaftlicher Publikationen ist die Darlegung von neuen, eigenen Gedanken und die Interpretation von eigenen oder fremden Forschungsdaten. Beides ist in Wikipedia nicht erlaubt: Keine Theoriefindung. Wir tragen nur zusammen, was in journalistischen, wissenschaftlichen und anderen Arten von Sachtexten bereits veröffentlicht wurde.

Gesellschaftliches Vertrauen in Wikipedia. Analog zu dem, was in der Wissenschaft zu wissenschaftlichen Texten und KI gilt, sollte auch bei uns gelten: wir brauchen Transparenz. Damit Wikipedia die erreichte Glaubwürdigkeit behält und ein Baustein von Bildung bleibt, sollten wir die Offenlegung des Einsatzes von KI in jedem Edit kultivieren, von der Artikelbearbeitung bis zum Diskussionsbeitrag.

Gesellschaftliches Vertrauen in Wissenschaft speist sich idealerweise aus dem Wissen über dieses Wissenschaftssystem[5.1]

Was können LLMs? Warum sind sie nicht geeignet für die Erstellung von Wikipediaartikeln?

LLMs lügen nicht. Das können sie nicht, weil sie kein Verständnis für Wahrheit oder Unwahrheit haben. Sie verbreiten aber dennoch Falschinformationen, weil ihnen die Wahrheit gleichgültig ist.[6.1] Das sind aber keine Fehler, sondern das Ergebnis der Funktionsweise von LLMs: Sie produzieren Texte basierend auf statistischen Wahrscheinlichkeiten, auf der Grundlage ihrer Trainingsdaten. Den Inhalt verstehen sie nicht und können die Richtigkeit daher auch nicht beurteilen. Halluzinationen im Sinne von Falschinformationen treten umso stärker dann auf, je spezieller das Thema ist, weil dort weniger Informationen in den Trainingsdaten enthalten waren.[6.2] Quellen wie Katalogdaten oder Archiveinträge können einfach erfunden sein.[7][8]

Weil wir in Wikipedia nur das zusammentragen, was bisher anderswo publiziert wurde, können wir auch nur auf der Grundlage dieser Quellen arbeiten. LLMs machen aber mehr als das: sie basteln aus ihren Trainingsdaten neue Zusammenhänge, die plausibel klingen und richtig sein können, aber nicht müssen. Aus diesem Grund sollten wir ausschließlich quellenbasierte Arbeit zulassen: Die Arbeit, die es macht, generierte Aussagen von LLMs nachzuprüfen ist im Zweifel höher, als direkt die Originalquellen zu lesen, zu verstehen und auszuwerten.[7]

  1. Committee on Publication Ethics: Authorship and AI Tools
  2. Die Fachzeitschrift Nature Communications soll hier beispielhaft genannt werden, sie schreibt in ihren Leitlinien zu Autorschaft von KI:Large Language Models (LLMs), such as ChatGPT, do not currently satisfy our authorship criteria. Notably an attribution of authorship carries with it accountability for the work, which cannot be effectively applied to LLMs. Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript. The use of an LLM (or other AI-tool) for “AI assisted copy editing” purposes does not need to be declared. In this context, we define the term "AI assisted copy editing" as AI-assisted improvements to human-generated texts for readability and style, and to ensure that the texts are free of errors in grammar, spelling, punctuation and tone. These AI-assisted improvements may include wording and formatting changes to the texts, but do not include generative editorial work and autonomous content creation. In all cases, there must be human accountability for the final version of the text and agreement from the authors that the edits reflect their original work.
  3. Frisch et al.: Textgenerierende KI und gute wissenschaftliche Praxis, ZfBB 2023 70 (6), S. 326–336 https://doi.org/10.3196/186429502370667
  4. Deutsche Forschungsgemeinschaft: Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle für die Text- und Bilderstellung auf die Wissenschaften und das Förderhandeln der DFG. September 2023.
  5. Sarah Brommer, Jochen Berendes, Ulrike Bohle-Jurok, Isabella Buck, Katrin Girgensohn, Ella Grieshammer, Carina Gröner, Franziska Gürtl, Christina Hollosi-Boiger, Christopher Klamm, Dagmar Knorr, Anika Limburg, Margret Mundorf, Nadine Stahlberg, Erika Unterpertinger: Diskussionspapier: Wissenschaftliches Schreiben im Zeitalter von KI gemeinsam verantworten. Hochschulforum Digitalisierung, Diskussionspapier N. 27, November 2023.
    1. S. 4
  6. Isabella Buck: Wissenschaftliches Schreiben mit KI. UVK Verlag 2025.
    1. S. 38
    2. S. 38−39
  7. a b Martin Holland KI: Erfundene Quellenangaben belasten Archive und Bibliotheken. Heise online vom 9. Dezember 2025
  8. ICRC: Important notice: AI-generated archival and legal references vom 3. Dezember 2025


Das Wikipedia:Review ist einer der zentralen Orte, an denen aktiv zur Verbesserung von Wikipedia-Artikeln beigetragen werden kann.

Review des Tages:

Zug in Oberrittersgrün um 1890

Die Schmalspurbahn Grünstädtel–Oberrittersgrün war eine schmal­spurige Eisen­bahn­strecke im sächsi­schen West­erz­ge­birge, die auch unter der Bezeich­nung „Pöhl­was­ser­tal­bahn“ bekannt wurde. Diese 1889 eröffnete Bahn verband den Bahn­kno­ten­punkt Grün­städtel entlang des Pöhl­was­sers mit dem Endpunkt Ober­rit­ters­grün und diente über 82 Jahre dem Regional- und Güter­trans­port. Während der Betrieb in den Anfangs­jahren haupt­säch­lich dem Güter­ver­kehr für die lokale Holz- und Papier­in­dus­trie diente, erlebte die Strecke nach 1945 durch den Uran­berg­bau im Revier Pöhla eine inten­sive Betriebs­phase mit verstärktem Berufs­ver­kehr, der auch nach Einstel­lung des Berg­baus in Rich­tung Schwar­zen­berg fort­be­stand. Die zuneh­mend sanie­rungs­be­dürf­tige Infra­struktur und der aufkom­mende Straßen­ver­kehr führten schließ­lich zur Betriebs­ein­stel­lung im September 1971. Auf dem Gelände des ehema­ligen Endbahn­hofs in Ober­rit­ters­grün wurde 1977 das Sächsi­sche Schmal­spur­bahn-Museum Ritters­grün als erstes Eisen­bahn­museum der DDR eröffnet, das neben sächsi­schen Schmal­spur­bahn­ex­po­naten auch eine umfang­reiche Samm­lung von Feld­bahn­fahr­zeugen präsen­tiert.

  • Kontroversen wissenschaftlichen Theorien wird in der Wikipedia zu viel Raum gegeben. [1]
  • Die Wahrheit ist das, womit wir sie davonkommen lassen. [2]
  • Die Kunst, einen Artikel auf das Wesentliche zu beschränken, sollte stärker honoriert werden: Viele Exzellente Artikel sind inzwischen einfach zu aufgebläht.
  • Listen von Straßen, Artikel zu einzelnen Straßen, Artikel zu einzelnen Bäumen und Häusern sind (mit Ausnahmen) als eigenständige Artikel nicht relevant und sollten gelöscht werden.
  • Wir passen noch nicht gut genug auf die Struktur unserer Artikel auf. Inbesondere wird noch nicht genug auf eine gute Einleitung geachtet, die das wichtigste des Artikels darlegen und zusammenfassen sollte.

Zitierregelwerk der Wikipedia, verteilt auf viele Seiten

[Bearbeiten | Quelltext bearbeiten]
Ich bin Mitglied im Verein Wikimedia Deutschland – Gesellschaft zur Förderung Freien Wissens. Hilf auch du mit, die Wikipedia und andere Quellen freien Wissens zu stärken und zu fördern – werde Mitglied!