Benutzer:Wortulo/KI und Wikipedia
Das "KI-Verbot und die Folgen - sowas wie ein BLOG-Beitrag
[Bearbeiten | Quelltext bearbeiten]Das Folgende bezieht sich auf dieses Meinungsbild, wo ab 15.2.2026 gültig diese Regeln verabschiedet worden sind.
Ich könnte mir sagen: Es kommt wohl, was ich befürchtet und in der Diskussion reichlich gesagt habe. Die "radikalere Verbotsfraktion" sieht das Meinungsbild zum KI-Verbot als Legitimation zum Löschen ohne grosse Nachfragen. Ein eindeutiger und anerkannter Nachweis, dass KI benutzt wurde, ist doch gar nicht nötig. Das stösst aber zum Glück auch auf Widerstand - einige befürchten eine "Hexenjagd". Grund zur Freude gibt es aber nicht.
- Wir haben jetzt das Tempolimit und die Polizisten behaupten, es wurde gerast. Sie verhängen als Busse die "Höchststrafe" Autoverschrottung. Fragen, ob eine Radarpistole verwendet wurde, was die anzeigte und ob die "geeicht" ist, wirken strafverschärfend bzw. bleiben Gegenstand der unfruchtbaren Diskussionen.
Gesucht wäre ein auf Konsens beruhender Nachweis, der den Streit eigentlich reduzieren sollte. Ich hätte den gern mit dem Meinungsbild zusammen vorgelegt und es wurde im KI-Projekt dazu auch vorgearbeitet. Der Initiator des Meinungsbildes, ein Schweizer, wollte "schweizerisch" vorgehen und erst einmal das Verbot wie bei einer Volksintiative in die "Verfassung" schreiben, die Umsetzung käme später. Das ist in der Schweiz üblich. Ich glaube ihm das - nur hat er die Gefahren wirklich nicht vorausgesehen? Dass einigen Nichtschweizern das Verbot so wie jetzt reichen wird und die mehr gar nicht wollen, war schon in der Diskussion erkennbar. Nun haben wir quasi den "Kultur-Salat".
Wie KI bzw. KI-Slop erkennen?
[Bearbeiten | Quelltext bearbeiten]Man muss feststellen, dass die Erkennung von KI schwerer wird mit immer neuen LLM-Versionen - das muss ständig aktualisiert werden, ist eine Art "Wettrüsten". Nötig ist das, weil Immer noch Fehler und Ungenauigkeiten auftreten, die als KI-Slop das Wissen verunreinigen können - und immer plausibler klingen.
Es gibt doch nur folgende Möglichkeiten:
- Es reicht, wenn KI-Einsatz auf Zuruf behauptet wird von Leuten, die das zu erkennen glauben - festgemacht an manchmal seltsamen und schwachen Indizien bzw. Formulierungen und der Streit bleibt. Ja, es gibt einfach erkennbare Dinge, aber wieviel erkennen wir nicht, weil KI "plausibel schwindelt"? Und wie lange gibt es diese leichte Erkennbarkeit überhaupt noch, weil die KI dazulernt? Solchen „Super-Recognizern“ sollte man, wenn überhaupt nur vertrauen, wenn deren Zuverlässigkeit besser untersucht ist. Sich dafür ausgeben ist vergleichsweise einfach.
- Wir vertrauen einer KI als Erkennungssoftware. Die Gründe der Erkennung bleiben bei den mir bekannten Tools aus taktischen Gründen im Dunkeln, sie geben nur eine Prozentzahl aus und wir nehmen eine unbekannte falschpositive Rate in Kauf, die zu Unrecht in Verdacht geratene Autoren genauso vertreiben kann wie 1.
- Wir haben ein einigermassen anerkanntes Erkennungsverfahren, was die "Sünder", die "Sucher" und vor allem die löschenden Admins überzeugt durch hinreichender Fairness und Nachvollziehbarkeit. Es wird am Ende nicht ohne menschliche Beurteilung gehen. Bestimmte Fehlertypen gelten als "Hinweise auf unsorgfältige Prüfung", die wahrscheinlich auf KI zurückzuführen sind und die kann man benennen. Die meisten Fehler entsprechen auch nicht anderen Regeln einer Enzyklopädie, sodass einige die Notwendigkeit KI-spezifischer Regeln gar nicht sehen.
- Nur kann und will das unsere schwindende Autorschaft überhaupt leisten? Deshalb wird auch zentral an Werkzeugen gearbeitet, die nicht nur Texte auf KI-"Sound" analysieren, sondern diesen mit der angegebenen Quelle nochmal als "Gegenprobe" vergleichen. Es stünde dann wieder die Qualität im Mittelpunkt. Wenn wir mit die ersten wären, die das einsetzen, wären wir im Vorteil. Die LLM-Anbieter arbeiten nämlich auch an sowas, weil sie die Fehlerhaftigkeit ebenfalls stört.
Diese sorgfältig durchgeführte Studie analysierte 3078 Artikel, das Analysetool Pangram fand dabei 178 auffällige Artikel, die anschliessend menschlich aufwändig kontrolliert worden sind. Nur noch 7% der auffälligen Artikel haben total halluzinierte Quellen, 2/3 der auffälligen Artikel weisen menschlich nachweisbare "Quellenfiktionen" einer existierenden Quelle auf, die man eben nur durch diese aufwändige Prüfung findet. Pangram liefert danach aber rund 25% falschpositive Erkennungen (Maschine sagt ja, Mensch findet nichts). Zu viel, um dem zu vertrauen. Auch andere Ergebnisse bestätigen solche und grössere Fehlerraten, hier eine Zusammenstellung - ein Schnappschuss aus 2025, das kann mit neueste LLM alles schon wieder anders sein bei vermutet abnehmender Erkennungsrate.
Was auch noch unterschätzt wird: viele externe Quellen, die als reputabel gelten, werden teilweise und zunehmend auch mit KI erstellt. Verlage und Zeitschriften setzen das ein und deklarieren das sogar. Wissenschaftliche Überblicksartikel oder Literaturzusammenfassungen in Originalarbeiten werden immer mehr mittels KI erstellt. "KI über die Bande", die dann auch maschinell erkannt würde, kann so bei uns einfliessen - ohne dass unseren Autoren das bewusst wurde.
Eine Nachfrage beim englischsprachigen AI Cleanup bringt, dass auch da Erkennungsfragen diskutiert werden. Ein Benutzer stellt fest: But I have noticed a significant (as high as 80-90%) decrease in outright hallucinated references (non-existent URLs, invalid ISBNs) compared with August 2025. Auch dort wird übrigens unterschiedlich streng nach dem Schnelllösch-Kriterium G15 gemeldet und dank der vorhandenen Kategorien sieht man einen zunehmenden Stau bei "verdächtigen" Texten. In Grenzen halten sich dagegen die verdächtigen Quellen, die so nicht auffindbar sind.
Internationale Zusammenarbeit und die Kombination Erkennungsprogramm und "endgültige menschliche Prüfung" kann aktuell die richte Richtung sein. Wir sollten das in Angriff nehmen - spätestens zum KI-Treffen in Berlin im März 2026.
Wollen wir uns "zerlegen"?
[Bearbeiten | Quelltext bearbeiten]Dieser Beitrag hier aus unserer Diskussion ist vielsagend, weil natürlich die "Einfach-Löschen-Wollenden" den Streit auch kommen sehen und präventiv die Einsprüche durch vorauseilendes Deraling der Zweifel anmeldenden Personen erledigen wollen. Man nennt das noch "Gedankenspiele", einige bringen das aber in die Nähe von "Verschwörungsgeraune". Das war auch kein Einzelfall, hat offenbar Methode:. Wer die Prüfprogramme bei uns systematisch unter Feldbedingungen evaluieren will, bevor sie nachweislich schon als Lösch-Argument verwendet werden, störe die Umsetzung des Meinungsbildes und wird angegriffen. Und dann, konfrontiert mit Fakten, sind plötzlich die Tools gar nicht mehr das alleinige Kriterium. Was dann, was dann?
Um die dort erwähnte "Opferrhetorik" aufzugreifen noch eine Prognose: Viele der Mehrheit der Befürworter des Verbotes werden merken, wo der Hase hinläuft, wenn das weiter so ungeregelt bleibt und der Streit nicht abnimmt.. Das kann dann wie beim Umgang mit bezahltem Schreiben werden: Richtiges Anliegen, aber teilweise überstrenge Sichtweise, was Werbung bzw. Relevanz im Wirtschaftsbereich ist und vor allem ein viel zu emotionales und polarisierendes Herangehen. Opfer wird die Wikipedia sein - indem unser Ruf draussen weiter leidet und Neuautoren verprellt werden. Kann uns das wirklich egal sein? Schon die Diskussionen in der Presse zum Meinungsbild sollte man ernst nehmen. Von sowas dann noch ganz zu schweigen.
Die "Jungwikipedianer" haben sich im Februar 2026 beim Digitalen Themenabend vorgestellt. Da ging es am Ende auch um KI und mir hat die unverkrampfte Haltung imponiert, die kennen halt die Realitäten aus Schule oder Uni. Es sind nur zu wenige.
Es geht nur dialektisch und gibt nicht die eine Dauerlösung
[Bearbeiten | Quelltext bearbeiten]Eine erschwerende Bedingungen kommt dazu: es fallen vor allem Unerfahrene auf, die auch KI nehmen und ansonsten ebenfalls nicht regelkonform arbeiten. Wie jetzt die Fälle in der Löschprüfung Dirk Ehlert, Biophobie oder Hotel Beatus (Merligen) und andere. KI wird dort eine Art "Totschlagargument", früher hätte man die Qualität der Artikel betrachtet. Wie hoch ist die Dunkelziffer? Wenn erfahrene Wikipedianer geprüfte KI-Texte übernehmen (mit existierender Quelle) fällt das schon heute kaum mehr auf und wird durch immer bessere LLM noch schwerer (mit wikipediaspezifischen Plug-Ins zur Vermeidung der Erkennung, man nimmt uns noch ernst!).
Ich weiss nicht, warum so viele Leute so "monoperspektivisch" denken und nicht dialektisch. Einheit und Kampf der Gegensätze: KI wird zunehmend Realität, ist Fluch und Segen zugleich als immanenter Widerspruch. Wie sich der Widerspruch auflöst, ist offen, sagt die Systemtheorie: Partner oder "Ersatz" des Menschen. Was wir aber können: Uns auf kurz- und mittelfristige Szenarien vorbereiten und so Einfluss nehmen. Noch sind weder Fatalismus noch Dulden von KI-Slop angebracht.
Optimistisch anpacken, aber bitte schnell und konzertiert
[Bearbeiten | Quelltext bearbeiten]Zum Glück wird draussen und anderswo im Wikiversum darüber nachgedacht was wir tun müssen (auch die Strategie der Foundation "Humans First" kann man nicht oft genug nennen). Denn wir haben noch Optionen, aber wenig Zeit (und die Optionen werden weniger). Niemand will wirklich KI-Slop und die menschliche Kuratierung soll unsere Alleinstellung bleiben. Die können wir in Verhandlungen mit den Entwicklern noch einbringen. Es ist eine Art Reifeprüfung einer in die Jahre gekommenen und durch gewisse Selbst-Selektionsprozesse speziell zusammengesetzten Bewegung, ob wir weiter anpassungsfähig sind.
Meine Teilnehmende Beobachtung hat zwei Pole: aktiv teilnehmen so gut es geht - aber auch beobachten und hoffentlich Chronist des Meisterns und nicht des schleichendes Untergangs sein. Vielleicht machen wir mal eine Blog "Freunde der Wikipedia", wo nicht frustrierte und noch ausreichend motivierte Regulars ihre auch kritischen Meinungen mal zusammenhängend äussern können. Das hier wäre der Kern für einen erster Beitrag.--Klaus von Wortulo (Disk.) * KI-Projekt 17:39, 21. Feb. 2026 (CET)