Zum Inhalt springen

Wikipedia Diskussion:Neutraler Standpunkt

Seiteninhalte werden in anderen Sprachen nicht unterstützt.
Abschnitt hinzufügen
aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Wikipedia Diskussion:N)
Letzter Kommentar: vor 4 Stunden von -stk in Abschnitt Neutraler Standpunkt und generative KI
Abkürzung: WD:NPOV, WD:NNPOV, WD:N
Diese Diskussionsseite dient dazu, Verbesserungen an der Projektseite „Neutraler Standpunkt“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.
Archiv
Wie wird ein Archiv angelegt?

Neutraler Standpunkt und generative KI

[Quelltext bearbeiten]

Hallo zusammen, das Thema KI hat in den letzten zwei Jahren ja ordentlich Schub bekommen und die Frage die sich daraufhin stellte war, ob unsere Regeln diese extra behandeln bzw. ansprechen sollten. Dies wurde letztes Jahr vorerst mit einer Hinzufügung in WP:Belege gelöst, die auf unter anderem die hierige Regel im allgemeinen verwies (der sogenannte Punkt 8). Da es nun Unstimmigkeiten darüber gab, ob das dort passend angebracht wäre, und die Diskussionen reichlich ausarteten, ergäbe sich die Möglichkeit an hieriger Stelle nur das spezifische zu diskutieren, was direkt auf WP:NPOV Anwendung finden kann. Ein Ergebnis könnte sein, dass man hier einen Hinweis, eine Warnung oder eine neue Regel einfügt, um die Problemstellungen die sich durch KI ergeben hier abzubilden und zu regeln. Spezifisch zum neutralen Standpunkt wurde unter anderem angemerkt, dass generative KI manipulativ trainiert sein kann. In der Recherche unserer Editoren könnte daher die Gefahr des Bias entstehen. Möglich wäre es hier eine Warnung zu ergänzen, dass es nicht ausreicht, wenn ein Editor nur die Ausgabe einer KI zusammenfasst, sondern weitere Unabhängige Quellen zurate ziehen sollte um einen neutralen Standpunkt der Einfügungen zu ermöglichen. Es ginge also nicht allein darum, dass man das Ergebnis einer generativen KI direkt 1:1 einfügt, sondern auch dass die Zuhilfenahme als Recherchemittel mit grosser Vorsicht wahrgenommen werden sollte. Andere Punkte kann man sicherlich diskutieren, ähnliche Diskussionen werden auch auf weiteren Regelseiten begonnen, wo man jeweils die spezifischen Probleme Ansprechen kann (da eine Allgemeine Diskussion in der man alles gleichzeitig abhandelt derzeit nicht erfolgsversprechend erscheint).--Maphry (Diskussion) 12:33, 10. Mai 2025 (CEST)Beantworten

Erster Vorschlag: Ergänzung eines letzten Absatzes bei #Was ist unparteiische Darstellung?:
Vorsicht ist geboten beim Einsatz von KI wie ChatGPT: Stand heute können diese aufgrund von teilweise voreingenommenen Trainingsdaten noch keine unparteiische Darstellung garantieren. Die Letztverantwortung für eine unparteiische Darstellung liegt daher immer bei menschlichen Wikipedianern.
Hintergrund: Texte wie Pellert u.a. 2024: AI Psychometrics (wo Indizien für einen Gender Bias in manchen KI-Modellen aufgezeigt wurden), Horwath 2022: Algorithmen, KI und soziale Diskriminierung oder knapp, aber genau zum Thema Arachchige/Stomeo 2023: Exploring the Opportunities and Challenges of ChatGPT in Academic Writing: Reply to Bom et al. --DaWalda (Diskussion) 17:58, 10. Mai 2025 (CEST)Beantworten
Dass man Neutralität auch bei KI-generierten Texten beachten muss, wenn sie kuratiert(!) irgendwo verwendet werden, ist unstrittig. Im KI-Projekt sammeln wir das unter Wikipedia:WikiProjekt KI und Wikipedia#Bias (Verzerrung) und Fairness. Im Punkt 8 WP:Belege wird das aber als ein Grund für die Nichtverwendbarkeit (sie verstossen generell dagegen) angeführt, was so nicht haltbar ist. Der Vorschlag geht in die richtige Richtung. --Wortulo (Disk. * KI-Projekt) 07:54, 11. Mai 2025 (CEST)Beantworten
Das ist etwas zu positiv formuliert, da es nahelegt, dass es sich zwingend ändern wird: "Generative KI können bisher nicht sicherstellen neutrale Ergebnisse zu erzeugen. Daher sollten diese Erzeugnisse nicht als alleinige Grundlage für das erstellen eines Textes genutzt werden, sondern sind durch unabhängige Quellen zu überprüfen." Hintergrund wären eben potentiell einseitige Trainingsdaten, aber auch misalignment.--Maphry (Diskussion) 19:38, 13. Mai 2025 (CEST)Beantworten
Es ist auch nicht die Aufgabe der generativen KI, das sicherzustellen. Früher hat man gegoogelt, irgendeine Quelle gefunden, selber zusammengefasst und musste die Neutralität beurteilen und einhalten. Mit KI kriegt man Quellen mit Zusammenfassungen, die man so nicht nehmen kann/einstellen darf (Konsens), sondern kuratieren muss (das wollen wir erläutern). Also KI nur als Hilfsmittel. Die grossen Modelle (ChatGPT, Perplexity...) verwenden alles so, wie das Rauschen im Netz das hergibt. Ob irgendwas neutral ist, kann genauso wie sonst nur ein Autor/Mensch beurteilen, der sich auf dem Gebiet auskennt. Hier muss dargestellt sein, dass KI quasi wie jetzt im Punkt 8 immer nicht neutral ist - oder das anders formuliert werden hier wie dort. --Wortulo (Disk. * KI-Projekt) 20:01, 13. Mai 2025 (CEST)Beantworten
Der Unterschied zu einer Suchmaschniene ist eben, dass man nicht die (korrekte) Quelleninformation als Zusatz hat, sondern quasi nur den ausgegebenen Text, ohne Zusammenhänge und Meta-Informationen. Entsprechend ist KI ein Sonderfall der sich eben nicht mit dem üblichen Vorgehen zu einer klassischen Suchmaschine vergleichen lässt (abseits eventuell zur früheren Random-Option bei Google). Entsprechend ist deutlich zu machen, dass generative KI per Definition inherent eine Unsicherheit bezüglich der Neutralität hat. Es geht eben darum den Editoren zu helfen, und von vorneherein deutlich zu machen, dass es eben eine Komplexe Sache ist KI zu nutzen, auch dann wenn es nur ein Hilfsmittel ist.--Maphry (Diskussion) 20:11, 13. Mai 2025 (CEST)Beantworten
Da stimme ich Dir nicht zu. KI nur als Hilfsmittel nutzen ist praktisch voll analog zu früher. Nehmen kann ich nur, wo es eine reputable nicht halluzinierte Quelle (bezüglich der Existenz) gibt. Dass die KI mir das zusammenfasst, ist netter Service. Nur verwenden kann ich den Text nicht - ich muss ihn mit der Quelle vergleichen, enzyklopädisch formulieren und DABEI verstehen. Dann kann ich aus dem Kontext auch beurteilen, ob der neutral ist (wie früher). Ich wäre wirklich gespannt, was Du von Wikipedia:WikiProjekt KI und Wikipedia/Handbuch hälst, weil der Schlüssel für mich wäre, erst mal vom gleichen zu reden. --Wortulo (Disk. * KI-Projekt) 20:28, 13. Mai 2025 (CEST)Beantworten
Das stimmt nicht. Es kommt darauf an, was ich "die KI" frage. Ich kann z.B. einen Absatz aus der Wikipedia nehmen, den ich oder ein anderer verfasst hat, und die KI beautragen, das schöner, leichter lesbar, oder schärfer, oder in kürzeren Sätzen, oder, oder... zu formulieren. Oder gilt das als reputable nicht halluzinierte Quelle? Und mit dem Prompt ("umformulieren!") wird das auch nicht zusammengefasst, sondern umformuliert. Ob das dann neutral ist oder nicht, muss ich selbst beurteilen, klar. ‣Andreas 20:34, 13. Mai 2025 (CEST)Beantworten
Bring doch nicht alles wieder durcheinander ;-) Überarbeitungen und Zusammenfassungen eigener oder vorhandener Texte ist doch eine ganz andere Baustelle. Da ist die KI wirklich Hilfsmittel und ich muss Postediting machen.
Guck Dir das Beispiel im Handbuch an: Ich will was über Brotsuppe schreiben, weiss nichts und frage ob die gesund ist, ob die eine Armenspeise ist, wer die erfunden hat etc. Dann liefert mir die KI im Idealfall Texte mit reputablen Quellen, die ich kuratieren kann, um den Artikel zu schreiben. "Schreib mir einen Wikipediaartikel über Brotsuppe" als Prompt würde für mich schon grenzwertig sein, ob das dann noch Hilfsmittel ist. OK, auch das kann und muss man kuratieren - und dass wir damit geflutet werden, haben einige Angst vor. Wir hatten aber schon solche Fälle, wo die für Personen eine wie in der englischen WP üblichen Infobox in englischem Quelltext mit generiert hatten, was hier nicht funktionierte. Das ist dann aber auch keine Frage der Neutralität, sondern fehlende Kuratierung. --Wortulo (Disk. * KI-Projekt) 20:50, 13. Mai 2025 (CEST)Beantworten
Wenn man den Punkt 8 aus WP:BLG 2.1 #Grundsätzliches hier her bringen will, muss man hier einen Satz einbauen, der KI behandelt.
Ich schlage einen Punkt 3.6 als Unterpunkt von 3. #Vorgehen vor, der wie folgt aussieht:

3.6 Künstliche Intelligenz

Es gibt Werkzeuge der Künstlichen Intelligenz, die in der Lage sind, Wissen in Sätzen zu formulieren und auch mit Quellen zu belegen. So funktioniert z. B. das generative KI-Modell von Chatbots, oft auch als „Sprach-KI“ bezeichnet. Diese halten sich jedoch nicht an die Richtlinien der Wikipedia, die für alle Autoren gelten. Von Sprach-KI erhaltener Text muss daher mindestens doppelt so genau auf die Einhaltung eines Neutralen Standpunkts, wie oben beschrieben, geprüft werden.

Bei bereits vorhandenen Formulierungen ist es leichter, Verletzungen des Neutralen Standpunks zu übersehen. In jedem Fall übernimmt der Autor, der Werkzeuge der KI zum Erstellen von Texten nutzt, die volle Verantwortung für deren Inhalt, und somit auch die Konsequenzen für Verletzungen, sollte ein Text nicht den Kriterien der Richtlinien der Wikipedia, wie der des Neutralen Standpunks, entsprechen.

Neutralität ist eines der zentralen Grundprinzipien der Wikipedia. Unsere Artikel haben den Anspruch, tatsächliches Wissen zu vermitteln und nicht ungefilterte Informationen. Es ist daher im Zweifelsfall die Empfehlung, Beiträge immer selbst zu verfassen, und dabei immer bereits während des Entstehungsprozesses auf die Qualität und die Neutralität zu achten.

Sobald eine KI-Richtlinie fertig ist, sollten wir zusätzlich dorthin verlinken. ‣Andreas 19:01, 13. Mai 2025 (CEST)Beantworten
Wieso ist es bei bereits vorhandenen Formulierungen leichter, den neutralen Standpunkt zu übersehen? Es ist doch wie normal: KI findet eine Quelle, fasst die zusammen, der Autor kuratiert den Text und muss dann prüfen, ob das nach seinem Wissen und Gewissen neutral ist. --Wortulo (Disk. * KI-Projekt) 19:20, 13. Mai 2025 (CEST)Beantworten
Ausserdem sollte man nicht auf jeder Regelseite die KI erklären, sondern da ein zentrales Dokument anstreben, was wir ja im KI Projekt vorbereiten. Auch da muss erst mal Konsens her, ob das alle so sehen. Hier sollte stehen, ob KI immer einen Verstoss gegen das Neutralitätsgebot produziert (was der jetzige Verweis in Belege nahelegt) oder nicht und wenn ja warum. Das nicht als Meinung, sondern unter Bezug auf die Fachquellen. Möglichkeit ist was anderes als zwingend ;-) --Wortulo (Disk. * KI-Projekt) 19:29, 13. Mai 2025 (CEST)Beantworten
Das stimmt zwar, aber wie wir schon herausgefunden haben, vermische ich immer alles. KI kann ja sehr viel. Vielleicht ist es schon wichtig, die KI im Bezug auf das jeweilige Thema genauer zu erklären. Wenn ich KI nur allgemein erkläre, fehlt viel an Detail, das aber für das spezielle Thema "ein Thema ist". Das haben wir ja schon bei den Belegen, wo immer wieder vermischt wird, dass KI textet und das wäre dann (k)ein Beleg. Wie? Das verstehe ich schon rein vom Sinn her nicht, und trotzdem haben wir eine inzwischen mehrere (gefühlt) Hundert Kilometer lange Diskussion *genau dazu*. Ich muss also schon KI für A, B, C und D erklären, sonst wird das nix. Ist aber nur meine Meinung. Eine Meinung ist keine Meinung, ich weiß schon... ‣Andreas 21:44, 13. Mai 2025 (CEST)Beantworten
Genau: HIER, was das mit neutralem Standpunkt zu tun hat. Klar und verständlich. Abschnitt 1 erklärt KI (und nicht die vielen verschiedenen Anwendungsfälle (was wir im Handbuch versuchen) Im Abschnitt 2 verstehe ich Bei bereits vorhandenen Formulierungen ist es leichter, Verletzungen des Neutralen Standpunks zu übersehen weiterhin nicht. Abschnitt 3 haben wir mit Kuratierung besser und ist nicht nur eine Frage der Neutralität. Sorry. --Wortulo (Disk. * KI-Projekt) 21:59, 13. Mai 2025 (CEST)Beantworten
Abschnitt 2 ist mein Versuch, die "Faulheitsfalle" zu umschreiben. Ich muss das doppelt so genau angehen, weil der Text ja schon da ist. Wie einfach wäre es, zu sagen "passt" und "weiter". War ja kein offensichtlicher Fehler (auch im Bezug auf Neutralität) dabei... Abschnitt 3 ist wirklich sehr schwammig. Der Vorschlag von DaWalda ist das aber auch: "Vorsicht ist geboten." Ja. Aber was genau? Warum? Wirklich nur wegen der Trainingsdaten? Unparteiisch? Ich habe bei meiner Recherche u.a. von inherenten Vorurteilen gelesen, die sich aus den Trainingsdaten ergeben. Mag auch sein, dass Parteilichkeit dabei ist. Im Englischen wird oft und gerne "Bias" verwendet. Das Problem bei inherentem Bias ist ja, dass mir der auch dann nicht auffällt, wenn er mir selbst passiert -- bzw. dass mir diese Voreingenommenheit auch selbst passiert, weil das ja inherent ist, und damit nur allzu oft unbewusst. Es geht aber auch darum, dass dieser Bias nicht auffällt, weil der Text bereits dasteht, was wieder auf mangelnde Aufmerksamkeit, weniger notwendiges Denken (ich muss ja nicht mehr formulieren, und das was schon dasteht, klingt gut) und Faulheit zurückzuführen ist. Dafür bin ich aber schnell, ich kann jetzt mit KI-Hilfe viel mehr Artikel bearbeiten... Leider nicht mehr ohne Bias, nicht mehr ohne den Neutralen Standpunkt usw.
Worauf ich hinaus will: Wenn ich den Artikel selbst schreibe, muss ich die Recherchearbeit machen, lese ich mir alles durch bis ich es verstehe, und texte dann. Nun ist es aber genau umgekehrt: der Text ist ja schon da: ich prüfe also nur noch, ob ungefähr das auch in den Quellen zu finden ist. Dabei übersiehe ich vermutlich eher, wenn ich nicht noch genauer arbeite, vieles, unter anderem auch die Neutralität, weil der Zeitpunkt "jetzt habe ich es verstanden, kann es in Text gießen" fehlt (weil der ja schon dasteht). Ich glaube nur, dass ich es verstanden habe, und dass der Text stimmt.
Macht aber nix. Danke für die Kritik. ‣Andreas 22:16, 13. Mai 2025 (CEST)Beantworten
Wer oft generative KI nutzt und der Technik vertraut, neigt dazu, diese weniger zu prüfen. Das ist wohl mit Faulheit in Verbindung zu bringen. Während KI das Arbeitspensum steigert, verkümmert gleichzeitig die Fähigkeit, die KI-Ergebnisse kritisch zu analysieren -- kombiniert mit einem Trott, der dazu führt, nachlässig zu werden. Das meine ich damit, dass vorgekaute Texte wirklich genau -- genauer! -- geprüft werden müssen. Denn sonst wird das ein "ja, ja, mach ich schon..." und irgendwann durch Faulheit Inkompetenz. Das ist keine Vorverurteilung, sondern einfach nur menschlich.
Quelle:
Natürlich ist eine Studie keine Studie. Und es gibt noch nicht viel, und was es gibt, ist meist im Bezug auf "wie gut KI ist" ausgelegt. Etwa das:
Und es gibt sogar eine Studie, wie Mitarbeiter durch KI-Nutzung wahrgenommen werden (nämlich u.a. als faul):
Zumindest der erste Beitrag oben, die "Faulheitsfalle", zeigt jedoch auf, dass eine regelmäßige und häufige Nutzung generative KI vermutlich auch dazu führen kann, dass man weniger aufmerksam ist beim Beurteilen und Überprüfen des Ergebnisses. Worauf ich hinaus wollte... ‣Andreas 21:37, 13. Mai 2025 (CEST)Beantworten
Der Geist ist willig, das Fleisch ist schwach :-) Genau aus dem Grunde braucht es gut erklärte verständliche Regeln, die auch sensibilisieren, was an der Faulheit so problematisch ist. Es klingt so gut, es wird schon stimmen :-) --Wortulo (Disk. * KI-Projekt) 21:43, 13. Mai 2025 (CEST)Beantworten
Genau! Und der obige "Unfall" war mein Versuch, das zu verschriftlichen... ‣Andreas 21:44, 13. Mai 2025 (CEST)Beantworten
Die Formulierung vermittelt den Eindruck, eine nicht-neutrale Aussage folge einzig aus Biasen in den Ausgangstexten, die zum Training verwendet wurden. Nicht angesprochen wird, dass je nach Fragestellung und Formulierung die generierte Antwort abweichende Standpunkte zu einer These nicht beruecksichtigen koennte.
Dem kann moeglicherweise durch den Vergleich verschiedener Prompts, verschiedener Systeme etc entgegengewirkt werden, und wer versiert darin ist, Sprachmodelle (aus welchem Grund auch immer) als Recherchewerkzeug zu verwenden, kennt diese Moeglichkeiten vermutlich. Regeln sind aber auch dazu da, weniger erfahrene Beitragende zu beruecksichtigen, um sie selbst und das Projekt zu schuetzen. Analog zu den anderen Teilthemen (z.B. TF) sind wir hier erneut an dem Punkt, an dem es um unabhaengige Reproduzierbarkeit der Einordnung geht. ---stk (Diskussion) 19:32, 23. Mai 2025 (CEST)Beantworten
Stimmt, Nachfragen und Vergleiche führen tatsächlich weiter - und manchmal widerspricht sich das gleiche Modell auch. Ich würde aber keine Wette eingehen, ob unsere Autoren oder die KI "neutraler" vorgehen :-) KI wird auch von der Häufigkeit des Auftretens eines Argumentes in den Quellen beeinflusst und durch Reasoning kann sie Argumente auch inhaltlich klassifizieren und gegenüberstellen, auch Einzelmeinungen. 100% Zustimmung, dass wir das Ganze den wenig erfahreneren Autoren mal erklären müssen. Die unabhängige Reproduzierbarkeit von Einordnungen ist mir auch hier nicht ganz klar. Unabhängig von wem, reproduzierbar wie? Wenn du Wikipediabeiträge = "unabhängig von irgendwelchen Klassifikationen und Zusammenfassungen der KI" meinst, bleibt nur die Prüfung durch den Autor, der das in die Wikipedia stellt und verantwortet. Und das ist "Humans first" der Fundation. --Wortulo (Disk. * KI-Projekt) 20:04, 23. Mai 2025 (CEST)Beantworten
Seh ich das richtig, dass das Antwort auf den 2. Post in diesem Thread (den von mir) ist? Man erkennt das Threading nicht mehr sehr gut.
Falls ja: Das stimmt. Und aktuell ist's ja verbreitet, bei Grok (der X-KI) einen gezielt eingebauten Bias zu vermuten. Unabhängig davon, ob das stimmt, kann theoretisch die Programmierung ein dritter POV-Faktor neben den Trainingsdaten und dem Prompting sein. Besser gar keine "aufgrund von..."-Angabe machen oder zu einer offenen Liste umformulieren? --DaWalda (Diskussion) 20:15, 23. Mai 2025 (CEST)Beantworten
Korrekt, das ist eine Antwort auf deinen Beitrag #2. Diskussionen in diesem Themenfeld neigen derzeit leider dazu, sehr zerfasert zu werden.
Mir geht es eher um gemeinsame Klarheit, warum eine Regel etabliert wird. Der eine Punkt ist die inhaerente Problematik konnektionistischer Systeme, Wissen nur probabilistisch ausgeben zu koennen und dabei von Biases aus den Trainingsdaten oder auch aufgrund absichtlich eingearbeiter Verzerrung beeinflusst zu sein. Der andere Punkt ist selbst bei einem vergleichsweise „ausgewogenen“ Modell, dass Ausgaben womoeglich von der Formulierung der Anfrage abhaengen.
Daraus wuerde ich ableiten, dass schon Formulierungsunschaerfen bei Anfragen an generative Systeme dazu fuehren koennen, dass die Ausgabe nicht die Gesamtheit aller per Sekundaerquellen etablierten Positionen zu einem Thema zurueckgibt, verbunden mit einer Tonalitaet der gelieferten Aussagen generativer Systeme, die den Eindruck einer abschliessenden Bewertung der Lage ermoeglichen koennen.
Die Regeln unserer enzyklopaedischen Arbeit richten sich aber ja gerade nicht alleine an die Menschen, die zur Ueberzeugung gelangt sind, alle denkbaren Recherchewerkzeuge inklusive konnektionistischer KI-Systeme souveraen bedienen und dadurch die Qualitaetsansprueche der Wikipedia erfuellen zu koennen. Es geht auch darum, gelegentliche Beitragende mit all den noetigen Informationen zu versorgen, damit sie Beitraege leisten koennen, die diesen Qualitaetsanspruechen hinsichtlich gesicherten Wissens genuegen.
Zu deiner konkreten Frage koennte ein Ansatz sein, auf diesen Umstand hinzuweisen und klarzustellen, dass generative Systeme nicht daraufhin optimiert sind, einen moeglichst umfassenden Stand aller per Quellen gesicherten Positionen abzubilden, und dass daher besondere Sorgfalt darauf gelegt werden muss – mit welchem Recherchewerkzeug auch immer – die Gesamtheit des Stands der Diskussion abzubilden. ---stk (Diskussion) 23:10, 23. Mai 2025 (CEST)Beantworten
Richtig, Generative Chatbots sind einschmeichelnde Plauderer, die die Leute mit kompetent wirkenden Texten beeindrucken wollen und auch abhängig machen (Erst mal Peplexity fragen - Googelst Du noch oder perplext Du schon?). Das ist der Konkurrenzkampf der Big Five. Dabei schwindeln die eben auch oder verwenden irgendwelche Infos aus für uns obskuren Quellen. Die wollen keine Enzyklopädie sein. MANCHES kann man aber verwenden, weil die Autoren auch normale Menschen sind und das anderswo nutzen. Der verantwortungsvolle Autor ist normalerweise ein "Filter". Das muss man einfach mal genauer erklären. --Wortulo (Disk. * KI-Projekt) 07:40, 24. Mai 2025 (CEST)Beantworten
Wie gerade nebenan ausgefuehrt: Die Rolle des Menschen in dem Prozess besteht meines Erachtens eben nicht in einem Filter, sondern in einer kritischen Reproduktion des ausgegebenen Ergebnis. Die Nullhypothese ist, dass alles ausgegebene sachlich und inhaltlich falsch ist – anhand dabei mitgelieferter Quellen ist diese Nullhypothese zu widerlegen, um unabhaengig vom Sprachmodell eine logisch fuer sich stehende Begruendung fuer das einzubringende Wissen aufzubauen. ---stk (Diskussion) 20:14, 25. Mai 2025 (CEST)Beantworten

Sorry, Leut, ich will hier niemandem zu nahe treten. Muss es aber. WP:Belege/Nr. 8 wird kritisiert, weil Manche glauben, "unerwünscht" sei nicht präzise genug. Verstehe ich. Jetzt wird oben vorgeschlagen, man müsse KI-Elaborate "mindestens doppelt so genau" prüfen wie manuelle Eingaben. Doppelt. Mindestens. Wow. Aber was heißt denn das bitteschön? Wie viel ist doppelt, und wer hat ausgerechnet, dass es ausgerechnet doppelt sein soll?

Wir können doch nicht ein recht deutlich formuliertes Verbot aufgeben für ein pseudoexaktes Nichts?! Grüße --Okmijnuhb 22:01, 14. Mai 2025 (CEST)Beantworten

Meissel: Das Verbot (die Unerwünschtheit) bleibt doch erhalten wenn der unbegründete Hinweis, es verstiesse gegen den neutralen Standpunkt, ersatzlos gestrichen würde (und man dann mal die wirklichen Gründe darstellt). Ich stimme Dir aber zu, dass der Kasten keine Lösung ist. KI kann gegen vieles verstossen. Ich würde zuerst mal gerne wissen, WARUM sie ausgerechnet regelhaft gegen das Neutralitätsgebot verstossen soll. Die Gegenhypothese ist nämlich, dass die neuen grossen generativen KI-Modelle alles auswerten, was an Quellen verfügbar ist und entsprechend wichten - also grundsätzlich sogar neutraler vorgehen (können), als ein Autor bei uns. --Wortulo (Disk. * KI-Projekt) 22:20, 14. Mai 2025 (CEST)Beantworten
KI neigt zu einem bestimmten Bias, basierend auf den Daten, mit denen sie gefüttert wird. Und nein, nur weil die KI alles auswertet, was an Quellen verfügbar ist, ist sie noch lange nicht neutral. Du schreibst ja selbst: "was an Quellen verfügbar ist". Verfügbar ist aber eben nicht notwendigerweise alles. Und wie gewichtet die KI die Infos? Quantitativ? Wenn sich mehr rechter Hass-Müll im Internet findet als Inhalte, die auf demokratischen Füßen stehen, denkt die KI dann, dieser rechte Hass-Müll muss ein akzeptabler und mehrheitlich befürworteter Teil des politischen Meinungsspektrums sein? Die KI kann jedenfalls nicht reflektieren, dass ersteres eine - vielleicht durch andere KI-Systeme deutlich aufgeplusterte - extreme Mindermeinung ist, die gegen absolute moralische Grundlagen verstößt. Das können nur wir Menschen reflektieren.
Musk will das übrigens für sich nutzen und einen rechten Chatbot basteln lassen als alternative für die angeblich zu "woken" etablierten Chatbots. -- Chaddy · D 22:44, 14. Mai 2025 (CEST)Beantworten
Menschen machen immer wieder Fehler, und die Diskussionsseiten sind voll davon. Auch der neutrale Standpunkt wird oft heftig diskutiert, und im Ende -- so mein Eindruck -- ist es doch eher ein Gefühl als Fakt, was denn wirklich neutral(er) ist.
Die Richtlinien sind für uns Autoren da.
Der Punkt ist doch wohl, dass sich die Sprach-KI nicht an diese regeln hält und auch technisch nicht daran halten kann, wenn sie textet.
Aber auch das ist nicht der Punkt, sondern ein ganz anderer: Wenn ein Autor Sprach-KI als Hilfsmittel nutzt, bekommt der fertigen Text serviert. Die Untersuchung, ob das neutral ist, ist deutlich schwieriger, weil der Aufwand, zu einer Entscheidung zu gelangen, weit weniger ist. Im Klartext: Muss ich selbst texten, muss ich die Quellen verstehen. Dann formuliere ich. Der Gehirnschmalz, der nötig ist, um zu verfassen, ist höher als jener zu lesen und zu verstehen. Beim texten kommt es zudem nicht selten zu einem Punkt, an dem man _während dessen_ bemerkt, dass man sich das nochmals genau ansehen muss. Warum? Weil man einen höheren Level beim Denken benötigt, um zu texten, und weil einem dadurch auffällt, dass man das noch nicht so gut verstanden hat wie nötig. Beim Lesen andererseits erkennt man jenen Punkt nicht. Es ist sogar wahrscheinlich, dass manche diesen Punkt überhaupt nie erkennen (und ich schließe mich hier ausdrücklich ein!).
Quintessenz: Es ist deutlich schwerer, einen fertigen Satz (fertige Sätze) zu korrigieren bezüglich WP:TF, WP:NPOV und sogar WP:URV als dies selbst texten zu müssen. ‣Andreas 13:25, 15. Mai 2025 (CEST)Beantworten
Ich verstehe gerade nicht wirklich, was das mit meinem Beitrag zu tun hat. -- Chaddy · D 13:47, 15. Mai 2025 (CEST)Beantworten
Entschuldige die späte Antwort. Was das mit deinem Beitrag zu tun hat? Nun, der erste Absatz sehr viel...
KI neigt zu einem bestimmten Bias, basierend auf den Daten, mit denen sie gefüttert wird. Das tun Menschen, und damit Autoren, auch. Das kann man sogar benennen: eine der Gefahren den Neutralen Standpunkt betreffend ist Confirmation Bias. Das heißt: selbst beim Menschen ist der NS nicht automatisch gegeben. Diesbezüglich ist Sprach-KI kein bisschen schlechter. Hinzu kommt: wenn ein Autor das mit Sprach-KI gewissenhaft macht, könnte er 1. mehrere verschiedene Prompts verwenden, um Bias größtmöglich auszuschließen und besseren NS herzustellen, und er könnte 2. mehrere generative KI-Modelle nutzen und mit unterschiedliche Trainingsdaten, bei denselben Prompten. (So, wie man sich auch mehrere Quellen sucht, um nicht das einzige Buch zu finden, dass das so sieht, wie man es gerne gerade hätte...)
Auch die Bewertung der Quellen, die du Sprach-KI "vorwirfst", ist bei menschlichen Autoren doch dasselbe Problem, oder nicht?
Der zweite Absatz ist meine Meinung (mehr Fehler wenn vorformuliert als wenn man selbst formulieren müsste), was das wirkliche (versteckte) Problem sein könnte. Als Meinung ist dies nur gestützt durch Argumente, nicht durch Studien... ‣Andreas 21:41, 20. Mai 2025 (CEST)Beantworten
Das musst du aber auch als Mensch beurteilen, ob eine Information, die du findest neutral und repräsentativ ist. Das ist ein Hauptstreitpunkt in vielen Artikeln des so genannten Honeypots, wo es bisher nicht um KI geht. Vielleicht ist es eine Information, wenn Fake News grosse Verbreitung finden. Deswegen Kuratierung durch einen Autor, der Punkt Bias beziehungsweise Verzerrung taucht auch in unserem Handbuch schon auf. Ich hab den ja nie ausgeschlossen, KI neigt dazu und die arbeiten übrigens auch daran, mittels KI Fake News und andere Dinge zu erkennen. KI ist kein einfaches Satzergänzen nach Wahrscheinlichkeit mehr, sondern modelliert menschliche Urteilsprozesse, so gut es schon geht. Logik-Prüfungen und Entdeckung von Widersprüchen sind nicht mal eine neue Erfindung dabei. --Wortulo (Disk. * KI-Projekt) 14:15, 15. Mai 2025 (CEST)Beantworten
Oder noch mal deutlicher: die Strategie der Foundation will ja sichern, dass nur geprüftes Wissen in der Enzyklopädie steht. Einzelne KI-Texte stimmen im Idealfall mit einer Quelle überein, können aber in der Auswahl einen Bias haben. Jede Einzelquelle steht aber erst mal für sich. Kuratiertes Wissen sammeln ist doch wie Pilze suchen. Nur die essbaren sollen ins Körbchen. Auf jeden Fall geht es nicht so pauschal wie im Satz 8, dass alles von KI gegen die Neutralität verstiesse. Das spricht eben auch für ein eigenes Dokument, wo man das ausführlicher erläutert. Und wirklich dagegen verstossen kann nur der Mensch, in dem er es nicht neutral auswählt. --Wortulo (Disk. * KI-Projekt) 14:26, 15. Mai 2025 (CEST)Beantworten
Das mit den Pilzen ist ein prima Vergleich. Wenn mir im Restaurant Pilze serviert werden, die erkennbar von der Müllkippe stammen, dann traue ich ihnen nicht. Da mag der Kellner noch so sehr versichern, dass der Koch sie höchstselbst "kuratiert" habe. Natürlich könnten sie theoretisch auch gut sein. Aber aus welchem Grund sollten wir ein Risiko eingehen und Müllkippenpilze erlauben? Grüße --Okmijnuhb 00:06, 16. Mai 2025 (CEST)Beantworten
Tja, das ist eine Frage, wo man hingeht ;-) Die Welt soll weiter Wikipedia lesen, weil sie kuratiertes Wissen enthält, worauf man sich verlassen kann.
Guckst Du unsere Anfänge, waren da auch viele "schlechte Pilze" dabei - und vor uns wurde laut gewarnt. Dann haben wir uns über die Jahre Regeln und Werkzeuge geschaffen - und unser Ruf ist doch deutlich besser geworden.
KI als Werkzeug kommt, ob wir wollen oder nicht. Das lernen die Kinder in der Schule und es entstehen auch anderswo Regeln zum sorgfältigen Umgang. Ergo müssen wir es in unsere Qualitätssicherung differenzierter einbeziehen, als es reflexhaft zu verbieten. Wir brauchen auch jüngere Autoren, die sich nicht ob unserer fossilen Regeln mit Grauen abwenden sollen :-)
Ich gehe nur in Restaurants, wo ich eine gewisse Sicherheit habe, dass der Koch die Pilze sorgfältig "kuratiert" hat - die auch ein Qualitätsmanagement haben. Es kann immer mal was passieren - aber gute müssen heute penibel auf die Qualität zu achten. Bewertungssysteme und die Hygienebehörden sorgen dafür - und ich informiere mich vorher beim Besuch neuer.
Die Wikipedia ist ein Zweisternerestaurant mit sagen wir 15 GM-Punkten und drei Kochmützen :-) --Wortulo (Disk. * KI-Projekt) 07:18, 16. Mai 2025 (CEST)Beantworten