Wikipedia:Meinungsbilder/Einführung persönlicher Bildfilter
Initiatoren und Unterstützer
Initiatoren
Rosenkohl (bitte an weitere Benutzer, sich gegebenenfalls hier auch als Initiatoren einzutragen)
Unterstützer
- Don-kun • Diskussion Bewertung 10:25, 17. Aug. 2011 (CEST)
Nyabot :: Kujōshorigakari :: aaw 11:14, 17. Aug. 2011 (CEST)
- --Joyborg 13:35, 17. Aug. 2011 (CEST)
- -- Chaddy · D – DÜP – 15:58, 17. Aug. 2011 (CEST)
- --Michileo 16:42, 17. Aug. 2011 (CEST)
- -- Blogotron /d 08:51, 18. Aug. 2011 (CEST)
- -- WSC ® 10:36, 18. Aug. 2011 (CEST)
- --Trockennasenaffe 10:40, 18. Aug. 2011 (CEST)
- Generator 11:46, 18. Aug. 2011 (CEST)
- -- Carbidfischer Kaffee? 12:01, 18. Aug. 2011 (CEST)
- --Rosenkohl 13:39, 18. Aug. 2011 (CEST)
- --Eingangskontrolle 15:01, 18. Aug. 2011 (CEST)
- --Re probst 13:04, 19. Aug. 2011 (CEST)
- --Richard Zietz 21:50, 19. Aug. 2011 (CEST)
- --★PowerZDiskussion 23:20, 19. Aug. 2011 (CEST)
- --Florian Blaschke 15:15, 20. Aug. 2011 (CEST)
- --mfg Sk!d 03:08, 22. Aug. 2011 (CEST)
- -- ianusius ✆ Disk. ✪ (Art.) 18:19, 22. Aug. 2011 (CEST)
(10 stimmberechtigte Unterstützer erforderlich; Stimmberechtigung überprüfen)
Die Unterstützer sind mitverantwortlich dafür, dass dieses Meinungsbild nur startet, wenn es zur Abstimmung geeignet ist. Falls das Meinungsbild nach deinem Eintrag so umformuliert wurde, dass es droht, in ungeeignetem Zustand gestartet zu werden, solltest du deinen Eintrag hier wieder zurückziehen.
Problembeschreibung
Das Kuratorium der Wikimedia Foundation hat Ende Mai 2011 im Zuge einer Resolution: Umstrittene Inhalte[1] beschlossen, eine Software-Anwendung für persönliche optionale Filter für Bilder entwickeln zu lassen und auf allen ihren Projekten einzuführen:
- „Wir bitten den Geschäftsführer in Absprache mit der Gemeinschaft eine Funktion zum persönlichen Verbergen von Bildern zu entwickeln und einzurichten. Sie soll Lesern ein einfaches Verbergen der in den Projekten vorgehaltenen Bildern ermöglichen die sie nicht sehen wollen, entweder während des ersten Anschauens des Bildes oder durch bereits zuvor eingestellte Vorlieben.“[2]
Begründet wird dies u.a. mit Ergebnissen und Empfehlungen aus einer Studie von 2011 im Auftrag der Wikimedia Foundation von 2010, dem sogenannten Harris-Report[3]. Der Harris-Report hatte der Wikimedia Foundation in den Empfehlungen 7 und 9 eine Form der persönlichen Bildfilterung vorgeschlagen.[4]
Die geplanten Filter und Filterkategorien und das Verfahren zur Einführung sind bei den Benutzern der Wikipedia umstritten.
Planung der Wikimedia Foundation zur Umsetzung
Die genaue Funktionsweise des Bildfilters steht noch nicht fest. Die Entwickler haben bisher einen Rohentwurf mit Beispielabbildungen erstellt. Folgendes ist derzeit geplant:
Der Filter soll es Lesern der Wikipedia ermöglichen, auf eigenen Wunsch Dateien nach bestimmten Kriterien auf ihrem eigenen Bildschirm nicht anzuzeigen. Die Einstellungen des Filters können persönlich angepasst werden. Dateien mit potentiell umstrittenen Inhalten erhalten zusätzlich einen Knopf „Datei verbergen“ („Hide image“), um die Filtereinstellungen so ändern zu können, dass die Datei ausgeblendet wird. Dateien, die vom Filter bereits ausgeblendet werden, erhalten einen Knopf „Datei anzeigen“ („Show image“), um die Filtereinstellungen ändern und danach die Datei einblenden zu können. Außerdem wird im Seitenkopf stets ein Link angezeigt, der zu den Einstellungen des Filters führt. Obgleich die Foundation von einem „Bildfilter“ („Image filter“) spricht, sollen alle entsprechend kategorisierten Dateien erfasst werden, zum Beispiel Videos oder Audio-Dateien.
Um die Filterung zu ermöglichen, sollen die Leser der Wikipedia für Dateien die sie nicht sehen möchten, Kriterien wie z.B. „ausdrücklich sexuell“, „medizinisch“ oder „Gewaltdarstellung“ angeben können[5]. Die Dateien sollen gefiltert werden mithilfe entsprechender neuzuschaffender Filterkategorien innerhalb des bereits bestehenden Kategoriensystems auf Commons[6]. Entsprechende Filterkategorien sollen auf den lokalen Wikimedia-Projekten, etwa auf der deutschsprachigen Wikipedia, für die dort lokal gehosteten Dateien angelegt werden.[7]
In der Zeit vom 15. August bis zum 30. August 2011 veranstaltet die Wikimedia Foundation wikimediaweit das Referendum „Image Filter Referendum“, um Meinungen zur Art der Ausgestaltung und Verwendung der zu entwickelnden Filterfunktion zu erfahren. Zur Teilnahme am Referendum berechtigt sind angemeldete Autoren mit mindestens 10 Beiträgen, Entwickler von MediaWiki, Angestellte und Auftragnehmer der Wikimedia Foundation sowie Mitglieder des Kuratoriums und des Beirates der Wikimedia Foundation. Zu sechs Aussagen können sie ein numerisches Votum abgegeben.[8] Die Möglichkeit, ausdrücklich für oder gegen die Einführung der Bildfilterfunktion abzustimmen ist in dem Referendum nicht vorgesehen.
Vorschlag
Persönliche Bildfilter (Filter, die illustrierende Dateien anhand von Kategorien der Wikipedia verbergen und vom Leser an- und abgeschaltet werden können, vergl. vorläufigen Entwurf der Wikimedia Foundation) sollen entgegen dem Beschluss des Kuratoriums der Wikimedia Foundation in der deutschsprachigen Wikipedia nicht eingeführt, und auch keine Filterkategorien für auf dieser Wikipedia lokal gespeicherte Dateien angelegt werden.
Argumente
Argumente für den Vorschlag
- Die Wikipedia wurde nicht begründet, um Informationen zu verbergen, sondern um sie zugänglich zu machen. Das Ausblenden von Dateien reduziert unter Umständen wichtige Informationen, die in einem Wikipedia-Artikel dargeboten werden. Dadurch könnte jede Art der Aufklärung und des Erkennens von Zusammenhängen eingeschränkt werden. Beispiele: Artikel über Künstler, Kunstwerke und medizinische Themen könnten absichtlich oder ohne Absicht des Lesers wesentliche Teile ihrer Informationen verlieren. Das Ziel, ein Thema neutral und in seiner Gesamtheit darzustellen, wäre dadurch gefährdet.
- Die Kategorisierung von Inhalten nach Zumutbarkeit widerspricht dem Grundsatz von Wikipedia:Neutraler Standpunkt. Ebenso argumentiert die American Library Association, die ein Markieren von Inhalten nach nicht objektiven Gesichtspunkten strikt ablehnt und sogar als Mittel der Zensur ansieht. Ein solches Vorgehen ist nach ihrer Aufassung diskriminierend und lässt den Betrachter einer Thematik voreingenommen werden.[9]
- Rücksichtnahme auf Interessen oder Vorlieben einzelner Leser ist nicht Aufgabe einer Enzyklopädie: Wikipedia:Grundprinzipien.
- Gegner der beabsichtigten Filterkategorien und Dateienfilter sehen in deren Einsatz eine Zensur von Inhalten, welche dem Anspruch einer Enzyklopädie entgegenläuft.[1] Insbesondere wird hier die Gefahr einer Ausweitung der Filterung, eine Pflicht zur Filterung (Anmeldepflicht zum Deaktivieren des Filters) betont, wenn erst einmal eine entsprechende Infrastruktur geschaffen wurde.
- Auch in Schul- und sonstigen Lehrbüchern finden sich Darstellungen von Gewalt oder expliziter Sexualität. Offenbar wird dies didaktisch nicht in Zweifel gezogen. Ein Blick in das alte Biologie- und Geschichtsbuch genügt.
- Der Filter kann Jugendschutz-Software oder andere bereits vorhandene Contentfilter nicht ersetzen. Er soll problemlos von jedem Benutzer aufzuheben sein, was die zu Schützenden mit einschließt. Es stellt sich daher die Frage nach der Sinnhaftigkeit, einen eigenen Contentfilter zu entwickeln, der komfortabler zu bedienen ist, aber schon per Design keinen zuverlässigen Schutz bietet. Der Filter könnte ein falsches Gefühl der Sicherheit vermitteln. Er würde zudem nicht die Aufsichtspflicht der Eltern oder anderer Aufsichtspersonen zum Jugendschutz ersetzen. Das für den Filter sprechende Argument, dass andere Contentfilter Wikipedia aus dem Index nehmen würden, wenn ein eigener Filter betrieben wird, entfällt.
- Durch die Einführung eines „Bildfilters“ (eigentlich sind auch Grafiken und sonstige Ton- und Videodateien betroffen) entfällt nicht die Diskussion darüber, welche Bilder einem bestimmten Leser zuzumuten sind. Auch die Einordnung der Inhalte in bestimmte Ausschlusskategorien auf Commons kann dadurch auf unterschiedliche Interessen und Vorstellungen treffen. Es ist unsinnig, bestimmte Inhalte noch und noch in Filterkategorien einzuordnen, da es nicht absehbar ist, dass klare Richtlinien darüber entwickelt werden können, welche Dateien in die verschiedenen Ausschlusskategorien gehören.
- Der Filter soll global arbeiten. Es wird somit vorausgesetzt, dass alle Kulturen und die damit verbundenen Sprachversionen die gleiche Auffassung von „anstößigen Inhalten“ hätten. Allerdings zeigen sich die kulturellen Konventionen über die Zumutbarkeit von Inhalten schon bei der Einbindung der Bilder in die Artikel in den jeweiligen Sprachversionen. Die kulturell geprägte Grenze, ab wann ein Inhalt als „anstößig“ zu empfinden ist, kann ohnehin nicht durch eine einzelne Kategorisierung erreicht werden, die für alle Sprachversionen gleich ist. D.h. selbst wenn sich die Community auf klare Richtlinien verständigen könnte, so ist die persönliche Grenze dessen, was ein Leser sehen möchte, und was nicht, stark individuell und steht damit im Widerspruch zu dem Konsens, der nicht durch die persönlichen Vorlieben des Lesers bestimmt ist. Damit ist das Ziel einen Filter zu erstellen, der allen Lesern gerecht wird, technisch nicht umsetzbar. Ein Leser, der selbst entscheiden will was er zu sehen bekommt und was nicht müsste sich die Bilder ansehen, was in einem Widerspruch endet.
- Durch die Entwicklung und Wartung der Filter entstehen Kosten, die gedeckt werden müssen. Die Aufgabe, die Filterkategorien einzurichten und aktuell zu halten, wird den Benutzern überlassen, die dafür die nötige Zeit aufbringen müssen. Diese Ressourcen könnten stattdessen für anderweitige technische und inhaltliche Verbesserungen eingesetzt werden. (Eine Übernahme bestehender Kategorien von Commons als Filterkategorien ist nicht möglich. So finden sich beispielsweise in der Kategorie Violence [Gewalt] und deren Unterkategorien eben nicht nur Gewaltdarstellungen, sondern auch Bilder von Mahnmalen, Demonstrationen, Portraits, kritischen Karikaturen, usw.)
- Auch ist fraglich, in wie weit die Wikimedia die Erstellung eines eigenen Filters überhaupt betreiben sollte, schließlich wurde der Inhalt von den eigenen freiwilligen Mitarbeitern nach den Wikipedia:Grundprinzipien erstellt und in einem kollektiven Prozess als behaltenswert anerkannt. Eine Ausblendungsmöglichkeit eigener Inhalte zu ermöglichen erscheint daher paradox.
- Es könnte ein Bumerang-Effekt eintreten: Bearbeiter würden dann nach dem Motto „Dafür gibt es Filter“ ungehemmter potentiell Anstößiges in Artikeln unterbringen.
- Der Beschluss des WMF-Vorstandes fußt maßgeblich auf den Empfehlungen aus dem „Harris-Bericht“, der von Robert Harris und Dory Carr-Harris verfasst wurde. Robert Harris hat nach eigenen Angaben einige Einsteigerbücher über klassische Musik geschrieben und war verantwortlich für einige Musikreportagen bei der Canadian Broadcasting Corporation, in der Sue Gardner zuvor Geschäftsführerin war. Er war, vor dem Bericht, auch in keiner Weise mit der WMF oder einem der Projekte verbunden. Warum ausgerechnet seine Meinung als maßgeblich für die Einführung eines so weitreichenden Einschnittes in die Inhalte einer Enzyklopädie gesehen wird, wird in keiner Weise erklärt. Auch ist nicht ersichtlich, aufgrund welches Fachwissens, außer dem journalistischen, und aufgrund welcher Überlegungen von Robert Harris und dem Vorstand von Wikimedia, der Bericht erstellt wurde.
- Das Argument der Foundation (Principle of Least Surprise), welches voraussetzt, dass Menschen lieber wenige Überraschungen erleben, ist aus den Computerwissenschaften (Ergonomie von Computerprogrammen) übernommen. Sowohl psychologisch betrachtet, als auch in den Kommunikationswissenschaften, wird überwiegend eine gegenteilige Meinung vertreten. In der Presse beispielsweise werden Fotos zur Verdeutlichung als auch zur Weckung des Interesses verwendet (vgl. bspw. [2]).
- Der Filter verstößt gegen die enzyklopädische Säkularität. Der Harris-Reports empfiehlt einen besonderen Umgang mit sogenannten „Bildern des Heiligen“,[10] aber schlägt Filter nur ausdrücklich für sexuelle und gewalttätige Bilder vor. Die Resolution des Kuratoriums geht davon aus, daß Benutzer nicht nur sexuelle und gewalttätige sondern auch religiöse Inhalte als anstößig empfinden können und verweist zudem auf die Verschiedenartigkeit nach Alter, Herkunft und Wertorientierung von Benutzergruppen.[11] Im Rohentwurf der Foundation wird nun ausdrücklich auch ein Filter nach der Kategorie „Bilder des Propheten Mohammed“ geplant.[12] Eine Filterung nach religiösen Vorlieben widerspricht aber der Neutralität und dem universellen Bildungsanspruch einer Enzyklopädie.
Argumente gegen den Vorschlag
- Leser, die zum Beispiel die Darstellung von Gewalt oder Sexualität als anstößig empfinden, sich davon in ihren Gefühlen verletzt sehen oder nicht von davon überrascht werden wollen, können entsprechend kategorisierte Dateien ausblenden.
- Es könnte eine größere Leserzahl erreicht werden, weil manche Leser die Wikipedia oder bestimmte Artikel nicht mehr wegen als anstößig empfundener Darstellungen meiden.
- Durch die Einführung der Filter könnten Vorbehalte gegenüber der Wikipedia, die sich auf die Darstellung von möglicherweise anstößigen (bspw. gewalttätigen und sexuellen) Inhalten beziehen, reduziert werden.
- Bestrebungen, potenziell anstößige Inhalte ganz zu entfernen (zum Beispiel durch Löschung von Bilddateien), wird der Wind aus den Segeln genommen.
- Es handelt sich nicht um Zensur, da es sich auchdrücklich um persönliche Filter (siehe Problembeschreibung) handeln soll, die nur auf Benutzerwunsch aktiviert werden. Die freie Wahl eines jeden Benutzers soll über mehrere Funktionen sichergestellt werden:
- Der Benutzer wird über die Möglichkeit, für ihn unangenehme Inhalte zu filtern, informiert.
- Der Benutzer entscheidet selbst, ob er die Filterung aktivieren möchte (Opt-in).
- Der Benutzer kann die Filterung jederzeit wieder deaktivieren oder die ausgeblendeten Bilder einzeln einblenden.
- Dies gilt nach derzeitiger Planung auch für unangemeldete Benutzer [3]. Wahlweise – je nach Ausgang des Referendums („Es ist wichtig, dass die Funktion sowohl für angemeldete als auch für nicht angemeldete Benutzer verfügbar ist“) – ist es auch möglich, dass es für unangemeldete Benutzer gar keine Filter geben wird.
- Eine „Zensur“ durch Dritte ist durch die Nichteinführung der Filter auf der deutschsprachigen Wikipedia nicht verhinderbar, da die Filterkategorien sich bei Wikimedia Commons befinden sollen.
- Es ist unklar, ob ein Verzicht auf die Filterfunktion überhaupt technisch möglich sein wird. Falls sie „fest eingebaut“ sein wird, würde die deutschsprachige Wikipedia sich mit einem Filterverbot von Weiterentwicklungen der MediaWiki-Software abschneiden bzw. müsste eine Parallelversion der Software selbst fortführen.
- Vorhandene Contentfilter sind keine brauchbare Alternative, da sie nicht nur einzelne Bilder ausblenden, sondern den Zugriff auf ganze Seiten verhindern. Die betreffenden Artikel wären dann nicht mehr lesbar.
- Angemeldete Benutzer können schon jetzt über ihre CSS-Einstellungen einzelne Inhalte ausblenden; es sehen also ohnehin nicht alle Benutzer dasselbe.
(Weitere) Argumente der Wikimedia Foundation für die Einführung der Filter
Die WMF führt außerdem folgende Argumente für die Filter an, deren Sinnhaftigkeit aber umstritten ist:
- Prinzip der geringsten Überraschung.[13]
- Das Prinzip der geringsten Überraschung – korrekt angewendet – bedeutet, dass man in einem Artikel nur zum Thema passende Bilder vorfindet. Dies ist bereits der Fall und hat nichts mit der Filterfunktion zu tun.
- Jugendschutz: Insbesondere Kinder könnten sich vor der Betrachtung von Bildern mit sexuellen oder gewalttätigen Inhalten schützen, oder unter Anleitung ihrer Erzieher geschützt werden.[14]
- Die Wikipedia enthält keine jugendgefährdenden Inhalte, daher ergibt das Jugendschutz-Argument keinen Sinn. Außerdem ist nicht erkennbar, wie die geplanten Filterfunktionen effektiv zum „Jugendschutz“ eingesetzt werden könnten.
- Die Ausfiltermöglichkeit für Bilder könnte dazu beitragen, dass neue, über die bisherige Community herausgehende Gruppen (u. a. mehr Frauen als bislang) für die Mitarbeit in Wikipedia gewonnen werden.
Stimmberechtigung
Abstimmungsberechtigt sind angemeldete Benutzer, die zum Zeitpunkt des Beginns des Meinungsbildes stimmberechigt waren. Hier erfährst Du, ob Du stimmberechtigt bist. Die Angabe der Uhrzeit bei diesem Tool wird automatisch als "UTC" eingetragen. UTC entspricht der in Deutschland, Österreich und der Schweiz während des Zeitraums des Meinungsbildes gültigen MESZ abzüglich 2 Stunden.
Damit ist hier die Stimmberechtigung restriktiver als beim "Referendum", aber in Übereinstimmung mit der hier langjährigen Praxis.
Formale Gültigkeit
Nehmen 50 Prozent + 1 Stimme dieses Meinungsbild an, gelangt es zur Auswertung. Bei der inhaltlichen Auswertung gilt ebenfalls die absolute Mehrheit. Enthaltungen zählen in beiden Fällen als nicht abgegebene Stimmen.
Ich nehme dieses Meinungsbild an
Ich lehne dieses Meinungsbild ab
Enthaltung
Inhaltliche Abstimmung
Persönliche Bildfilter und Filterkategorien sollen nicht in der deutschsprachigen Wikipedia eingeführt werden (Status quo)
Persönliche Bildfilter und Filterkategorien können in der deutschsprachigen Wikipedia eingeführt werden
Enthaltung
Auswertung
Anmerkungen
- ↑ Wikimedia Foundation Board: Resolution:Controversial content, 29. Mai 2011
- ↑ „We ask the Executive Director, in consultation with the community, to develop and implement a personal image hiding feature that will enable readers to easily hide images hosted on the projects that they do not wish to view, either when first viewing the image or ahead of time through preference settings“, Wikimedia Foundation Board: Resolution: Controversial Content, 29. Mai 2011
- ↑ Robert Harris und Dory Carr-Harris: 2010 Wikimedia Study of Controversial Content, 2010
- ↑
„Es wird empfohlen:
7. Daß ein benutzergewählte Steuerung auf allen Projekten der Wikimedia Foundation eingerichtet wird, gleichermaßen verfügbar für angemeldete und unangemeldete Benutzer, welche alle verfügbaren sexuellen und gewalttätigen Bilde in eine einklappbare oder auf andere Weise verborgene Form der Ansicht bringt durch Auswahl eines einzigen deutlich bezeichneten Befehles (‚unter 12 Knopf‘, ‚Unpassend für den Arbeitsplatz‘). […]
9. Daß für weitere als umstritten erachtete Bilder eine Reihe zusätzlicher benutzergewählter Möglichkeiten geschaffen werden, die angemeldeten Benutzern eine einfache Handhabe dieser Inhalte erlauben durch Einstellen ihrer persönlichen Betrachtungs-Vorlieben.“
(„It is recommended:
7. That a user-selected regime be established within all WMF projects, available to registered and non-registered users alike, that would place all in-scope sexual and violent images (organized using the current Commons category system) into a collapsible or other form of shuttered gallery with the selection of a single clearly-marked command (‚under 12 button‘ or ‚NSFW‘ button). […]
9. That a series of additional user-selected options be created for other images deemed controversial to allow registered users the easy ability to manage this content by setting individual viewing preferences.“),
Robert Harris und Dory Carr-Harris: 2010 Wikimedia Study of Controversial Content:Part Two, 2010 - ↑ Beispielabbildung aus dem Rohentwurf
- ↑ Commons:Kategorien
- ↑ Category Equivalence Localization
- ↑ Auf einer Skala von 0 bis 10 können Abstimmende den Grad ihrer Zustimmung zu folgenden Aussagen angegeben:
„Es ist wichtig für die Wikimedia-Projekte, Lesern diese Funktion anzubieten.
Es ist wichtig, dass die Funktion sowohl für angemeldete als auch für nicht angemeldete Benutzer verfügbar ist.
Es ist wichtig, dass das Ausblenden rückgängig gemacht werden kann. Lesern muss auch die Möglichkeit geboten werden, ihre Meinung zu ändern.
Es ist wichtig, dass Leser Bilder melden oder markieren können, die sie als kontrovers betrachten, die aber nicht in diesem Sinne markiert sind.
Es ist wichtig, dass es die Funktion den Lesern schnell und leicht ermöglicht, die Arten von Bildern auszuwählen, die sie verstecken möchten (beispielsweise 5–10 Kategorien), so dass sie z. B. Bilder mit sexuellem Inhalt ausblenden, aber Bilder mit Gewalt zulassen können.
Es ist wichtig, dass der Zusatz kulturell neutral ausgeführt wird: Soweit möglich soll ein globaler, multi-kultureller Standpunkt eingenommen werden.“
Wikimedia Foundation: Image filter referendum/de, Welche Fragen werden gestellt? - ↑ Labels and Rating Systems. An Interpretation of the Library Bill of Rights. American Library Association, 19. Januar 2005, abgerufen am 23. August 2011 (englisch).
- ↑ Images of the „sacred“, Harris-Report, 2010
- ↑ „Some kinds of content, particularly that of a sexual, violent or religious nature, may be offensive to some viewers; […] We recognize that we serve a global and diverse (in age, background and values) audience, and we support access to information for all“, Resolution, 29. Mai 2011
- ↑ „pictures of the prophet (sic) Mohammed“, Personal image filter, Overview of this system, Mediawiki
- ↑ We support the principle of least astonishment: content on Wikimedia projects should be presented to readers in such a way as to respect their expectations of what any page or feature might contain., Resolution, 29. Mai 2011
- ↑ "The major recommendation we have made to deal with children and their parents is our recommendation to allow users (at their discretion, and only for their personal use) to place some images (of sexuality and violence) in collapsible galleries so that children (for example) might not come across these images unintentionally or unexpectedly. As we noted in our section on basic principles, we did so because we believed it would show some basic respect and service to one group of our users (those worried about exposure to these images) without compromising the different needs and desires of another (those desiring, even insisting, the projects stay open).", Children, Harris-Report, 2010