Wikipedia Diskussion:Bots

Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 9. Juni 2007 um 03:41 Uhr durch Head (Diskussion | Beiträge) (Benutzer:RobotQuistnix arbeitet mit langen Cache-Zeiten: typos). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Ältere Beiträge sind im Archiv.

International requests for bot status on de.wikipedia: Please ask directly on Wikipedia:Bots under the section "Vorstellung neuer Bots und Beantragung des Bot-Status" and not on this talk page. Thanks.

Kleine Erweiterungen für MediaWiki, die Bots das leben leichter machen

Hallo ihr. Ich habe gerade zwei feature requests abgesetzt, komplett mit patch, die das Leben für Bot-Schreiber erleichtern sollen:

  • bugzilla:3652: eine Pseudo-Sprachoption, die Systemnachrichten unübersetzt zurückgibt. So sind sie per Skript leicht zu erkennen, und man muss sich nicht darum kümmern, wie die Nachrichten in den einzelnen Sprachen lauten, und dass sie jemand ändern könnte.
  • bugzilla:3651: eine Mini-Skin, die nur sehr wenig zusätzliches HTML zum eigentlichen Inhalt hinzufügt. So ist weniger "Müll" zu verarbeiten (und auch zu laden). Das könnte auch für PDAs etc ganz nützlich sein.

Also, schaut's euch mal an. Wenn ihr das gut finded, schreibt das bitte zum Bugreport dazu, damit wird das bald auf die Server bekommen. Wenn euch jemand einfällt, den das interessieren könnte - bitte weitersagen!

Ich hoffe, das ist nützlich -- D. Dÿsentrieb 19:44, 8. Okt 2005 (CEST)

BwBot

Da leider der BWBot nicht mehr aktiv ist, möchte ich vorschlagen, dass jemand, der Kontakt zu Bananaweizern hat, mal nachfragt, was los ist, ob er den Bot möglicherweise einem anderen zur Verfügung stellt. Meiner Meinung nach ist BWBot, der in technischer Sicht beste Bot, den es hier gibt

New bots

The requests on meta:Requests for permissions to flag KokoBot, MelancholieBot, and Eskimbot, have now been fulfilled. Angela 12:47, 25. Okt 2005 (CEST)

Interwiki-Bots

hierhin übertragen von Fragen zur Wikipedia --:Bdk: 12:51, 19. Nov 2005 (CET)

Gibt es eine Mölichkeit, Bots das Interwiki-Setzen auf bestimmten Seiten zu verbieten? Konkret geht es mir um [1], wo Boris23 und ich immer wieder falsch eingesetzte Links revertieren. Das Ganze hat sich auch nicht gebessert, nachdem in den anderen Sprachversionen die Links auf de: umgebogen wurden. --Andreas ?! 17:53, 15. Nov 2005 (CET)

it:Disneyland zeigt gleichzeitig auf de:Disneyland und en:Disneyland, womit der falsche Kreis wieder geschlossen ist. --Hendrik Brummermann 19:21, 15. Nov 2005 (CET)
Ja, aber auch nur weil gester wieder ein Bot den (gerade im vorherigen Edit entfernten) falschen Link wieder eingefügt hat. Manuell kommt man da nicht gegen an. --Andreas ?! 22:48, 15. Nov 2005 (CET)
Bin gerade unter MS Windows und kann daher mangels Schriftarten die restlichen Interwiki-Links auf it:Disneyland nicht prüfen. Ich bin mir aber ziemlich sicher, dass es dort welche gibt, die transitiv auf de:Disneyland zeigen. Sonst hätte der Bot den de-Link dort nicht reingesetzt. Wenn wir it:Walt Disney Parks and Resorts in beide Richtungen verlinken, ist der Spuk bezüglich it zu Ende. Ist dieser Link inhaltlich richtig? --Hendrik Brummermann 00:22, 16. Nov 2005 (CET)
Die folgenden per Interwiki-Link von it:Disneyland erreichbaren Artikel zeigen auf de:Disneyland: da:Disneyland, eo:Disneyland, he:דיסנילנד, ja:ディズニーランド, pl:Disneyland und zh:迪士尼乐园. --Hendrik Brummermann 08:24, 16. Nov 2005 (CET)

Ich habe FlaBot wegen des Problems auch mal was auf dessen Diskussionsseite geschrieben, der hat sich danach dann auch nicht mehr an der Seite "beteiligt". Diese Vorgehensweise ist aber ja wenig praktikabel, wenn ständig andere (neue) Bots ihre Änderungen vornehmen. --Andreas ?! 17:53, 15. Nov 2005 (CET)

pywikibot bricht ab, wenn die Links nicht eindeutig sind. Wenn wir also dort zum Bespiel en:Walt Disney Parks and Resorts verlinken, wird er den Link zu en:Disney Land nicht mehr reinsetzen. Das gleiche gilt für alle Links, die er darüber gefunden hat. Beim flüchtigen Durchschauen, ist nur it:Disneyland kaputt. Mangels italienischer Sprachkenntnisse kann ich allerdings nicht beurteilen, welche Links dort richtig sind.
Im Allgemeinen müsste es funktionieren, die falschen Links <!-- auskommentiert --> im Artikel stehen zu lassen, um zu verhindern, dass sie wieder und wieder eingefügt werden. --Hendrik Brummermann 19:21, 15. Nov 2005 (CET)
Das werde ich jetzt mal ausprobieren. Danke für den Tipp! --Andreas ?! 22:48, 15. Nov 2005 (CET)
Der pywikipediabot ignoriert auskommentierte Links. --Head [[Bild:Head Diskussion.png|Diskussion]] 14:09, 19. Nov 2005 (CET)

Ich hatte mit Yurikbot auch schon mal so ein Problem - anscheinend führt er keine Ausnahmenliste, siehe en:User_talk:Yurik#Interwiki_Bot_FAQ, man muss wohl selbst hingehen und falsche Interwikilinks in anderen Sprachen beseitigen, um so etwas zu stoppen. grüße, Hoch auf einem Baum 05:26, 16. Nov 2005 (CET)

Wenn ein Bot einen "falschen Link" setzt liegt das nicht dran das der Bot was falsch macht sondern das die User in den verschiedenen Sprachen was falsch gemacht haben. Also bitte nicht auf den Bot schimpfen sondern schnel von Hand die Sprachen verbessern. --Flacus 14:42, 11. Dez 2005 (CET) Benutzer:FlaBot
Und wenn man gerne Interwiki-Conflikte auflösen möchte, kann man bei mir auf dem Server (wöchentlich) eine aktuelle Liste mit allen Links aus meinem Interwiki-Link-Checker bekommen die nicht automatisch aufzulösen waren. URL
Ende Übertragung

en: I am asking permission to run an interwiki bot under the account Benutzer:Chlewbot. I have already tested under my own account on controlled conditions. I plan to run the bot only on pages originated in Spanish language Wikipedia. I am also asking for bot status on meta. — Carlos Th (Diskussion) 15:19, 30. Nov 2005 (CET)

Request at meta fulfilled. --Ascánder (talk at es:) 03:42, 22. Jan 2006 (CET)

Request Bot-Status

Hallo! In der Vorgehensweise steht, dass der Bot-Status auf meta beantragt werden soll und der Bot auch hier vorgestellt werden sollte. In meta wird das anders gesehen: Erst die Vorstellung des Bots, anschließend die Bitte um Bot-Flag. Ist das auf :de nur unpräzise ausgedrückt oder sieht man das auf meta anders als hier? --Flothi 16:08, 15. Jan 2006 (CET)

Technische Frage

Hi!

Seit diesem Diff habe auch ich die Technologie eines Bots zur Verfügung. Momentan läfut er aber nur als IP und auch nur auf den Unterseiten meiner privaten Spielwiese, um nix anzurichten. Er hat bisher nur ein Problem: Wikipedia sendet bei jedem Seitenaufruf ein neues Cooike dewiki_session. Wie kann ich dieses Cookie umgehen ohne eine riesige Cookiemanagement-Bibliothek zu schreiben(Ich code in PHP) ?

Danke,HD-α @ 21:53, 1. Mär 2006 (CET)

Frage zur Vorgehensweise, wenn Botänderungen gegen gültige Konventionen verstossen

Hallo allerseits, mir ist vor einiger Zeit aufgefallen, dass FlaBot bei Änderungen an Personenartikeln auch die Position der Personendaten im Artikel verändert. Lt. Wikipedia:Personendaten sollen diese unmittelbar vor den Interwiki-Links angeordnet werden, FlaBot verschiebt sie jedoch vor die Kats - diese Änderungen kommentiert er lapidar mit "kosmetische Änderungen".

Ich halte ein derartiges Umordnen gegen allgemeinen Konsens (mir ist nicht bekannt, dass der Botbetreiber Flacus bisher irgendeinen Versuch gemacht hat hier eine Änderung in seinem Sinne anzuregen) durch einen Bot nicht für sinnvoll - wie sollte man sich in so einem Fall verhalten? -- srb  15:45, 6. Mär 2006 (CET)

Laut Flacus′ Diskussionsseite macht Head die technische Seite des Bots. Flacus hat ihn darauf auch auf seiner Diskussion angesprochen. Head hat zwar noch nicht reagiert, scheint aber auch kaum aktiv gewesen zu sein, seit die Frage kam. Also bei Head nochmal nachhaken und Flacus bitten, den Bot vorerst keine Personenartikel mehr ändern zu lassen. Es scheint auf jeden Fall keine böse Absicht dahinterzustecken, vermute ich mal. --::Slomox:: >< 18:48, 6. Mär 2006 (CET)
Bitte auf Wikipedia Diskussion:Personendaten#Position weiterdiskutieren. --Head 02:28, 7. Mär 2006 (CET)

Und jetzt das gleiche Spielchen bei Zwobot

Muss wirklich jeder Bot den selben Mist bauen (siehe z.B. [2])? -- srb  11:14, 15. Mär 2006 (CET)

Wie gesagt, bitte auf Wikipedia Diskussion:Personendaten#Position weiterdiskutieren. --Head 13:38, 15. Mär 2006 (CET)

Interwiki-Bots

Moin!

Wir haben mitterweile soviele Interwikibots.. Kann man das nicht irgendwie besser organisieren damit nicht x Bots alls x Tage die selben Seiten überprüfen? In der Vergangenheit hatten z.B. Benutzer:Head und ich den Zwobot geteilt und jeder hat immer seine Abschnitte abgearbeitet.. Wie sieht das aktuell bei den Botbetreibern aus? -- da didi | Diskussion 11:37, 19. Mär 2006 (CET)

Stelle die Frage doch besser auf FzW, da sehen sie mehr Leute. Nich jeder hat diese Seite auf Beobachtuing oder schaut hier regelmäßig vorbei(verpflichtend für Botbetreiber ist nur Bots/Anfragen). Grüsse,HD-α @ 12:07, 19. Mär 2006 (CET)

IP-Bot

Was ist von so einem Bot zu halten? Ein Benutzername bzw. ein Ansprechpartner ist ja wohl das Mindeste. --Fritz @ 23:23, 25. Apr 2006 (CEST)

aufgrund der seltenen Edits zu verschmerzen denke ich. --BLueFiSH  00:07, 26. Apr 2006 (CEST)
durchaus möglich, dass es sich um einen bot mit defektem cookie-handling hält (wenn man komplett ohne cookies arbeitet, speichert MediaWiki den edit als IP) oder der botbetreiber(offensichtlich ist das ein pybot) nach einem upgrade o.Ä. vergessen hat, die passwörter neu einzugeben.HD-α @ 04:17, 26. Apr 2006 (CEST)
Nur als Hinweis, ich hatte letztens noch einen IP-Bot entdeckt:
82.245.240.2 (Diskussion • Beiträge • SBL-Log • Sperr-Logbuch • globale Beiträge • Whois • GeoIP • RBLs)
Die Edits sind sichprobenmäßig OK. Ich hatte sie auch auf Ihrer Dikussionsseite angesprochen und gebeten sich anzumelden, und sich als Bot registrieren zu lassen. --Jutta234 Talk 23:10, 12. Jul 2006 (CEST)

Bot-Betreiber sollte Admin sein

Wenn ich mir die Liste der Bot-Betreiber ansehe, dann wird mir etwas unwohl. Ein Bot kann eine Menge Schaden anrichten. Daher ist es IMO wichtig, dass man dem Botbetreiber vertrauen kann. Er sollte auch gute Kenntnisse über Wikipedia-Konventionen mitbringen. Um es kurz zu machen: Sollte man nur Admins erlauben, einen Bot zu betreiben? -- tsor 20:20, 29. Apr 2006 (CEST)

das halte ich für unsinn. es gibt einen haufen leute, denen ich vertraue und die sich mit wp auskennen, und kein admin sind. wenn ein bot scheiße baut, dann sperrt man ihn eben. -- 20:26, 29. Apr 2006 (CEST)
tsor: das ist schwachfug. vor allem wegen der zig interwiki-bots.HD-α @ 20:38, 29. Apr 2006 (CEST)
Mein Motiv für diesen Vorschlag habe ich hier angedeutet. -- tsor 21:41, 29. Apr 2006 (CEST)
Zerr nicht immer alte Kamellen ans Tageslicht. Ich bin froh genug dass der aufgehört hat, aber nein, jetzt kommst Du wieder mit dem Mist mit dem Accountvandalen.HD - B - @ 21:45, 29. Apr 2006 (CEST)
Da nennt sich einer Fragenmensch, nennt sich um in Klever (warum auch immer), nennt sich wieder um in HD (warum auch immer) und nun betreibt er hier einen Bot. Mir dreht sich da der Magen um. Ich plädiere dafür, das HD keinen Bot betreiben darf. -- tsor 21:49, 29. Apr 2006 (CEST)
Das mit meinen Nicks geht dich rein gar nichts an.Und was genau findest Du an meinem Bot verwerflich?? Andernfalls hast Du keine Gründe mir das verbieten zu dürfen. HD - B - @ 21:54, 29. Apr 2006 (CEST)
Musst du aufgrund dieser Meinung aber gleich so pauschalisieren? Nur weil dir einer von vielen Bot-Betreibern nicht in den Kram passt, heißt das noch lange nicht, dass du Forderungen wie "Bots nur für Admins" stellen brauchst. --CyRoXX (?) 21:52, 29. Apr 2006 (CEST)
HD war der Auslöser dafür, dass ich Bots nur in den Händen von Benutzern sehen möchte, denen die Community vertraut. Admins geniessen auf Grund ihrer Wahl ein gewisses Vertrauen, andere sicherlich auch. Aber eine Wahl zum Botbetreiber (analog der Adminwahlen) möchte ich doch nicht einführen. Also mein Vorschlag: Wer einen Bot betreiben möchte möge sich vorher mittels einer Adminwahl von der Community das Vertrauen aussprechen lassen. -- tsor 22:13, 29. Apr 2006 (CEST)
Gibt es einen konkreten Anlaß? Wie ich sehe, werden im Moment ja sogar IP-Bots zumindest toleriert. --Fritz @ 22:16, 29. Apr 2006 (CEST)
Mein Bauchgefühl. Fritz, findest Du es gut, dass sogar IPs einen Bot betreiben dürfen? Hast Du soviel Vertrauen in die IPs, dass sie einen Bot verantwortungsvoll betreiben? -- tsor 22:19, 29. Apr 2006 (CEST)
Ok, akzeptiert. Und nein, ich finde es nicht gut, deshalb auch meine Frage einen Abschnitt weiter oben. --Fritz @ 22:28, 29. Apr 2006 (CEST)
Mein schlechtes Gefühl bei HD. IMHO redet er gelegentlich drauf los und weiss nicht so genau worüber er redet, ganz aktuell: kategorisieren von Redirects. Weiter die Dinge, die ich oben erwähnte. Diese führen eben dazu, dass ich mich bei einem HD-Bot unwohl fühle. Er erscheint mir zu verspielt. Hast Du Vertrauen in einen HD-Bot? -- tsor 22:53, 29. Apr 2006 (CEST)
Auch wenn ich HDs Meinung (Kats aus Redirects raus) nicht unbedingt teile, aber gleich zu mutmaßen, er könnte ohne Vorwarnung und auf eigene Faust loslegen um SEINE Meinung zu vertreten und durchzusetzen, ist sicherlich weit hergeholt und unbegründet. Ganz klar: Wer absichtlich gegen die Regeln verstößt, wird bestraft. Hätte - und das ist eine nicht eingetretene Ereigniskette - HD seinen Bot angeworfen, ohne das die Diskussion auf WP:FZW beendet ist, und ohne dass dort ein eindeutiges, (nur) Bot-lösbares Ergebnis zustande gekommen wäre und ohne dass er überhaupt Rücksprache mit Wikipedia:Bots/Anfragen genommen und seine Aktion diskutierbar angekündigt hätte, dann wären natürlich entsprechende Gegenmaßnahmen angebracht. Zum Thema "Kategorisierte Redirects" kann ich nur sagen: Es ist nur eine Meinung, die HD geäußert hat, und Meinungen zu äußern ist mMn noch erlaubt.
Zu den IP-Bots: Da hier wie bereits angedeutet kein Ansprechpartner und gegenüber IPs doch eher die Vandalismus-Annahme existiert, sollten (und werden?) diese unterbunden. IP-Bots sind eine wirkliche Gefahr, unkontrollierbarer als jeder sperrbare Account.
Insgesamt kann ich aber nur sagen: Das zwischen euch beiden, tsor und HD, ist eine sehr persönliche Sache. Diesen Einzelfall eines tiefgreifend gestörten Vertrauensverhältnisses zu einem Botbetreiber darf man aber nicht pauschalisieren. Der Hinweis, dass HD vorher bereits unter verschiedenen anderen Nicks agierte ist deshalb auch nicht dienlich für die eigentliche Frage, die von tsor aufgeworfen wurde: Sollte man nur Admins erlauben, einen Bot zu betreiben? -- tsor 20:20, 29. Apr 2006 (CEST) --CyRoXX (?) 23:29, 29. Apr 2006 (CEST)
Was ich von HD halte, steht auf seiner Bewertungsseite. Das heißt aber nicht, daß ich ihm zutrauen würde, ohne "Genehmigung" durch die Community plötzlich per Bot Redirects zu entkategorisieren. Und wenn er es - z.B. im Triebfahrzeugbereich - trotzdem machen würde, wäre er schneller gesperrt als er piep sagen könnte (@HD: Der Eisenbahnbereich ist ein sehr gutes Beispiel, warum kategorisierte Redirects manchmal notwendig sind!). So gesehen hält sich mein Vertrauen zwar in Grenzen, eine echte Gefahr sehe ich aber nicht. Bei einem IP-Bot besteht auch keine Gefahr, denn echte Vandalen werden sich sowieso an keine Regel halten, und einen fahrlässig außer Kontrolle geratenen Bot könnte man problemlos sperren. --Fritz @ 00:36, 30. Apr 2006 (CEST)
Die Geschichte mit den Karten war mir eine gute Lehre.HD - B - @ 10:09, 30. Apr 2006 (CEST)

Problem mit Python

Bin grad dabei, ein Botskript für eine aktuelle Anfrage zu schreiben. Dabei habe ich ein Problem mit der Zeichencodierung: Mit den folgenden Zeilen rufe ich die Klasse/das Unterprogramm auf:

bot = CategoryMoveToUpRobot(catTitle)
bot.run()

In diesem steht folgendes:

class CategoryMoveToUpRobot:
   def __init__(self, cat):
       self.cat = catlib.Category(wikipedia.getSite(), 'Category:' + catTitle)
       # get edit summary message
       wikipedia.setAction(wikipedia.translate(wikipedia.getSite(), self.msg_remove) % self.cat.title())
       self.mylist = [u'ECHO (Comedy)']
   def run(self):
       for self.catTitle in self.mylist:
           wikipedia.output('>>> ' + self.catTitle + ' <<<')
           cat = catlib.Category(wikipedia.getSite(), 'Category:' + self.catTitle)
           articles = cat.articles(recurse = 0)
           if len(articles) == 0:
               wikipedia.output(u'There are no articles in category %s' % cat.title())
           else:
               for article in articles:
                 wikipedia.output(u'>>> %s <<<' % article)

Mit Die Doofen, Michael Mittermeier, Mundstuhl und Otto Waalkes hat er keine Probleme, aber bei Rüdiger Hoffmann verschluckt er sich aufgrund des Umlauts und spuckt nur eine Fehlermeldung aus: "UnicodeDecodeError: 'ascii' codec can't decode byte 0x81 in position 3: ordinal not in range(128)". Wie kann ich Python dazu bringen, dass er statt ASCII- den Unicode-Codec verwendet? --CyRoXX (? ±) 22:22, 20. Mai 2006 (CEST)Beantworten

Es könnte hilfreich sein, die Python-Files alle in einem Programm wie Dreamweaver (ja, das Ding von Macromedia) zu öffnen und dann als UTF-8 zu speichern. Musst Du aber leider immer machen, wenn Du die Dateien verschiebst, Windows pfuscht dann nämlich die kodierung zam.HD - @ 02:56, 6. Jun 2006 (CEST)

Wie erkennt man Bots?

Doofe frage vielleicht, aber ich erkläre es mal: Wenn jemand ein Programm schreibt, welches auf seinem eigenen PC läuft und - sobald dieser PC eine Verbindung zum Internet aufgebaut hat - dieses Programm sich unter einem zuvor angelegten Benutzernamen in der Wikipedia automaitsch einlogt um dann automatisier Anderungen vor zu nehmen: Woran erkennt man das es ein Bot ist, wenn der erschaffer des Programmes dieses vorher nicht hier angemeldet hat und es auch nicht als Bot kennzeichnet? --195.93.60.35 21:54, 22. Mai 2006 (CEST) PS: Genauso kann ein Bot ja auch einfach als IP schreiben.Beantworten

Eher schlecht. Es gibt Nutzer, welche große Änderungsmengen auf Vorrat machen und dann mit einem Mal absenden - somit fällt die Möglichkeit der Erkennung durch eine hohe Artikelfrequenz auch raus. Wenn es viele, hochfrequente Änderungen mit ähnlichen Inhalten sind, stehen die Chancen gut :) . Conny 18:34, 23. Mai 2006 (CEST).Beantworten

Vorlage:Hallo

Die Vorlage:Hallo sollte aus dort angegebenen Gründen per subst eingebunden werden. Von dieser Verfahrensweise wird allerdings zum Teil kein Gebrauch gemacht. Die Links auf die Vorlage weisen rund 1.500 Einbindungen auf Benutzerdiskussionsseiten aus. Was haltet ihr davon, die Einbindung {{Hallo}} per Bot durch {{subst:Hallo}} zu ersetzen? --CyRoXX (? ±) 14:28, 1. Jun 2006 (CEST)

Viel! Je schneller Du das machst, desto besser.HD - @ 14:30, 1. Jun 2006 (CEST)
Auch wenn die Idee gut gemeint ist: Nimm an fremden Diskussionsbeiträgen bitte nicht derartige Änderungen vor. Wenn ein Benutzer {{Hallo}} statt {{subst:Hallo}} verwendet, mag das zwar suboptimal sein, allerdings ist es letztendlich seine Sache, wie er die eigenen Beiträge gestaltet. Siehe auch Konventionen bei der Benutzung von Diskussionsseiten. -- kh80 •?!• 15:32, 1. Jun 2006 (CEST)

interwiki Verweise in mehreren Wikipedias ändern

Gibt es im pywikipedia Framework eine Möglichkeit, die ausgegebenen fehlenden Verweise zwischen anderen Wikipedias automatisch in den entsprechenden Wikipedias zu ergänzen? Grüße, Conny 16:00, 5. Jun 2006 (CEST).

Zwobot noch aktiv?

Hallo! Ist der Zwobot-Betreiber noch aktiv? Zwobots letzte Änderung wurde am 16. März registriert. Falls nicht, sollte er von der Liste der aktiven Bots genommen werden. lg the one who was addicted (#) 17:36, 19. Jun 2006 (CEST)

Nicht mehr aktiv seit dem Generve bei Wikipedia Diskussion:Personendaten#Position --Head 00:02, 1. Jul 2006 (CEST)
Ok. Hab ihn jetzt in die Liste der nicht aktiven verschoben. --the one who was addicted (#) 15:11, 12. Jul 2006 (CEST)

aller anfang...

moin,
dem frumpy ist grad die grandiose idee gekommen einen bot zu programmieren, der bei allen bildern, die von dem tool "commonsclash" direkt als duplicate gekenntzeichnet werden (explizites bsp: http://tools.wikimedia.de/~daniel/WikiSense/CommonsClash.php?wikifam=meta.wikimedia.org&order=img_name&max=100&order=img_name&format=html) das template {{NowCommons}} einzufügen. nun gut, wie fang ich da an bzw. wen könnte ich die idee übermitteln, der was feines draus macht?

--Frumpy !? 14:47, 12. Jul 2006 (CEST)

unlösbare Interwikiprobleme

Gern an mich, Grüße Conny 20:50, 28. Jul 2006 (CEST).

Problem mit http-request...

Tach,
bin hier schier am Verzweifeln mit folgendem Problem beim Scripten des PHP-Bots: Die WP-Server wollen mir nicht auf den Request antworten, der den veränderten Artikeltext beinhaltet (POST). Ich kann sonst alle Quelltexte problemlos empfangen, auch den von der edit-Page (alles über sockets), nur eben nichts "posten" sozusagen. Selbst als ich den http-Header und Content so verändert habe, dass er dem Request, den Mozilla beim Bearbeiten einer Seite sendet, gleicht (natürlich mit dem richtigen Cookie etc.), bekomme ich kein "200 OK" oder "301 Moved" oder sonstirgendwas von dem zuständigen WP-Server, nichtmal ne Fehlermeldung...
Ich hoffe, ihr versteht mich und könnt helfen... vielen Dank schonma. :) --Damn it 19:05, 31. Aug 2006 (CEST)

301 liefert AFAIK die neue url mit. --DaB. 01:03, 15. Sep 2006 (CEST)
er bekommt keine medlung zurück.
@ damn it: du musst die 3 hidden fields edittime, starttime und edittoken als post-argument mitliefern, wahrscheinlich is das der grund. wenn du fragen hast, wend dich ruhig an mich, ich hab mir auch einen php-bot zusammengeschraubt.grüsse,HardDisk rm -rf chmod 19:41, 15. Sep 2006 (CEST)

Bothilfe benøtigt

Ich wuerde gerne das norwegische Strassennetz in die deutsche Wiki uebernehmen. Sind ca. 400-500 von der Struktur her sehr æhnliche Artikel, bei denen allerdings die Vorlagen (hier zu sehen) entsprechend angepasst werden muessten. Eigentlich eine klassische Botaufgabe; um die Nachbearbeitung (Ergænzung, aber speziell Uebersetzung!) wuerde ich mich dann von Hand kuemmern.

Wer kann weiterhelfen? --Kantor Hæ?Quellenpflicht now! 22:45, 17. Sep 2006 (CEST)


Hilfe beim Botbau

Moin! Ich bin heute auf die Idee gekommen, dass ich eigentlich auch einen Bot haben sollte ;). Mein Problem ist jetzt, das ich die Dokumentation zu dem Thema eher nur so mittelprächtig finde. Gibt es irgendwo etwas detailliertere Beschreibungen? Erstes praktisches Problem. Wie kann ich den Namen des Lemmas auslesen? Und ganz Allgemein: Welche Programmiersprache ist das Überhaupt? Man kann zwar aus den Quelltexten halbwegs was raus lesen, aber eine Übersicht der verfügbaren Funktionen wäre an sich schon schön. MfG --Carlos-X 01:25, 27. Sep 2006 (CEST)

Na ja, es gibt unterschiedliche Wege zu einem Bot, kommt auch drauf an, was man damit erledigen will. Da es Software ist, die zu entwickeln gilt, gehört dazu auch etwas Erfahrung. Mit so mal eben hinschreiben ist es nicht getan. --SteveK ?! 11:30, 30. Sep 2006 (CEST)
Ich will das Rad ja nicht neu erfinden. Der PhytonBot hat ja schon recht viele Funktionen. Momentan will ich nur das Lemma auslesen und in einer Variablen speichern. So was muss doch eigentlich in maximal 3 Zeilen machbar sein. --Carlos-X 16:12, 30. Sep 2006 (CEST)
Ich nutze bei meinem KatBot VBasic, da bekomme ich das Dokument gleich aufgedröselt geliefert. Wie das bei dem PhytonBotFrame geht, kann ich dir nicht sagen, aber wahrscheinlich ähnlich. --SteveK ?! 16:30, 30. Sep 2006 (CEST)

Verbesserungsvorschlag (mit ggf. Aufnahme als Regel): Anzeige des letzten Zeitstempels bei Bot-Änderungen

Ich hab mir mal was überlegt

  • Wenn ein Bot eine großflächige Änderung macht (z.B. aktueller Fall: Katbot fügt "See in Europa" in dutzenden/hunderten Artikeln hinzu), dann kann man in der Beobachtungsliste zwar "Bot-Änderungen" ausblenden, blendet damit aber gleichzeitig alle von ihm geänderten Artikel aus.
  • Ergo heißt das für mich: Wenn ich sichergehen will, dass da nicht kurz zuvor was von jemand anders was geändert hat oder der Artikel gar vandaliert wurde, muss ich mir die Versionshistorie jedes einzeln Artikels anschauen.
  • Wenn ein Bot nun in den Änderungskommentar die Zeit der vorherigen letzten Änderung mit anzeigen würde, könnte ich für mich abschätzen, ob ich mir von dem jeweiligen Artikel die Versionshistorie ansehe oder ob es unnötig ist. Wie der Bot an die Zeit kommt, da gibts sicherlich mehrere Wege, einer wäre zum Beispiel auf der Artikelseite ganz unten aus der Box aus dem Text "Diese Seite wurde zuletzt am 6. Oktober 2006 um 18:37 Uhr geändert." die Zeit herauszufilten. Was es da noch an Wegen gibt, weiß ich nicht, gibt sicherlich noch Datenbanktechnisch weitere. Evtl. wird auch ein Zeitstempel in dem ominösen RAW-Seitentext mitgeliefert, keine Ahnung.
  • Nachteil(e): Es kostet (Kosten (Technik)) mehr, das Datum auszulesen, weil ggf. erst die Artikelseite geholt und geparst werden muss, oder auch weil erst ein Blick in die Versionshistorie des Artikels geworfen werden muss, je nachdem welche Möglichkeiten es dazu gibt, siehe vorheriger Punkt.
  • Vorteile(e): zum einen natürlich Zeitersparnis für die Benutzer, weil sie nicht bei jedem Watchlist-Eintrag die Historie öffnen müssen. Und damit ergibt sich auch gleich der Vorteil für die Server: Es erfolgen weniger Aufrufe der Versionshistorie, ggf. auch weniger Aufrufe des Diffs des Bots.
  • Mein Fazit: Wenn mehrere/viele Benutzer einen Artikel beobachten, ist es sicherlich günstiger (Kosten (Technik)), die zusätzliche Angabe durch den Bot machen zu lassen, als wenn die Benutzer alle auf die Versionshistorie aufrufen. Auf jeden Fall ist es benutzerfreundlicher.

Meinungen/Einwände/Gegenvorschläge? Gruß --BLueFiSH  (Langeweile?) 00:13, 11. Okt. 2006 (CEST)Beantworten

Mein Bot könnte so etwas ohne Probleme tun. Du willst den Zeitstempel der letzten Änderung direkt vor der des Bots? sebmol ? ! 00:46, 11. Okt. 2006 (CEST)Beantworten
Ganz genau diesen. Bspw. "Bot-Änderung: bla xyz (Zeitpunkt vorletzte Änderung: 5.09.2006 20:05)". --BLueFiSH  (Langeweile?) 00:49, 11. Okt. 2006 (CEST)Beantworten
Nur um das nochmal einzugrenzen: Es muss nicht jeder Bot so einen Zeitstempel angeben, aber für oben genanntes Beispiel, also beim Ändern von wirklich vielen Artikeln in einem kurzen Zeitraum, die wahrscheinlich auch noch von mehreren/vielen Leuten beobachtet werden, halte ich es für sehr sinnvoll. Ein Zeitstempel bei deinem Archivierungsbot wäre mir persönlich zum Beispiel nicht so wichtig ;-) --BLueFiSH  (Langeweile?) 01:00, 11. Okt. 2006 (CEST)Beantworten
Mein Bot führt auch Massenumkategorisierungen durch: Benutzer:Sebbot/Log/2006-10-11. sebmol ? ! 07:58, 11. Okt. 2006 (CEST)Beantworten
Eigentlich sehe ich das eher als Problem in der Mediawiki-Software. Wenn ich eigene Änderungen, Botänderungen o. ä. ausblende, würde ich es für sinnvoll halten, wenn dann eben die neueste nicht ausgefilterte Änderung berücksichtigt würde. Das mit dem Zeitstepmel ist allenfalls ein Workaround. Feature-Request? --Tobias K. 15:10, 11. Okt. 2006 (CEST)Beantworten

Unter „Einstellungen“/„Anzeigen von "Letzte Änderungen"“ bzw. „Beobachtungsliste“ kann man „Erweiterte Darstellung“ ankreuzen, damit sieht man alle Änderungen an einer Seite und nicht nur die letzte. --Habakuk <>< 15:18, 11. Okt. 2006 (CEST)Beantworten

Ja ist mir schon bewusst, das verlängert die Liste aber z.B. durch WP:FZW so sehr, dass man sie dann nicht mehr benutzen kann. Ich jedenfalls nicht. Kommt mir das nur so vor oder sehe ich es richtig, dass offenbar nur sebmol bereit ist, eine derartige Änderung seines Bots durchzuführen und andere Botbetreiber diesen Vorschlag ignorieren? Sehr schade. --BLueFiSH  (Langeweile?) 10:50, 14. Okt. 2006 (CEST)Beantworten

Und wieder einmal vermisse ich einen Zeitstempel. Aktueller Fall: Löschung der Sehenswürdigkeiten-Kategorie.. Sind ja nur 33 Artikel deren Historie ich jetzt einzeln anschauen muss. Schön, dass sich hier soviele (vor allem Botbetreiber) an der Diskussion beteiligen. Toll, echt toll. --BLueFiSH  (Langeweile?) 16:53, 20. Okt. 2006 (CEST)Beantworten

Ich habe jetzt nachgeschaut, die Realisierung ist möglich. Von mir bekommst du zukünftig als Änderungszeit vor dem BOT-Edit die GMT-Zeit geliefert. Ich muss dass aber noch umsetzen. Die Ortszeit lohnt den Aufwand nicht. --SteveK ?! 17:31, 20. Okt. 2006 (CEST)Beantworten
Sehr schön! Danke! Deiner ist auch der, der mich zu dieser Überlegung bewogen hat. =) Mit GMT kann man ich leben, die ein/zwei Stunden spielen da keine Rolle. --BLueFiSH  (Langeweile?) 17:38, 20. Okt. 2006 (CEST)Beantworten
das hab ich auch ohne deine Nachricht auf der Bot-Disk. gewusst. Ich hatte aber nicht gleich eine Lösung, denn im Edit-Fenster gibt es den Zeitstempel ja nicht sichtbar. Nach dem Anschauen des Quelltextes und nach Rücksprache mit Sebmol habe ich aber eine Lösung gefunden, die sich ohne allzugroßen Aufwand machen läßt. --SteveK ?! 17:47, 20. Okt. 2006 (CEST)Beantworten
Schau mal [3], so ist es jetzt. --SteveK ?! 21:00, 20. Okt. 2006 (CEST)Beantworten
Prima! (vielleicht noch in Klammer setzen) Du hast dann jetzt bei mir nen Stein im Brett ;-) --BLueFiSH  (Langeweile?) 21:10, 20. Okt. 2006 (CEST)Beantworten
Mir wär es lieber, wenn man sich mit dem Konzept zur Neuordnung der Geo.Kats sachlich befassen würde. Aber das ist eine andere Sache. Die Klammer: Dann stehen zwei Klammern hintereinander (Diskussion und Timestamp), deshalb hab ich sie gleich weggelasse. --SteveK ?! 21:34, 20. Okt. 2006 (CEST)Beantworten

Entsperrung XBot

Ich weiß nicht, ob ich hier richtig bin, aber da ich hierher verwiesen wurde versuch ich es mal. Nichtich hat vorhin meinen XBot (disc contr) gesperrt. Die Begrünung lautet "Vollmüllen von Beobachtungslisten mit nicht-inhaltlichen, unnötigen Edits". Viel Inhalt war wirklich nicht dabei, aber imho können die wenigsten Bots Artikel um neue Absätze erweitern. Dass die Änderungen unnötig waren kann man auch anders sehen. Ich habe eine Reihe von Links die auf Weiterleitungsseiten gingen umgebogen und dabei die Schreibweise an den Wikistandard angepasst. Wie auch immer: Ich bitte um die Entsperrung meines Bots und eine evtl. Aufklärung, was ich nicht darf. MfG --Carlos-X 02:05, 11. Okt. 2006 (CEST)Beantworten

Solche Miniänderunegn müllen nur unnötig die Versionsgeschichte zu. Sowas kann ein Bot gerne NEBENBEI tun (also wenn er was Größeres an einem Artikel macht gleich so Kleinkram mit). --DaB. 02:08, 11. Okt. 2006 (CEST)Beantworten
Das ausschließliche Ersetzen von Links auf Weiterleitungsseiten, egal ob botgesteuert oder manuell, ist, sofern die Weiterleitungsseite nicht anschließend gelöscht werden soll, völlig sinnlos. Links auf Begriffsklärungsseiten ersetzen ist da schon sinnvoller, aber das bitte nicht ohne manuelle Kontrolle was da wohin ersetzt wird. --BLueFiSH  (Langeweile?) 02:32, 11. Okt. 2006 (CEST)Beantworten

Lesezugriff verweigert

Hallo, ich betreibe keinen Bot, ich habe einfach nur ein Python-Skript geschrieben, das mittels der Funktion urllib.urlopen() den Quellcode einer Wikipedia-Seite einlesen sollte. Als Ergebnis bekomme ich jedoch nur ein plumpes "Access Denied". Wie kann ich das umgehen? - jan b 23:52, 4. Nov. 2006 (CET)Beantworten

Du solltest dir bestehenden Botcode ansehen, um die Lösung dafür zu finden. Einer Erklärung wäre hier aus Sicherheitsgründen kontraproduktiv. sebmol ? ! 00:02, 5. Nov. 2006 (CET)Beantworten
Ja, leuchtet ein, danke. - jan b 00:17, 5. Nov. 2006 (CET)Beantworten
Security through obscurity? Ohne dein konkretes Problem zu kennen: schau' dir mal den Useragent-String an, den dein Script sendet und vergleiche es mit dem Wert, den ein Browser sendet. Ich finde diese "Beschränkung" im übrigen Quatsch, weil jeder erstmal darüber stolpert, aber selbst ein DAP (in Analogie zu DAU) es letztlich hinbekommt. -- aka 11:12, 5. Nov. 2006 (CET)Beantworten
Ok, habe es jetzt einmal mithilfe des PyWikipediaBot und einmal mit akas Tipp probiert. Beides geht, aber letzteres ist um einiges schneller. Ich werde mal versuchen damit automatisch diese Liste zu generieren. - jan b 14:40, 5. Nov. 2006 (CET)Beantworten

PHP-Bot

Hallo. Bin auf der Suche nach einem PHP-Bot. Ausser Bgbot und PHP mediawiki bot habe ich jedoch nichts gefunden. Leider sind beide nicht sehr aktuell/ausgereift. Hat jemand einen funktionierenden PHP-Bot, dessen Quellcode er mir zugänglich machen kann? Danke + Gruß, --Rhododendronbusch 00:33, 8. Nov. 2006 (CET)Beantworten

Mail mich mal an, was für einen Bot du brauchst, dann strick ich ihn dir. Grüsse, HardDisk rm -rf chmod 16:51, 8. Nov. 2006 (CET)Beantworten
Danke für das Angebot. Wie gesagt, ich habe mir das Bgbot-Framework runtergeladen. Mit diesem kann man Seiten editieren, jedoch musste ich einige Umstellungen vornehmen. Das Framework funzt auch so weit, aber Fehler werden nicht richtig abgefangen (Seite gesperrt ⇒ Framework meldet Seite gespeichert ...). Die eigentliche(n) Aufgabe könnte ich dann selber programmieren. Was ich will ist eher so was wie:
  1. Seite (textarea) holen
  2. Edit (von mir)
  3. Seite speichern (mit Fehlerabfang)
Wenn Du magst, kann ich Dir mal das schicken, was ich bis jetzt habe!? Gruß, --Rhododendronbusch 23:08, 8. Nov. 2006 (CET)Beantworten
Mal aus Interesse: Warum muss es PHP sein? --Head 03:17, 9. Nov. 2006 (CET)Beantworten
Weil ich eigentlich mit PHP ganz gut umgehen kann und keine Lust habe mich in Python einzuarbeiten. Gruß, --Rhododendronbusch 07:44, 9. Nov. 2006 (CET)Beantworten

Rechtschreibbots?

Gibt es eigentlich überhaupt noch einen Bot, der die Wikipedia:Liste von Tippfehlern korrigiert? Benutzer:BWBot ist ja schon seit 1,5 Jahren inaktiv (deshalb habe ich ihn auch eben aus der Übersichtsseite entfernt). Mir fällt nur Aka ein, der kümmert sich aber um richtige Tippfehler. Mir würde es vor allem darum gehen, dass sich die diversen ss-Fehler in Deutschland nicht noch weiter verbreiten. Z.B. "iess" oder "Strasse" oder "grösste" und und und. Wenn wir es mit ss schreiben, nehmen sich das die Leute an und denken es wäre richtig. Per Hand kommt man da doch nicht nach... --BLueFiSH  (Langeweile?) 19:00, 6. Dez. 2006 (CET)Beantworten

wenn es die möglichkeit gäbe fulltext-dumps zu durchsuchen (wikisign is leider nicht mehr da und ich habe keine maschine mit der leistungsfähigkeit dazu) wäre ich gern bereit, da was zu basteln. grüsse,HardDisk rm -rf 20:07, 6. Dez. 2006 (CET)Beantworten

Weiß noch wer anders was schlaues zu sagen? --BLueFiSH  (Langeweile?) 11:37, 11. Dez. 2006 (CET)Beantworten

Die automatische Korrektur häufiger Rechtschreibfehler ist sicherlich etwas sehr Tolles. Wenn dafür ein Bot eingesetzt wird, bei dem die zu ersetzenden Fälle gut durchdacht umgesetzt sind, habe ich nichts dagegen einzuwenden. Allerdings wird es zunächst einmal viel Arbeit mit sich bringen, häufige Rechtschreibfehler zu identifizieren und aufzunehmen. Außerdem bedarf es einer sehr vorausschauender Fehlerüberprüfung, damit es keine Fehl-Ersetzungen gibt. Man denke beispielsweise an eine "B370, die zur Bundestrasse (Bundes-trasse) ausgebaut werden soll" oder an die Herren und Frauen Strasser. Insbesondere bei der Schreibung ß/ss sollte auch die Sonderregelung für schweizbezogene Artikel beachtet werden. Wie immer problematisch sind ebenfalls Zitate, die sich mangels passender Markierungen schwer als solche erkennen lassen dürften. --CyRoXX (? ±) 18:46, 12. Dez. 2006 (CET)Beantworten
Ist mir schon klar, dass es immer irgendwo was gibt, worauf man aufpassen muss. Allerdings wären mir z.B. unberechtigt korrigierte Schreibweisen in Zitaten, weil diese nicht adäquat gekennzeichnet waren, als Kollateralschaden lieber als Millionen von Rechtschreibfehlern. Nachkontrollieren kann man immer noch, erstmal machen ist aufwendiger. --BLueFiSH  (Langeweile?) 18:51, 12. Dez. 2006 (CET)Beantworten
Hab mir auch mal überlegt, mit dem Bot auf Fehlerjagd zu gehen, bin aber zu dem Schluss gekommen, dass es nicht nur nicht viel bringt, sondern sogar von Nachteil sein kann. Über das bereits Genannte hinaus. Viele schweizbezogene Artikel tragen gar keine Markierung, was ein Bot nicht berücksichtigen kann. In einem solchen Artikel macht es keinen Sinn, z. B. alle "Strassen" zu ersetzen, aber andere falsche "ss", die er nicht im Repertoire hat, stehen zu lassen. Dasselbe gilt z. B. auch bei "dass"-Ersetzungen. Dann doch lieber nur korrekte schweizerische/alte Rechtschreibung als Durcheinander. Ein anderer Punkt ist, dass ein Artikel mit einem klaren Schreibfehler mit größerer Wahrscheinlichkeit noch mehr Fehler enthält und noch nie geprüft wurde. Wenn man nur die häufigen Falschschreibungen entfernt, sind potentiell fehlerhafte Artikel schwerer zu finden und im Artikel bleiben nicht nur die seltenen, sondern vor allem die vielen ohne Textverständnis nicht zu erkennenden Fehler (z. B. Grammatik, Formulierungen) stehen. Deshalb werde ich keinen Bot auf so etwas ansetzen und würde auch anderen abraten. -- Harro von Wuff 23:04, 12. Dez. 2006 (CET)Beantworten
"korrekte schweizerische/alte Rechtschreibung": Strasse und schliesslich war in Berlin und dem Rest von Deutschland noch nie richtig, zumindest ganz sicher nicht nach alter RS (GROSSBUCHSTABEN-Schreibungen ausgeschlossen). Darauf will ich hinaus. Und was das fehlen eines <!--schweizbezogen--> in Schweizer Artikel betrifft: Wenn fehlt, Pech gehabt, es wird dann sicherlich jemand wieder reinmachen. =) --BLueFiSH  (Langeweile?) 06:11, 13. Dez. 2006 (CET)Beantworten
Eben das "Pech gehabt" missfällt mir. Ein "dummer" Bot fällt hier eine Entscheidung und der denkende User darf dann wieder aufräumen. Und es ist ja nicht Sinn der Aktion, hinterher nochmal alles kontrollieren zu müssen, somit bleibt ein Großteil der Änderungen "sicherlich" erstmal bestehen. Solche unkontrolliert über das Gewünschte hinausschießende pauschalen Botedits sollten von vorneherein unterbleiben. Gruß -- Harro von Wuff 13:00, 13. Dez. 2006 (CET)Beantworten

Request for bot status

Hi, I've read the notice above (International requests... ask directly on Wikipedia:Bots and not on this talk page), but there is no section there or no indication where to put it, and I don't want to break that page (Tip: Put some information in english). (...)--Geraki 07:58, 14. Dez. 2006 (CET)Beantworten

moved to correct place. note about the specific section added above :-) --:Bdk: 20:37, 2. Jan. 2007 (CET)Beantworten

Im Artikel Singapur wird von allen möglichen Bots der falsche Interwikilink (bpy:সিঙ্গারপুর) ergänzt. Dieser Artikel ist aber über ein anderes Singapur. Kann man das für die Zukunft irgendwie verhindern? --NCC1291 10:13, 14. Dez. 2006 (CET)Beantworten

Auf jeden Fall mal in allen andersprachigen Wikipedien den Link rausnehmen, dann dürfte er bei der Interwikilink-Angleichung nicht mehr berücksichtigt werden. Zu verhindern, dass der Link von jemanden in einen der andersprachigen Artikel eingetragen wird, wodurch er dann wieder bei einem Botlauf bei uns rein kommt, geht nicht. --BLueFiSH  (Langeweile?) 10:26, 14. Dez. 2006 (CET)Beantworten
Die sicherste Methode wäre, z. B. in der deutschen oder englischen Wikipedia einen kurzen Artikel über die indische Stadt zu schreiben und von bpy: darauf zu linken. Dann würde der Bot einen Konflikt erkennen. Alternativ würde es auch helfen, wenn jemand einen Artikel über das Land Singapur auf bpy: schreibt. Ich nehme jetzt erstmal mit dem Bot alle Links auf bpy: raus. --Head 11:39, 14. Dez. 2006 (CET)Beantworten
Das mit dem eigenen Artikel für Singapur (Andhra Pradesh) ist eine gute Idee, werde bald selbst etwas schreiben. Auf bpy: einen Artikel zu erstellen wäre etwas schwieriger, ich weiss nicht einmal, was dass für eine Sprache ist :-) --NCC1291 15:07, 14. Dez. 2006 (CET)Beantworten

Bot gegen Vandalismus

Wie wär´s damit, wenn man einen Bot (oder mehrere Bots) gegen Vandalismus programmiert? Immer wieder wird vandaliert, was nervig ist. Der Bot könnte alle neuen Artikel und Beiträge auf Vandalismus überprüfen und sie anschließend revertieren. Dies könnte z. B. der Fall sein, wenn ein großer Teil eines Artikels entfernt wird oder bestimmte Wörter (z. B. das mit "F" am Anfang) reingeschrieben werden oder alles in Großbuchstaben geschreiben wird. Ich glaube, dass es in der englischen Wikipedia so einen Bot schon gibt. Kann man auch hier einen Bot gegen Vandalismus programmieren und betreiben? --Siku-Sammler 01:23, 20. Jan. 2007 (CET)Beantworten

ja, ich schraube auch schon daran, einen zumindest gegen das komplettleerern von seiten zu bauen.HardDisk rm -rf 10:59, 20. Jan. 2007 (CET)Beantworten
Gute Idee! --Siku-Sammler 19:00, 20. Jan. 2007 (CET)Beantworten
Es gab eine Machbarkeitsstudie zu solch einem Bot, der seine Leistung bereits eindrucksvoll demonstriert hat. So etwas ist in der Wikipedia aber weder nicht erwünscht.
Was kann schon dabei schiefgehn, komplettleerende IPs zu reverten? --seb 15:10, 8. Feb. 2007 (CET)Beantworten
Nichts kann dabei schiefgehen. Eher würde solch ein Bot uns sogar Arbeit ersparen, da nicht mehr so viel Unsinn revertiert werden muss. --Siku-Sammler ?! +- 21:12, 9. Mär. 2007 (CET)Beantworten

Begriffsklärungsseiten

Ich würde gerne pywikipedia dazu benutzen Statistiken bezüglich Begriffsklärungsseiten zu erstellen. Ich will dabei nicht auf die Wikipedia schreiben, sondern nur lesen. Ist es akzeptabel, wenn ich die Daten hierfür live von de.wikipedia.org hole? Secular mind 22:07, 20. Jan. 2007 (CET)Beantworten

Sollte OK sein, aber lad die Seiten nicht einzeln, sondern mehrere auf einmal über Spezial:Export. Du kannst dafür den PreloadingGenerator von pywikipedia benutzen, guck dir touch.py an, wenn du ein Beispiel dafür brauchst, oder meld dich, wenn du Hilfe brauchst. --Head 16:34, 21. Jan. 2007 (CET)Beantworten
Hat sich erledigt. Mit Pywikipedia hat es nicht so geklappt wie ich mir das vorgestellt habe, inzwischen habe ich ein Rupyskript, welches einen xml-Dump durchforstet. Secular mind 13:25, 2. Feb. 2007 (CET)Beantworten

Franz Büchner

Wie kann man abstellen, dass ein Bot (Benutzer:JAnDbot) immer wieder fehlerhaft zuschlägt? Der Fall: im deutschen Artikel Franz Büchner wird ein Wissenschaftler und Mediziner beschrieben. Dieser hat aber auch gar nichts mit einem in der engl. u. tschech. Wikipedia vorhandenen Franz B. zu tun, der ein Soldat des 1. Weltkriegs war und 1920 ermordet wurde. Er ist auch nicht so sehr von Belang, dass es einen deutschen Artikel über ihn geben müsste. Aber wie kann man den irreführenden Automatismus unterbinden? --Chleo 17:49, 8. Feb. 2007 (CET)Beantworten

Du musst den Link nicht nur auf de: rausnehmen, sondern auch auf en: und cs:. --Head 18:16, 8. Feb. 2007 (CET)Beantworten

BLUBot

Hallo - ich plane gerade einen Bot (BLUbot) welcher die Kategorie:Wikipedia:Bilder ohne Lizenzangabe abarbeiten soll, dabei auf den jeweiligen Seiten {{BLU}} durch {{subst:BLU-User}} ersetzen und den entsprechenden Benutzern einen Hinweis auf die jeweilige Benutzerdiskussion setzen soll - da es hier auch um Benutzerdiskussionen handelt, würde ich jedoch gerne hier ausdiskutieren in wiefern das OK ist und was dabei beachtet werden sollte. Prinzipiell währe es auch möglich Emails über die Wikipedia-Mail-Funktion an die entsprechenden Benutzer zu verschicken - ich bekomme jedoch etwas Bauchschmerzen dabei... . Für Vorschläge und Meinungen zu diesem Verfahren bin ich natürlich offen. Viele Grüße, --C-M ?! +- 19:06, 12. Feb. 2007 (CET)Beantworten

Hört sich super an, besonders die Sache mit den E-Mails. Vorlagen findest du auf Benutzer:Flominator/BLU-User FAQ. Nur bitte verteil es über die Tage und richte eine Diskussionsseite für Rückfragen ein, sonst werde ich mit dem Abarbeiten der Kategorien hoffnungslos überlastet sein. Du koordinierst das hoffentlich mit Benutzer:Mdangers/DOL? --Flominator 19:15, 12. Feb. 2007 (CET)Beantworten
Die Idee finde ich sehr gut! Vorschlag: In alle DOL-Bilder {{BLU}} reinsetzen, und diese dann mit dem geplanten BLUbot abarbeiten > Zwei Fliegen Seiten auf einen Streich :) --Luxo 22:06, 12. Feb. 2007 (CET)Beantworten
Doppelt bis dreifach super ist dann noch eine email und eine Diskussionsseitenbenachrichtuigung für jeden BLU-Uploader höchstautomatisch! Danke an C-M, wir haben heute schon durch Forrester vermittelt miteinander gesprochen. Dies erfordert mehr Leute zum Abarbeiten der BLU-User, wenn der bot soweit ist, müssen wir gross die Werbetrommel rühren. Alles wird besser, sagt --Mdangers 00:11, 13. Feb. 2007 (CET)Beantworten

Bitte dabei beachten, dass ein Benutzer mit Bot-Flag bei Benutzerdiskussionsseitenänderungen keinen Kackbalken erzeugt, der Benutzer es dann also ggf. nicht mitbekommt, wenn einer auf seine Seite geschrieben hat. --BLueFiSH  (Klick mich!) 00:23, 13. Feb. 2007 (CET)Beantworten

Das stimmt nur, wenn der Bot die Änderung als „Kleinigkeit“ markiert. Sonst erscheint der Balken wie bei einem normalen Benutzer. sebmol ? ! 00:27, 13. Feb. 2007 (CET)Beantworten
wieder was gelernt ;-) --BLueFiSH  (Klick mich!) 02:07, 13. Feb. 2007 (CET)Beantworten

Worauf setzt du auf, um den Bot zu programmieren? Falls du mit dem Wikipedia:Pywikipediabot arbeitest, melde dich, wenn du Hilfe bei der Umsetzung brauchst. --Head 01:52, 13. Feb. 2007 (CET)Beantworten

Ich hab mich jetzt auf das DotNetWikiBot-Framework festgelegt, es fehlen "nur" noch die methoden zum Auslesen der History (um den Uploader zu erhalten) sowie eine Methode zum versenden von Mails über Wiki-Mail. Viele Grüße, --C-M ?! +- 02:12, 13. Feb. 2007 (CET)Beantworten
Schade, im Pywikipediabot-Framework gibt es schon eine Routine für das Auslesen der Versionsgeschichte der Datei und auch der Bildbeschreibungsseite. Die E-Mail-Funktion wäre für das Framework auch interessant geworden. Naja, mich mit dem DotNet-Ding noch nicht beschäftigt, aber damit wird's wohl auch machbar sein. --Head 02:26, 13. Feb. 2007 (CET)Beantworten


Bot Vorschlag: Bilder Interwiki

In der deutschsprachigen Wikipedia gibt es viele bilderlose Artikel, obwohl es in anderen Wikipedias in den entsprechenden Artikeln Bilder gibt. Könnte man einen Bot schreiben, der diese Artikel/Bilder erkennt und die (der de.wikipedia-Lizenzen genügenden) Bilder in einer Liste zum manuellen Abarbeiten auflistet? Oder gibt es so einen Bot schon, oder ist es technisch nicht möglich/zu aufwändig oder würde zuviel Schrott rauskommen oder ist es gar unerwünscht? --129.217.129.133 00:27, 14. Feb. 2007 (CET)Beantworten

Dafür gibt es in PyWikipediaBot den Parameter -interwiki im Skript imagetransfer.py. Das Skript sucht Bilder in allen über Interwiki verlinkten Sprachen und fragt nach, welche davon es hochladen soll.
Der Code ist allerdings entstanden, bevor es Commons gab. Upload nach Commons ist kein Problem, allerdings stolpert das Skript über Bilder, die schon auf Commons liegen. --Head 00:43, 14. Feb. 2007 (CET)Beantworten
Habe ihn repariert, so dass er bei schon auf Commons liegenden Bildern nicht mehr krepiert. Allerdings weiß ich nicht, ob es wirklich das ist, was du dir vorstellst. --Head 00:51, 14. Feb. 2007 (CET)Beantworten
Danke, habe mir gerade Python-Programmierung: Pywikipediabot durchgelesen, allerdings nicht viel davon verstanden; habe mich nämlich vorher mit dem Thema auch nie beschäftigt. Ob es wirklich das ist, was ich mir wünsche kann ich nicht sagen.
Ich hatte mir das ungefähr so vorgestellt:
  1. Bot sucht sich bilderlose Artikel in de.wikipedia.org aus
  2. Bot vergleicht durch die Interwikilinks, ob es Bilder in den anderssprachigen Wikipedias gibt
  3. Bot überprüft, ob die Lizenzen de.wikipedia.org konform sind
  4. Bot schreibt Artikel und in-Frage-kommende-Bilder in ne schöne Liste
  5. Benutzer arbeitet Liste ab
--129.217.129.133 01:51, 14. Feb. 2007 (CET)Beantworten
Das hört sich nicht schlecht an. Ein weiterer Vorschlag wäre, dass ein Bot irgendwelche in Wikipedia herumliegende Bilder, die in keinem Artikel eingefügt sind und daher wahrscheinlich nur der Hochlader kennt, in eine Liste stellt. Es könnte ebenfalls ein Bot sämtliche Bilder auf die Commons hochladen, welche sich dort noch nicht befinden. --Siku-Sammler ?! +- 21:18, 9. Mär. 2007 (CET)Beantworten
Bin der Bot und das ganze fertig ist, kann ich dir dieses Tool empfehlen: Missing images. Gruß, --Svens Welt 11:19, 10. Mär. 2007 (CET)Beantworten

Weiter oben gab es schon eine ähnliche Frage, hier liegt der Fall aber etwas anders. Der Artikel Liste der Lokomotiv- und Triebwagenbaureihen der PKP hat in der polnischen Wikipedia kein exaktes Gegenstück, sondern steht dort 5 Einzelartikeln gegenüber. Da die Interwikilinks das nicht abbilden können, stehen die Links dorthin direkt im Artikel. In der Gegenrichtung werden natürlich gewöhnliche Interwikilinks verwendet, da ist es ja eindeutig. Nun werden aber die vermeintlich fehlenden Interwikilinks auf der deutschen Seite ständig von Bots nachgetragen. Kann man das verhindern, z. B. im nicht sichtbaren Quelltext des Artikels? Oder kann man von einem Bot verlangen, dass er die Historie eines Artikel durchsieht? Denn wenn ein Interwikilink irgendwann mal entfernt wurde, sollte man eigentlich davon ausgehen, dass er prinzipiell unerwünscht ist. Die Bots merken aber noch nicht mal, dass sie die selben Links immer wieder nachtragen (Benutzer:DodekBot) bzw. sich selbst überschreiben (Benutzer:K.J.Bot). Muss man derart blöde Bots dulden? Oder ist das Standard? Kann mich da mal bitte jemand aufklären, was technisch machbar ist, damit ich die Betreiber ansprechen kann? MBxd1 20:36, 22. Feb. 2007 (CET)Beantworten

Kann man nicht verhindern. Nur durch Entfernen von allen Interwikilinks in allen Sprachen, die nicht eindeutige Gegenartikel haben. --BLueFiSH  (Klick mich!) 23:21, 22. Feb. 2007 (CET)Beantworten
Technisch machbar wäre es, z.B. mit einem auskommentierten Hinweis, auf den Bots dann achten, ähnlich der robots.txt. Organisatorisch wäre das allerdings sehr aufwendig- man müsste eine entsprechende Syntax definieren, und vor allem jeden einzelnen Bot da draußen entsprechend konfigurieren. Wahrscheinlich ist es weit weniger Aufwand, den Artikel von Hand zu überwachen, und die betroffenen Botbetreiber auf das Problem aufmerksam zu machen. --seb 00:07, 23. Feb. 2007 (CET)Beantworten
Oder eine Schutzliste (Blacklist), die jeder Bot innehaben muss. Gruß, --Rhododendronbusch «D» 00:24, 23. Feb. 2007 (CET)Beantworten
Ergänzung Ich meinte eine Wikiseite, die ein Bot vor jedem Botlauf einliest. --Rhododendronbusch «D» 01:37, 23. Feb. 2007 (CET)Beantworten
Interessant wäre vielleicht die Möglichkeit, eine Seite "Links auf diese Seite" für Interwiki-Links (Vorschlag A) zu haben bzw. eine Art Weblink-Suche für Interwikilinks (Vorschlag B). Soll heißen:
  • A: Man hat z. B. hier für jede Seite eine extra Spezialseite, in der man die Links auf diese Seite von anderen Wikis heraus sehen kann. Das dürfte technisch aber sehr schwer realisierbar sein, die Interwikilinks aller Sprachversionen aktuell genug anzubieten. Daher vielleicht eher der zweite Vorschlag:
  • B: Man hat z. B. in der polnischen Wikipedia eine Spezialseite, auf der man suchen lassen kann, welche polnischen Artikel auf de:Liste der Lokomotiv- und Triebwagenbaureihen der PKP linken. Die Daten dafür müsste dann lediglich jede Sprachversion intern bereitstellen. Das das dürfte maximal so viel Rechenleistung in Anspruch nehmen wie bei den Weblinks. Jedoch müsste dann ungefähr pro Seite und pro in Betracht gezogener Sprachversion jeweils eine Anfrage an diese Seite gestellt werden, wobei sich dann bei den meisten aber dann doch nur ein einziger Treffer findet.
Die anderen Lösungsvorschläge sind auch ganz gut, mein Vorschlag kam mir so als spontane Idee, über die man auch nachdenken kann. --CyRoXX (? ±) 00:57, 23. Feb. 2007 (CET)Beantworten

Vielen Dank. Das sind ja ganz interessante Hinweise, nur sehe ich da nichts, wo ich als Nichtbotbetreiber eingreifen könnte. Es scheint also Standard zu sein, das Bots keine Sperrlisten führen, nicht die Historie durchsuchen und auch verborgenen Text nicht durchsuchen. Dann kann ich mir auch einen Hinweis an den Betreiber sparen, denn der kann da offensichtlich auch nichts ändern. Mir bleibt in diesem Fall wohl nur, entweder den Bots immer wieder hinterherzukorrigieren oder aber die Interwikilinks auf den polnischen Seiten zu entfernen bzw. in den Text zu setzen (da es ja keine eineindeutigen Verknüpfungen sind), was sicherlich regelmäßig irgendein wohlmeinender Nutzer revertieren wird. MBxd1 00:05, 24. Feb. 2007 (CET)Beantworten

Man kann aber vielleicht jetzt einen entsprechenden Grundstein legen. Eine Wikiseite als Blacklist würde auch nicht Botbetreibern Eingreifmöglichkeiten einräumen ;-)
Gruß, --Rhododendronbusch «D» 20:53, 24. Feb. 2007 (CET)Beantworten

Besonders einfach ist es, einen Kommentar wie z.B. <!--NOINTERWIKIBOT--> auf der Seite zu platzieren und dann dafür zu werben, dass der Bot diesen String als Anlass zum Überspringen nimmt. Mein Bot z.B. ist beim Suchen und Ersetzen dazu in der Lage. Augiasstallputzer   16:11, 4. Mär. 2007 (CET)Beantworten

Es gibt noch en:Template:Nobots, das ist eine Vorlage, die dasselbe erreichen soll wie die Variante von Augiasstallputzer, das hat sich aber auch auf der englischen Wikipedia nicht durchgesetzt und woanders erst recht nicht, und ich glaube auch nicht, dass sich das noch durchsetzen wird. Ich fände es auch extrem blöd, alle Bots auszusperren (also auch solche, die etwas ganz anderes machen wollten), nur weil die Interwiki-Links nicht passen. --Head 18:52, 4. Mär. 2007 (CET)Beantworten

Die Kennung im Komentar kann ja relativ frei gewählt werden. Für meinen Bot ist es z.B. kein Problem, bei jeder Aufgabe andere Kennungen oder auch keine zu berücksichtigen. So z.B. nimmt er bei bestimmten Prozeduren Rücksicht auf <!--NOBOTLINKFIX--> und bei anderen auf <!--NOBOTEDIT--> . Daher sehe ich kein Problem für Unterscheidungen. Augiasstallputzer   21:33, 4. Mär. 2007 (CET)Beantworten

Qualia

Verschoben nach Wikipedia:Bots#Qualia --Head 14:53, 3. Mär. 2007 (CET)Beantworten

Aibot

User:Aibot

Benutzer:Matboth

Hallo, wie ist das denn mit der Genehmigung für einen Bot? Ich will noch nichts im Artikelnamensraum machen (höchstens vielleicht mal ganz einzelne Edits, die ich von Hand überprüfe), sondern erst mal lernen, einen Bot zu programmieren. Muß ich dafür schon den Bot ankündigen? --Matgoth 17:15, 10. Mär. 2007 (CET)Beantworten

Solange keine Änderungen im größeren Umfang durchgeführt werden, ist der Bot-Status überhaupt nicht nötig, erst dann, wenn so viele Bearbeitungen gemacht werden, dass die Liste der letzten Änderungen überflutet wird. --Head 19:46, 10. Mär. 2007 (CET)Beantworten

Commons-Interwiki

Hallo! Wie ergänzt und ändert man denn automatisch die Interwiki-Links von Commons-Seiten? Gibt es überhaupt eine Möglichkeit? Grüße, --Polarlys 18:56, 11. Mai 2007 (CEST)Beantworten

Oben steht:

International requests for bot status on de.wikipedia: Please ask directly on Wikipedia:Bots under the section "Vorstellung neuer Bots und Beantragung des Bot-Status" and not on this talk page. Thanks

und daraus ergibt sich ein Problem. In vielen Wikies sind Beschreibung und Vorstellung-von-Bots / Beantragung-des-Botstatus auf unterschiedlichen Seiten. Daher verlinken zum Teil Beschreibungsseiten und zum Teil Antragsseiten anderer Wikipedias nach hier und umgekehrt. Sammelt man von allen Wikipedias alle solche Interwikilinks, was ich getan habe, bekommt man zwei (überlappende) Klassen oder drei streng getrennte, je nach Betrachtung; plus möglicherweise Sonderfälle, deren Bedeutung mir mangels Sprachkenntnis nicht klar wurde.

Wie soll man damit umgehen? Ich sehe nur zwei ordentliche Lösungen mit dem derzeitigen Interwikilinksystem:

  1. Drei streng separierte Gruppen von Interwikilinks:
    1. Seiten über Bots ohne Anträge,
    2. Botantragsseiten,
    3. Gemischte Seiten, wie unsere.
    Diese Seitenklassen können untereinander nur über normale Links auf andere Sprachen verweisen, nicht über Interwikilinks. Das ist relativ schlecht manuell zu pflegen, während es für die Interwikilinks Bots jibt.
  2. Alle Wikis mit gemischten Seiten teilen diese auf und wir bekommen nur zwei Seitenklassen, die dann leicht über normale Interwikilinks vernetzt werden können.

Ideen und Kommentare?

--Purodha Blissenbach 14:39, 19. Mai 2007 (CEST)Beantworten

Mißbruach KatBot

Haie ihrs,

IMO wurde der KatBot mißbruacht um eine Löschentscheidung zu revertieren. Dabei kann ich nicht erkennen, dass die WP:LP bemüht wurde. Die Löschentscheidung findet sich unter Wikipedia:Löschkandidaten/19. Januar 2007#Kategorie:Insel (Europa) (gelöscht). Man kann IMO zu der Entscheidung des löschens stehen wie man will; aber dafür gibt es die Löschprüfung. Einfach per bot vollendete Tatsachen schaffen ist IMO Mißbruach des Bot-Statuses. ... Als begründung wurde angegeben, dass die sache ja "ein halbes Jahr" diskutiert wurde - fragt man sich wie von Januar bis Mai 6 Monate zusammenkommen; nebenbei wird natürlich gerade ein MB dazu veranstaltet; aber schön, dass schonmal fakten geschaffen wurden ...Sicherlich Post 00:02, 24. Mai 2007 (CEST) PS: mir ist die kat vergleichweise egal, der mißbrauch eines Bots aber nicht; denn dieser "verschwindet" in vielen BeobachtungslistenBeantworten

Die besagte Kategorie ist eine parallele Kategorie zu gleichartigen Kategorien. Die leere Kategorie mit parallelen gefüllten Kategorien ist für mich ein Armutszeugnis für die WP. Nach Lesen der Diskussion auf unter WP:WpG sah ich keinen Anlass, den Antrag von Benutzer:Zollwurf nicht auszuführen, zumal mir nicht bewußt war, dass die Kategorie schon mal in einer Löschdiskussion war. Die Löschentscheidung wurde damals schon nach wenigen Stunden revertiert, weil eine Umstrukturierung vorgenommen werden sollte. Ich wollte nur helfen, eine auch aus meiner Sicht richtige Struktur für die Inselkategorien zu schaffen. Vollendete Tatsachen mit dem Bot schaffen, nur damit die Edits untergehen, wollte ich auf keinen Fall. --SteveK ?! 10:15, 24. Mai 2007 (CEST)Beantworten

@Sicherlich: was soll das hier werden, ständig nervst du hier rum nur weil dir ein Konzept nicht paßt, aber Alternativvorschläge kommen von dir auch nicht oder auch nur irgendwas anderes Konstruktives - vielleicht solltest du dich einfach mal aus dem Bereich der Geo-Kategorien raushalten - sven-steffen arndt 11:09, 24. Mai 2007 (CEST)Beantworten

Kannst du dich bitte mal ein bisschen zusammenreißen? Es handelt sich hier nicht um einen privaten Blog, wie dir zweifellos bekannt sein dürfte. Danke und Gruß, j.budissin+/- 11:34, 24. Mai 2007 (CEST)Beantworten
danke J budissin, ansonsten finde ich es interessant sven-steffen arndt, dass ich des nervens beschuldigt werde wo du ja die fragliche Kat wiederhergestellt hast ohne dass ich einen Antrag diesbezüglich irgendwo sehen kann. Du magst dies als nerven empfinden; ich empfinde das als Mißbrauch deiner Adminrechte. Mir ist natürlich bewusst, dass du die perfekte Idee für die Kats hast; nur leider können nicht alle diese Perfektion erfassen und die WP ist nunmal ein Projekt vieler; auch der unperfekten. ...Sicherlich Post 22:30, 24. Mai 2007 (CEST)Beantworten

Benutzer:RobotQuistnix arbeitet mit langen Cache-Zeiten

Für's Protokoll: Der Bot hat hier Artikeländerungen überschrieben, die mehr als eine halbe Stunde vorher stattgefunden haben - Benutzer ist angeschrieben (auch auf nl:).

Ich habe bisher noch nicht überprüft, ob es sich um einen Einzelfall handelt - bitte ein Auge darauf haben. -- srb  13:26, 5. Jun. 2007 (CEST)Beantworten

Da mich das Ausmass des Problems interessiert hat, habe ich die Edits der letzten 14 Tage überprüft - das Bearbeiten von veralteten Versionen ist zwar zum Glück selten, aber leider kein Einzelfall. Insgesamt habe ich in dem Zeitraum 3 Fälle gefunden:
  1. http://de.wikipedia.org/w/index.php?title=Optische_Täuschung&diff=prev&oldid=32799026 (5. Juni) -> iwikilink-Ergänzung erfolgte bereits 9 Minuten vorher -> nur zwei Leerzeilen ergänzt (unschön, aber nicht weiter tragisch)
  2. http://de.wikipedia.org/w/index.php?title=Mars_(Planet)&diff=prev&oldid=32758695 (5. Juni) -> 2 Änderungen (38 Minuten früher) revertiert (vom ändernden User selbst bemerkt und korrigiert)
  3. http://de.wikipedia.org/w/index.php?title=Kurdische_Sprachen&diff=prev&oldid=32707588 (3. Juni) -> 1 Änderung (80 Minuten früher) revertiert (war noch aktuell)
Ich werde mir in den nächsten Tagen noch ein paar weitere Bots anschauen, ob die die gleichen Probleme haben. -- srb  17:59, 7. Jun. 2007 (CEST)Beantworten

Das Problem liegt m. E. auch am WP-Server. Die Cache-Zeit hängt bei einem Botlauf zum Einen davon ab, wieviele Seiten beisammen gelesen werden und zum Anderen von der Geschwindigkeit des Server. Ein Lesezugriff (Download), egal, wieviele Seiten (Paket), bewirkt eine Wartezeit bis zum Start der Übertragung und jeder Schreibvorgang (Upload) auch eine. Wenn bei einem Leseversuch der Server längere Zeit nicht antwortet, dann hat das u. U. den Abbruch des Programms zur Folge. Ein großes Seitenpaket hat also den Vorteil, dass die Zahl der Lesezugriffe klein ist, der Bot daher seltener auf Seiten warten muss und entsprechend schneller fertig ist und das Abbruchrisiko kleiner wird. Der Nachteil besteht darin, dass die Zeit zwischen dem Download und dem Upload der letzten, editierten Seite des Pakets zunimmt. Damit steigt auch die Wahrscheinlichkeit einer Überschneidung mit manuellen Edits. Hier muss also die Größe des Downloadpakets an das Servertempo und an die Uhrzeit angepasst werden. Ist der Server tagsüber langsam, so ist ein kleines Paket notwendig. Ein Botlauf in der Nacht bei schnellem Server erlaubt ein großes Paket. Augiasstallputzer   21:14, 7. Jun. 2007 (CEST)Beantworten

Was den Bots also anscheinend fehlt, ist eine Überprüfung wie alt die heruntergeladenen Daten sind - reverts nach einer halben oder sogar mehr als einer Stunde sind m.E. jedenfalls völlig inakzeptabel, vor allem da bei den Massenedits (v.a. der iwikibots) wohl kaum jeder Edit kontrolliert wird. -- srb  21:43, 7. Jun. 2007 (CEST)Beantworten

30 Minuten oder mehr sind m. E. unnötig lange, aber eine Überprüfung ist aus folgenden Gründen nicht sinnvoll:

Zur Technik: Es sind genaugenommen Bearbeitungskonflikte. Während die WP-SW im Browser dies erkennt, fehlt diese Möglichkeit beim Bot, denn im Gegensatz zum manuellen Edit, bei dem der Editor meistens durchgehend aktiv ist, arbeitet der Bot meistens (sinngemäß) nach der Methode:

Seite aufrufen ⇒ Editor starten ⇒ Inhalt des Editfensters komplett downloaden ⇒ Editmodus abbrechen ⇒ Seite offline berarbeiten ⇒ Editmodus erneut starten ⇒ Inhalt komplett durch den eigenen Text ersetzen ⇒ Speichern .
Um das Problem technisch zu lösen, benötigt man also bei jedem Upload einen Vergleich zwischen dem Zeitstempel des Downloads und dem Zeitstempel der aktuellen Version. Das erfordert aber einen zusätzlichen Lesezugriff, was bei einem Botlauf erhebliche Auswirkungen auf die Laufzeit hat. Gerade Massenedits sind da empfindlich. Es fehlen auch noch die Programme dazu.
Rechenbeispiel: Am Tage kann die mittl. Lesezugriffszeit schon mal 15 Sekunden betragen, Schreibzugriffe 30 Sekunden. Bei einem 20 Seiten-Paket wäre also die letzte hochgeladene Seite mehr als 10 Minuten alt. Für 100 Edits benötigt der Bot dann mind. 51 Minuten.
Wird die Paketgröße halbiert (10 Seiten) so kommen 10 Lesezugriffe dazu und 100 Seiten erfordern 52 Minuten, wobei die Seiten max. 5 Minuten alt sind.
Kontrolliert man nun den Zeitstempel, so dauert ein Edit mindestens 40 Sekunden, die letzte Seite eines 20er-Pakets ist ca. 13 Minuten alt, was die Anzahl der nicht geänderten Seiten erhöht und 100 Seiten sind erst in ca 67 Minuten durch, bei 10er-Paketen nach 68 Minuten. Einhundert Seiten würden also beits eine Viertelstunde länger dauern.

Fazit: Zeitstempel vergleichen ist m. E. nicht zumutbar, wenn man seinen Bot bei der Arbeit ordnungsgemäß kontrolliert. Der einzige Weg ist die Anpassung der Paketgröße an die Serverlast, meistens beim Programmstart möglich, und die Nutzung lastarmer Zeiten, um das Risiko des Überschreibens von Seiten gering zu halten.

Augiasstallputzer   23:31, 8. Jun. 2007 (CEST)Beantworten

Wieso sollte ein Bot den Editmodus "abbrechen" wollen? Solche Bots sind schlicht kaputt. Und das hat nichts mit Zugriffszeiten oder Paketgrößen zu tun, sondern mit grundlegenden Verständnisprobleme seitens des Programmierers. -- aka 23:41, 8. Jun. 2007 (CEST)Beantworten

Selbstverständlich sind es separate Zugriffe und ein Bot muss auch genauso Wartezeiten in Kauf nehmen wie ein User mit Browser. Beim Öffnen der Seite, beim Start des Edit-Modus und beim Speichern muss auch der Bot auf "de.wikpedia.org" warten. Die WP-Software erlaubt Edits nur mit Hilfe von "http://de.wikipedia.org/w/index.php" und daher auch nur entweder "action=edit" oder "action=submit", jedoch nicht Beides beisammen. Und behaupte nicht einfach, dass es nicht auf Paketgrößen ankommt, wenn die Praxis es anders aufzeigt. Allein die Tatsache, dass der Bot nicht beliebig schnell schreiben darf, erzwingt für jeden Schreibvorgang eine separate "Kontaktaufnahme" mit dem Server. Lesen darf er so schnell wie es möglich ist, also hängt hier die Zahl der "Kontaktaufnahmen" und damit Wartezeiten von der Größe des Pakets ab. Alle Pywikipediabots arbeiten mit der oben beschriebenen Methode, und das sind die meisten. Augiasstallputzer   02:04, 9. Jun. 2007 (CEST)Beantworten

Die Kollisionskontrolle ist recht einfach umsetzbar. Wenn eine Wiki-Seite zum Lesen geladen wird, steht dabei im HTML-Code immer die gerade übermittelte Revisionsnummer (Javascript-Variable wgCurRevisionId). Das passiert genauso beim Laden einer Seite zum Bearbeiten. Der Bot muss sich also beim ersten Laden der Seite nur die aktuelle Revisionsnummer merken und beim Speichern die gemerkte Nummer mit der gerade übermittelten vergleichen. Das geht fehlerfrei ohne zusätzliche Lesezugriffe. sebmol ? ! 02:11, 9. Jun. 2007 (CEST)Beantworten

Das Problem stellt sich folgendermaßen dar. Der PyWikipediaBot kann Seiten entweder einzeln laden (über die normale Bearbeitungsseite) oder bandbreiten- und zeitsparend über Spezial:Export. Beim Laden der Bearbeitungsseite wird die StartTime ausgelesen (ein Zeitstempel, der besagt, wann die Bearbeitung gestartet wurde), und beim Speichern wird diese StartTime an den Server zurückgeschickt. Der Server kann anhand dessen Bearbeitungskonflikte entdecken, und wenn ein solcher auftritt, überspringt PyWikipediaBot die Seite und lässt sie ungeändert.

Problematisch ist, dass das Auslesen des StartTime-Zeitstempels nicht möglich ist, wenn über Spezial:Export geladen wird. Im gelieferten XML steht nämlich kein Zeitstempel. PyWikipediaBot nimmt deshalb als Behelfslösung die Systemzeit des Botbetreibers (natürlich in UTC). Das funktioniert allerdings nur, wenn die Systemuhr korrekt gestellt ist. Wenn z. B. die Systemuhr 5 Minuten nachgeht, und zwischen Seitenexport und Speicherung liegen knappe 5 Minuten, dann können Bearbeitungen verloren gehen, die dazwischen von jemand eingeschoben wurden. Interessant wäre natürlich, ob bei RobotQuistnix tatsächlich die Systemuhr eine halbe Stunde vor geht. Jedenfalls ist es eine mögliche Erklärung. Hier ist der entsprechende Code-Kommentar (wikipedia.py, GetAll.oneDone()):

       # There's no possibility to read the wpStarttime argument from the XML.
       # This argument makes sure an edit conflict is raised if the page is
       # deleted between retrieval and saving of the page. It contains the
       # UTC timestamp (server time) of the moment we first retrieved the edit
       # page. As we can't use server time, we simply use client time. Please
       # make sure your system clock is correct. If it's too slow, the bot might
       # recreate pages someone deleted. If it's too fast, the bot will raise
       # EditConflict exceptions although there's no conflict.
       page2._startTime = time.strftime('%Y%m%d%H%M%S', time.gmtime(time.time()))


Sich darauf zu verlassen, dass alle Botbetreiber ihre Systemuhr mit einem Zeitserver synchronisieren, ist zugegebenerweise etwas optimistisch, aber als ich den Part programmiert habe, ist mir nichts besseres eingefallen. Gerade eben ist mir aber noch eine Idee gekommen: man könnte den Zeitstempel aus dem HTTP-Header auslesen und als StartTime verwenden. Zwar können zwischen Datenbank-Lesezugriff und Webserver-Auslieferung ein paar hundert Millisekunden liegen, aber die Wahrscheinlichkeit, dass genau in dieser Zeit jemand anders auf den Speichern-Knopf drückt, dürfte marginal sein. Meinungen? --Head 03:39, 9. Jun. 2007 (CEST)Beantworten