Wikipedia Diskussion:Bots
Ältere Beiträge sind im Archiv.
Request for bot status
Hi, I've read the notice above (International requests... ask directly on Wikipedia:Bots and not on this talk page), but there is no section there or no indication where to put it, and I don't want to break that page (Tip: Put some information in english). (...)--Geraki 07:58, 14. Dez. 2006 (CET)
- moved to correct place. note about the specific section added above :-) --:Bdk: 20:37, 2. Jan. 2007 (CET)
Interwikilink in Singapur
Im Artikel Singapur wird von allen möglichen Bots der falsche Interwikilink (bpy:সিঙ্গারপুর) ergänzt. Dieser Artikel ist aber über ein anderes Singapur. Kann man das für die Zukunft irgendwie verhindern? --NCC1291 10:13, 14. Dez. 2006 (CET)
- Auf jeden Fall mal in allen andersprachigen Wikipedien den Link rausnehmen, dann dürfte er bei der Interwikilink-Angleichung nicht mehr berücksichtigt werden. Zu verhindern, dass der Link von jemanden in einen der andersprachigen Artikel eingetragen wird, wodurch er dann wieder bei einem Botlauf bei uns rein kommt, geht nicht. --BLueFiSH ✉ (Langeweile?) 10:26, 14. Dez. 2006 (CET)
- Die sicherste Methode wäre, z. B. in der deutschen oder englischen Wikipedia einen kurzen Artikel über die indische Stadt zu schreiben und von bpy: darauf zu linken. Dann würde der Bot einen Konflikt erkennen. Alternativ würde es auch helfen, wenn jemand einen Artikel über das Land Singapur auf bpy: schreibt. Ich nehme jetzt erstmal mit dem Bot alle Links auf bpy: raus. --Head 11:39, 14. Dez. 2006 (CET)
- Das mit dem eigenen Artikel für Singapur (Andhra Pradesh) ist eine gute Idee, werde bald selbst etwas schreiben. Auf bpy: einen Artikel zu erstellen wäre etwas schwieriger, ich weiss nicht einmal, was dass für eine Sprache ist :-) --NCC1291 15:07, 14. Dez. 2006 (CET)
Bot gegen Vandalismus
Wie wär´s damit, wenn man einen Bot (oder mehrere Bots) gegen Vandalismus programmiert? Immer wieder wird vandaliert, was nervig ist. Der Bot könnte alle neuen Artikel und Beiträge auf Vandalismus überprüfen und sie anschließend revertieren. Dies könnte z. B. der Fall sein, wenn ein großer Teil eines Artikels entfernt wird oder bestimmte Wörter (z. B. das mit "F" am Anfang) reingeschrieben werden oder alles in Großbuchstaben geschreiben wird. Ich glaube, dass es in der englischen Wikipedia so einen Bot schon gibt. Kann man auch hier einen Bot gegen Vandalismus programmieren und betreiben? --Siku-Sammler 01:23, 20. Jan. 2007 (CET)
- ja, ich schraube auch schon daran, einen zumindest gegen das komplettleerern von seiten zu bauen.HardDisk rm -rf 10:59, 20. Jan. 2007 (CET)
- Gute Idee! --Siku-Sammler 19:00, 20. Jan. 2007 (CET)
- Es gab eine Machbarkeitsstudie zu solch einem Bot, der seine Leistung bereits eindrucksvoll demonstriert hat. So etwas ist in der Wikipedia aber weder nicht erwünscht.
- Was kann schon dabei schiefgehn, komplettleerende IPs zu reverten? --seb 15:10, 8. Feb. 2007 (CET)
- Nichts kann dabei schiefgehen. Eher würde solch ein Bot uns sogar Arbeit ersparen, da nicht mehr so viel Unsinn revertiert werden muss. --Siku-Sammler ?! +- 21:12, 9. Mär. 2007 (CET)
Begriffsklärungsseiten
Ich würde gerne pywikipedia dazu benutzen Statistiken bezüglich Begriffsklärungsseiten zu erstellen. Ich will dabei nicht auf die Wikipedia schreiben, sondern nur lesen. Ist es akzeptabel, wenn ich die Daten hierfür live von de.wikipedia.org hole? Secular mind 22:07, 20. Jan. 2007 (CET)
- Sollte OK sein, aber lad die Seiten nicht einzeln, sondern mehrere auf einmal über Spezial:Export. Du kannst dafür den PreloadingGenerator von pywikipedia benutzen, guck dir touch.py an, wenn du ein Beispiel dafür brauchst, oder meld dich, wenn du Hilfe brauchst. --Head 16:34, 21. Jan. 2007 (CET)
- Hat sich erledigt. Mit Pywikipedia hat es nicht so geklappt wie ich mir das vorgestellt habe, inzwischen habe ich ein Rupyskript, welches einen xml-Dump durchforstet. Secular mind 13:25, 2. Feb. 2007 (CET)
Franz Büchner
Wie kann man abstellen, dass ein Bot (Benutzer:JAnDbot) immer wieder fehlerhaft zuschlägt? Der Fall: im deutschen Artikel Franz Büchner wird ein Wissenschaftler und Mediziner beschrieben. Dieser hat aber auch gar nichts mit einem in der engl. u. tschech. Wikipedia vorhandenen Franz B. zu tun, der ein Soldat des 1. Weltkriegs war und 1920 ermordet wurde. Er ist auch nicht so sehr von Belang, dass es einen deutschen Artikel über ihn geben müsste. Aber wie kann man den irreführenden Automatismus unterbinden? --Chleo 17:49, 8. Feb. 2007 (CET)
- Du musst den Link nicht nur auf de: rausnehmen, sondern auch auf en: und cs:. --Head 18:16, 8. Feb. 2007 (CET)
BLUBot
Hallo - ich plane gerade einen Bot (BLUbot) welcher die Kategorie:Wikipedia:Bilder ohne Lizenzangabe abarbeiten soll, dabei auf den jeweiligen Seiten {{BLU}} durch {{subst:BLU-User}} ersetzen und den entsprechenden Benutzern einen Hinweis auf die jeweilige Benutzerdiskussion setzen soll - da es hier auch um Benutzerdiskussionen handelt, würde ich jedoch gerne hier ausdiskutieren in wiefern das OK ist und was dabei beachtet werden sollte. Prinzipiell währe es auch möglich Emails über die Wikipedia-Mail-Funktion an die entsprechenden Benutzer zu verschicken - ich bekomme jedoch etwas Bauchschmerzen dabei... . Für Vorschläge und Meinungen zu diesem Verfahren bin ich natürlich offen. Viele Grüße, --C-M ?! +- 19:06, 12. Feb. 2007 (CET)
- Hört sich super an, besonders die Sache mit den E-Mails. Vorlagen findest du auf Benutzer:Flominator/BLU-User FAQ. Nur bitte verteil es über die Tage und richte eine Diskussionsseite für Rückfragen ein, sonst werde ich mit dem Abarbeiten der Kategorien hoffnungslos überlastet sein. Du koordinierst das hoffentlich mit Benutzer:Mdangers/DOL? --Flominator 19:15, 12. Feb. 2007 (CET)
- Die Idee finde ich sehr gut! Vorschlag: In alle DOL-Bilder {{BLU}} reinsetzen, und diese dann mit dem geplanten BLUbot abarbeiten > Zwei
FliegenSeiten auf einen Streich :) --Luxo 22:06, 12. Feb. 2007 (CET)- Doppelt bis dreifach super ist dann noch eine email und eine Diskussionsseitenbenachrichtuigung für jeden BLU-Uploader höchstautomatisch! Danke an C-M, wir haben heute schon durch Forrester vermittelt miteinander gesprochen. Dies erfordert mehr Leute zum Abarbeiten der BLU-User, wenn der bot soweit ist, müssen wir gross die Werbetrommel rühren. Alles wird besser, sagt --Mdangers 00:11, 13. Feb. 2007 (CET)
- Die Idee finde ich sehr gut! Vorschlag: In alle DOL-Bilder {{BLU}} reinsetzen, und diese dann mit dem geplanten BLUbot abarbeiten > Zwei
Bitte dabei beachten, dass ein Benutzer mit Bot-Flag bei Benutzerdiskussionsseitenänderungen keinen Kackbalken erzeugt, der Benutzer es dann also ggf. nicht mitbekommt, wenn einer auf seine Seite geschrieben hat. --BLueFiSH ✉ (Klick mich!) 00:23, 13. Feb. 2007 (CET)
- Das stimmt nur, wenn der Bot die Änderung als „Kleinigkeit“ markiert. Sonst erscheint der Balken wie bei einem normalen Benutzer. sebmol ? ! 00:27, 13. Feb. 2007 (CET)
- wieder was gelernt ;-) --BLueFiSH ✉ (Klick mich!) 02:07, 13. Feb. 2007 (CET)
Worauf setzt du auf, um den Bot zu programmieren? Falls du mit dem Wikipedia:Pywikipediabot arbeitest, melde dich, wenn du Hilfe bei der Umsetzung brauchst. --Head 01:52, 13. Feb. 2007 (CET)
- Ich hab mich jetzt auf das DotNetWikiBot-Framework festgelegt, es fehlen "nur" noch die methoden zum Auslesen der History (um den Uploader zu erhalten) sowie eine Methode zum versenden von Mails über Wiki-Mail. Viele Grüße, --C-M ?! +- 02:12, 13. Feb. 2007 (CET)
- Schade, im Pywikipediabot-Framework gibt es schon eine Routine für das Auslesen der Versionsgeschichte der Datei und auch der Bildbeschreibungsseite. Die E-Mail-Funktion wäre für das Framework auch interessant geworden. Naja, mich mit dem DotNet-Ding noch nicht beschäftigt, aber damit wird's wohl auch machbar sein. --Head 02:26, 13. Feb. 2007 (CET)
Bot Vorschlag: Bilder Interwiki
In der deutschsprachigen Wikipedia gibt es viele bilderlose Artikel, obwohl es in anderen Wikipedias in den entsprechenden Artikeln Bilder gibt. Könnte man einen Bot schreiben, der diese Artikel/Bilder erkennt und die (der de.wikipedia-Lizenzen genügenden) Bilder in einer Liste zum manuellen Abarbeiten auflistet? Oder gibt es so einen Bot schon, oder ist es technisch nicht möglich/zu aufwändig oder würde zuviel Schrott rauskommen oder ist es gar unerwünscht? --129.217.129.133 00:27, 14. Feb. 2007 (CET)
- Dafür gibt es in PyWikipediaBot den Parameter -interwiki im Skript imagetransfer.py. Das Skript sucht Bilder in allen über Interwiki verlinkten Sprachen und fragt nach, welche davon es hochladen soll.
- Der Code ist allerdings entstanden, bevor es Commons gab. Upload nach Commons ist kein Problem, allerdings stolpert das Skript über Bilder, die schon auf Commons liegen. --Head 00:43, 14. Feb. 2007 (CET)
- Habe ihn repariert, so dass er bei schon auf Commons liegenden Bildern nicht mehr krepiert. Allerdings weiß ich nicht, ob es wirklich das ist, was du dir vorstellst. --Head 00:51, 14. Feb. 2007 (CET)
- Danke, habe mir gerade Python-Programmierung: Pywikipediabot durchgelesen, allerdings nicht viel davon verstanden; habe mich nämlich vorher mit dem Thema auch nie beschäftigt. Ob es wirklich das ist, was ich mir wünsche kann ich nicht sagen.
- Ich hatte mir das ungefähr so vorgestellt:
- Bot sucht sich bilderlose Artikel in de.wikipedia.org aus
- Bot vergleicht durch die Interwikilinks, ob es Bilder in den anderssprachigen Wikipedias gibt
- Bot überprüft, ob die Lizenzen de.wikipedia.org konform sind
- Bot schreibt Artikel und in-Frage-kommende-Bilder in ne schöne Liste
- Benutzer arbeitet Liste ab
- --129.217.129.133 01:51, 14. Feb. 2007 (CET)
- Das hört sich nicht schlecht an. Ein weiterer Vorschlag wäre, dass ein Bot irgendwelche in Wikipedia herumliegende Bilder, die in keinem Artikel eingefügt sind und daher wahrscheinlich nur der Hochlader kennt, in eine Liste stellt. Es könnte ebenfalls ein Bot sämtliche Bilder auf die Commons hochladen, welche sich dort noch nicht befinden. --Siku-Sammler ?! +- 21:18, 9. Mär. 2007 (CET)
- Bin der Bot und das ganze fertig ist, kann ich dir dieses Tool empfehlen: Missing images. Gruß, --Svens Welt 11:19, 10. Mär. 2007 (CET)
Kann man das Einfügen von Interwiki-Links durch Bots verhindern?
Weiter oben gab es schon eine ähnliche Frage, hier liegt der Fall aber etwas anders. Der Artikel Liste der Lokomotiv- und Triebwagenbaureihen der PKP hat in der polnischen Wikipedia kein exaktes Gegenstück, sondern steht dort 5 Einzelartikeln gegenüber. Da die Interwikilinks das nicht abbilden können, stehen die Links dorthin direkt im Artikel. In der Gegenrichtung werden natürlich gewöhnliche Interwikilinks verwendet, da ist es ja eindeutig. Nun werden aber die vermeintlich fehlenden Interwikilinks auf der deutschen Seite ständig von Bots nachgetragen. Kann man das verhindern, z. B. im nicht sichtbaren Quelltext des Artikels? Oder kann man von einem Bot verlangen, dass er die Historie eines Artikel durchsieht? Denn wenn ein Interwikilink irgendwann mal entfernt wurde, sollte man eigentlich davon ausgehen, dass er prinzipiell unerwünscht ist. Die Bots merken aber noch nicht mal, dass sie die selben Links immer wieder nachtragen (Benutzer:DodekBot) bzw. sich selbst überschreiben (Benutzer:K.J.Bot). Muss man derart blöde Bots dulden? Oder ist das Standard? Kann mich da mal bitte jemand aufklären, was technisch machbar ist, damit ich die Betreiber ansprechen kann? MBxd1 20:36, 22. Feb. 2007 (CET)
- Kann man nicht verhindern. Nur durch Entfernen von allen Interwikilinks in allen Sprachen, die nicht eindeutige Gegenartikel haben. --BLueFiSH ✉ (Klick mich!) 23:21, 22. Feb. 2007 (CET)
- Technisch machbar wäre es, z.B. mit einem auskommentierten Hinweis, auf den Bots dann achten, ähnlich der robots.txt. Organisatorisch wäre das allerdings sehr aufwendig- man müsste eine entsprechende Syntax definieren, und vor allem jeden einzelnen Bot da draußen entsprechend konfigurieren. Wahrscheinlich ist es weit weniger Aufwand, den Artikel von Hand zu überwachen, und die betroffenen Botbetreiber auf das Problem aufmerksam zu machen. --seb 00:07, 23. Feb. 2007 (CET)
- Oder eine Schutzliste (Blacklist), die jeder Bot innehaben muss. Gruß, --Rhododendronbusch «D» 00:24, 23. Feb. 2007 (CET)
- Ergänzung Ich meinte eine Wikiseite, die ein Bot vor jedem Botlauf einliest. --Rhododendronbusch «D» 01:37, 23. Feb. 2007 (CET)
- Interessant wäre vielleicht die Möglichkeit, eine Seite "Links auf diese Seite" für Interwiki-Links (Vorschlag A) zu haben bzw. eine Art Weblink-Suche für Interwikilinks (Vorschlag B). Soll heißen:
- A: Man hat z. B. hier für jede Seite eine extra Spezialseite, in der man die Links auf diese Seite von anderen Wikis heraus sehen kann. Das dürfte technisch aber sehr schwer realisierbar sein, die Interwikilinks aller Sprachversionen aktuell genug anzubieten. Daher vielleicht eher der zweite Vorschlag:
- B: Man hat z. B. in der polnischen Wikipedia eine Spezialseite, auf der man suchen lassen kann, welche polnischen Artikel auf de:Liste der Lokomotiv- und Triebwagenbaureihen der PKP linken. Die Daten dafür müsste dann lediglich jede Sprachversion intern bereitstellen. Das das dürfte maximal so viel Rechenleistung in Anspruch nehmen wie bei den Weblinks. Jedoch müsste dann ungefähr pro Seite und pro in Betracht gezogener Sprachversion jeweils eine Anfrage an diese Seite gestellt werden, wobei sich dann bei den meisten aber dann doch nur ein einziger Treffer findet.
- Die anderen Lösungsvorschläge sind auch ganz gut, mein Vorschlag kam mir so als spontane Idee, über die man auch nachdenken kann. --CyRoXX (? ±) 00:57, 23. Feb. 2007 (CET)
Vielen Dank. Das sind ja ganz interessante Hinweise, nur sehe ich da nichts, wo ich als Nichtbotbetreiber eingreifen könnte. Es scheint also Standard zu sein, das Bots keine Sperrlisten führen, nicht die Historie durchsuchen und auch verborgenen Text nicht durchsuchen. Dann kann ich mir auch einen Hinweis an den Betreiber sparen, denn der kann da offensichtlich auch nichts ändern. Mir bleibt in diesem Fall wohl nur, entweder den Bots immer wieder hinterherzukorrigieren oder aber die Interwikilinks auf den polnischen Seiten zu entfernen bzw. in den Text zu setzen (da es ja keine eineindeutigen Verknüpfungen sind), was sicherlich regelmäßig irgendein wohlmeinender Nutzer revertieren wird. MBxd1 00:05, 24. Feb. 2007 (CET)
- Man kann aber vielleicht jetzt einen entsprechenden Grundstein legen. Eine Wikiseite als Blacklist würde auch nicht Botbetreibern Eingreifmöglichkeiten einräumen ;-)
- Gruß, --Rhododendronbusch «D» 20:53, 24. Feb. 2007 (CET)
Besonders einfach ist es, einen Kommentar wie z.B. <!--NOINTERWIKIBOT--> auf der Seite zu platzieren und dann dafür zu werben, dass der Bot diesen String als Anlass zum Überspringen nimmt. Mein Bot z.B. ist beim Suchen und Ersetzen dazu in der Lage. Augiasstallputzer
16:11, 4. Mär. 2007 (CET)
- Es gibt noch en:Template:Nobots, das ist eine Vorlage, die dasselbe erreichen soll wie die Variante von Augiasstallputzer, das hat sich aber auch auf der englischen Wikipedia nicht durchgesetzt und woanders erst recht nicht, und ich glaube auch nicht, dass sich das noch durchsetzen wird. Ich fände es auch extrem blöd, alle Bots auszusperren (also auch solche, die etwas ganz anderes machen wollten), nur weil die Interwiki-Links nicht passen. --Head 18:52, 4. Mär. 2007 (CET)
Die Kennung im Komentar kann ja relativ frei gewählt werden. Für meinen Bot ist es z.B. kein Problem, bei jeder Aufgabe andere Kennungen oder auch keine zu berücksichtigen. So z.B. nimmt er bei bestimmten Prozeduren Rücksicht auf <!--NOBOTLINKFIX--> und bei anderen auf <!--NOBOTEDIT--> . Daher sehe ich kein Problem für Unterscheidungen. Augiasstallputzer
21:33, 4. Mär. 2007 (CET)
Verschoben nach Wikipedia:Bots#Qualia --Head 14:53, 3. Mär. 2007 (CET)
Aibot
- Owner - uk:User:A1
- Purpose - interwiki
- Got flag - uk, ru, en, pl and some others --uk:User:A1 20:48, 6. Mär. 2007 (CET)
Hallo, wie ist das denn mit der Genehmigung für einen Bot? Ich will noch nichts im Artikelnamensraum machen (höchstens vielleicht mal ganz einzelne Edits, die ich von Hand überprüfe), sondern erst mal lernen, einen Bot zu programmieren. Muß ich dafür schon den Bot ankündigen? --Matgoth 17:15, 10. Mär. 2007 (CET)
- Solange keine Änderungen im größeren Umfang durchgeführt werden, ist der Bot-Status überhaupt nicht nötig, erst dann, wenn so viele Bearbeitungen gemacht werden, dass die Liste der letzten Änderungen überflutet wird. --Head 19:46, 10. Mär. 2007 (CET)
Commons-Interwiki
Hallo! Wie ergänzt und ändert man denn automatisch die Interwiki-Links von Commons-Seiten? Gibt es überhaupt eine Möglichkeit? Grüße, --Polarlys 18:56, 11. Mai 2007 (CEST)
Interwiki Links für diese Projektseite
Oben steht:
- International requests for bot status on de.wikipedia: Please ask directly on Wikipedia:Bots under the section "Vorstellung neuer Bots und Beantragung des Bot-Status" and not on this talk page. Thanks
und daraus ergibt sich ein Problem. In vielen Wikies sind Beschreibung und Vorstellung-von-Bots / Beantragung-des-Botstatus auf unterschiedlichen Seiten. Daher verlinken zum Teil Beschreibungsseiten und zum Teil Antragsseiten anderer Wikipedias nach hier und umgekehrt. Sammelt man von allen Wikipedias alle solche Interwikilinks, was ich getan habe, bekommt man zwei (überlappende) Klassen oder drei streng getrennte, je nach Betrachtung; plus möglicherweise Sonderfälle, deren Bedeutung mir mangels Sprachkenntnis nicht klar wurde.
Wie soll man damit umgehen? Ich sehe nur zwei ordentliche Lösungen mit dem derzeitigen Interwikilinksystem:
- Drei streng separierte Gruppen von Interwikilinks:Diese Seitenklassen können untereinander nur über normale Links auf andere Sprachen verweisen, nicht über Interwikilinks. Das ist relativ schlecht manuell zu pflegen, während es für die Interwikilinks Bots jibt.
- Seiten über Bots ohne Anträge,
- Botantragsseiten,
- Gemischte Seiten, wie unsere.
- Alle Wikis mit gemischten Seiten teilen diese auf und wir bekommen nur zwei Seitenklassen, die dann leicht über normale Interwikilinks vernetzt werden können.
Ideen und Kommentare?
--Purodha Blissenbach 14:39, 19. Mai 2007 (CEST)
Mißbruach KatBot
Haie ihrs,
IMO wurde der KatBot mißbruacht um eine Löschentscheidung zu revertieren. Dabei kann ich nicht erkennen, dass die WP:LP bemüht wurde. Die Löschentscheidung findet sich unter Wikipedia:Löschkandidaten/19. Januar 2007#Kategorie:Insel (Europa) (gelöscht). Man kann IMO zu der Entscheidung des löschens stehen wie man will; aber dafür gibt es die Löschprüfung. Einfach per bot vollendete Tatsachen schaffen ist IMO Mißbruach des Bot-Statuses. ... Als begründung wurde angegeben, dass die sache ja "ein halbes Jahr" diskutiert wurde - fragt man sich wie von Januar bis Mai 6 Monate zusammenkommen; nebenbei wird natürlich gerade ein MB dazu veranstaltet; aber schön, dass schonmal fakten geschaffen wurden ...Sicherlich Post 00:02, 24. Mai 2007 (CEST) PS: mir ist die kat vergleichweise egal, der mißbrauch eines Bots aber nicht; denn dieser "verschwindet" in vielen Beobachtungslisten
- Die besagte Kategorie ist eine parallele Kategorie zu gleichartigen Kategorien. Die leere Kategorie mit parallelen gefüllten Kategorien ist für mich ein Armutszeugnis für die WP. Nach Lesen der Diskussion auf unter WP:WpG sah ich keinen Anlass, den Antrag von Benutzer:Zollwurf nicht auszuführen, zumal mir nicht bewußt war, dass die Kategorie schon mal in einer Löschdiskussion war. Die Löschentscheidung wurde damals schon nach wenigen Stunden revertiert, weil eine Umstrukturierung vorgenommen werden sollte. Ich wollte nur helfen, eine auch aus meiner Sicht richtige Struktur für die Inselkategorien zu schaffen. Vollendete Tatsachen mit dem Bot schaffen, nur damit die Edits untergehen, wollte ich auf keinen Fall. --SteveK ?! 10:15, 24. Mai 2007 (CEST)
@Sicherlich: was soll das hier werden, ständig nervst du hier rum nur weil dir ein Konzept nicht paßt, aber Alternativvorschläge kommen von dir auch nicht oder auch nur irgendwas anderes Konstruktives - vielleicht solltest du dich einfach mal aus dem Bereich der Geo-Kategorien raushalten - sven-steffen arndt 11:09, 24. Mai 2007 (CEST)
- Kannst du dich bitte mal ein bisschen zusammenreißen? Es handelt sich hier nicht um einen privaten Blog, wie dir zweifellos bekannt sein dürfte. Danke und Gruß, j.budissin+/- 11:34, 24. Mai 2007 (CEST)
- danke J budissin, ansonsten finde ich es interessant sven-steffen arndt, dass ich des nervens beschuldigt werde wo du ja die fragliche Kat wiederhergestellt hast ohne dass ich einen Antrag diesbezüglich irgendwo sehen kann. Du magst dies als nerven empfinden; ich empfinde das als Mißbrauch deiner Adminrechte. Mir ist natürlich bewusst, dass du die perfekte Idee für die Kats hast; nur leider können nicht alle diese Perfektion erfassen und die WP ist nunmal ein Projekt vieler; auch der unperfekten. ...Sicherlich Post 22:30, 24. Mai 2007 (CEST)
Benutzer:RobotQuistnix arbeitet mit langen Cache-Zeiten
Für's Protokoll: Der Bot hat hier Artikeländerungen überschrieben, die mehr als eine halbe Stunde vorher stattgefunden haben - Benutzer ist angeschrieben (auch auf nl:).
Ich habe bisher noch nicht überprüft, ob es sich um einen Einzelfall handelt - bitte ein Auge darauf haben. -- srb ♋ 13:26, 5. Jun. 2007 (CEST)
- Da mich das Ausmass des Problems interessiert hat, habe ich die Edits der letzten 14 Tage überprüft - das Bearbeiten von veralteten Versionen ist zwar zum Glück selten, aber leider kein Einzelfall. Insgesamt habe ich in dem Zeitraum 3 Fälle gefunden:
- http://de.wikipedia.org/w/index.php?title=Optische_Täuschung&diff=prev&oldid=32799026 (5. Juni) -> iwikilink-Ergänzung erfolgte bereits 9 Minuten vorher -> nur zwei Leerzeilen ergänzt (unschön, aber nicht weiter tragisch)
- http://de.wikipedia.org/w/index.php?title=Mars_(Planet)&diff=prev&oldid=32758695 (5. Juni) -> 2 Änderungen (38 Minuten früher) revertiert (vom ändernden User selbst bemerkt und korrigiert)
- http://de.wikipedia.org/w/index.php?title=Kurdische_Sprachen&diff=prev&oldid=32707588 (3. Juni) -> 1 Änderung (80 Minuten früher) revertiert (war noch aktuell)
- Ich werde mir in den nächsten Tagen noch ein paar weitere Bots anschauen, ob die die gleichen Probleme haben. -- srb ♋ 17:59, 7. Jun. 2007 (CEST)
Das Problem liegt m. E. auch am WP-Server. Die Cache-Zeit hängt bei einem Botlauf zum Einen davon ab, wieviele Seiten beisammen gelesen werden und zum Anderen von der Geschwindigkeit des Server. Ein Lesezugriff (Download), egal, wieviele Seiten (Paket), bewirkt eine Wartezeit bis zum Start der Übertragung und jeder Schreibvorgang (Upload) auch eine.
Wenn bei einem Leseversuch der Server längere Zeit nicht antwortet, dann hat das u. U. den Abbruch des Programms zur Folge. Ein großes Seitenpaket hat also den Vorteil, dass die Zahl der Lesezugriffe klein ist, der Bot daher seltener auf Seiten warten muss und entsprechend schneller fertig ist und das Abbruchrisiko kleiner wird. Der Nachteil besteht darin, dass die Zeit zwischen dem Download und dem Upload der letzten, editierten Seite des Pakets zunimmt. Damit steigt auch die Wahrscheinlichkeit einer Überschneidung mit manuellen Edits. Hier muss also die Größe des Downloadpakets an das Servertempo und an die Uhrzeit angepasst werden. Ist der Server tagsüber langsam, so ist ein kleines Paket notwendig. Ein Botlauf in der Nacht bei schnellem Server erlaubt ein großes Paket. Augiasstallputzer
21:14, 7. Jun. 2007 (CEST)
- Was den Bots also anscheinend fehlt, ist eine Überprüfung wie alt die heruntergeladenen Daten sind - reverts nach einer halben oder sogar mehr als einer Stunde sind m.E. jedenfalls völlig inakzeptabel, vor allem da bei den Massenedits (v.a. der iwikibots) wohl kaum jeder Edit kontrolliert wird. -- srb ♋ 21:43, 7. Jun. 2007 (CEST)
30 Minuten oder mehr sind m. E. unnötig lange, aber eine Überprüfung ist aus folgenden Gründen nicht sinnvoll:
- Zur Technik: Es sind genaugenommen Bearbeitungskonflikte. Während die WP-SW im Browser dies erkennt, fehlt diese Möglichkeit beim Bot, denn im Gegensatz zum manuellen Edit, bei dem der Editor meistens durchgehend aktiv ist, arbeitet der Bot meistens (sinngemäß) nach der Methode:
Seite aufrufen ⇒ Editor starten ⇒ Inhalt des Editfensters komplett downloaden ⇒ Editmodus abbrechen ⇒ Seite offline berarbeiten ⇒ Editmodus erneut starten ⇒ Inhalt komplett durch den eigenen Text ersetzen ⇒ Speichern .
Um das Problem technisch zu lösen, benötigt man also bei jedem Upload einen Vergleich zwischen dem Zeitstempel des Downloads und dem Zeitstempel der aktuellen Version. Das erfordert aber einen zusätzlichen Lesezugriff, was bei einem Botlauf erhebliche Auswirkungen auf die Laufzeit hat. Gerade Massenedits sind da empfindlich. Es fehlen auch noch die Programme dazu.
Rechenbeispiel: Am Tage kann die mittl. Lesezugriffszeit schon mal 15 Sekunden betragen, Schreibzugriffe 30 Sekunden. Bei einem 20 Seiten-Paket wäre also die letzte hochgeladene Seite mehr als 10 Minuten alt. Für 100 Edits benötigt der Bot dann mind. 51 Minuten.
Wird die Paketgröße halbiert (10 Seiten) so kommen 10 Lesezugriffe dazu und 100 Seiten erfordern 52 Minuten, wobei die Seiten max. 5 Minuten alt sind.
Kontrolliert man nun den Zeitstempel, so dauert ein Edit mindestens 40 Sekunden, die letzte Seite eines 20er-Pakets ist ca. 13 Minuten alt, was die Anzahl der nicht geänderten Seiten erhöht und 100 Seiten sind erst in ca 67 Minuten durch, bei 10er-Paketen nach 68 Minuten. Einhundert Seiten würden also beits eine Viertelstunde länger dauern.
- Fazit: Zeitstempel vergleichen ist m. E. nicht zumutbar, wenn man seinen Bot bei der Arbeit ordnungsgemäß kontrolliert. Der einzige Weg ist die Anpassung der Paketgröße an die Serverlast, meistens beim Programmstart möglich, und die Nutzung lastarmer Zeiten, um das Risiko des Überschreibens von Seiten gering zu halten.
Augiasstallputzer
23:31, 8. Jun. 2007 (CEST)
- Wieso sollte ein Bot den Editmodus "abbrechen" wollen? Solche Bots sind schlicht kaputt. Und das hat nichts mit Zugriffszeiten oder Paketgrößen zu tun, sondern mit grundlegenden Verständnisprobleme seitens des Programmierers. -- aka 23:41, 8. Jun. 2007 (CEST)
Selbstverständlich sind es separate Zugriffe und ein Bot muss auch genauso Wartezeiten in Kauf nehmen wie ein User mit Browser. Beim Öffnen der Seite, beim Start des Edit-Modus und beim Speichern muss auch der Bot auf "de.wikpedia.org" warten. Die WP-Software erlaubt Edits nur mit Hilfe von "http://de.wikipedia.org/w/index.php" und daher auch nur entweder "action=edit" oder "action=submit", jedoch nicht Beides beisammen. Und behaupte nicht einfach, dass es nicht auf Paketgrößen ankommt, wenn die Praxis es anders aufzeigt. Allein die Tatsache, dass der Bot nicht beliebig schnell schreiben darf, erzwingt für jeden Schreibvorgang eine separate "Kontaktaufnahme" mit dem Server. Lesen darf er so schnell wie es möglich ist, also hängt hier die Zahl der "Kontaktaufnahmen" und damit Wartezeiten von der Größe des Pakets ab. Alle Pywikipediabots arbeiten mit der oben beschriebenen Methode, und das sind die meisten. Augiasstallputzer
02:04, 9. Jun. 2007 (CEST)
- Die Kollisionskontrolle ist recht einfach umsetzbar. Wenn eine Wiki-Seite zum Lesen geladen wird, steht dabei im HTML-Code immer die gerade übermittelte Revisionsnummer (Javascript-Variable wgCurRevisionId). Das passiert genauso beim Laden einer Seite zum Bearbeiten. Der Bot muss sich also beim ersten Laden der Seite nur die aktuelle Revisionsnummer merken und beim Speichern die gemerkte Nummer mit der gerade übermittelten vergleichen. Das geht fehlerfrei ohne zusätzliche Lesezugriffe. sebmol ? ! 02:11, 9. Jun. 2007 (CEST)
- Augiasstallputzer, was du beschreibst - das eigentliche Bearbeiten mit edit und submit - ist bereits sicher und überhaupt nicht das Problem, denn das ist eine Transaktion und hat nichts mit irgendwelchen Zeiten, Paketgrößen oder Kontaktaufnahmen zu tun. -- aka 09:33, 9. Jun. 2007 (CEST)
Das Problem stellt sich folgendermaßen dar. Der PyWikipediaBot kann Seiten entweder einzeln laden (über die normale Bearbeitungsseite) oder bandbreiten- und zeitsparend über Spezial:Export. Beim Laden der Bearbeitungsseite wird die StartTime ausgelesen (ein Zeitstempel, der besagt, wann die Bearbeitung gestartet wurde), und beim Speichern wird diese StartTime an den Server zurückgeschickt. Der Server kann anhand dessen Bearbeitungskonflikte entdecken, und wenn ein solcher auftritt, überspringt PyWikipediaBot die Seite und lässt sie ungeändert.
Problematisch ist, dass das Auslesen des StartTime-Zeitstempels nicht möglich ist, wenn über Spezial:Export geladen wird. Im gelieferten XML steht nämlich kein Zeitstempel. PyWikipediaBot nimmt deshalb als Behelfslösung die Systemzeit des Botbetreibers (natürlich in UTC). Das funktioniert allerdings nur, wenn die Systemuhr korrekt gestellt ist. Wenn z. B. die Systemuhr 5 Minuten nachgeht, und zwischen Seitenexport und Speicherung liegen knappe 5 Minuten, dann können Bearbeitungen verloren gehen, die dazwischen von jemand eingeschoben wurden. Interessant wäre natürlich, ob bei RobotQuistnix tatsächlich die Systemuhr eine halbe Stunde vor geht. Jedenfalls ist es eine mögliche Erklärung. Hier ist der entsprechende Code-Kommentar (wikipedia.py, GetAll.oneDone()):
# There's no possibility to read the wpStarttime argument from the XML.
# This argument makes sure an edit conflict is raised if the page is
# deleted between retrieval and saving of the page. It contains the
# UTC timestamp (server time) of the moment we first retrieved the edit
# page. As we can't use server time, we simply use client time. Please
# make sure your system clock is correct. If it's too slow, the bot might
# recreate pages someone deleted. If it's too fast, the bot will raise
# EditConflict exceptions although there's no conflict.
page2._startTime = time.strftime('%Y%m%d%H%M%S', time.gmtime(time.time()))
Sich darauf zu verlassen, dass alle Botbetreiber ihre Systemuhr mit einem Zeitserver synchronisieren, ist zugegebenerweise etwas optimistisch, aber als ich den Part programmiert habe, ist mir nichts besseres eingefallen. Gerade eben ist mir aber noch eine Idee gekommen: man könnte den Zeitstempel aus dem HTTP-Header auslesen und als StartTime verwenden. Zwar können zwischen Datenbank-Lesezugriff und Webserver-Auslieferung ein paar hundert Millisekunden liegen, aber die Wahrscheinlichkeit, dass genau in dieser Zeit jemand anders auf den Speichern-Knopf drückt, dürfte marginal sein. Meinungen? --Head 03:39, 9. Jun. 2007 (CEST)
- Ich hätte mir das ganze Geschreibsel sparen können. Ich lag mit meiner Vermutung (falsch gehende Systemuhr) richtig, aber Andre Engels hat sich schon darum gekümmert: Benutzer Diskussion:Quistnix. Wenn jemand wissen will, wie: [1]. Bitte beachtet auch, dass einiges von dem, was weiter oben steht, schlicht nicht stimmt, z. B. die Annahme von Augiasstallputzer, PyWikipediaBot würde keine Zeitstempel verwenden. Das spielt aber ja jetzt hoffentlich keine Rolle mehr. --Head 04:04, 9. Jun. 2007 (CEST)
Die wirklich korrekte Lösung wäre meiner Meinung nach, eine ganz normale Bearbeitung durchzuführen, wenn der Bot festgestellt hat, dass er etwas ändern möchte - z.B. eben nach irgendwelchen Exports. Also Seite zum Bearbeiten laden (Zeitstempel und Edit-Token merken), an der geladenen Seite die Änderung durchführen, speichern. -- aka 09:33, 9. Jun. 2007 (CEST)
Ich habe bei meinem Bot noch nie bemerkt, dass er eine Seite nicht zurückschreibt, weil es einen Bearbeitungskonflikt gibt, allerdings dauert die Abarbeitung eines gelesenen Seitenpakets - das ist offensichtlich das Lesen per Spezial:Export - nur wenige Minuten. Daher bin ich davon ausgegangen, dass der Bot keine Zeitstempel nutzt. Das Problem ist neben einer falschen Systemuhrzeit gerade dieses von Sebmol erwähnte " gemerkte Nummer mit der gerade übermittelten vergleichen" wie das ohne einen Lesezugriff auf die Daten der aktuellen Seite auf dem User-Rechner gehen soll, kann ich mir beim besten Willen nicht vorstellen. Eine "Annahmeverweigerung" von Seiten des Server, also ein Vergleich auf dem Server und nicht auf dem Rechner des Bot, wäre da schon praktischer. Allerdings muss das Botskript auch auswerten (können), ob die Seite angenommen wurde.
@Head: Welche Möglichkeiten gibt es da deiner Meinung nach ?
Augiasstallputzer
11:48, 9. Jun. 2007 (CEST)
- Jetzt wird mir erst klar, was ihr macht. Ihr holt euch mehrere Seiten auf einmal, bearbeitet die lokal und schickt sie nach und nach an den Server? Dann wundert es mich gar nicht, dass sowas passieren kann. So ähnlich hatte ich meinen ArchivBot auch mal programmiert, bis offensichtlich wurde, dass sowas gar nicht funktioniert. Seitdem passiert jeder Edit separat: Seite lesen, ändern, schreiben, nächste Seite lesen, etc. sebmol ? ! 11:37, 9. Jun. 2007 (CEST)
Ich habe das Programm nicht selbst geschrieben... Die Seite einzeln zu lesen, würde in obigem Beispiel für 100 Seiten statt 50 Minuten satte 85 Minuten dauern. Das geht nur, wenn man seinen Bot falscher Weise unbeaufsichtigt lassen würde. Augiasstallputzer
11:49, 9. Jun. 2007 (CEST)
Eintragen der vorletzten Version in der Zusammenfassungszeile
Durch zeitweilig auftretende Botänderungen kommt es immer wieder vor dass große Teile der Artikel meiner Beobachtungsliste nahezu zeitgleich geändert werden und sie dadurch mehr oder weniger unbrauchbar wird und Änderungen kurz vor Botänderungen unbemerkt bleiben. Dies könnte im Einzelfall dazu führen, dass auch Vandalismus unentdeckt bleibt. Meiner Meinung nach könnte dies vehindert werden, wenn bei jeder Botänderung immer die vorletzte Version in der Zusammenfassungszeile eingetragen wird, so wie dies z.B. der ArchivBot bereits macht. Würde mich freuen, wenn dies bei alle Botänderungen machbar wäre. Gruß --Septembermorgen 15:03, 11. Jun. 2007 (CEST)
- Das Problem dabei ist, dass die meisten Bots - anders als z. B. ArchivBot - die Versionsgeschichte nicht ausgelesen wird (was ja in der Regel auch nicht nötig ist), so dass der letzte Bearbeiter nicht bekannt ist, wenn die Seite geladen wird. --Head 15:14, 11. Jun. 2007 (CEST)
- Das ist nicht korrekt, denn die Information der letzten Änderung steht beim Bearbeiten einer Seite verdeckt zur Verfügung ("wpEdittime"). Die letzte Änderung wird beim Speichern dann zur vorletzten Änderung, so dass der Wunsch von Septembermorgen eigentlich von jedem Bot-Betreiber erfüllbar wäre, auch ohne Lesen der Versionsgeschichte. --SteveK ?! 15:23, 11. Jun. 2007 (CEST)
- Angesichts der aktuell massenhaften Änderungen von Benutzer:SieBot im Ortsartikelbereich würde ich inständig darum bitten diesen Vorschlag auch umzusetzen, da ich mir sonst überlege meine Beobachtungsliste zu leeren. Grüße --Septembermorgen 14:12, 28. Sep. 2007 (CEST)
Bot gesucht
Hallo, RKraasch hat z.Zt. eine unbestimmte Auszeit, deshalb meine Frage hier. Um die Einwohnerzahlen in den Infoboxen der Gemeinden nicht händisch korrigieren zu müssen, hat vor einem halben Jahr RKraasch seinen Sklaven arbeiten lassen. Nun liegen die ersten Daten von 2006 vor und es wäre wieder an der Zeit. Tabellen zu Gemeinden in Thüringen und Gemeinden in Sachsen-Anhalt liegen aktualisiert vor. MeckPomm fehlt noch, das Statistische Amt hat noch nichts veröffentlicht. Wer hat einen Knecht für diese Arbeit? ... oder kennt jemanden, der einen kannt .... :-) Die Aktualisierung sollte dann in Zukunft nur einmal jährlich erfolgen. Gruß. --Schiwago 14:57, 18. Jun. 2007 (CEST)
- Bitte wende dich an Wikipedia:Bots/Anfragen. —Pill (Diskussion · Bewertung) 17:36, 22. Jul. 2007 (CEST)
Funktionsliste der Bots
Gibt es eine Aufschlüsselung, welche Funktion welcher Bot erledigt. Die bloßen Stichwörter "interwikilinks" und ... sind als Anhaltspunkte relativ wenig, da man den geeigneten Bot erst nach sequentieller Suche durch fast alle Bots rausfinden kann. Wie findet man den geeigneten Bot schneller? --SonniWP2 13:42, 21. Aug. 2007 (CEST)
- zB gibt es haufenweise links auf redirect XML (-> Hypertext Markup Language), sieht einfach aus, ist aber mit nem Bot wohl ein Klax --SonniWP2 13:45, 21. Aug. 2007 (CEST)
Bot-Schnittstelle?
Hoi, Ich stell die Frage einfach mal hier, ich hoffe ich bin hier richtig.
Ich denke selbst darüber nach, einen Bot zu Programmieren. Allerdings ohne Framework, ich würde das ganze gerne von grund auf selbst bauen. (Jaja ihr kennt sicher den Drang, sich etwas zu beweisen, den man als Programmierer hin und wieder mal verspürt ;) )
Gibt es in der Wikipedia sowas wie eine Spezielle Schnittstelle, über die ein Bot Aktionen (Einloggen, Artikel anlegen/bearbeiten etc.) ausführen kann, oder muss ich mich den "normalen" HTTP-Seiten bedienen? (Das würde natürlich bedeuten, dass ich mir immer die ganzen wichtigen Dinge aus den HTML-Seiten rausholen muss)
Ich hoffe ihr versteht ein wenig was ich meine.
--Stummvoll 11:51, 30. Aug. 2007 (CEST)
- Für einige Dinge gibt es die query.php und api.php, für die meisten Dinge wirst du um normale HTTP-Requests mit HTML-Auslesen, -Auswerten und -Posten aber nicht herumkommen. sebmol ? ! 12:01, 30. Aug. 2007 (CEST)
- Das Query-Interface ist die ältere Variante und wird nicht mehr weitergepflegt - das API-Interface wird derzeit aktiv weiterentwickelt: Im Moment sind erst Abfragefunktionen realisiert (aber auch die noch nicht vollständig), eine Funktionalität zum Bearbeiten, Verschieben, Löschen, etc. existiert jedoch bisher noch nicht. Wenn Du hier über die weiteren Entwicklungen auf dem laufenden bleiben willst, empfehle ich die API-Mailinglist (low-traffic): dort werden Änderungen angekündigt und auch Vorschläge zur API diskutiert. -- srb ♋ 12:14, 30. Aug. 2007 (CEST)
- Vielen Dank, ich werd es mir mal bei gelegenheit genauer ansehen. Darf ich das "noch nicht" so interpretieren, dass die Funktionen zum verändern von Artikeln schon fest eingeplant sind? ;) Und wäre es da nicht eigentlich ratsam mit dem Bot zu warten, bis das API komplett fertig ist? --Stummvoll 14:25, 30. Aug. 2007 (CEST)
- und noch eine Frage: Ist eine deutsche Dokumentation in Planung? ich bin zwar der Englichen Sprache mächtig, aber mein Verständniss beschränkt sich auf Realschul-Kentnisse. Und diese sind mehr oder weniger nutzlos, wenn es darum geht solche Fach-Texte zu verstehen :/
Brauche Hilfe bei Erstellung eines Skripts
Ich würde gerne die Textersetzungsfunktion von replace.py mit dem Skript commons_link.py verbinden, um Schwesterlinks auf den Schwesterprojekten Wikisource und Wikiquote per bot automatisiert einfügen zu können. Kann mir jemand helfen? --Tets 22:30, 18. Sep. 2007 (CEST)
Interwikilinks auf Ortsartikel in der Volapük-Wikipedia
Vor ein paar Tagen ist diese Diskussion aufgekommen: Wikipedia:Fragen_zur_Wikipedia#Volapük
Das Problem ist, dass auf der Volapük-Wikipedia binnen kürzester Zeit eine fünf oder gar sechsstellige Anzahl von Ortsartikeln per Bot erstellt wurde, die nun von unseren Interwiki-Bots natürlich alle auch verlinkt werden. In der Diskussion kam nun auch die Meinung auf, dass diese Interwikilinks zur Volapük-Wikipedia evtl. nicht erwünscht sind. (Wie man beispielsweise am Artikel Bad Oeynhausen in der History sehen kann wurde bereits zweimal nacheinander der vo-Link auch wieder entfernt.) Nun folgendes: Die vo-Wikipedia wird voraussichtlich nicht geschlossen, noch werden die Interwikibots auf de.wikipedia gestoppt werden. Auch werden höchstwahrscheinlich die Interwikilinks von anderen Wikis zur vo-Wikipedia erhalten bleiben, sodass die Bots die vo-Links immer wieder einfügen werden.
Gibt es im Interwiki-Pywikipediabotskript eine Option, mit der sich die vo-Wikipedia vom Botlauf einfach ausschliessen lässt? Noch problematischer daran ist natürlich, dass Interwikilinks auf vernünftige (!?) Artikel in der vo-Wikipedia weiterhin bestehen sollen... ?!?
Oder was gibt es sonst noch an Möglichkeiten?
--The-viewer Wikipedia nach PDF exportieren 14:25, 24. Sep. 2007 (CEST)
DEFAULTSORT
Hallo Bots! Ich betätige mich selber gerade als Aushilfsbot und verteile eine Kategorie an geschätzte hundert Personenartikel. Was dabei enorm aufhält ist die Ergänzung des Namens, wie er einsortiert werden soll, wenn DEFAULTSORT nicht verwendet wird. Wäre es theoretisch möglich, dass ihr euren Bots beibringt, die Sortierung automatisch anzupassen oder gibt es Gründe dies nicht zu tun? Also aus:
[[Kategorie:Mann|Mueller, Michael]] [[Kategorie:Geboren 1900|Mueller, Michael]] [[Kategorie:Gestorben 2000 |Mueller, Michael]]
{{DEFAULTSORT:Mueller, Michael}}
[[Kategorie:Mann]]
[[Kategorie:Geboren 1900]]
[[Kategorie:Gestorben 2000]]
Es müssen ja keine zusätzlichen Änderungen durchgeführt werden, sondern nur umgestaltet werden, wenn sowieso Interwiki oder ähnliches gemacht wird. Imho würde dies die Wartung doch deutlich erleichtern. MfG --Carlos-X 04:35, 8. Nov. 2007 (CET)
Probleme mit dem Java Framework
hoi, ich weis nicht, ob ich hier mit meinem Problem richtig bin, aber irgendwie will das Java-FW nicht so, wie ich will:
public static void main(String[] args) throws ActionException {
MediaWikiBot bot = new MediaWikiBot("http://de.wikipedia.org/w/");
bot.login("Stummvoll", ******);
EditContentAccessable c = new EditContentAccessable() {
public String getEditSummary() {
return "sumary";
}
public boolean isMinorEdit() {
return false;
}
public String getLabel() {
return "Benutzer:Stummvoll/Test";
}
public String getText() {
return "Test";
}
};
bot.writeContent(c);
}
löst bei mir folgendes aus:
log4j:WARN No appenders could be found for logger (org.apache.commons.httpclient.HttpClient). log4j:WARN Please initialize the log4j system properly. Exception in thread "main" net.sourceforge.jwbf.actions.http.ActionException: java.lang.NullPointerException at net.sourceforge.jwbf.actions.http.HttpActionClient.performAction(HttpActionClient.java:106) at net.sourceforge.jwbf.bots.HttpBot.performAction(HttpBot.java:80) at net.sourceforge.jwbf.bots.MediaWikiBot.writeContent(MediaWikiBot.java:483) at test.main(test.java:29) Caused by: java.lang.NullPointerException at java.util.Hashtable.put(Hashtable.java:396) at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.findContent(GetEnvironmentVars.java:136) at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.findContent(GetEnvironmentVars.java:147) at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.findContent(GetEnvironmentVars.java:147) at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.getNewValues(GetEnvironmentVars.java:123) at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.processReturningText(GetEnvironmentVars.java:115) at net.sourceforge.jwbf.actions.http.HttpActionClient.get(HttpActionClient.java:193) at net.sourceforge.jwbf.actions.http.HttpActionClient.performAction(HttpActionClient.java:101) ... 3 more
Das Einloggen und auch das Abrufen von Artikeln funktioniert wunderbar.. nur bei dem bearbeiten gibts bis jetzt Probleme.. gibts noch irgendwas, das ich beachten muss? --Stummi(D|B) 10:25, 13. Nov. 2007 (CET)
- Nachtrag: die Exception scheint daher zu kommen, das die Seite noch nicht Existiert. Wenn ich eine schon existierende Seite überschreiben möchte bekomme ich zwar keinen Fehler, aber es tut sich trotzdem nix. --Stummi(D|B) 17:46, 13. Nov. 2007 (CET)
- Hi Stummi, ich vermute du verwendest eine ältere Version, tritt der Fehler auch in der Aktuellen auf. Die optimale Position für Fragen wäre wohl die Entwicklungsseite zu versuchen und dort einen Beitrag (Stichwort: Forum, Mailingliste, Bug Tracker) zu hinterlassen. --EldurLoki 21:19, 13. Nov. 2007 (CET)
- Nachtrag: die Exception scheint daher zu kommen, das die Seite noch nicht Existiert. Wenn ich eine schon existierende Seite überschreiben möchte bekomme ich zwar keinen Fehler, aber es tut sich trotzdem nix. --Stummi(D|B) 17:46, 13. Nov. 2007 (CET)
Captcha bei neuem externen Link?
Hoi, mir ist aufgefallen, dass ich bei einem neuen Externen Link in einem Artikel ein Captcha abtippen muss. Ich wollte nur mal Frage, ob diese Überprüfung wegfällt, wenn ein Benutzer den Bot-Status hat.
--Stummi(D|B) 10:52, 16. Nov. 2007 (CET)
- Einfach 4 Tage warten, dann muss man auch keinen Captcha mehr eingeben. --Revolus Echo der Stille 12:58, 16. Nov. 2007 (CET)
Normaluser sind Bots hilflos ausgeliefert
Hallo Botbetreiber,
ich bitte um Entschuldigung, wenn ich hier nicht auf der richtigen Seite diskutiere. Falls das der Fall sein sollte, weist mir bitte den Weg.
Ich möchte hier einmal dringend anregen, dass Botedits in Ihren Editkommentaren auf folgende Dinge verlinken sollten:
- Link auf eine Seite, an die er sich wenden muss, wenn die Diskussionsseite des ändernden (maschinellen) Benutzers hierfür nicht genutzt werden darf und Fragen dort nicht beantwortet bzw diskutiert werden.
- Link auf eine Wikipedia:Oma-Test-kompatible Beschreibung, die erklärt, was ein Bot ist. Insbesondere kann der Zusatz "Bot" allein nicht ausreichend für einen Hinweis darauf sein, dass es sich um eine Maschine und nicht um einen menschlichen Benutzer handelt. Wer rechnet schon mit einer Maschine als Benutzer, außer Euch Spezialisten. ;-)
- Link auf eine Wikipedia:Oma-Test-kompatible Beschreibung, die erklärt, wer, wann und warum maschinelle Benutzer auf Wikipedia legitimiert hat.
- Link auf eine Wikipedia:Oma-Test-kompatible Beschreibung auf das, was der konkrete Edit bezwecken soll.
- Link auf die zugehörige Diskussion, die diesen Bot-Edit initiiert hat. Gegebenenfalls sollte das Ergebnis der Diskussion vor einer Botausführung Wikipedia:Oma-Test-kompatibel übersetzt werden. Sollte eine solche Übersetzung nicht möglich sein, wäre die Frage zu stellen, ob hier ein Edit vorgenommen wird, der vom Normaluser nicht mehr nachvollzogen werden kann. Hiermit hat man ein treffliches Prüfungsmittel in der Hand, ob der Edit nicht dazu führt, dass zukünftige Edits von Artikeln durch Normalusern nun nicht mehr durchgeführt werden können.
- Link auf eine Wikipedia:Oma-Test-kompatible Beschreibung der involvierten Boxen, an denen herum gebastelt wurde.
Das Gleiche gilt für die Benutzerseiten und die Diskussionsseiten des Bots. Insbesondere der deutliche prangende Hinweis: "Ich bin kein Mensch, sondern eine Maschine, die vollautomatische Edits auf Wikipedia durchführt", sollte obligatorisch und in großen Lettern unübersehbar auf diesen unvermuteten Umstand hinweisen.
Ferner sollten massive Editvorhaben mit sehr vielen Edits in jeweils sehr vielen Artikeln zuvor diskutiert werden. Auf den von den Edits betroffenen Artikelseiten sollte mit angemessener Vorfrist eine Ankündigung zum Beispiel durch Drüberhängen eines Bausteins und ein Link auf diese Diskussion erfolgen. Genau so, wie es bei einer Löschdiskussion oder einer Review-, Lesenswert- etc Aktion üblich ist, wo der Artikel auch von einer Diskussion außerhalb der Artikeldiskussion betroffen ist. Wofür gibt es denn schließlich Bots ;-)
Es kann in meinen Augen nicht angehen, dass hier irgendwo in den Tiefen von Wikipedia über Änderungen im Botbetreiber-Fachchinesisch diskutiert wird, die viele Artikelseiten betreffen und auf jeder dieser Artikelseiten viele Edits hervorrufen, ohne dass die Autoren auf den betroffenen Seiten davon vorher unterrichtet und dazu gehört werden. In dem speziellen Fall, der Aufhänger für diese Intervention ist, wurden die bisher intuitiv verstehbaren Boxen mit den funktionellen Straßenverläufsboxen auf den Autobahn und Bundesstraßenseiten massiv von Botänderungen betroffen. Und zwar so massiv, dass Otto Normaluser diese in Handarbeit nicht mehr zurücknehmen kann. Ferner ist das Editieren der Boxen, das zuvor intuitiv verstehbar war, ist zu einer Spezialistensache geworden, ohne dass sich ein erkennbarer Darstellungsvorteil oder ein erkennbarer funktioneller Vorteil ergeben hätte.
Ich würde mich freuen, Eure allgemeinverständlichen Diskussionsbeiträge zu diesem Thema zu hören. Grüße -- Tirkon 02:23, 26. Nov. 2007 (CET)