Wikipédia:Bot/Statut
| Statut de bot (0 en cours) |
| Statut de révocateur (0 en cours) |
| Statut de VIPTEMP (0 en cours) |
| Requêtes du mois |
| AutoWikiBrowser |
| Aide sur Pywikipedia |
| Demande du statut (0 en cours) |
| (fr) | (en) |
|---|---|
| Cette page permet aux dresseurs de bots de demander l'autorisation d'utilisation sur Wikipédia en français | This page allows bot owners to ask for authorization on the French Wikipedia. |
| L'usage est de donner le statut de bot après un vote qui dure 7 jours, si au moins 75 % des votes sont en faveur de l'acquisition du statut. Seuls les utilisateurs ayant au moins 100 contributions au début du vote peuvent voter. Le vote du dresseur demandant n'est pas pris en compte. | French Wikipedia policy grants bot status to anyone who gets a 75% or more approval. The ballot lasts 7 days. Only users with 100 or more contributions can vote. Requesting bot owner's vote is not taken into account. |
| Prière de laisser votre bot effectuer quelques dizaines d'éditions avant de formuler votre requête. | Please have the bot edit a few dozen pages before requesting the bot status. |
| Afin de faciliter la gestion des bots, il est demandé d'ajouter le modèle {{Bot}} sur la page principale du bot, consultez la page du modèle. | For management purposes, we ask you to add the {{Bot}} template on your bot user page using this template:{{Bot|your_user_name|site=your_home_wiki_two-letter_code}}
|
Il n'y a actuellement aucune demande en cours.
Maintenance : les requêtes de cette page sont traitées par les bureaucrates, qui closent le vote et le cas échéant accordent le statut.
- Archive 12 (depuis janvier 2025)
- Archive 11 (janvier 2020 à décembre 2024)
- Archive 10 (janvier 2017 à décembre 2019)
- Archive 9 (janvier 2015 à décembre 2016)
- Archive 8 (avril 2013 - décembre 2014)
- Archive 7 (janvier 2012 - avril 2013)
- Archive 6 (novembre 2009 - décembre 2011)
- Archive 5 (octobre 2008 - novembre 2009)
- Archive 4 (mai 2008 - octobre 2008)
- Archive 3 (février 2007 - mai 2008)
- Archive 2 (septembre 2006 - février 2007)
- Archive 1 (janvier 2006 - août 2006)
| Cette page est automatiquement archivée. Les sections n'ayant aucune activité depuis 30 jours sont automatiquement déplacées. |
(Traité) RCRefBot
[modifier le code]- Dresseur : Dirac (discuter)
- But du bot : Corriger environ les articles contenant une référence de Radio‑Canada avec la mauvaise information. Exemple
- Script utilisé : pywiki
- SUL du bot
- Déjà présent (avec le statut bot) sur : N/A
- Déjà présent (sans statut) sur : N/A
- Date et heure : 4 août 2025 à 15:22 (CEST)
- Remarques : Le bot a déjà effectué plus de 500 modifications sans le statut de bot.
Je pensais qu'il y avait peu d'articles à changer, mais clairement ma requête PetScan ne m'indique pas tous les articles, donc je fais une demande officielle. Je vais trouver la liste complète des articles concernés en utilisant Wikipédia:AutoWikiBrowser, que je suis en train d'installer (j'espère que je vais y arriver!). Il y a 1666 articles à modifier selon la requête PetScan. Côté technique, je roule un script python sur mon ordinateur local pour extraire les informations sur la page de Radio-Canada, et je crée ensuite la modification que je soumets avec pywiki. J'ai vérifié manuellement toutes les modifications effectuées jusqu'à présent, ce qui m'a permis de corriger le script pour couvrir tous les cas de figures des articles modifiés. Le script a un taux d'erreur inférieur à 1%, que j'ai corrigé manuellement en plus de mettre le script à jour. Je compte faire de même avec les premières centaines de modification du bot, question de m'assurer que tous les types de pages HTML de Radio-Canada sont couverts.
On m'a également mentionné que « pour résoudre le problème durablement, il faudra créer des traducteurs Zotero, sinon Citoid continuera d'introduire ce genre d'erreurs pour ces sites », ce à quoi je vais m'attaquer une fois cette tâche effectuée.
Merci! Dirac (discuter) 4 août 2025 à 15:22 (CEST)
Ce vote est ouvert à tous ceux et celles qui ont au moins 100 modifications sur la Wikipédia en français au moment du début du vote. Le vote est ouvert pour 7 jours (soit jusqu'au 11 août 2025 inclus). Nous rappelons aux votants que les seuls avantages que confèrent le statut de bot est de ne pas apparaître dans la vue par défaut de la page Spécial:Modifications récentes et de pouvoir être utilisé à grande échelle. (en)This vote is open to everyone who has 100 edits or more on the French Wikipedia when the vote begins. The ballot lasts 7 days (until Aug 11 2025 included). We remind voters that the only advantages of having bot status is to be hidden in default view of Special:Recentchanges and to operate on a wide scale.
RCRefBot : Pour
[modifier le code]- — LD (d) 5 août 2025 à 02:39 (CEST)
Pour. Dresseur de confiance avec de l'expérience. Şÿℵדαχ₮ɘɼɾ๏ʁ 5 août 2025 à 04:32 (CEST)
Pour --NicoV (discuter) 5 août 2025 à 09:15 (CEST)
Pour -- Cuagga (Par ici !) 5 août 2025 à 15:24 (CEST)
Pour Orlodrim (discuter) 5 août 2025 à 21:16 (CEST)
RCRefBot : Contre
[modifier le code]RCRefBot : Neutre
[modifier le code]RCRefBot : Discussion avec Dirac
[modifier le code]- Bonjour Dirac. Juste une remarque : il faudrait que ton bot utilise le paramètre
auteur institutionnelà la place d'auteurpour Radio-Canada, les métadonnées ne sont pas les mêmes. Je ne sais pas vraiment si c'est vraiment important pour les 500 modifs déjà effectuées, mais essaye de le faire pour les futures. - Il serait également bien de mettre un lien interne
[[Radio-Canada]]. - Salutations, Şÿℵדαχ₮ɘɼɾ๏ʁ 4 août 2025 à 17:21 (CEST)
- Ok, je vais changer ça. Merci SyntaxTerror
, Dirac (discuter) 4 août 2025 à 17:25 (CEST)
- Correction apportée. On peut voir ce que ça donne sur cette modification sur l'article Cuisine québécoise. Dirac (discuter) 5 août 2025 à 02:22 (CEST)
- Ok, je vais changer ça. Merci SyntaxTerror
J'ai fait le ménage des quelques 2000 pages qui avaient des références erronées. D'ici à ce que je créé un traducteur Zotero pour régler le problème en amont, j'aimerais tourner le bot hebdomadairement sur mon serveur. Or, ce serveur fait partie d'une plage d'adresses bloquées. J'ai déjà eu le même problème pour mon compte, et on m'avait Exemptés de blocage global d’adresses IP. Serait-il possible de mettre mon bot dans le même groupe? Merci, Dirac (discuter) 31 août 2025 à 04:09 (CEST)
- Bonjour @Dirac,
- Les demandes d'exemption de blocage d'IP se font plutôt sur Wikipédia:Requête aux administrateurs. Escargot (discuter) 31 août 2025 à 11:16 (CEST)
- Si ce message est pour recueillir des avis, je suis
Pour donner ce statut au bot. Escargot (discuter) 31 août 2025 à 11:17 (CEST)
- Merci Escargot bleu
pour la réponse, je regarde ça. Dirac (discuter) 1 septembre 2025 à 19:29 (CEST)
- Hello Dirac
je m'en suis occupé Kirham qu’ouïs-je? 1 septembre 2025 à 19:40 (CEST)
- Merci Kirham
tellement! Ça m'évite une tâche administrative, c'est vraiment apprécié. Dirac (discuter) 2 septembre 2025 à 15:40 (CEST)
- yapadkwa! Kirham qu’ouïs-je? 2 septembre 2025 à 21:26 (CEST)
- Merci Kirham
- Hello Dirac
- Merci Escargot bleu
RCRefBot : Résultat
[modifier le code]| Taux favorable (pour/pour+contre) | ||||||
|---|---|---|---|---|---|---|
| 5 | 0 | 0 | 100 % | |||
(Traité) Cuaggbot
[modifier le code]- Dresseur : Cuagga (Par ici !)
- But du bot : Requêtes WP:RBOT, insertion de {{Wikiprojet}} en PDD, etc.
- Script utilisé : Python (requests, PAS pywikipedia)
- SUL du bot
- Déjà présent (avec le statut bot) sur : nulle part
- Déjà présent (sans statut) sur : wp:fr
- Date et heure : 4 août 2025 à 16:04 (CEST)
- Remarques : Reprise d’activité après plusieurs années de sommeil qui lui ont fait perdre le statut
Ce vote est ouvert à tous ceux et celles qui ont au moins 100 modifications sur la Wikipédia en français au moment du début du vote. Le vote est ouvert pour 7 jours (soit jusqu'au 11 août 2025 inclus). Nous rappelons aux votants que les seuls avantages que confèrent le statut de bot est de ne pas apparaître dans la vue par défaut de la page Spécial:Modifications récentes et de pouvoir être utilisé à grande échelle. (en)This vote is open to everyone who has 100 edits or more on the French Wikipedia when the vote begins. The ballot lasts 7 days (until Aug 11 2025 included). We remind voters that the only advantages of having bot status is to be hidden in default view of Special:Recentchanges and to operate on a wide scale.
Cuaggbot : Pour
[modifier le code]
Pour. Bot qui a déjà fait plus de 5 800 modifs avec le statut. Il y a eu quelques problèmes mineurs ([1], [2], [3], [4]) qui ont vite été réglés par Cuagga, ce qui montre qu'on peut avoir confiance. Şÿℵדαχ₮ɘɼɾ๏ʁ 4 août 2025 à 17:38 (CEST)
Pour. Bot qui fonctionnait avant, pas de problèmes. --NicoV (discuter) 4 août 2025 à 21:01 (CEST)
Pour, demande purement technique et bureaucratique ; aucune raison de revenir sur la confiance accordée. LD (d) 5 août 2025 à 02:37 (CEST)
Pour Orlodrim (discuter) 5 août 2025 à 21:17 (CEST)
Cuaggbot : Contre
[modifier le code]Cuaggbot : Neutre
[modifier le code]Cuaggbot : Discussion avec Cuagga
[modifier le code]- @Cuagga : ton bot a déjà obtenu le statut (Wikipédia:Bot/Statut/Archive 11#(Traité) Cuaggbot), je pense qu'il suffit de demander à
Esprit Fugace de le redonner. Salutations, Şÿℵדαχ₮ɘɼɾ๏ʁ 4 août 2025 à 16:30 (CEST)
- @SyntaxTerror, j'ai posé la question sur le BB avant de poser ma demande ici, et @Litlok m'a dit "dans le doute, refais une demande" -- Cuagga (Par ici !) 4 août 2025 à 17:23 (CEST)
Cuagga : Bonjour, ça se discute mais dans ce genre de cas, j'aurais mis plutôt un lien [[Leaders (Tunisie)|Leader]] que [[Leaders (Tunisie)]] vu que "(Tunisie)" ne fait pas partie du nom, c'est juste la précision choisie sur Wikipédia pour résoudre l'homonymie. Orlodrim (discuter) 5 août 2025 à 21:21 (CEST)
- Complètement juste, j'ai fait le choix de partir avec le lien présent dans la RBOT tel quel mais ce n'était pas forcément le bon -- Cuagga (Par ici !) 5 août 2025 à 22:35 (CEST)
Cuaggbot : Résultat
[modifier le code]| Taux favorable (pour/pour+contre) | ||||||
|---|---|---|---|---|---|---|
| 4 | 0 | 0 | 100 % | |||
(Traité) SchlurcherBot
[modifier le code]Bot : SchlurcherBot (d · c · b)
- Dresseur : Schlurcher (discuter)
- But du bot : Convert links from
http://tohttps:// - Script utilisé : C#, main script: commons:User:SchlurcherBot/LinkChecker
- SUL du bot
- Déjà présent (avec le statut bot) sur : Commons, Wiki-En, Wiki-De
- Déjà présent (sans statut) sur :
- Date et heure : 31 août 2025 à 21:15 (CEST)
- Remarques : I only speak English. Sorry. Please see for further details: meta:User:SchlurcherBot
(fr) Ce vote est ouvert à tous celles et ceux qui ont au moins 100 modifications sur la Wikipédia en français au moment du début du vote. Le vote est ouvert pour 7 jours (soit jusqu'au inclus). Nous rappelons aux votants que les seuls avantages que confèrent le statut de bot est de ne pas apparaître dans la vue par défaut de la page Spécial:Modifications récentes et de pouvoir être utilisé à grande échelle.
(en) This vote is open to everyone who has 100 edits or more on Wikipedia in French when the vote begins. The ballot lasts 7 days (until Sep 07 2025 included). We remind voters that the only advantages of having bot status is to be hidden in default view of Special:Recentchanges and to operate on a wide scale.
SchlurcherBot : Pour
[modifier le code]
Pour Semble être un utilisateur de confiance, présent depuis 16 ans et réactif sur la page de discussion de son bot. 173+ millions d'édits sur Commons, c'est impressionnant.(de) Scheint ein vertrauenswürdiger Benutzer zu sein, der seit 16 Jahren dabei ist und auf der Diskussionsseite seines Bots aktiv ist. Über 173 Millionen Bearbeitungen auf Commons, das ist beeindruckend. Şÿℵדαχ₮ɘɼɾ๏ʁ, dimanche 31 août 2025 à 23:25 (CEST)
Pour Orlodrim (discuter) 1 septembre 2025 à 20:35 (CEST)
Pour Antoine.b (discuter) 2 septembre 2025 à 07:51 (CEST)- Pas de raison d'être opposé. Le but est bien borné. LD (d) 2 septembre 2025 à 13:47 (CEST)
SchlurcherBot : Contre
[modifier le code]SchlurcherBot : Neutre
[modifier le code]SchlurcherBot : Discussion avec Schlurcher
[modifier le code]LD
[modifier le code]- @Schlurcher I noticed that a few URLs were using ports, is that something your bot could work on? LD (d) 31 août 2025 à 22:16 (CEST)
- @LD Thanks! I actually never noticed this. The algorithm is very conservative, so I do not expect any change and confirmed now so on page Aluminium. It picked up the link [5], but as [6] fails, no changes are performed. It does not check [7] or [8]. --Schlurcher (discuter) 31 août 2025 à 22:55 (CEST)
Orlodrim
[modifier le code]Hi Schlurcher, this seems very useful. I just have a few questions and comments:
- Which namespaces will the bot process? In addition to main, I'm wondering if it would be useful to process Category, Help and File namespaces, but I would be interested to know what you already did that other wikis (maybe the Help namespace is tricky because of pages documenting the wiki syntax and external links).
- I've started with namespace 6 in Commons, then expanded to currently only namespace 1 and 6. I'm open to expanding this in the future further, but also fine keeping this for now.
- Namespace 1 is Talk. Are you sure about that or did you mean namespace 0 or 10? (your bot has so many contributions on Commons that I can't filter by namespace to check
) - Otherwise, if you can and if the others don't disagree, I think that processing the Help namespace would be great (except Aide:Syntaxe and Aide:Liens externes (wikicode)).
- Sorry, I intended to say namespace 0 (Article) and 6 (Files). --Schlurcher (discuter) 1 septembre 2025 à 22:36 (CEST)
- Namespace 1 is Talk. Are you sure about that or did you mean namespace 0 or 10? (your bot has so many contributions on Commons that I can't filter by namespace to check
- I've started with namespace 6 in Commons, then expanded to currently only namespace 1 and 6. I'm open to expanding this in the future further, but also fine keeping this for now.
- The page Extensible Markup Language contains the link http://www.w3.org/ as an active link. It also contains http://www.w3.org/ in syntaxhighlight blocks, as well as subpages of it also in syntaxhighlight blocks (e.g.
xmlns="http://www.w3.org/1999/xhtml"). What would the bot replace here?- If the page contains a live link it will be replaced. In this case, I would, however, argue that the link describing the parameter should not be a live link [9]. Any link not rendered as a link is not touched, this includes all blocks of syntaxhighlight. Note that the bot extracts all http-links from the parsed html code of a page, not the wikitext. It searches for all href elements and extract the links there. It does not rely on regex. This is also to avoid any problems with templates that modify links. Here is the edit the bot would do: [10]
- Ok, I understand that the bot relies on links in the rendered version. What I would like to know is the following:
- If the same http link appears both inside and outside syntaxhighlight/pre/nowiki and the link works in https, will the bot replace the http link also in syntaxhighlight/pre/nowiki blocks? (if the bot doesn't do any parsing, I guess it can't make a difference, unless it compares the number of occurrences in the rendered version and in the wikicode)
- If a http link like http://www.example.com/ works in https, will the bot replace also "http://www.example.com/some-page" with "https://www.example.com/some-page" because it contains the substring "http://www.example.com/", no matter whether https://www.example.com/some-page works or not?
Obviously, it's unlikely that only the main page is accessible in https. However, after giving a look on your code, I see your bot has smart logic to detect when a domain has probably expired and been replaced by ads, but it only works if it's not the root page. This could lead to this kind of situation.
- Some of this was brought up in the En-Wiki bot request. Based on this the following adjustments were made 1) The final search-and-replace tries to exclude nowiki blocks. But I would say the implementation is rather rudimentary and oftentimes anti-conservative, as especially text between multiple nowiki block is ignored. 2) Http links that are substrings of other http links are filtered out. For this reasons if such substrings are on a page they would only be corrected in the second run (after the superstrings are changed to https). For this reason, these example edits require two visits of the same page: [11]. --Schlurcher (discuter) 1 septembre 2025 à 22:36 (CEST)
- @Schlurcher Given what I understand from how the bot works, I have created a list of pages where it could be worth double-checking what the bot does : Utilisateur:Orlodrim/Special cases for http links conversion (depending on whether it skips pre, syntaxhighlight and comments in the same way as nowiki, the bot may or may not try to change links in unwanted places). Orlodrim (discuter) 7 septembre 2025 à 13:38 (CEST)
- Ok, I understand that the bot relies on links in the rendered version. What I would like to know is the following:
- If the page contains a live link it will be replaced. In this case, I would, however, argue that the link describing the parameter should not be a live link [9]. Any link not rendered as a link is not touched, this includes all blocks of syntaxhighlight. Note that the bot extracts all http-links from the parsed html code of a page, not the wikitext. It searches for all href elements and extract the links there. It does not rely on regex. This is also to avoid any problems with templates that modify links. Here is the edit the bot would do: [10]
- When it queries external websites, does the bot have per-domain (or global) rate limiting? Does it have a user-agent with a link to its page?
- I do not do any rate limiting as the processing is generally quite slow. The list of pages is scrambled and thus usually do not come from the same domain. I do send a user-agent string of SchlurcherBot.NET Develop/0.1 so any website owner may block me if they see fit. This said, I'm not seeing any issues so far.
- Based on wikis where it's already active, would you have a rough estimate of the proportion of http links that bot manages to replace? I'm asking to have an idea of how many pages the bot would edit here, given than approximately half of them contain an http link.
- It's 10% on commons but was more in the range of 30% on wiki's. Mainly as more than one link is usually on a page. Based off 2'970'187 pages with at least on http link you can expect approximately 1 Million edits.
- Not directly a question for you, but for the record: for links in references, the French Wikipedia displays an extra "archive" link that uses the Wikiwix caching service. I can't check right now because Wikiwix seems down, but hopefully changing the protocol of links doesn't prevent retrieving the originally cached version. I contacted Pmartin about this. This would matter in case a web page is still accessible but the interesting part is gone.
- Thanks. Yes I see this behaviour in Fr wiki. Generally archive does ignore http vs https based on my tests, so I hope there is no issue.
- Indeed, Pmartin replied that it's probably not sensitive to the protocol. I will double-check once the site is back online.
- Thanks. Yes I see this behaviour in Fr wiki. Generally archive does ignore http vs https based on my tests, so I hope there is no issue.
- I looked at the most popular domains with the http protocol on this wiki, and I noticed that one of them (www.city-data.com) is blacklisted, which might cause a lot of issues for your bot. For some others, it might be possible to convert them unconditionally (for instance, changing links using http://web.archive.org/ to https://web.archive.org/ seems safe).
- Any blacklisted domain is not rendered by wiki software. Thus, the link does per the bot not appear on the site (see above for the logic). Thus, I'm not expecting an issue here.
- I don't think this is correct. For instance, on Paris (Idaho), the link to http://www.city-data.com/city/Paris-Idaho.html appears to be rendered. Based on the discussions in phab:T37754, everyone agrees that the blacklist should be applied for rendering but it's hard do implement this efficiently. That said, it won't do any harm on the wiki, in the worst case it will just spam your error logs.
- I've checked and the bot does update the link, but the page save fails for the stated resasons. I will try to keep this in mind when monitoring my logs. --Schlurcher (discuter) 1 septembre 2025 à 22:36 (CEST)
- I don't think this is correct. For instance, on Paris (Idaho), the link to http://www.city-data.com/city/Paris-Idaho.html appears to be rendered. Based on the discussions in phab:T37754, everyone agrees that the blacklist should be applied for rendering but it's hard do implement this efficiently. That said, it won't do any harm on the wiki, in the worst case it will just spam your error logs.
- Any blacklisted domain is not rendered by wiki software. Thus, the link does per the bot not appear on the site (see above for the logic). Thus, I'm not expecting an issue here.
Orlodrim (discuter) 1 septembre 2025 à 01:34 (CEST)
- @Orlodrim Thanks for the detailed questions. I've replied each time next to the point raised. --Schlurcher (discuter) 1 septembre 2025 à 17:55 (CEST)
Schlurcher : Thanks for your answers, please see the replies on some of the points. Orlodrim (discuter) 1 septembre 2025 à 20:31 (CEST)
SchlurcherBot : Résultat
[modifier le code]| Taux favorable (pour/pour+contre) | ||||||
|---|---|---|---|---|---|---|
| 4 | 0 | 0 | 100 % | |||