herzlich willkommen in der Wikipedia! Ein paar helfende Hinweise für deinen Einstieg hier findest du auf der Seite Hilfe:Neu bei Wikipedia.
Ich wünsche dir ein gutes Gelingen.
(Softwareneuheit) Betrifft das Hochladen von SVG-Dateien: Attribute, die mit on beginnen, sind im Inkscape-Namensraum des SVG-Codes zugelassen (Task 288186, Gerrit:876015)..
Automatische Archivierung
Auf dieser Seite werden Abschnitte automatisch archiviert, deren jüngster Beitrag mehr als 30 Tage zurückliegt und die mindestens einen signierten Beitrag enthalten. Um die Diskussionsseite nicht komplett zu leeren, verbleiben mindestens 3 Abschnitte.
Änderung an Bodendenkmmallisten
Letzter Kommentar: vor 3 Jahren2 Kommentare2 Personen sind an der Diskussion beteiligt
Hallo Ordercrazy, deine Änderungen an den Bodendenkmalusten im Landkreis Forchheim wie Liste der Bodendenkmäler in Wiesenttal werfen bei mir einige Frage auf:
1. Warum teilst du die Liste in Gemarkungen auf? Denn in den Quellen zu jedem Bodendenkmal ist garnicht erkennbar, in welcher Gemarkung dieses jeweils liegt. Damit sind die Gemarkungesangaben nicht belegt.
2. Wo ist eigentlich geregelt, dass die Lage von Bodendenkmälern offiziell in Gemarkungen feinunterteilt ist? Gibt es so eine Regelung überhaupt?
3. Warum schreibst du in jeder Zeile ganz links den Namen der Gemarkung rein, obwohl er oben doch schon steht. Das ist eine unnötige Doppelung. Zudem gehört hier nach Vorlage nicht die Gemarkung rein sondern der Ortsteil.
4. Deine jeweils extrem geringfügige Änderung der Koordinaten, die ich im Landkreis Forchheim um um weiteren Umfeld erst massenweise eingebracht hatte, ist eine reine Geschmacksänderung und deshalb unnötig bzw. unzulässig. Warum also belässt du die Koordinaten nicht?
Ich wäre dir dankbar, wenn du mir zu den Fragen jeweils eine Antwort schreibst. Ansonsten werde ich die Änderungen wegen reiner Geschmacksänderung, Widerspruch Gemarkung vs. Ortsteil in der Vorlage, unnötige Doppelung und nicht erkennbar sinnvolle Einteilung nach Gemarkungen wieder zurücksetzen müssen. In Wiesenthau habe ich deine Änderung bereits auch deshalb zurücksetzen müssen - auch weil du dort ein Bodendenkmal in die Liste von Wiesenthau aufgenommen hast, dass jedoch offiziell der Gemeinde Kirchehrenbach zugeordnet ist. Bitte unterlasse es Bodendenkmäler einfach anderen/weiteren Gemeinden zuzuordnen, nur weil du der persönlichen Meinung bist, dass es so besser passen könnte. Denn bei Bodendenkmälern, die Gemeindegrenzen überschreiten, ist dieses trotzdem auch nur einer und nur einer Gemeinde zugeordnet.--Frankenschorsch (Diskussion) 14:36, 16. Jul. 2021 (CEST)Beantworten
Hallo Frankenschorsch, Du darfst alles Rückgängig machen was du magst.
1. Längere Listen werden durch Zwischenüberschriften lesbarer, Denkmäler auffindbar und ansatzweise räumlich zusammengefasst. Und die Bodendenkmalliste gleicht sich im Format an die Baudenkmallisten in Wikipedia an.
2. Es ist in Bayern so geregelt, dass (fast) jeder Ort im Freistaat einer Gemarkung zugeordnet ist. Wenn du Wikipedia meinst: Es gab bei Baudenkmälern eine lange Diskussion bzgl der Gemarkungen (dort: Ortsteil).
3. In der Zeile ganz Links steht, wenn vorhanden, eine Adresse. Oft ist leider keine vorhanden - dann steht dort nochmal die Gemarkung.
4. Was die Gemeindezugehörigkeit angeht: Wir listen Bodendenkmäler nach Gemeinde - etliche Denkmäler sitzen in 2, manche sogar in 3 Gemeinden gleichzeitig. Ich halte mich bei der Zuordnung strikt an die Quellen, nämlich die im Artikel verlinkte Liste der Bau- und Bodendenkmäler des BLfD. Fändest du es nicht seltsam und erklärungsbedürftig, wenn der Leser in der "offiziellen" Liste ein Bodendenkmal findet, das er in der Wikipedia-Liste nicht findet?.
5. Ich hänge an nichts. Die wesentliche Änderung, die ich grade über die Denkmallisten fahre ist a) eine Aktualisierung, b) das Hinzufügen einiger Zigtausend in den Listen fehlender Koordinaten. Der Rest ist nicht mehr als etwas Kosmetik.
Denkmalparser muss vorherige Korrekturen berücksichtigen
Letzter Kommentar: vor 3 Jahren11 Kommentare4 Personen sind an der Diskussion beteiligt
Hallo Ordercrazy, wir hatten das Thema ja u. a. schon bei #Koderierungsproblem im Denkmalparser einmal. Dein Script muss vorherige Korrekturen in den Artikeln irgendwie berücksichtigen. Du verstehst sicher, dass ich nicht nach jedem Durchlauf die gleichen Tippfehler wieder entfernen möchte genauso wie Korrekturen und sonstige Anpassungen anderer Benutzer nicht ungesehen überschrieben werden dürfen. Nur zwei Beispiele von ganz vielen: Selbitz: [1] vs. [2] und Senden: [3] vs. [4]. Dass das nicht so einfach ist, ist mir klar, aber so kann es nicht weitergehen. -- Gruß, aka18:57, 18. Jul. 2021 (CEST)Beantworten
Hallo @Aka: - wenns so einfach wäre. Ich versteh dich. Die meisten aktuellen Bodendenkmallisten haben das Problem, dass die Texte unvollständig und notdürftig gekürzt sind - die lassen sich leider nur komplett ersetzen - dann sind auch die Fehler aus der Quelle und ggf. der ein oder andere Formatierungsfehler wieder drin. In fast allen Listen fehlt die Wikidata-Zuordnung. Ohne die sind die Listen in Zukunft nur schwer wartbar. Das Wikidata-Problem wäre (mit viel viel Aufwand) lösbar. Das Textproblem nicht. Ich kann nur zwei Optionen bieten: a) Wir lassen die Listen so: [5] - oder wir kriegen die, mit ein paar wiedereingefügten Fehlern in den Zustand nach dem Script: [6]. Der Zustand nach dem Script entspricht der offiziellen Beschreibung und hat alle Vorlagenelemente - es gibt danach keinen Grund mehr, größere Textänderungen vorzunehmen. Es wäre also die letzte größere Textänderung. Die "aktiv" bearbeiteten Listen von Storchi und "Frankenschorsch" lasse ich eh schon aussen vor - der Preis dafür ist, dass die Elemente dieser Listen entweder manuell mit Wikidata verknüpft werden oder aber aus der zukünftigen Wartung rausfallen.
Auf die Frage, warum wir nicht früher schon, bei der Erstellung der Listen Nägel mit Köpfen gemacht haben: Die Datenqualität beim Landesamt hat sich in letzter Zeit massiv verbessert - und die Funktionen zum Abruf der Detaildaten ebenfalls. Mit den vor über einem Jahr verwendeten Script war nicht wirklich mehr möglich.
Mir widerstrebt der alte Zustand der Listen ohne Koords und mit abgeschnittenen Texten, und ich hab mich, das Script ist schon lange funktional, nach 6 Monaten aufgerafft, das zu fixen. Ich will aber auch keinen Editwar provozieren. Es gibt für mich derzeit nur die binäre Lösung: Ich nehme mir die nächsten Wochen Zeit, um alle Bodendenkmallisten upzudaten, mit den bekannten Fehlerproblemen (und ich muss mir die Zeit echt aus den Rippen schneiden) - oder die Listen bleiben in dem Zustand in dem Sie jetzt sind. 90% der Listen wurden in den Letzen 12 Monaten nicht angefasst - die werden auch in 5 Jahren noch so sein. In meinen Augen ist die Überarbeitung den Zusatzaufwand wert. Wenn du drauf bestehst, die alten Listen zu erhalten, höre ich auf, die Listen zu überarbeiten und werde mir den Zopf "bayerische Baudenkmäler" dann aber auch radikal abschneiden - Diskussionen mögen dann andere führen. Wenn das jetzt aggressiv klingen sollte: Es ist nicht so gemeint, wirklich. Es ist nur so, dass ich in fast 20 Jahren Wikipdedia zu dem Schluss gekommen bin, dass mir meine Zeit für onWiki geführte Diskussionen zu schade ist - ich ziehe mich in solchen Fällen eher zurück und biete das auch hier an.
Wenn du jemand weisst, der mit dem Script arbeiten mag: es ist in den nur für das aktuelle Hauptupdate genutzte Teilen ein arges Provisorium, aber ich stelle das gerne zur Verfügung. --Ordercrazy (Diskussion) 08:39, 19. Jul. 2021 (CEST)Beantworten
Verstehe ich das richtig, dass du jetzt noch einmal die alten Änderungen überschreibst, weil das die Listen insgesamt verbessert, danach aber nicht mehr? Das wäre sicherlich eine akzeptable Lösung. -- Gruß, aka09:56, 19. Jul. 2021 (CEST)Beantworten
Danke für dein Verständnis. Und ja: Korrekt. Danach gibt es keine Veranlassung mehr, die Texte automatisiert zu ändern, im Gegenteil: es wäre dann sehr wünschenswert, wenn die Texte weiterführend verlinkt (es existieren ja viele Artikel zu den Objekten schon), erweitert und mit Leben gefüllt werden. Mittelfristig wollen wir alle reinen "Datenbank-Infos" wie Koordinaten, Adresse und Objekttyp direkt aus den vernknüpften Wikidata-Elementen ziehen, d.h. da wirds in den nächsten Jahren noch Änderungen geben, die entweder aus dem Listentemplate kommen oder durch eine Verknüpfung. Das Textfeld bestehender Objekte wird aber nach dem jetzigen Überarbeitungslauf mit "Komplettierung" der Texte nicht mehr scriptbasiert angefasst und schon allein wegen der Längenbeschränkung auch nicht mit Wikidata verknüpft werden, wird also auch nicht mehr maschinell überarbeitet. Wenn das akzeptabel ist, würde ich mich freuen. Aktuell sind die Listen nach Gemeindename von Z-So* (aufsteigend alphabetisch) upgedatet - da würde also schon noch einiges an Bodendenkmallisten kommen. --Ordercrazy (Diskussion) 10:11, 19. Jul. 2021 (CEST)Beantworten
Ich habe die Internetquelle (zugriff/abruf / werk) homogenisiert (wurde je nach option anders angegegen) und so upgedatet, dass die generierten Listen nicht mehr in der Wartungskategorie auftauchen sollten. --17:07, 19. Jul. 2021 (CEST)
Es freut mich, dass es jetzt weitergeht bei den Bodendenkmälern. Wie schon geschrieben, ich bin aber raus. Ich kann kein SW und IT-Sprech und von Hand prüfen/editieren ist auch nicht meins.
Die Grunddaten bei Wikidata müssten "eigentlich" alle angelegt sein (Stand April). Ich sehe aber die Gefahr der "Zusammenlegeritis". Altes Problem, es wird auch dort versucht das Kategoriesystem und "all in one" Grundsatz abzubilden. Bau- und Bodendenkmäler zusammenlegen, Kirchen oder neuzeitliche Überbauung zu Bodendenkmäler machen usw. Hab zwar einiges wieder entzerrt aber ist ein fast sinnloser Kampf dort. Daher hab ich auch meine BEO dort geleert und als Tipp lieber die Grunddaten lokal halten und die mit dem Parser verknüpfen.
Zu den Listen von Platzhirschen (z.B. siehe oben oder Raum Coburg) würde ich alle auf eine "Blacklist" setzen und überhaupt nicht mehr anfassen. Soll sich doch darum kümmern wer will. Diskussionen sind da reine Zeitverschwendung und machen nur schlechte Laune. --Derzno (Diskussion) 07:27, 20. Jul. 2021 (CEST)Beantworten
Ja, in der Tat, es gibt eine "exclude-liste" beim Updaten und dann auch in der späteren Wartung. Soweit mir bekannt gibt es in den Denkmallisten jedes Bundeslandes einzelne Gemeinde-Listen, die als "gallische Dörfer" ein Eigenleben fristen dürfen - wir sind da nicht alleine, auch wenns in Bayern ein paar mehr sind als anderswo. Rom wurde auch nicht an einem Tag erbaut, und in über 10 Jahren arbeit an der bayerischen Denkmaltopografie habe ich gelernt, in längeren Zeiträumen zu denken - viele Probleme lösen sich im Lauf der Jahre von selber. Für den "grossen Wurf" bei Wikidata wars vermutlich zu früh - es tut mir Leid, dass das nicht geklappt hat - aber ich habe die Hoffnung, dass wir in ein paar Jahren in einer konzertierten Aktion eine gesamtdeutsche, einheitlich strukturierte Denkmaltopografie dort hinkriegen. Bis dahin: Verkopf dich net damit - streiten macht ja keinen Sinn. Und, wenn man von den Details absieht, ist Bayern auf Wikidata gut aufgestellt. Von Hand ist auch wirklich die schlechteste Lösung: Die von Hand gepflegten "gallische Dörfer"-Listen wurden ja nicht aktualisiert. In den von ReinhardHauke in geradezu unvorstellbarer Handarbeit erstellten Listen sind in etwa 50 Prozent der Listen (unvermeidliche!) Kopier- und Tippfehler vor allem bei den IDs drin, die ich grade mit rauskorrigiere. --Ordercrazy (Diskussion) 08:00, 20. Jul. 2021 (CEST)Beantworten
@Derzno: zu den Fehlern bei den Bodendenkmalen oder generell bei Wikidata-Objekten wäre das nicht ein Thema über das du bei der Wikicon sprechen könntest. Viele Grüße --Thomas07:53, 20. Jul. 2021 (CEST)Beantworten
@Z thomas:, danke für dein freundliches Angebot aber leider muss ich dir da einen Korb geben. Meine Mitarbeit bei WP & Co beschränkt sich nur noch auf ein paar "Nischenthemen" und Lokales. Ich hab auch meine Dozententätigkeit zu WP an der Volkshochschule sowie lokale Trainings und Workshops zu Wikidata vollständig eingestellt. Der Grund weshalb ist hinlänglich bekannt. Ausserdem denke ich, dass man leider damit nur die Willigen zu Wikidata ereicht. Die aber gar nicht, die das Problem darstellen. Die, die ständig an WD rummeckern und verschlimmbesseren und nichts hören wollen und nur ihre "Meinung" weiterhin umsetzten. Diskussion bedeutet für die, "ich hab meine Meinung gesagt und so wird es auch gemacht, basta". Besonders ärgerlich schon deshalb, dass das oftmals Leute sind, die sonst fast gar nicht im Bereich (bayerische) Denkmäler unterwegs sind. Anyhow, it is as it is. --Derzno (Diskussion) 06:40, 21. Jul. 2021 (CEST)Beantworten
@Derzno:,@Z thomas: Das war ein Trauerspiel, wie die Wikidata-Leute mit dem Import einer strukturierten Datenbank umgegangen sind. Macht aber nix - wir haben die Daten als parallel gepflegte SQL-Datenbank hier. Ich fände es ja schöner, auf der Wikicon über den Stand der Denkmallisten in Deutschland zu reden, über deren Pflege und über eine gesamtdeutsche Denkmaltopografie! --Ordercrazy (Diskussion) 08:00, 20. Jul. 2021 (CEST)Beantworten
@Ordercrazy:, stimmt war zum davonlaufen. Du hast ja den ganzen Zirkus mitbekommen. Ob es zu früh war glaube ich nicht. Es sind halt viele die leider keine Ahnung von Datenbankdesign haben. Für die muss alles in einen Datensatz rein und Relationen sind Fremdwörter. Das kriegst auch nur schwer raus und wird immer als "viel zu kompliziert" zerredet. Ich sag nur KO-IDs. Wie sagte der ALF immer? "Was ich nicht verstehe, mach ich lieber kaputt". Hier noch ein paar Spargelabfragen der Daten die ich damals in der Kur hatte:
Am schlimmsten sieht es bei den Baudenkmälern aus. Ob es nun ein Museum ist, welches in einem Baudenkmal untergebracht ist oder ob es nur ein Teil (Beispiel: ein Tor) eines Gebäudes ist, wird es zum Baudenkmal. --Derzno (Diskussion) 06:58, 21. Jul. 2021 (CEST)Beantworten
Letzter Kommentar: vor 3 Jahren2 Kommentare2 Personen sind an der Diskussion beteiligt
Guten Abend, ich frag Dich einfach direkt, das ist vermutlich schneller und einfacher.
Gibt es eine Möglichkeit, die WP-Denkmallisten regelmäßig (ausreichend wäre wohl immer zum 1. jedes Monats oder evtl. sogar zum Quartal) und automatisch mit den Listen der Denkmalbehörden abgleichen zu lassen? Ein einfacher Abgleich der Denkmalnummern würde ja reichen. Dann per Bot einen Diskussionspunkt erstellen mit dem Hinweis, welche Denkmalnummern in der Liste der Behörde vorhanden sind, die in der WP fehlen und umgekehrt? Das würde die Arbeit erheblich vereinfachen.
Zudem könnte man da immer einen guten Arbeitshinweis mit auf den Weg geben. Ich habe es mir angewohnt, noch vorhandene Objekte ohne Eintrag in die Denkmalliste unter einen Punkt „ehemalige Baudenkmäler“ und abgegangene unter „abgegangene Baudenkmäler“ einzusortieren und diese nicht einfach aus der WP-Liste zu löschen. Für diesen Fall wärs natürlich gut, wenn diese Denkmäler nicht bei jedem Abgleich wieder erscheinen.
Hallo @Luitold:, es wird genau das bald geben. Erstmal in einer manuellen Version, die über ein Webinterface zu triggern ist und dann in einer Bot-Version, die eine Wartungsliste generiert - für Bau- und Bodendenkmäler. Ich denke, dass bei den Baudenkmälern viele Listen arg veraltet sind und viele Koordinaten nicht wirklich stimmen - wir hatten ja früher nur begrenzte Möglichkeiten, die einzutragen. Ich bitte um Verständnis, dass ich erst alle Bodendenkmal-Listen (Ich habe A-R noch vor mir) updaten will - alleine werd ich daran noch einige Wochen sitzen. Dann schreibe ich das Script zuende, das alle bayerischen Denkmallisten prüft. Wie oft man das dann laufen lässt, wird sich zeigen. Wenn jemand bei den Bodendenkmallisten helfen mag: der Parser ist eine Zicke, ich installiere euch den aber gern auf dem lokalen PC. --Ordercrazy (Diskussion) 09:33, 22. Jul. 2021 (CEST)Beantworten
Wikidata weekly summary #479
Letzter Kommentar: vor 3 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Here's your quick overview of what has been happening around Wikidata over the last week.
The next Wikibase live session is at 16:00 UTC on Thursday 29th July 2021 (18:00 Berlin time). This month, we welcome Luca Mauri to give a presentation about installing Wikibase from scratch.
Upcoming: Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Andra Waagmeester on work with Shape Expressions in Wikidata to describe the genomics of the SARS-CoV-2 virus; [7], July 27th.
COSCUP 2021 OpenStreetMap x Wikidata 2020.07.31-08.01 Online website, Meta-wiki
Still mapping!"Our team has been working continuously on improving the number of Welsh place names that appear online since our inception in 2017 as partt of the Welsh Government’s Welsh Government #Cymraeg2050 project"..."we will also use Wikidata to store and share Welsh language information".
Added a tags parameter to the wbmergeitems API so Item merges can now also get an edit tag (T286778)
Mismatch Finder: Continued working on the store part. This week we focused on uploading a file with potential mismatches and the UI for getting a list of all uploaded mismatch files.
Addressing comments from the security review of the Query Builder so we can hopefully soon move it from the test system to its proper place under query.wikidata.org
Advisory board call for members for the Web2Cit project: Web2Cit: Visual Editor for Citoid Web Translators project is moving! With Diegodlh we are inviting people to apply to be an Advisory Board member. Is this you? Is this someone you know? Check the Call for members and apply to be an Advisory Board member before August 6th!. If you are too busy this time around to apply, don't worry: we get it. You can also help us by spreading the word!
The moveClaim.js user script has been updated using code created by Melderick to support changing a property of a claim within an entity. Please switch to the updated version if you used the other one, and report any bugs.
New tool: Lexemes Party displays lexemes linked to a list of Wikidata items, so you can improve related lexicographical data in the languages you know. You can build your own lists and several examples are available. A weekly challenge is also proposed, theme of the week: Olympic Games.
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Wikidata Edit-a-thons highlighting Boston Rock City Edit-a-thon, Wikidata Comics Edit-a-thon, and Wiki-Relays [8], Aug 10th.
LD4 Wikibase Working Hour - Next steps after installing a Wikibase instance -- creating users, items, and properties. Friday, August 27th, 2021 / 1PM (time zone converter). Registration: Please fill in ZOOM Registration Link to register
Wikimania 2021, August 13 to 17, online event. On this page you can find a summary of sessions and community gatherings related to Wikidata and Wikibase.
Mismatch Finder: Finishing work on importing mismatches and moved on to building the API for retrieving mismatches from the mismatch store.
Added tags for all edits done through the UI to more easily distinguish them from edits made through tools and other means (phab:T236893)
Moved regular expression checking for constraints from the SPARQL endpoint to a dedicated service to make it faster and put less stress on the SPARQL endpoint (phab:T176312)
Mismatch Finder: We are making good progress on the tool. We made it possible to retrieve mismatches that are in the store part of the tool via an API.
Regular expressions in constraints are now no longer checked via the Query Service. The checks have been completely moved over to a dedicated service for regular expression checking. (phab:T204031)
Edits made via the user interface (as opposed to with tools, bots, etc.) are now tagged as such to make them easier to filter (example - edits made to labels, descriptions and aliases on mobile are still missing but will follow soon)
Working on allowing to restrict constraints to certain entity types (phab:T269724)
The next Wikibase live session is at 16:00 UTC on Thursday 26th August 2021 (18:00 Berlin time). You're welcome to come and share your work around Wikibase.
BiCIKL Hackathon at the Meise Botanic Garden, September 20 - 24. Theme: adding articles/items about “Hidden women in science” on Wikipedia/Wikidata. If you're interested to participate, please write to maarten.trekelsplantentuinmeise.be
50 cool new things you can now do with KB’s collection highlights - In this series of 5 articles we show the added value of putting images and metadata of digitised collection highlights of the KB, national library of the Netherlands, into the Wikimedia infrastructure. By putting our collection highlights into Wikidata, Wikimedia Commons and Wikipedia, dozens of new functionalities have been added. As a result of Wikifying this collection in 2020, you can now do things with these highlights that were not possible before. Article by OlafJanssen, DanielleJWiki and 1Veertje_(KB)
The "Wikidata Quickstatements" translator which lets users transfer metadata about citation sources fromZotero into Wikidata, no longer needs to be manually installed. Existing manually-installed versions should update automatically, like other translators.
Edits to labels, descriptions and aliases on mobile are now also tagged as edits made via the user interface. All edits made via the user interface are now tagged as such. (phab:T286775)
ArticlePlaceholder pages will now indicate that they are generated by the ArticlePlaceholder thanks to a patch by Luca (phab:T124191)
Working on making it possible to restrict constraints to certain entity types (phab:T269724)
Adding a new constraint type to ensure Items have a label in a certain language (phab:T195178)
Data Quality Days, September 8-15, a series of community-powered events on the topic of data quality. If you're interested in presenting a tool or a topic, feel free to add something to the schedule.
Depictor is a mobile-friendly tool to verify if people depicted on Wikimedia Commons are the same, and adds structured data statements (using Wikidata)
Nicolas Vigneron (User:VIGNERON, User:VIGNERON en résidence) has started a one-year residence at the libraries of Clermont-Ferrand, more info and batch upload to come
WikidataCon update: news about the online conference, grants for affiliates in Latin America and Carribean, glimpse on the keynotes topics and next steps
Data Quality Days - a week of all things data quality around Wikidata from Septempber 8th to 15th. Check the schedule, join sessions and add more if you would like to facilitate a discussion or workshop!
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: developing Wikidata tools and gadgets with Andrew Lih. [9], Sep 7th.
LIVE Wikidata editing #52 - YouTube, Facebook, September 11 at 18:00 UTC
Template:Generic queries for authors : new generic queries template designed for authors (fiction and non-fiction). Feedback and translations are welcome.
Other Noteworthy Stuff
User:SuccuBot has made its 100.000.000th edit. It is the first user account in Wikidata to reach this milestone.
In the frame of a Google Summer of Code project a new tool, called WikidataComplete was created. The tool smoothly integrates in the Wikidata UI and proposes new statements extracted by machine learning algorithms. Editors are asked to either approve or reject them. To activate it check here for a short tutorial check here. Any feedback is welcome here.
Continued work on the Mismatch Finder. We are now working on creating the page where mismatches will be listed for review.
Worked on support for "separators" parameter for distinct value constraints (phab:T277855)
Made it possible to restrict constraints to certain entity types (phab:T269724)
Added a new constraint type to ensure that the Item has a label in a particular language (phab:T195178)
Added a button for the Query Builder to query.wikidata.org to make the Query builder discoverable (phab:T276210) - integration in the example dialog is still in progress (phab:T280229)
We started work on some behind-the-scenes improvements to the way Wikipedia and the other Wikimedia projects are notified about a change that affects their articles. (They need this notification so the article can be purged and show the latest data from Wikidata again. It is also required for showing the edit in the watchlist and recent changes on those wikis. This should have no visible impact for editors but is needed maintenance work.
Gegen 18:00 Uhr wollen wir einmal die Leckereien des Vietnamesen „Saigon Village“ probieren und laden Dich dorthin zu unserem Stammtisch ein. Ein Tisch für 10 Personen ist dort reserviert. Aktuell gilt dort der Zutritt für Getestete, Geimpfte oder Genesene.
Wenn auch Du dabei sein möchtest, melde Dich bitte auf WP:Augsburg an, damit wir besser planen können. Gerne kannst Du bei der Anmeldung auch Diskussionswünsche dazuschreiben, die wir dann bereden können.
Wir freuen uns, Dich dort begrüßen und, falls noch nicht geschehen, kennenlernen zu dürfen.
Wie es aktuell selbstverständlich sein sollte, bitten wir Euch, verantwortungsvoll in Sachen COVID-19 zu handeln. Wer bei sich oder nahen Angehörigen Krankheitssymptome bemerkt, in den letzten 14 Tagen Kontakt zu Corona-Infizierten hatte oder ein Risikogebiet bereist hat, möge bitte zu Hause bleiben und uns Bescheid geben.
Transbordados: WikidataCon's preconference for Latin America - September 14, 21 and 28 (21h UTC) - with simultaneous translation for Portuguese and Spanish, via YouTube - set of events to discuss Wikidata and decoloniality, knowledge organization and digital dissemination of collections in Latin America contexts. Join us!
14/09 - Towards a decolonial wiki: overflowing knowledge from the Latin American horizon - speakers: Amanda Jurno (Wiki Movimento Brasil), Bianca Santana (journalist, writer and activist) and Silvia Gutiérrez (El Colégio de México) - watch it in PT-BR / ES
21/09 - The universe of libraries: Wikidata and the multiplication of knowledge potencies - speakers: Lilian Viana (GLAM das Bibliotecas da USP) and Maurício Genta (Wikimedia Argentina e Biblioteca Nacional da Argentina) - watch it in PT-BR / ES
28/09 - Digital collections and Wikidata: organizing a network of knowledge - speakers: Evelin Heidel (a.k.a. Scann; Wikimedistas do Uruguai) and Karen Worcman (Museu da Pessoa) - watch it in PT-BR / ES
Demo of the Query Builder live on Twitch and in French by Vigneron, September 14 at 18:00 CEST
Ongoing:
Data Quality Days - several sessions happened over the past days and more are coming this week. Recordings, slides and notes are linked in the program
Wwwyzzerdd for Wikidata is a browser extension that allows you to view and edit Wikidata information from Wikipedia (demo video). Install it in Firefox or Chrome
Other Noteworthy Stuff
Face The Facts mobile app allows you to scan election posters and see the true facts about politicians.
Mismatch Finder: The website part of the tool is taking shape but is not quite functional yet. We worked on creating the results page. You can see the current very much not finished state at https://mismatch-finder.toolforge.org/
Linked the Query Builder from the Query Service so it is discoverable (phab:T280229)
Finished work on normalizing filenames when linking to media files on Commons (phab:T251480)
All new wbstack.com wikis will now be created with elastic search support, including Wikibase indexes! All existing sites will have elastic search soon! (Source)
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Bionomia and maintaining Wikidata synchrony with David Shorthouse (Agriculture and Agri-Food Canada). [10], Sep 21st.
Lightning Talk: Wikidata in your Civic Tech project | Summit 2021 - YouTube
Continuing the work on the Mismatch Finder. This week we focused on the remaining groundwork for showing the first mismatches for review.
Continuing to work on improvements to the underlying system of how edits are propagated from Wikidata to the other Wikimedia projects.
Implemented two improvements for constraints: the “distinct values” constraint type now supports the “separator” parameter (phab:T277855) and we no longer check qualifiers on some unusual™ properties (phab:T235292)
Adding tags to some of the remaining UI edits that didn't get them yet for edits on Lexemes (phab:T290950)
Making it possible to add tags to some remaining Lexeme API modules (phab:T290951)
Fixed a bug in the Query Builder where it didn't show labels when opening an existing visual query from a shared link (phab:T280684)
Made the Query Builder more visible in the Query Service UI (phab:T280229)
We’re celebrating the 9th birthday of Wikidata on October 29 during the WikidataCon 🎂 Did you know that you can participate in the celebration by preparing a birthday present or attending events? Here’s how you can get involved!
User-level gender statistics for Wikipedia an Observable notebook which computes the share of articles created on fr.wikipedia.org by gender using P21 property through Wikidata's API.
Changed the formatting of low year numbers so that they now show as e.g. “5 CE” instead of “5” to reduce ambiugity in dates like “March 5 (CE)” (phab:T104750)
Working on fixing an issue where two Properties could have the same label in a given language (phab:T289473)
Working on preventing a few more cases where two Items could have the same sitelink (phab:T291377)
Mismatch Finder: Continuing to work on showing mismatches on the results page so that they can be reviewed
Continuing to work on technical improvements to how changes on Wikidata are propagated to Wikipedia and the other Wikimedia projects
You can also sign up for a slot at the birthday presents lightning talks session at WikidataCon 2021 to present your gift for Wikidata birthday until October 16
Finished preventing a case where the same sitelink could be added to two different Items (phab:T291377)
Continuing work on the Mismatch Finder. Currently focusing on showing the details of the mismatches to the person reviewing mismatches.
Continued work on not allowing two Properties to have the same label after undo/revert (phab:T289473)
Continuing work on improving how changes on Wikidata are propagated to Wikipedia and the other other Wikimedia projects. The new system is being rolled out to all wikis now. It should not change anything for editors and just be a technical improvement in the backend.
We’re celebrating the 9th birthday of Wikidata on October 29 during the WikidataCon 🎂 Did you know that you can participate in the celebration by preparing a birthday present or attending events? Here’s how you can get involved!
Upcoming: WMF search platform team office hour, Wednesday, October 13th, 2021 at 15:00-16:00 GMT / 08:00-09:00 PDT / 11:00-12:00 EDT / 17:00-18:00 CEST. Etherpad, Google Meet. You can come and chat about the Wikidata & Commons Query Service.
LIVE Wikidata editing #57 - YouTube, Facebook, October 16 at 18:00 UTC
Modeling and Documenting Queer Voices and Topics on Wikidata, Panel on Metadata and Gender Diversity, Amber Billey, Clair A Kronk, John Samuel, Rachel Ivy Clarke, Sayward Schoonmaker, DCMI Virtual 2021, October 8, 2021, Slides
Videos
Introduction to Wikidata for beginners. Part 2 (in Italian) - YouTube
You can also sign up for a slot at the birthday presents lightning talks session at WikidataCon 2021 to present your gift for Wikidata birthday until October 16
Mismatch Finder: We are continuing the work on the review part of the system. We are now working on letting reviewers indicate if the mismatch is on Wikidata, the other database, both or neither.
Fixed a bug where it was possible for two Properties to have the same label in a given language by undoing/reverting an edit (phab:T289473)
Fixed a confusing error message that was being shown when trying to save geoshape / tabular data that doesn’t exist (phab:T285758)
Removing some unnecessary entity link formatting in edit summaries and special pages to improve performance (phab:T292203)
Fixing an issue with invalid dates that the API accepts but should not (phab:T289417)
Migrated all Wikimedia wikis to use the new change dispatching system. This system is responsible for notifying the other wikis about edits made on Wikidata that affect their articles so the article is refreshed and edits are added to recent changes and watchlists.
Letzter Kommentar: vor 3 Jahren2 Kommentare2 Personen sind an der Diskussion beteiligt
Hallo OC, ich springe natürlich an... ich find den brandenburgbezug hier vor allem spannend. wo bekommst du denn die koordinaten her und willst du die Denkmale aus den Listen heraus exportieren oder aus einer anderen quelle? ich bin gespannt und freue mich.
Wo ein GIS ist, ist auch ein weg. Tauschen wir Koords & Shapes & Detailinfos & Quellen aus Brandenburg als Excel mit ein paar "Abrufscripts" zum aktualisieren gegen ein update der Bayerischen Baudenkmäler? :-)
Ich hab die Seiten mal ein wenig angeschaut - die Daten von Bau- und Bodendenkmälern sind abrufbar. Aktuell noch recht kompliziert, aber ich glaub, es geht auch einfacher. Ich hab noch nicht mal alle Layer angeschaut - da sind in anderen Layern sicher auch Gartendenkmäler und so Kram dabei. --Ordercrazy (Diskussion) 15:42, 18. Okt. 2021 (CEST)Beantworten
Wikidata weekly summary #490
Letzter Kommentar: vor 3 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Here's your quick overview of what has been happening around Wikidata over the last week.
We’re celebrating the 9th birthday of Wikidata on October 29 during the WikidataCon 🎂 Did you know that you can participate in the celebration by preparing a birthday present or attending events? Here’s how you can get involved!
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Scottish Accused Witches Project with Ewan McAndrew and Emma Carroll (University of Edinburgh). [11], Oct 19th.
Learn Wikidata is an online interactive course created by the Vanderbilt University thanks to a WikiCite grant and available in English, Spanish and Chinese. More information here.
The 3rd edition of the Coolest Tool Award is looking for nominations (see announcement on wikimedia-l). Please submit your favorite tools by October 27th. The awarded projects will be announced and showcased in a virtual ceremony in December.
Mismatch Finder: We are continuing the work on the review part of the system. We are working on letting reviewers submit their decision if the mismatch is on Wikidata, the other database, both or neither.
In the previous week we migrated all Wikimedia wikis to use the new change dispatching system. This system is responsible for notifying the other wikis about edits made on Wikidata that affect their articles so the article is refreshed and edits are added to recent changes and watchlists. This week we monitored the new system and investigated and fixed a few issues that came up.
Gemarkungsangaben in den Listen der Bodendenkmäler
Letzter Kommentar: vor 3 Jahren27 Kommentare4 Personen sind an der Diskussion beteiligt
Hallo Ordercrazy,
vorab: ich habe kein Problem damit die Listen (je gemeinde) in Gemarkungen zu unterteilen. Woher du die Information beziehst ist mir nicht klar und wäre durchaus spannend für mich.
Aber: Die Aussagen müssen (ganz überwiegend, weil wir in einer nicht perfekten Welt leben) zutreffend sein.
Weil Wikipedia & Wikidata mit Shapes/Polygonen nicht umgehen können, arbeiten wir aktuell mit den "offiziellen" vom BLfD angegebenen Koordinaten.
3. Warum haben wir Bodendenkmäler in der Liste, deren BLfD-Punkt ausserhalb der Gemeindegrenze liegt (siehe Lauingen!)? - 1. Weil das Bodendenkmal teils auf Lauinger Flur liegt, 2. weil das Bodendenkmal in der "Liste der Bodendenkmäler in Lauingen" des BLfD ist - wir halten uns hier also an das PDF, welches vom BLfD als Primärquelle angegeben wird.
Ich habe mir parallel zu dir die Sache bei Lauf an der Pegnitz angeschaut und bin unabhängig zu der gleichen Erkenntnis gekommen: die Ursache sind Gemeinde- und damit auch (meist) Gemarkumngsübergreifende Bodendenkmäler. In Lauf ist es bei D-5-6533-0063 so, dass eine kleine Teilfläche im Stadtgebiet von Lauf liegt (auf der Gemarkung Schönberg) aber die Koordinaten zum Denkmal auf das Gebiet der Gemeinde Ottensoos und die gleichnamige Gemarkung verweisen. Damit ist mir klar, woher die seltsamen Gemarkungsangaben kommen.
Ich habe dafür aber keine Lösung - wir haben Bodendenkmäler, die sich über 3 bzw. 4 Gemeinden ziehen - und noch viel mehr, die sich über mehrere Gemarkungen ziehen. Schlimmer noch: Ich kann derzeit Gemarkungen für Punkte abrufen, aber nicht für Flächen. Mein Vorschlag wäre, das erstmal so zu akzeptieren. Wir werden in absehbarer Zeit eine Unterstützung für Shapes/Polygone in Wikidata haben - sobald wir das haben, können wir einen Aktualisierungslauf machen und alle Gemarkungen für übergreifende Bodendenkmäler angeben. Die Wikidata-Integration macht es einfacher und die Änderung kann dann auch automatisiert durch einen Bot erledigt werden! - Neben den Koordinaten sind die Wikidata-IDs das eigentlich wichtige des aktuellen Durchlaufs - alles weitere kann dann nämlich Botbasiert entweder direkt geändert oder auf eine Wartungsliste gepackt werden. Meine Bitte wäre, den aktuellen Zustand erst mal als die Verbesserung zu sehen, die es ist. --Ordercrazy (Diskussion) 14:58, 19. Okt. 2021 (CEST)Beantworten
Danke für noch datailiertere Problembeschreibung. Wenn Du keine Lösung hast, dann mußt du es eben bleiben lassen, bis es eine Lösung gibt. Änderungen in de WP haben den jeweiligen Artikel zu verbessern (nicht nur im Sinn von korrigieren). Diese Änderungen bringen aber falsche Aussagen in die Artikel, die es vorher dort nicht gab.
Bitte lass die Kirche im Dorf: Der Artikel enthält keine falsche Aussage. Die Gemarkung stimmt. :)
Mit etwas Nachdenken habe ich durchaus eine Lösung - wir haben zur Gemarkung immer auch die Gemeinde in Wikidata und meiner Meta-Datenbank. Ich könnte also bei den Gemerkungen, die nicht Teil der Gemeinde sind etwas dahinterschreiben (also z.B. Gemeinde [[XY]] (gemeindeübergreifendes Flächendenkmal)' dahintersetzen, wenn es um eine "Fremdgemarkung" geht. Wäre das eine Lösung? --Ordercrazy (Diskussion) 15:15, 19. Okt. 2021 (CEST)Beantworten
Das ist ein Beispiel, dass genau das Problem darstellt, aber leider nicht löst. Es gibt in der Gemeinde Langenfeld nur die Gemarkung Langenfeld. Das Denkmal betrifft die drei Gemeinden Langenfeld, Scheinfeld und Sugenheim. Das Denkmal betrifft in der Gemeinde Langenfeld die Gemarkung Langenfeld, in der Gemeinde Scheinfeld die Gemarungen Oberlaimbach und Unterlaimbach und in der Gemeinde Sugenheim die Gemarkung Ullstadt. In der Liste zur Gemeinde Langenfeld ist dort die betroffene Gemarkung anzugeben - und da gibt es nur eine Gemarkung. In der Gemeinde liegen damit zwangsläufig ALLE Denkmäler auch auf der Gemarkung Langenfeld. Dieses Beispiel vergrößert nur die Verwirrung. --Gomera-b (Diskussion) 15:49, 19. Okt. 2021 (CEST)Beantworten
Ich mach dir einen Vorschlag: Ich lass das Thema Bodendenkmäler jetzt liegen und du trägst die fehlenden rund 20.000 Koordinaten & Quellenangaben in den Listen von A-L ein und aktualisiert die Listen. Bis du damit fertig bist, unterstützt Wikidata auch Shapes und wir kriegen das Thema mit den Gemarkungen automatisiert gebacken. --Ordercrazy (Diskussion) 15:53, 19. Okt. 2021 (CEST)Beantworten
Die Struktur der Liste hast Du dir doch selbst ausgesucht. Wenn es in der Liste zu einer Gemeinde Unterpunkt zu den betroffenen Gemarkungen geben soll, dann können dort (logischerweise) nur Gemarkungen angegeben werden, die auf dem Gemeindegebiet liegen.
Nur weil dann der bor nicht tut, kann doch Logik nicht außer Kraft gesetzt werden.
Um ehrlich zu sein: ja. Es ist frustrierend, dass man eine Liste baut, diese Liste stückweise verbessert und dahin bringt, dass die sechststellige Zahl bayerischer Bau- und Bodendenkmäler irgendwann automatisiert aktuell gehalten werden kann und das an solchen Kleinigkeiten scheitert. Danke für die Mühe deiner Einsortierung hier [Liste der Bodendenkmäler in Langenbach (Oberbayern)] - wir können jetzt gemeinsam einen darauf lassen, dass bald jemand kommt und feststellt, dass die Koordinate aber nicht in Oberhummel oder Langenbach ist, sondern in der Nachbargemeinde. Verstehst was ich mein? Anyway. L ist durch, du musst nur noch von A-K die Listen aktualisieren, Coords eintragen, Wikidatalink und Quelle hinzufügen. Ich mach mir ein Bier auf.
Die von dir kritisierte "mangelnde Logik" geht auf die Primärquelle zurück: Die offiziellen Denkmallisten und die Detaildaten des Denkmals, beides vom BlFD. Wir replizieren, was da drin steht. In der aktuellen Form sind die Listen in Einzelfällen verbesserungsfähig, aber nicht falsch, weil wir korrekt auf die (keineswegs falsche!) Gemarkung der Nachbargemeinde verweisen. Sobald Wikidata vernünftig mit Shapes umgehen kann, kann man in einem komplettdurchlauf die Shapes hochladen und dann alle Gemarkungssonderfälle (also auch die Überschneidungen innerhalb einer Gemeinde) abfangen. Wenn ich dich richtig verstanden haben, geht es dir nur um Gemarkungen. Ich denke schon weiter, auch die Flurnamen (soweit vorhanden) und Flurstücksnummern abzurufen. Aber halt immer eins nach dem anderen.
Du willst nicht verstehen, wo das Logikproblem besteht.
Du argumentierst, als ob es ganz normal wäre in der "Liste der Flüsse in Deutschland" die in die Unterabschnitte "Flüsse im Bundesland ..." gegliedert ist, die Donau als Fluß im "Bundesland Oberösterreich" einzuordnen, weil die Koordinaten in deiner verwendeten Karte eben auf einen Punkt der Donau in Oberösterreich zeigen.
Natürlich ist die Aussage "die Donau ist ein Fluß im Bundesland Österreich" korrekt" - für sich genommen. Aber doch aber nicht im Kontext! der Struktur der o.g. Liste.
Außerdem zwingt dich bei der Listerstellung keiner das Denkmal in eine Gemarkung einzuordnen, wenn dir die Information nicht zur Verfügung steht. So behandelst Du schließlich auch die Denkmäler zu denen du keine Koordinaten hast und folglich auch keine Gemarkung ermitteln kannst.
Und um deine Entgegnung "das weürden viel zu viele nicht zuordenbare" gleich abzuschwächen: Wenn Du dir erst mal alle Gemeinden ermittelst, in denen nur eine Gemarung existiert (In Franken praktisch jede Gemeinde), kannst du alle in der offiziellen Denkmaliste zur Gemeinde angegebenen Denkmale (entgegen der Gemarkungsinformation aus der Nachbargemeinde) dieser eindeutigen Gemarkung zuordnen.
Es stört mich gar nicht, dass du mich offensichtlich für zu dumm hälst, dein Problem zu begreifen.
Nimm doch bitte mal ein Beispieöl mit Bezug zum Problem. Denn das von die gezeigte Beispiel zeigt (nur) die Struktur des Datensatzes.
Und das in einem Datensatz nur genau eine Koordinate enthalten ist, hatte ich schon zu Anfang verstanden. Daher rührt ja dein Problem. Denn du hast einerseits die Information, dass Denkmal
D-5-6328-0044 (auch) in der Gemeinde Langenfeld (Mittelfranken) liegt, aber die Koordinate verweist auf einen Punkt ausserhalb der Gemeinde und somit auch auf eine Gemarkung ausserhalb der Gemeinde. Somit kannst Du zwar über die Koordinate EINE Gemarkung ermitteln, die das Denkmal betrifft. Im Falle von Mehrdeutigkeit, wie bei D-5-6328-0044 kannst Du dann sogar ermitteln, dass der angegebene Punkt nicht auf der Gemeindefläche der aktuellen Liste zur Gemeinde XY liegt, aber du kannst selbstverständlich daraus nicht die Gemarkung AB ermitteln, auf der der Flächenanteil des Denkmals D-5-6328-0044 in der Gemeinde XY liegt.
Ausser in der Gemeinde XY existiert nur genau eine Gemarkung (meist mit der Bezeichnug XY). Denn dann steckt der Name der Gemarkung implizit im Namen der Gemeinde.
Damit wäre es möglich bei einem Datensatz zur Gemeinde XY, dessen Koordninaten auf die Gemarkung AB und die Gemeinde ZC zeigen (=Gem AB liegt nicht in Gmd.XY => entspricht dem von mir kritisierten Fall), also im Prinzip nicht auf eine Gemarkung in der Gemeinde XY zuordenbar sind, sie für den Sonderfall, es bestünde in der Gemeinde XY ausschließlich die Gemarkung XY, das Denkmal der Gemarkung XY zuzuordnen.
Nachtrag: Für die Sonderfälle (eine Gemeinde mit einer Gemarkung) muss man Gmd. und Gemarkung aus der Liste der Gemeinden und Gemarkungen ermitteln. Ist ja ganz easy. Achtung hierbei, denn bei Sonderfällen der Sonderfälle heißt die einzige Gemarkung der Gemeinde XY nicht auch XY sondern CY. --Gomera-b (Diskussion) 19:08, 19. Okt. 2021 (CEST)Beantworten
+1 gomera-b. @Ordercrazy, hast du eigentlich vorher gelesen, was DU da schreibst? Deine Polemik hilft nicht weiter. Wenn Du meinst, das Landesamt hat hier Fehler begangen und ist dafür zuständig, warum übernimmst Du dann den Mist? Wer zwingt Dich dazu? Nochmal, es ist besser eine Liste unvollständig zu belassen, als falsche Informationen abzuladen.
Das mit den von Dir angesprochenen Punkt der Koordinaten ist IMO auch ein valides Problem. Die Ermittlung ist doch mehr oder weniger nur ein Zufallsprodukt. Hauptsächlich tritt es auf, bei sehr unsymmetrischen Grundrissen. Es dient IMO nur um Karten irgendwie zu treffen, aber doch nicht etwas genau zu verorten. Meist stimmt es zwar aber eben leider nicht immer. Die Angabe in der Liste suggeriert nur Genauigkeit, die es gar nicht gibt. Wenn dann falsche Verortungen rauskommen, wundert das mich nicht.
Gehe doch das Thema erst dann an, wenn Du deiner Sache sicher bist und nicht in Scheibchentaktik. Das verwirrt mehr als es hilft und Du machst damit IMO nur die ganze Wikipedia lächerlich und unglaubwürdig. in diesem Sinne --Bodenberater (Diskussion) 09:55, 20. Okt. 2021 (CEST)Beantworten
Um dir sinnvoll zu antworten und mich zu wiederholen: Es gibt in unserer unperfekten Welt die Notwendigkeit für Einzelkoordinaten, weil die Technik das braucht. Sowohl beim BLfD als auch im Wikiversum. Die Koordinate zu ändern (und damit ggf. 3-4 Einzelkoordinaten zu einem Bodendenkmal zu haben), wäre Theoriefindung, die wir explizit nicht wollen, siehe WP:TF. --Ordercrazy (Diskussion) 10:10, 20. Okt. 2021 (CEST)Beantworten
Die Notwendigkeit einer Einzelkoordinate für ein Flächendenkmal ist aber eine administrative Maßnahme des BLfD und vereinfacht die Wirklichkeit. Richtig ist jede Koordinate, die auf die Fläche verweist. Daher kann man ohne weiteres verschiedene Koordinaten für ein Flächendenkmal angeben, das in mehreren Gemeinden liegt, ebenso wie verschiedene Gemarkungen. In jeder Gemeindeliste sollten nur Koordinaten und Gemarkungen angegeben sein, die in der entsprechenden Gemeinde liegen. Eine Theoriefindung liegt dabei sicher nicht vor (die treibt dann vielleicht eher das BLfD).
Das das bei einer halbautomatisierten Erstellung oder Überarbeitung der Listen zuerst einmal nicht so einfach geht, leuchtet mir ein. Das wäre eine Aufgabe für händische Nacharbeit, aber auch kein Grund zum pauschalen Rücksetzen von Änderungen. --bjs13:21, 7. Jan. 2022 (CET)Beantworten
Haupgliederungspunkt "Bodendenkmäler der Gemeinde ..." in den Listen "Liste der Bodendenkmäler in..."
Letzter Kommentar: vor 3 Jahren7 Kommentare3 Personen sind an der Diskussion beteiligt
Das ist seit Jahren die Formulierung in, soweit ich weiß, allen Bau/Boden/Kulturdenkmallisten der Deutschen Bundesländer und auch in Österreich - nur die Schweizer formulieren anders. Wenn es geändert werden soll, sollte zumindest ein Deutschlandweiter Konsens der Änderung erreicht werden. Diskutiert werden kann das hier: Wikipedia:WikiProjekt_Denkmalpflege/Deutschland. Der Text ist auch nicht von mir, sondern Teil einer Vorlage. Technisch ist das in Bayern für Bau- und Bodendenkmale alles in einer Vorlage vereint - die Änderung wäre also simpel. Ich würde erwarten, dass du vor einer Änderung der Vorlage einen allgemeinen, Deutschlandweiten Konsens für diese Änderung der Formulierung herbeizuführst. @Bjs: dürfte in Bayern der inhaltliche Hauptautor der Vorlage sein. --Ordercrazy (Diskussion) 15:04, 20. Okt. 2021 (CEST)Beantworten
"Das ist seit Jahren die Formulierung ..." ist falsch! Hier in Liste der Bodendenkmäler in Langenbach (Oberbayern) wurde es hiermit durch Änderer "Ordercrazy" von "== Bodendenkmäler in Langenbach ==" in "== Bodendenkmäler der Gemeinde Langenbach ==" geändert. Die Aussage ist jetzt falsch geworden durch das Weglassen des "in" - nicht durch das Hinzufügen von "der Gemeinde".
Es soll nicht geändert werden. Es muß geändert werden, weil es FALSCH ist.
"..ist auch gar nicht von mir" interessiert mich nicht, weil Du der Änderer bist
Ich habe dich als der Autor von Massenänderungen darauf hingewiesen. Wenn Du nicht reagierst ist es deine Entscheidung weiterhin falsche Aussagen einzubauen.
Für mich soweit erledigt, außer ich falle in meiner Arbeit drüber oder auf meiner BEO, dann wird von mir manuell geändert oder die ganze Änderung revertiert. Die Begründung ist dir ja jetzt schon bekannt.
Liebe(r/s) Gomera-b, bitte lies doch mal eine Liste komplett - die Formulierung kommt schon in der Einleitung genau so! - Wenn du das jetzt in der Überschrift änderst, bleibt es in der Einleitung, im ersten Satz doch wieder wie gehabt.
Kurz: Du möchtest eine globale Änderung in allen Deutschen Denkmallisten. Ich würde dich bitten, nach guter Wikipedia-Sitte für einen entsprechenden Konsens zu sorgen, und dann ändern wird das. Wenn Konsens besteht, in allen Denkmallisten. --Ordercrazy (Diskussion) 20:13, 20. Okt. 2021 (CEST)Beantworten
Ich will gar nichts. Ich habe dich auf einen Fehler aufmerksam gemacht, der unter deinem Benutzernamen neu eingebracht wurde und offenbar auch noch weiter so eingebracht werden soll. Warum soll ICH der Fehlerbehebung und Vermeidung der Vervielfachung von einer fehlerhaften Formulierung nachlaufen? DIR ist es offensichtlich entweder egal oder du erkennst den Fehler als solchen nicht.
Tut mir leid dass ich nicht erkannt habe, dass eine gleichartige Formulierung auch als Text bereits oben drüber steht. Und was willst du damit sagen? Dann stand eben der Fehler schon drinnen und du hast ihn jetzt noch dupliziert. Das macht die Aussage ja auch nicht richtig.
Denn in der Überschrift stand vorher "in". Du hast jetzt wenigstens für Durchgängigkeit des Fehlers gesorgt. Auch dafür kein Lob von mir.
Du fühlst dich nicht angesprochen - das ist schon angekommen. Dann bau doch weiter Fehler ein. Hier sprachlich irreführend und auch inhaltlich wie bei den Gemarkungen.
Gruß
Ich sehe das erst jetzt. "kein Objekt der Gebietskörperschaft" kann man so allgemein auch nicht behaupten. Der Eintrag in die Denkmalliste erfolgt nur in Abstimmung mit der Gemeinde. Das kann dazu führen, dass beipielsweise ein Teil eines Objekts, beipieslweise einer prähistorischen Siedlung das in einer Gemeinde liegt, in die Liste eingetragen ist, ein Teil, der in einer anderen Gemeinde liegt, aber nicht. Die Gemeinde bestimmt also auch mit, was in die denkmalliste kommt und was nicht.
Andererseits habe ich auch kein Problem damit, den Genitiv in der Vorlage durch ein "in" zu ersetzen (und des Marktes durch in dem Markt). Das war keine bewusste Entscheidung gegen das "in", sondern einfach eine von mehreren Möglichkeiten. Im Lemma steht ja auch "in" Das muss auch gar nicht deutschlandweit einheitlich sein, die Regelungen sind ja auch in jedem Bundesland verschieden.
In der Überschrift haben wir das "in" bei Baudenkmälern in der Regel nur nach Ortsteilen. Bei den Bodendenkmälern steht dort dann "in der Gemarkung". In der Hauptüberschrift kann es m.E. ganz entfallen, die heißt dann einfach nur "Bodendenkmäler" (oder evtl. "Ehemalige Bodendenkmäler"), es gibt keine Notwendigkeit, die Gemeinde dort noch einmal extra aufzuführen. --bjs13:10, 7. Jan. 2022 (CET)Beantworten
Dass bei den Gemeinden eine Stellungnahme angefordert wird und möglichst ein Konsens gesucht wird, widerlegt in keiner Weise meine Aussage "kein Objekt der Gebietskörperschaft". Bitte strenge Logik anwenden und nicht einfach einen Genitiv verwenden, wo er - wenn schon bezeifelt wird das er falsch wäre - zumindest missverständlich wirkt. --Gomera-b (Diskussion) 13:20, 7. Jan. 2022 (CET)Beantworten
Bei so allgemeingültigen daherkommenden Formulierungen bin ich immer erst mal skeptisch, vor allem, weil nicht klar ist, auf welche der vielfältigen Funktionen des Genitivs das bezogen sein soll. Das Bodendenkmal ist zumindest Teil des Territoriums der Gemeinde.
In ist aber auf jeden Fall richtig und heißt ja auch im Lemma so. Ich werde das in der Vorlage jetzt mal anpassen mit Verweis auf diese Diskussion. Sollte das jemand stören (falls es überhaupt jemand merkt), kann er/sie sich ja melden. --bjs14:09, 7. Jan. 2022 (CET)Beantworten
Wikidata weekly summary #491
Letzter Kommentar: vor 3 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Here's your quick overview of what has been happening around Wikidata over the last week.
User:Bargioni/UseAsRef has now a 2.0 version, allowing to use as references not only external IDs but also some other properties (P1343, P973, P8214 etc.)
Other Noteworthy Stuff
QID ("Initialism of Q-identifier, a unique identifier for an item in Wikidata. [from 2012]") now has an entry in Wiktionary
The 3rd edition of the Coolest Tool Award is looking for nominations (see announcement on wikimedia-l). Please submit your favorite tools by October 27th. The awarded projects will be announced and showcased in a virtual ceremony in December.
The new WDQS Streaming Updater now fully shipped to production. This will help the Query Service better deal with the amount of edits happening on Wikidata. (more information)
Mismatch Finder: Continuing work on the results page where mismatches are shown for review. We are focusing on showing all necessary information for a mismatch to make a good determination if it is a mismatch in Wikidata, the external source or neither.
Finishing the work on the new change dispatching system that improves how Wikipedia and the other Wikimedia projects are notified about edits happening on Wikidata that affect them. Currently tying up some lose ends.
Documentation of the sessions are currently ongoing. It may take a few weeks to publish all 80 hours of content but you can already watch some of them (linked from each session's Etherpad).
Wikidatapink pony session (a meetup where participants shared wishes and feature requests about Wikidata to the development team)
Continued the work on the first version of the Mismatch Finder. We are getting closer to the polishing phase now and will have something ready in the next weeks.
Lua access for Lexemes is now ready to test on English Beta Wiktionary.
Concluded work on the improved behind-the-scenes system for notifying Wikipedias and co about Wikidata edits that affect them. Nothing should have changed for you.
Started working on a new implementation of the search box to be ready for the upcoming skin changes the WMF is working on.
Documentation of the WikidataCon 2021 sessions are currently ongoing. It may take a few weeks to publish all 80 hours of content but you can already watch some of them (from each session's Etherpad)
Plantilla:Infotaula persona, infobox for people on Catalan Wikipedia with extensive use of Wikidata, used 175000 times, with Bridge editing. Sample use at ca:Frits Zernike.
Mismatch Finder: Added various dialogs and help texts to make it easier to understand what reviewers need to do and what information they are seeing in the tool
Mismatch Finder: started polishing and bug fixing for release of the first version
Making the order of Lexeme's grammatical features consistent (phab:T232557)
Investigating how to share complex SPARQL queries in Wikidata Query Service via short URL (phab:T295560)
This post about the question of the week is showing how questions can be answered over Wikidata. Also it gives some insights on how Google and Siri are using Wikidata.
A new openly accessible book on knowledge graphs has been published by prominent researchers in the field.
Working on displaying the grammatical features of Lexemes in a particular order in the UI (phab:T232557)
Mismatch Finder: continuing polishing before first release. Focusing on making API documentation available and adding a footer to the site
The ongoing work on MediaWiki skin improvements especially for Wikipedia will break the search box for Wikidata. We're working on addressing this. (phab:T275251)
Migrating a number of components to vue 3 to keep up with the rest of MediaWiki (phab:T294465)
Next LD4 Wikibase Working Hour. Thurs. 16 December 2021, 11AM-12PM Eastern, (time zone converter). "We will continue work developing our WBStack sandbox which seeks to explore how Wikibase could help track the usage of alternate labels for terms in vocabularies like LCSH"
LIVE Wikidata editing #64 - YouTube, Facebook, December 4 at 19:00 UTC
Mismatch Finder: Continued working on last remaining tickets for the first version. Added a footer to the site, improved documentation and added ability to delete a batch of mismatches.
Made good progress on migrating our on-wiki Vue apps to support the new Vue.createMwApp compatibility layer in MediaWiki core (phab:T294465)
Continued work on making it possible to define a custom ordering of grammatical features on Lexemes (phab:T232557)
More research and discussion on mul language code (phab:T285156)
Discussing with data re-users about their views on the ontology issue classification we worked on earlier this year to get their input (slides from Data Quality Days session)
"Knowledge Based Multilingual Language Model" Using the Wikidata to build the language models that not only memorize the factual knowledge but also learn useful logical patterns. (Liu et al, 2021)
Videos
Summary of Transbordados, the pre-WikidataCon conference organized by Wiki Movimento Brasil (in Brazilian Portuguese)
Tool of the week
Weaviate big graph (source) is a vectorised search engine which returns similar items in Wikidata.
Other Noteworthy Stuff
Wikimedia Deutschland is running a survey to evaluate Wikibase Installation and Updating experience for users. Please answer a few questions so we can continue to identify areas of improvement for users. Survey links
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Lightning talks on WikiProject Vanderbilt Fine Arts Gallery, Wikidata use for a site-specific archaeological case study (Dura-Europos, Syria), and round tripping Wikidata into Alma using Alma Refine. Agenda, Dec. 14th.
Lukas Schmelzeisen, Corina Dima, Steffen Staab: "Wikidated 1.0: An Evolving Knowledge Graph Dataset of Wikidata's Revision History", https://arxiv.org/abs/2112.05003v1
"ARTchives: a Linked Open Data native catalogue of art historians’ archive" crowdsourcing curated information on notable art historians’ archives (including Wikidata) - paper, tool
embeds.js: This script shows embeds on external identifier statements such as YouTube videos, Twitter tweets, Spotify playlists, Genius lyrics, and more!
Hallo Ordercrazy, das Warten auf Weihnachtsmann und Christkind dauert noch ein bisschen, aber das Warten auf die Ergebnisse des Denkmal-Cups 2021 ist zu Ende. Du hast es dieses Jahr nicht unter TOP 3 geschafft, aber ich freue mich trotzdem über deine Teilnahme und Beiträge. Ich hoffe natürlich, dass du dieses Jahr beim Cup und in der Wikipedia Spaß hattest und hoffe, dass du 2022 wieder dabei bist. Als kleines Dankeschön gibt es eine hübsche virtuelle Plakette. Vielen Dank und liebe Grüße --Thomas13:02, 19. Dez. 2021 (CET)Beantworten
Nachtrag: Wenn du möchtest, bekommst du von Wikimedia Österreich noch eine kleine Anerkennung, die per Post übersandt wird. Wenn du das möchtest, wende an vereinwikimedia.at. Liebe Grüße --Thomas13:50, 19. Dez. 2021 (CET)Beantworten
Wikidata weekly summary #499
Letzter Kommentar: vor 3 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Here's your quick overview of what has been happening around Wikidata over the last week.
The next Wikibase live session is 16:00 GMT on Thursday 30th December 2021 (17:00 Berlin time). This month we will have a guest presentation by the team at The Semantic Lab at Pratt Institute. They will present how they are using Linked Open Data (LOD) in their projects with the help of Wikibase. All are welcome!
The 500th Wikidata weekly summary is 2 issues away. We are putting together interesting things related to the number 500 to include in that issue. Do you know any Wikidata facts or queries or anything cool related to 500? Please add them to Wikidata:Status updates/Next#Welcome to the 500th Weekly Summary!
Wikimedia Deutschland is running a survey to evaluate Wikibase Installation and Updating experience for users. Please answer a few questions so we can continue to identify areas of improvement for users. Survey links
Due to the winter holidays, the development team is taking a break and no deployment is happening for Wikidata at the moment. Happy holidays, everyone :)
The next Wikibase live session is 16:00 GMT on Thursday 30th December 2021 (17:00 Berlin time). This month we will have a guest presentation by the team at The Semantic Lab at Pratt Institute. They will present how they are using Linked Open Data (LOD) in their projects with the help of Wikibase. All are welcome!
Wikidata. Lecture - master class in Russian is 16:07 GMT on Sunday 26th December 2021 (19:07 Moscow time) in Minsk Hackerspace. For those who are not familiar and want to know what it is.
Articles created by country of citizenship : a javascript notebook which looks at the distribution of articles created by a user by country of citizenship (P27). It uses Wikidata's API through wikibase-sdk library.
If you are using the Modern Vector skin on Wikidata then search might break for you near the end of January for a few days. To fix it you can temporarily switch back to the Vector skin. A proper fix is being worked on in phab:T275251.
Wikimedia Deutschland is running a survey to evaluate Wikibase Installation and Updating experience for users. Please answer a few questions so we can continue to identify areas of improvement for users. Survey links
The next Wikidata+Wikibase office hours will take place on Wednesday, January 19th 2022 at 17:00 UTC (18:00 Berlin time) in the Wikidata Telegram group.
SPARQL queries live on Twitch and in French by Vigneron, January 4 at 19:00 CEST
The next Wikidata+Wikibase office hours will take place on Wednesday, January 19th 2022 at 17:00 UTC (18:00 Berlin time) in the Wikidata Telegram group.
Next Wikidata Bug Triage Hour on January 13th at 18:00 Central Europe Time (17:00 UTC/GMT), in this Jitsi room. This edition will be an open discussion without a specific theme: you can bring 1-2 Phabricator tickets that you really care about, and we will look at them together and see how we can add relevant information and triage them.
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Review Wikimedia Foundation’s Linked Open Data Strategy 2021 and community discussion. Agenda, January 11th. to local time!
Upcoming Search Platform Office Hours. Date: Wednesday, January 12th, 2022. Time: 16:00-17:00 GMT / 08:00-09:00 PST / 11:00-12:00 EST / 17:00-18:00 CET & WAT
SPARQL queries live on Twitch and in French by Vigneron, January 12 at 19:00 CEST (exceptionally on Wednesday)
Introduction to the interwiki links between Wikidata and Wikipedia (in French) - YouTube
Exploring Wikipedia infobox from Wikidata (in French) - YouTube
WIkimedia CEE Online Meeting 2021
Implementing Wikidata in Educational Institutions — CEE Challenges and Opportunities - YouTube
Add your country to the Wikidata Govdirectory - YouTube
Wikidata automatization and integration with web resources - YouTube
Tool of the week
OneZoom "tree of life explorer" is an interactive map of the evolutionary links between all living things known to science using Wikidata.
Other Noteworthy Stuff
The Celtic Knot Conference (dedicated to underserved languages on the Wikimedia project, with a strong focus on Wikidata and lexicographical data) will take place online in 2022. You can help the organizers with giving input on topics you'd like to see at the conference. Feel free to fill in the survey before January 17.
if you want to declare that you are available for merging duplicate articles in one or more given Wikipedias, please add your name to this page
if you want to find some user able to merge articles in a certain Wikipedia, you can see if there are already available users for that Wikipedia and contact them directly
New open positions at Wikimedia Deutschland (Wikidata/Wikibase teams)
New updater for the Wikidata Query Service to help it keep up with the large number of edits on Wikidata
Query Builder to make it easier for people to create SPARQL queries without having to know SPARQL
Item Quality Evaluator to make it easy to find the highest and lowest quality Items in a topic area
Constraints Violations Checker is a small command-line tool that gives constraint violation statistics for a set of Items to make it easier to find the Items that need more work
Curious Facts finds anomalies in the data in Wikidata and offers them up for review and amusement
Wikidata Map to see the distribution of Wikidata's Items across the world and the connections between them
Current Events to make it easy to see what's currently a hot topic in the world and being edited a lot on Wikidata
The next Wikidata+Wikibase office hours will take place on Wednesday, January 19th 2022 at 17:00 UTC (18:00 Berlin time) in the Wikidata Telegram group. The Wikidata and Wikibase office hours are online events where the development team present what they have been working on over the past quarter, and the community is welcome to ask questions and discuss important issues related to the development of Wikidata and Wikibase.
SPARQL queries live on Twitch and in French by Vigneron, January 18 at 19:00 CEST
LIVE Wikidata editing #67 - YouTube, Facebook, January 22 at 19:00 UTC
The next Wikibase live session is 16:00 UTC on Thursday 27th January 2022 (17:00 Berlin time). What are you working on around Wikibase? You're welcome to come and share your project with the community.
Editing with OpenRefine live on Twitch and in French by Vigneron, January 25 at 19:00 CET (UTC+1)
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Professor Pascal Martinolli speaking on tabletop role-playing game citations practices and Wikidata, January 25th.
LIVE Wikidata editing #68 - YouTube, Facebook, January 29 at 19:00 UTC
Implementing basic version of mul language code and deploying it to Test Wikidata (phab:T297393)
Preparing an event centered on reusing Wikidata's data
Mismatch Finder: Been in touch with people who can potentially provide the first mismatches to load into the new tool for the launch. Finalized the statistics part.
Talk to the Search Platform Team about anything related to Wikimedia search, Wikidata Query Service, Wikimedia Commons Query Service, etc.! February 2nd, 2022. Etherpad.
LIVE Wikidata editing #69 - YouTube, Facebook, February 5 at 19:00 UTC
Continuing work on adding the mul language code for labels, descriptions and aliases. (phab:T297393)
Enabled statement usage tracking for Cebuano, Armenian and Warai Warai to ensure fine-grained notifications about edits on Wikidata on those Wikipedias (phab:T296383, phab:T296382, phab:T296384)
Continuing work on fixing a bug where Wikidata changes do not get sent to Wikipedia and co for the first sitelink adding leading to missing information in the page_props table (phab:T233520)
Continuing work on making sure the Wikidata search box works with the new Vector skin improvements (phab:T296202)
Mismatch Finder: Debugging some issues with the first files we got with mismatches that we can load into the Mismatch Finder
Einladung zum GLAM-Treffen am 26. und 27. März 2022
Das neunte GLAM-Vernetzungs- und Koordinierungstreffen für Deutschland, Österreich und Schweiz findet am Wochenende 26. und 27. März 2022 als digitale Veranstaltung statt. Geolina und ich, die das Treffen koordinieren, laden dich hiermit herzlich dazu ein. Hier geht es direkt zur Anmeldung. Mitsprache bei der Programmgestaltung ist ausdrücklich erwünscht. Dazu gibt es einen ersten Aufschlag auf der Diskussionsseite. Wir hoffen es lässt sich bei dir einrichten! Tausend Mozartkugeln – Raimund Liebert (WMAT)(Diskussion), 4. Februar 2022
The Data Reuse Days will bring together Wikidata editors and data reusers on March 14-24 - we're currently building the schedule. Join us and discover many cool projects!
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Andy Mabbett on the "Cite Q" template that uses data from Wikidata in Wikipedia citations and Crystal Clements on setting the framework for a future discussion on addressing ethical concerns surrounding representation of gender for living persons in Wikidata, February 8th. Agenda
Wikidata Query Service scaling: You can join 2 calls and provide feedback at the 2 WDQS scaling community meetings on Thursday, 17 Feb 2022 18:00 UTC, and Monday 21 Feb 2022 18:00 UTC. Full details here.
Live on Twitch and in French about Academic bibliographical data and Scholia by Vigneron and Jsamwrites, February 8 at 19:00 CET (UTC+1)
LIVE Wikidata editing #70 - YouTube, Facebook, February 12 at 19:00 UTC
Wikidata has 2,540,891 items for people with both date of birth and date of death. There are 9 redirects for every 100 such items. (source). 2000 people share dates of birth and death with another person.
Krbot's constraint reports are now generally updated daily, after code optimizations and hardware upgrades.
Call for Mentors: Wiki Mentor Africa is a mentorship project for tool creators/contributors. Interested to become a mentor (experienced tool creators/contributors), please visit this page!
Wikidata ESR is a tool to visualize evolutions of universities and schools, such as creations, mergers, deletions and relations. Feedback and help to develop this project further is requested.
The Data Reuse Days will bring together Wikidata editors and data reusers on March 14-24 - we're currently building the schedule. Join us and discover many cool projects!
The next Wikibase live session is 16:00 UTC on Thursday 24th February 2022 (17:00 Berlin time). What are you working on around Wikibase? You're welcome to come and share your project with the community.
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Huda Khan and Astrid Usong on their Linked Data for Production 3 (LD4P3) grant work to use Wikidata in knowledge panels in Cornell’s library catalog Agenda - 2022-02-22 9am PT / 12pm ET / 17:00 UTC / 6pm CET (Time zone converter)
Call for Mentors: Wiki Mentor Africa is a mentorship project for tool creators/contributors. Interested to become a mentor (experienced tool creators/contributors), please visit this page!
Wir konnten dafür Frau Dr. Kerstin Wolff, Leiterin der Forschungsabteilung der Stiftung, gewinnen. Sie wird uns gemeinsam mit ihrer Kollegin aus der Vermittlung, Laura Schibbe, virtuell das Haus und die Sammlung vorstellen, dabei werden wir die Gelegenheit haben mehr über die Stiftung zu erfahren.
Mismatch Finder, the tool that lets you review mismatches between the data in Wikidata and other databases, is now ready to be used for checking potential mismatches and uploading lists of new potential mismatches.
Job opening: The Search Platform team is looking for someone to maintain and develop WDQS. Apply here!
Job opening: Vorlage:Q is looking for someone for project- and data management especially for Wikidata related stuff about the museums collections Job Description (German)
Letzter Kommentar: vor 3 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Here's your quick overview of what has been happening around Wikidata over the last week.
Discussions
New requests for permissions/Bot: EnvlhBot 3. Task/s: add dictionaries IDs to French lexemes
Closed request for permissions/Bot: IndoBot (Approved). Task/s: I would like to import all Indonesian schools, more than 100000. The data includes school type, location, and coordinates as well as external identifiers
LIVE Wikidata editing #74 - YouTube, Facebook, March 12th at 19:00 UTC
LD4 Wikibase Working Hour. Presentation and discussion: "Introduction to Linked Open Data Strategy with Lea Voget, Head, Product Management WMDE". Lea is not only the team lead of product, project and program managers at WMDE, she is also one of the main thinkers behind the Linked Open Data strategy. When: 11 March 2022, 11AM-12PM Eastern US (Time zone converter). Registration: Registration link
Next Linked Data for Libraries LD4 Wikidata Affinity Group call: Associate Librarian Stacy Allison-Cassin and her students on Wikidata in the classroom. Agenda
Creating a new item on Wikidata (in Italian) - YouTube
Connecting Wikidata with OpenStreetMap (in Italian) - YouTube
Wikidata and Wikimedia Commons (in French) - YouTube: 1, 2, 3.
Tool of the week
Wikxhibit is a tool that allows anyone, even non-programmers, to create cool presentations of Wikidata, and other sources of data on the web, only using HTML and without any additional programming. Are you interested in creating presentations of Wikidata? We would like to understand your experience with Wikidata to better improve our tool. It would help if you can fill out our survey https://mit.co1.qualtrics.com/jfe/form/SV_cvZKKlRu2S7C9Fk
Other Noteworthy Stuff
Wikidata dumps: Due to technical issues the JSON and RDF dumps for the week of March 1st couldn't be properly generated (phab:T300255#7746418). The situation is expected to get back to normal this week.
The development team at WMDE is looking for a Senior Software Engineer to develop and improve the software behind the Wikidata project. Apply here!
The WMF Search Platform team is looking for someone to maintain and develop Wikidata Query Service. Apply here!
Vorlage:Q is looking for someone for project- and data management especially for Wikidata related stuff about the museums collections Job Description (German)
Wiki Loves Künstlernachlässe 2.0 ― ein virtueller Besuch beim Bundesverband Künstlernachlässe (BKN).
Im Rahmen der dritten Ausgabe unserer neuen Reihe von GLAM digital geht es am 21. März 2022 ab 18:00 Uhr zum Bundesverband Künstlernachlässe (BKN).
Wir konnten dafür mehrere Vertreterinnen und Vertreter der Mitgliedsvereine und -institutionen gewinnen. Sie werden uns einen Blick in ihre Sammlungen werfen lassen und in einem Hintergrundgespräch berichten, wie Vor- und Nachlässe der Öffentlichkeit zugänglich gemacht werden. Es werden sich Mitgliedsvereine und -institutionen aus dem gesamten Bundesgebiet vorstellen, die mit Menschen aus der Community ins Gespräch kommen möchten.
Vielleicht hast du ja Zeit und Lust, mitzuwirken:
Weitere Informationen und Anmeldung.
Data Reuse Days, on March 14-24: you can select the sessions you'd like to join among the many presentations, workshops and discussions in the schedule. You can also look at a selection of sessions based on your areas of interest.
LIVE Wikidata editing #75 - YouTube, Facebook, March 19th at 19:00 UTC
Mismatch Finder: Discussing the next batches of potential mismatches with MusicBrainz data and some remaining Freebase data
Lexicographical data: Continuing work on the basic version of the new Special:NewLexeme page, focusing on putting in the base data about the new Lexeme
REST API: Continuing coding on the basic version of the GET Item endpoint
Letzter Kommentar: vor 3 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Here's your quick overview of what has been happening around Wikidata over the last week.
Discussions
New requests for permissions/Bot:
PodcastBot. Task/s: Upload new podcast episodes, extract: title, part of the series, has quality (explicit episode), full work available at (mp3), production code, apple podcast episode id, spotify episode ID. Regex extraction: talk show guest, recording date (from description)
AradglBot. Task/s: Create between 100,000 and 200,000 new lexemes in Aragonese language Q8765
Closed request for permissions/Bot: EnvlhBot 3 (approved). Task/s: add dictionaries IDs to French lexemes
Data Reuse Days, on March 14-24: you can select the sessions you'd like to join among the many presentations, workshops and discussions in the schedule. For a recap of the event so far:
a selection of sessions are recorded, you can find the videos here or below
speakers will progressively add their slides in this Commons category
Cartographier des données de Wikidata avec Umap (in French) - YouTube
Mapping Einstein Researchers on Wikidata (in Portuguese) - YouTube
Tool of the week
Linked People project let's you explore the family trees of all known people at Wikipedia/Wikidata.
Gene of the Day (gene-wordle) uses Wikidata for gene names and crafting an answer list by number of sitelinks.
Other Noteworthy Stuff
There are Rapid Grants available for local meetups during the Wikimedia Hackathon 2022 from May 20-May 22. Apply to host a social for your local community. The deadline to apply is March 27, 2022.
The proposed config change to remove the changetags right from users – so that they can apply change tags to their own actions as they are made, but not change the tags of other actions after the fact anymore – has been deployed.
Lexicographical data: We're continuing with the work on the new Special:NewLexeme page. We worked on saving a valid new Lexeme with the new page. We are now focusing on the suggesters for language and lexical category so editors can select the right Item for them.
Data Reuse Days: We ran sessions on how to use Wikidata's data programmatically and the best practices around it. Slides and videos are available already (see above).
REST API: Continuing coding on the basic version of the GET Item endpoint. We have the very initial version of the get item endpoint ready and are now adding more parameters to it.
The next Wikibase live session is 15:00 UTC on Thursday 31st March 2022 (17:00 Berlin time). What are you working on around Wikibase? You're welcome to come and share your project with the community.
ArtandFeminism 2022 editathon by Achiri Bitamsimli. Theme: Add Dagbani labels and descriptions of female lawyers in West Africa. Date: April 1st, 2022 - March 8th, 2022. Location: Tamale College of Education, Ghana. Time: 9:00am — 9:00pm UTC. Register.
LIVE Wikidata editing #77 - YouTube, Facebook, April 2nd at 18:00 UTC
Cultural Venues Datathon: April 25 - May 2, 2022. This online editing event is organized by the Canadian Association for the Performing Arts, LaCogency and many partners, with support from Wikimedia Foundation Alliances Fund. Guided editing sessions will be facilitated in English and in French.
The Celtic Knot Conference, dedicated to underrepresented languages on the Wikimedia projects, with a focus on Wikidata, will take place online and onsite on July 1-2, 2022.
Ongoing:
Wikimedia Indonesia's Datathon program under 2022 Wiki Women's Month started on March 18th 18:00 UTC+7 and will last until March 25th 23:59 UTC+7. 70+ users enrollled. Page.
Call for Mentors: Wiki Mentor Africa is a mentorship project for tool creators/contributors. Interested to become a mentor (experienced tool creators/contributors), please visit this page!
Wikidata now has over 1,600,000,000 edits! The milestone edit was made by Ruky Wunpini.
Lexicographical data: Working on the lookup for language and lexical category and displaying potential errors during Lexeme creation
Improved the API response of the wbsearchentities endpoint by adding the language to the labels and descriptions in the API response (phab:T104344)
Data Reuse Days: Second and final week - organized, attended and held a few sessions incl. bug triage hour and pink pony session
REST API: Continuing work on getting the the data of an Item, we almost have filtering of the data returned by the API and basic error handling is in place. Next up: not returning the data if the client already has the most recent data, and authentication
Letzter Kommentar: vor 3 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Here's your quick overview of what has been happening around Wikidata over the last week.
Discussions
New requests for permissions/Bot: APSbot 4: Task/s: Regularly create organizations from the Research Organization Registry (ROR - https://ror.org/) that are missing in Wikidata.
Highlighting linked data projects. "...Cornell University Library, Stanford Libraries, and the School of Library and Information Science at the University of Iowa are engaging in the grant-funded Linked Data for Production project. Broadly, the project uses linked data to show patrons information from outside sources (such as Wikidata) and build longer, more nuanced links between resources".
Videos
The Share-VDE project and its relationship with Wikidata (in Italian) - YouTube
Create a Wikidata page from scratch (in French) - YouTube
Clinical Trials, Wikidata and Systems Biology (in Portuguese) - YouTube
Lexicographical data: Continued work on the new Special:NewLexeme page and focused on displaying sensible error messages if an error occurs during Lexeme creation. We're also working on adding a dropdown for the language variant.
REST API: Continued work on conditional requests and authorization
Made use of the new fields added in the wbsearchentities API and added language information to the markup of entity searches that you see when editing a statement or searching with the little searchbox at the top of the page on Wikidata. Now these search results should make a bit more sense to people who use screen readers.
Wiki Loves Schrifttragende Artefakte - ein virtueller Besuch beim Sonderforschungsbereich Materiale Textkulturen.
Im Rahmen der April-Ausgabe unserer Reihe von GLAM digital besuchen wir am 25. April 2022 ab 18:00 Uhr den Sonderforschungsbereich 933 „Materiale Textkulturen“ in Heidelberg.
Wir konnten dafür mehrere Wissenschaftlerinnen und Wissenschaftler des Sonderforschungsbereiches 933 gewinnen. Sie werden uns einen Einblick in ihre aktuellen Forschungsschwerpunkte geben und freuen sich auf den Austausch mit uns. Vielleicht hast du ja Zeit und Lust, mitzuwirken:
Weitere Informationen und Anmeldung.
The next Wikidata+Wikibase office hours will take place on Wednesday, April 20th 2022 at 17:00 UTC (18:00 Berlin time) in the Wikidata Telegram group. The Wikidata and Wikibase office hours are online events where the development team presents what they have been working on over the past quarter, and the community is welcome to ask questions and discuss important issues related to the development of Wikidata and Wikibase.
April 22nd - 24th, from Wiki Mentor Africa, A three days workshop on Linking biodiversity data through wikidata using Webaps and jupyter notebooks to attend, register here
May 5th: Wikidata Bug Triage Hour, open discussion. Come with your favorite Phabricator task and we will improve its description together.
DigAMus goes Wikidata workshop: make digital projects in museums visible and findable. April 29, 3-5 p.m. TIB Open Science Lab. Register here.
Live Coding - PyORCIDAtor, integrating ORCID with Wikidata - YouTube
How to add location coordinates to Wikidata Items (in Dagbani) - YouTube
Bundestag + Wikidata = Open Parliament TV (in German) - YouTube
Tool of the week
Glitter another R package to write SPARQL queries and query Wikidata and other SPARQL endpoints. This package provides a domain specific language to write queries directly from R.
Conzept is a topic-exploration tool based on Wikidata and other information sources.
Other Noteworthy Stuff
The Wikidata MOOC (online course) has been developed by Wikimedia France, involving several French-speaking Wikidata editors. The first version of the course will start on April 26 (in French only - registration here)
Wikibase cloud update (April): the closed beta of Wikibase.cloud is planned to start in mid-April. If you want to apply for closed beta access, please register with this form.
Lexicographical data: Continued work on the new Special:NewLexeme page. We worked on displaying error messages and inferring the spelling variant from the language. We also looked into the non-JavaScript version of the page.
REST API: Worked on conditional requests (do not return data the client already has) and authorization.
The next Wikidata+Wikibase office hours will take place on Wednesday, April 20th 2022 at 17:00 UTC (18:00 Berlin time) in the Wikidata Telegram group. The Wikidata and Wikibase office hours are online events where the development team presents what they have been working on over the past quarter, and the community is welcome to ask questions and discuss important issues related to the development of Wikidata and Wikibase.
LD4 Wikibase Working Hour: Learn about Wikibase system exploration, data model development, and the road ahead for Digital Scriptorium. When: Thurs. 21 April 2022, 3PM Eastern US (time zone converter). Where: Registration Link
WeDigBio Transcription workflow "...blogpost...showing how I go from finding the name of a collector when transcribing labels to adding them to Wikidata & then linking them to their collections via Bionomia."
Bird O'Clock! is a tool based on Wikidata and other data sources that shows pictures and numbers from actual people counting actual birds in the actual world!
Tiago's Coin Herbarium is a coin collection depicting different plant information displayed via Wikidata SPARQL queries.
Lexicographical data: Worked on inferring the spelling variant from the language's Item on the new Special:NewLexeme page and started building a little help box on the special page to explain what lex. data is.
REST API: Getting closer to having a first version of the REST API that returns Item data.
Dort sind aktuell Baudenkmale genannt, die Denkmal-IDs sind richtig, die WD-Objekte auch, aber die Inhalte und Einzelnachweise sind nicht richtig. Und ich glaube, die fehlen in den Baudenkmallisten.
Wollte das ursprünglich fixen, aber weiß nicht genau, wie ich die Links abrufe. Kannst du das fixen? Ansonsten ist das aber ne tolle Leistung. Viele Grüße --Thomas16:33, 24. Apr. 2022 (CEST)Beantworten
oh - das ist ein veritabler Bug im Listengenerator oder ein zuordnungsfehler in meiner DB. Beide Listen sind mit einer alten Version erstellt worden, ich schau mir das die Tage mal an. --Ordercrazy (Diskussion) 09:49, 28. Apr. 2022 (CEST)Beantworten
Super! vielen Dank! mir ist noch aufgefallen, dass viele objekte zwischendurch "nachqualifiziert" wurden. kannst du auch was machen, oder muss das per Hand geschehen. Aber echt super arbeit von dir. viele Grüße --Thomas10:07, 28. Apr. 2022 (CEST)Beantworten
Noe - die Nachqualifizierung ist ja nur ein interner Status, dass die Objekte auf der Liste den Review, der schon vor 3 Jahren fertig geworden sein sollte, überlebt haben. Wir haben den Status der Nachqualifizierung soweit ich weiss nie getrackt, und er sollte sich ja nach erfolgter Komplettüberarbeitung der Listen eh erledigt haben. Ich könnte den automatisch auswerten wenn man das will, ich sehe aber ehrlich gesagt keinen Mehrwert für WP. --Ordercrazy (Diskussion) 10:46, 28. Apr. 2022 (CEST)Beantworten
ah okay, ich glaube, dass sich zum teil auch inhalte zb. die beschreibungen, lage und ähnliches ändern bzw dinge, die nicht ganz klar waren ändern, so wie hier. aber ich kann nihct einschätzen, was da für aufwand dahinter steckt. viele Grüße --Thomas11:06, 28. Apr. 2022 (CEST)Beantworten
Wikidata weekly summary #517
Letzter Kommentar: vor 3 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Here's your quick overview of what has been happening around Wikidata over the last week.
The next Wikibase live session is 15:00 UTC on Thursday 28th April 2022 (17:00 Berlin time). What are you working on around Wikibase? You're welcome to come and share your project with the community.
Cultural Venues Datathon: April 25 - May 2, 2022. The aim of this online editing event is to increase the quantity and quality of performing arts building/venue items.
Daily guided editing sessions will be facilitated in English and in French between April 25 and April 29.
Wikidata Coffee Breaks From April 25 - April 29, 2022 to fill in missing information on Swiss Performing Arts Institutions and venues.
From May 4 to 18 there will be the International Museum Day - Wikidata competition. The aim is to improve data about museums in the countries and regions participating. Contributors from anywhere can take part.
The Wikimedia Hackathon will take place online on May 20–22, 2022. If you’re interested in presenting something around Wikidata and Wikibase during the hackathon, don’t wait too long to book a slot: Wikimedia Hackathon 2022/Schedule#The Wikidata and Wikibase Room.
Lexicographical data: Worked on showing the name of language variants in the language variant selector and added the new information box to help people get a better understanding of lex. data.
REST API: Finished the initial implementation of the endpoint for getting data for a full Item and discussed feedback, testing and roll-out plans.
Wikidata Bug Triage Hour on May 5th at 16:00 UTC, online. Open discussion - you can bring a Phabricator ticket that you care about or that needs to be improved.
May 3rd. Next Linked Data for Libraries LD4 Wikidata Affinity Group call: The call will include presentations on two projects using Wikidata to enhance discoverability of archival and museum collections. Sharon Garewal (JSTOR) will present “Adding Wikidata QIDs to JSTOR Images,” and Daniela Rovida and Jennifer Brcka (University of Notre Dame) will present “‘Archives At’: An opportunity to leverage MARC to create Linked Open Data.” [12]
Workshop "Wikidata, Zotero and Cita": tools to understand the construction of knowledge (in Spanish) - YouTube
Georeferencing cultural heritage on Wikidata - YouTube
Theory of Machine Learning on Open Data: The Wikidata Case by Goran S. Milovanovic - YouTube
Introduction to SPARQL (Wikidata Query Service (in Czech) - YouTube
Wikidata: A Knowledge Graph for the Earth Sciences - YouTube
Tool of the week
User:Nikki/LowercaseLabels.js - is a userscript that adds a button when editing labels to change the text to lowercase.
EqualStreetNames - is a tool that maps the inequality of name attributions.
Other Noteworthy Stuff
OpenRefine is running its two-yearly user survey! Do you use OpenRefine? Then fill in the survey to tell us how and why you use OpenRefine. Results and outcomes will inform future decisions about the tool.
The April update for the Wikidata Query Service scaling project is now available.
Lexicographical data: We are finishing up the information box that should help new users understand quickly what lexicographical data is. We also added the help text to encourage people to check if the Lexeme already exists before creating one.
REST API: We started working on the REST routes to get all statements of an Item and retrieve a single statement from an Item.
Im Rahmen der Mai-Ausgabe unserer Reihe von GLAM digital tauschen wir uns am 16. Mai 2022 ab 18:00 Uhr mit Vertreterinnen und Vertretern aus den Museums-Fachverbänden aus.
The Wikimedia Hackathon will take place online on May 20–22, 2022. If you’re interested in presenting something around Wikidata and Wikibase during the hackathon, don’t wait too long to book a slot: Wikimedia Hackathon 2022/Schedule.
MapComplete is an OpenStreetMap viewer and editor that searches Wikidata for species - which means that it is super-easy to link the Wikidata item to a tree one sees!
REST API: We are continuing to implement the REST routes to get all statements of an Item and retrieve a single statement from an Item (phab:T305988, phab:T307087, phab:T307088)
Lexicographical data: We are finishing the version of the page for browsers without JavaScript support (phab:T298160). We started working on the feature to pre-fill the input fields by URL parameter (phab:T298154). And we started working on better suggestions for lexical categories so commonly-used ones can more easily be added to avoid mistakes (phab:T298150).
We fixed an issue with recently added new language codes not being usable for Lexemes and not being sorted correctly on Special:NewItem (phab:T277836).
Letzter Kommentar: vor 3 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
So schön können nur Tulpen blühen…
Einladung zum 68. Augsburger Stammtisch
68. Treffen
Freitag
3. Jun.
2022
Termin: 10:30 Uhr: Führung „Tulpenschau im Gartenbau“ in der Staats- und Stadtbibliothek Augsburg, 15:00 Uhr: Führung im Botanischen Garten Augsburg 18:45 Uhr: Stammtisch im Gasthaus zum Spickel in der Hornungstraße 44, 86161 Augsburg
Hallo Ordercrazy!
Wir laden Dich hiermit recht herzlich zu unserem Stammtisch nach Augsburg ein.
Dieses Mal haben wir gleich zwei größere Programmpunkte auf dem Plan. Bereits vormittags beginnt um 10:30 Uhr die Führung durch die aktuelle Ausstellung „Tulpenschau im Gartenbau“ in der Staats- und Stadtbibliothek Augsburg, in der historische Zeugnisse des Tulpenwahns in Augsburg gezeigt werden. Thematisch dazu passend folgt um 15:00 Uhr eine Führung durch den Botanischen Garten, bei der die Chefin uns höchstpersönlich die Ehre gibt.
Gegen 18:45 Uhr wollen wir dann ins Gasthaus zum Spickel zu unserem Stammtisch einkehren. Bisher ist ein Tisch für bis zu 12 Personen dort reserviert, weitere Plätze können aber sicherlich dazugebucht werden, wenn noch Interesse besteht.
Wenn auch Du dabei sein möchtest, melde Dich bitte auf WP:Augsburg an, damit wir besser planen können. Gerne kannst Du bei der Anmeldung auch Diskussionswünsche dazuschreiben, die wir dann bereden können.
Wir freuen uns, Dich dort begrüßen und, falls noch nicht geschehen, kennenlernen zu dürfen.
The Wikimedia Hackathon will take place online on May 20–22, 2022. Are you interested in presenting something around Wikidata and Wikibase during the hackathon? Book a slot in the Wikidata+Wikibase room: Wikimedia Hackathon 2022/Schedule.
Next Linked Data for Libraries LD4 Wikidata Affinity Group call May 17, 2022: Anson Parker and Lucy Carr-Jones (University of Virigina Claude Moore Health Sciences Library) will be talking about their Open Data Dashboard for analyzing University of Virginia Health publications using EuropePMC publication data as well as work to group publications based on institutional departments in Wikidata and how much of their content is "open." Agenda
LIVE Wikidata editing #80 - YouTube, Facebook, May 21 at 18:00 UTC
REST API: We continued implementing the REST routes to get all statements of an Item and retrieve a single statement from an Item (phab:T305988, phab:T307087, phab:T307088)
6 and 8 June: Scholia hackathon with focus on software-related visualizations and curation workflows
29 July 2022: The submission deadline for the Wikidata Workshop 2022 that will be co-located with the 21st International Conference on Semantic Web (ISWC 2022).
Interrogating linked open data and Wikidata with SPARQL Lorenzo Losa - YouTube
Tool of the week
LOD4Culture is a web application for exploring world-wide cultural heritage.
Other Noteworthy Stuff
UNLOCK, a Wikimedia Deutschland program, is looking for your project ideas. These could be the development of tools building on top of Wikidata's data, of applications for social and public good or related to civic tech. Apply until May 29th, 2022!
Wikibase REST API: Initial implementation of a route providing all statements of an item (phab:T305988), an a route to retrieve a single statement (phab:T307087) completed.
First batch of WBstack.com accounts successfully migrated to Wikibase.cloud. You can keep track of our progress on this phabricator ticket phab:T303852.
Lexicographical data: We updated the input placeholders on the new version of the NewLexeme special page (T302877, T307443). We finished the feature to prefill the inputs from URL parameters if present (T298154) and to suggest common lexical category items (T298150). We are working on some accessibility improvements (T303806, T290733, T305359) and improving validation / error messages (T305854).
Wir konnten dafür mehrere Vertreterinnen und Vertreter des Archivs gewinnen. Sie werden uns einen Einblick in ihre Arbeit geben und freuen sich auf den Austausch mit uns. Außerdem werden wir die Möglichkeit haben, gemeinsam an ausgewählten Artikel zu Leipzig zu arbeiten und Bildmaterial des Stadtarchivs neu in die Wikimedia-Projekte zu bringen. Darüber hinaus können wir uns auf die Vorstellung einiger Wikimedia-Projekte freuen. Vielleicht hast du ja Zeit und Lust, mitzuwirken:
Weitere Informationen und Anmeldung.
In einem Hintergrundgespräch mit dem Sammlungsleiter Dr. Florian T. Bayer erfahren wir an Hand von Dokumenten und Archivalien mehr über die Lebensumstände und Lebensbedingungen in diesen Gemeinden. Auch widmet sich hier erstmals eine umfassende Ausstellung der Rolle der Fürstenfamilie Esterházy als Garantin – und auch Nutznießerin – des jüdischen Lebens, und damit einem bislang kaum erforschten Aspekt jüdischer Geschichte in Österreich.
Lexicographical data: We finished work on input validation and displaying errors for faulty input (phab:T305854) and are continuing work on accessibility improvements such as screen reader support and keyboard navigation (phab:T290733, phab:T30535).
REST API: We finished implementation of conditional statement requests (phab:T307031, phab:T307032) and published the OpenAPI specification document (still subject to change as the API develops). We started working on the write part of the API with adding statements to an Item (phab:T306667).
Next Linked Data for Libraries LD4 Wikidata Affinity Group call June 14, 2022: Will Kent (Wikidata Program Manager at Wiki Education) and Rosie Stephenson-Goodknight (Wikimedia Foundation Trustee; Visiting Scholar at Northeastern University; co-founder of Wiki Women in Red) will present on Leveraging Wikidata for Wikipedia – running a multi-language wiki project and the role of Wikidata in improving Wikipedia's content gender gap. Agenda
ExtraInterwiki. Some language links will never show up in your favorite Wikipedia, those who don’t have a corresponding article in this Wikipedia. This new tool aims to give them more visibility by searching topics closed to the one on an article with no article on your wiki.
Fixed a bug where Item IDs where shown instead of the label after selecting an Item in an Item selector (phab:T306214)
Lexicographical data: finished accessibility improvement for the new Special:New Lexeme page (phab:T290733), improving error messages for the new page (phab:T310134) and worked on a new search profile to make selecting languages easier (phab:T307869)
REST API: continued work on creating statements (phab:T306667)
Next installment of the LD4 Wikibase Working Hour: Featuring speaker Barbara Fischer, Liaison Counsel at the German National Library’s Agency for Standardization (DNB). On behalf of the DNB, Fischer initiated the WikiLibrary Manifesto. Fischer works to increase the quality of metadata through Authority Control to foster retrieval and linked data. Where: Zoom (Registration link). When: 30 June 2022, 11AM-12PM Eastern US (Time zone converter)
Wikidata:Wiki Mentor Africa 3rd edition - Creating tools on Wikimedia Toolforge using Python and Flask. Friday 24th June and Sunday 26th June 2022 - 16:00 - 17:00 (UTC)
The next Wikibase live session is 15:00 UTC on Thursday 30th June 2022 (17:00 Berlin time). What are you working on around Wikibase? You're welcome to come and share your project with the community.
Next Linked Data for Libraries LD4 Wikidata Affinity Group call June 28, 2022: Andrew McAllister will introduce us to Scribe, an app that provides keyboards for second-language learners, and its use of Wikidata. This presentation should appeal to anyone who has worked on or is interested in learning more about the applications of lexicographical data in Wikidata as well as anyone who has an interest in language, open information, data and programming. Agenda
IsisCB Explore - is a research tool for the history of science whose books and subjects use imagery from Wikidata.
Other Noteworthy Stuff
Template Item documentation now includes a query to the corresponding lexemes. This is an attempt to make navigation between lexemes and items easier. For the record, Item documentation is available in the header of the talk page for each item.
Lexicographical data: We are wrapping up the coding on the new Special:NewLexeme page. Testing and rolll-out will follow soon. We are still working on making it easier to find languages in the language selector on the Special:NewLexeme page. (phab:T307869)
REST API: We are continuing to code on the ability to create statements on an Item (phab:T306667)
Investigating an issue with labels not being shown after merges (phab:T309445)
Preparation for upcoming work: We are planning the next work on the Mismatch Finder to address feedback we have received so far as well as EntitySchemas to make them more integrated with other areas of Wikidata.
Letzter Kommentar: vor 2 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Here's your quick overview of what has been happening around Wikidata over the last week.
Discussions
New requests for permissions/Bot:
ListedBuildingsUKBot. Task/s: Add wikidata site links to appropriate wiki commons category pages for listed buildings with matching ID numbers. I've identified about 1000 entities that can be updated. e.g. [13] should have a wiki commons link to [14] since they both refer to [15].
Job openings in the software development team at Wikimedia Deutschland
Junior Product Manager Wikidata - "In this role you will be part of a cross-functional team, and be the product manager of product initiatives for Wikidata, the largest knowledge base of free and open data in the world."
Product Manager Wikibase Suite - In this role "you will be part of an interdisciplinary team and the product team, and work closely with a broad variety of stakeholders in the Wikibase Ecosystem."
We are continuing to work on the new search profile for languages to make setting the language of a new Lexeme easier (phab:T307869)
REST API: We are putting finishing touches on the first version of the API route to add statements to an Item. It is still lacking support for automated edit summaries.
We are working on word-level diffs to make it easier to see what changed in an edit (phab:T303317)
We are investigating the issue of labels not being shown after some merges (phab:T309445)
The next Wikidata+Wikibase office hours will take place on Wednesday, July 27th 2022 at 17:00 UTC (18:00 Berlin time) in the Wikidata Telegram group. The Wikidata and Wikibase office hours are online events where the development team presents what they have been working on over the past quarter, and the community is welcome to ask questions and discuss important issues related to the development of Wikidata and Wikibase.
Next Linked Data for Libraries LD4 Wikidata Affinity Group call July 12, 2022: Houcemeddine Turki will speak on "Enriching and Validating Wikidata from Large Bibliographic Databases." This call will be part of the 2022 LD4 Conference on Linked Data, “Linking Global Knowledge.” While you can attend the call directly via the links below without registering for the conference, we encourage everyone to check out the full conference program and all the excellent sessions on Sched at Agenda
Due to summer vacations and our current workloads the response times from the Wikidata communications team (Léa and Mohammed) to requests and queries may be delayed. We will resume full capacity by October.
The next Wikidata+Wikibase office hours will take place on Wednesday, July 27th 2022 at 17:00 UTC (18:00 Berlin time) in the Wikidata Telegram group. The Wikidata and Wikibase office hours are online events where the development team presents what they have been working on over the past quarter, and the community is welcome to ask questions and discuss important issues related to the development of Wikidata and Wikibase.
Next Linked Data for Libraries Wikidata Working Hour July 18, 2022: Working with diverse children's book metadata. The second Wikidata Working Hour in the series will cover reconciliation in OpenRefine, so we can identify which authors from our spreadsheet of children's book metadata already exist and/or need to be created in Wikidata. You are, as always, welcome to bring your own data to work on. Event page
Placing a scientific article on Wikidata (in Portuguese) - YouTube
Teaching Wikidata Editing Practices (in Chinese) - YouTube
Threads
OpenSexism has created the Wednesday Index: each wednesday, it show gender diversity in Wikipedia articles. Gender diversity is computed using a SPARQL query.
Fixed an issue where the grammatical form of a Lexeme was rendered as `[object Object]` (phab:T239208) This also solves similar issues in other places.
REST API: Continued working on the API route to replace or remove a statement of an Item
We are making Wikibase resolve redirects when showing Item labels and descriptions in a lot more places; notably, this includes the wbsearchentities API. (phab:T312223)
Mismatch Finder: We are discussing options for how to improve its handling of dates, specifically calendar model and precision.
EntitySchemas: We are trying to figure out how to best technically go about implementing some of the most-needed features for version 2.
BboberBot. Task/s: The "robot" will browse the latest VIAF Dump, select the lines with a Idref (P269) and a Qitem, and add a P269 when it doesn't already exist in Wikidata.
ADSBot English Paper. Task/s: Importing scholarly articles from ADS database to Wikidata, by creating Wikidata Item of a scholarly article (optionally author items) and adding statements and statements-related properties to the item. Part of Outreachy Round 24.
ADSBot English Statement. Task/s: Adding missing statements and statement-related properties to existing scholarly articles on Wikidata from the ADS database. Part of Outreachy Round 24.
The next Wikidata+Wikibase office hours will take place on Wednesday, July 27th 2022 at 17:00 UTC (18:00 Berlin time) in the Wikidata Telegram group. The Wikidata and Wikibase office hours are online events where the development team presents what they have been working on over the past quarter, and the community is welcome to ask questions and discuss important issues related to the development of Wikidata and Wikibase.
[Small wiki toolkits] [Upcoming bots & scripts workshop. "How to maintain bots" is coming up on Friday, July 29th, 16:00 UTC
Next Linked Data for Libraries LD4 Wikidata Affinity Group call July 26, 2022: Clair Kronk, Crystal Clements, and Alex Jung will be providing an update to Wikidata/gender discussions from the February 8 call with a focus on pronouns. Clair will introduce us to LGBTdb, a Wikibase instance created for and by LGBTQIA+ people from which we draw insight in Wikidata-related discussions. We also hope to discuss current pain points and share action items for future collaboration. Input from community members who are familiar with lexicographical data would be greatly appreciated. Agenda
Teaching Wikidata Editing Practices II (in Chinese) - YouTube
Tool of the week
User:Magnus Manske/referee.js - is a userscript that automatically checks external IDs and URLs of a Wikidata item as potential references, and adds them with a single click.
Lexicographical data: We went over all the feedback we received for teh testing of the new Special:NewLexeme page and started addressing it and fixing the uncovered issues. One issue already fixed is a bug that prevented it from working on mobile view. (phab:T313116)
Mismatch Finder: investigated how we can make it work for mismatches in qualifiers instead of the main statement (phab:T313467)
REST API: Continued working on making it possible to replace and remove a statement of an Item
We enabled the profile parameter to the wbsearchentities API on Test Wikidata (phab:T307869)
We continued making Wikibase resolve redirects when showing Item labels and descriptions in more places (phab:T312223)
Letzter Kommentar: vor 2 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Hallo Ordercrazy!
Die von dir angelegte Seite Mick Schnelle wurde zum Löschen vorgeschlagen. Gemäß den Löschregeln wird über die Löschung mindestens sieben Tage diskutiert und danach entschieden.
Du bist herzlich eingeladen, dich an der Löschdiskussion zu beteiligen. Wenn du möchtest, dass der Artikel behalten wird, kannst du dort die Argumente, die für eine Löschung sprechen, entkräften, indem du dich beispielsweise zur enzyklopädischen Relevanz des Artikels äußerst. Du kannst auch während der Löschdiskussion Artikelverbesserungen vornehmen, die die Relevanz besser erkennen lassen und die Mindestqualität sichern.
Da bei Wikipedia jeder Löschanträge stellen darf, sind manche Löschanträge auch offensichtlich unbegründet; solche Anträge kannst du ignorieren.
Vielleicht fühlst du dich durch den Löschantrag vor den Kopf gestoßen, weil durch den Antrag die Arbeit, die du in den Artikel gesteckt hast, nicht gewürdigt wird. Sei tapfer und bleibe dennoch freundlich. Der andere meint es vermutlich auch gut.
Letzter Kommentar: vor 2 Jahren2 Kommentare2 Personen sind an der Diskussion beteiligt
Hallo Ordercrazy, "order" heisst im Englischen ja nicht nur "Bestellung", sondern auch "Ordnung" ;-) - und um der lieben Ordnung willen möchte ich um etwas bitten: Du hast ein Foto für den Artikel Mick Schnelle besorgt und offenbar die Genehmigung seines Bruders Martin dafür erhalten. Das ist wunderbar und ich danke für die Mühe. Aber die Beschreibung auf Commons ist verwirrend: Du verlinkst dort den Urheber Martin Schnelle mit deinem Benutzernamen, was auf Commons normalerweise als "der bin ich" zu lesen ist - bist du aber ausweislich deiner Benutzerseite ja offenbar nicht. Könntest du vielleicht doch noch der üblichen Freigabe-Prozedur folgen und den Bruder, wenn er der Rechteinhaber ist, eine Bildfreigabe senden lassen und die Bildbeschreibung anpassen? Das muss nicht sofort sein, ich würde ihn in diesen Tagen der Trauer auch nicht unnötig behelligen wollen, aber vielleicht noch irgendwann in diesem Jahr? Irgendwann kommt auf Commons sonst bestimmt jemand, der findet, es gehe bei diesem Bild nicht mit rechten Dingen zu, und einen Löschantrag stellt... Gestumblindi22:13, 29. Jul. 2022 (CEST)Beantworten
Next Linked Data for Libraries LD4 Wikidata Affinity Group Wikidata Working Hour August 15, 2022: Fourth session of our summer/fall project working with diverse children's book metadata. We'll be covering manually creating publisher items: showing how to create items, add statements to items, add references, and use gadgets. You are, as always, welcome to bring your own data to work on. All sessions in our project series will be recorded for those who cannot attend. Links will be added to the event page when available. Event page
Ongoing:
Toolhub is a catalog of 1500+ tools used every day in a wide variety of workflows across many Wiki projects. We are currently improving the search functionality and need your input – whether you are already familiar with Toolhub or not. Please take 5-10 minutes to leave feedback.
List of created Wikidata items - a tool which combines Xtools pages created API with Wikidata API to get the list of items created by a user with their label.
The latest round of Outreachy internships wrapped up on 26 August. Two interns worked on improving author-name data; their bots have made over 340,000 edits. Their project description, documentation, blog posts and code are available.
The August 2022 summary for the Wikidata Query Service backend update is out!
Next Linked Data for Libraries LD4 Wikidata Affinity Group call September 6, 2022: Dominic Byrd-McDevitt will talk about the Digital Public Library's Wikimedia program, an effort to provide national leadership around access and discoverability of digital collections by leveraging Wikipedia and its sister projects. 2 years ago, DPLA launched a digital asset pipeline to enable participating institutions in the DPLA network to share their collections with Wikimedia Commons. DPLA is continuing to innovate by taking advantage of Wikidata entities and Structured Data on Commons to continually synchronize data and improve discoverability. We'll discuss issues around large datasets, aggregation, reconciliation, and other challenges DPLA has faced. Agenda
We are continuing to work on the PATCH endpoint to make it possible to edit existing statements (phab:T306934)
We started the security review process for one of the libraries we are using. Until that is finished this part of the REST API can unfortunately not be tested on beta Wikidata. (phab:T316523)