Wikipedia Diskussion:Technik/Archiv/MediaWiki-Installation (2005–2011)

Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 28. August 2006 um 21:43 Uhr durch Rgorges (Diskussion | Beiträge) (Importzeit). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Letzter Kommentar: vor 19 Jahren von UvoK00 in Abschnitt !!! Berichtigung für max_allowed_packet & Import

Hallo, ich bin "Nasenbart" und habe die Seite "Wikipedia:Offline in Windows" am 22.02.2006 neu erstellt. Ich fand, da gab es eine große Lücke. Der Artikel ist kein lexikalischer Eintrag, sondern (ausnahmsweise in Wikipedia) eine Anleitung; der Anspruch abstrakter Allgemeingültigkeit wird nicht erhoben und dies soll deutlich werden. In der Form habe ich deshalb bewußt den Erfahrungsbericht mit persönlichem Ich in diversen Einschüben, und die direkte Anrede gewählt. Ich bitte darum, dies nicht vorweg künstlich umzuarbeiten. Mit mehr und mehr Bearbeitungen erledigt sich die Sache von selbst.

Ich würde mich freuen, wenn Anregungen und Veränderungen von den Autoren hier kommentiert werden.

Großes Lob

Auch wenn ich die Anleitung bislang nur überflogen habe, muss ich dir doch ein Lob dafür aussprechen, dass du dir die Arbeit angetan hast deine Erfahrungen bei der Installation in eine detaillierte Anleitung umzusetzen! --Berthold Werner 10:05, 23. Feb 2006 (CET)

max_allowed_packet

Wenn ich mich recht erinnere mußte ich bei der XAMPP Instalation in der Datei my.cnf noch den Parameter "max_allowed_packet = 16M" anpassen um den Dump einlesen zu können. Der Wert war nach Erinnerung auf 1M eingestellt und anscheinend zu klein. --Berthold Werner 10:05, 23. Feb 2006 (CET)

zu 13. Import der Rohdaten starten

Ich gehe davon aus, dass der Import nicht fertig ist, wenn die angegebene Fehlermeldung erscheint. Eine halbe Stunde Laufzeit erscheint mir auch sehr kurz. Bei mir dauert der Import Stunden. Auch wenn die Fehlermeldung nicht daraufhindeutet, dass es mit max_allowd_packet zusammenhängt, sollte man den Parameter anpassen und das Ganze wiederholen. --Berthold Werner 08:18, 27. Feb 2006 (CET)

import mit 115.896 Artikeln ist nicht komplett!

  • aktuelle Daten: 2006-02-20 17:39:04: dewiki 723706 pages
  • Import dauert mehrere Stunden.
  • Reindexierung dauerte ca. 18h (Pmobile 1.8, 1GB Ram, Linux)
  • DB-Grösse nach reindexierung 3GB (Bei der Indexierung zwischenzeitlich über 5)

--80.218.38.67 19:58, 28. Feb 2006 (CET)

Wurden die Tabellen als MyIsam oder InnoDB Tabellen angelegt? --Berthold Werner 07:21, 2. Mär 2006 (CET)
Keine Ahnung, für den Index habe frm, MYD und MYI-Dateien. Die Seiten sind aber wahrscheinlich in /var/lib/mysql/ibdata1. Gibts ein SQL-Befehl um das zu überprüfen. PHPMyAdmin läuft leider im Moment nicht. --80.218.38.67 23:14, 2. Mär 2006 (CET)
Ich verstehe das richtig? "DB-Grösse nach Reindexierung 3 GB" - das ist die Gesamtgröße, also importierter Text (~1,66 GB) plus der Volltextindex? --Nasenbart 21:40, 2. Mär 2006 (CET)
Habe die Dateigrössen nochmals überprüft, hier die Grossen:
* /var/lib/mysql/ibdata1 (2.6GB und es sind sonst keine Grossen DBs vorhanden.)
* /var/lib/mysql/dewiki/searchindex.MYD (1.4Gb) folgende Dateien sind wohl nur Index ;-)
* /var/lib/mysql/dewiki/searchindex.MYI (1.7Gb)
--80.218.38.67 23:14, 2. Mär 2006 (CET)
Da sind offenbar die Tabellen die durch den Import des Dumps entstanden als InnoDB angelegt worden, die stehen dann in der Datei ibdata1. Die Tabelle searchindex wurde dagegen als myIsam Tabelle angelegt. searchindex.MYD enthält die Artikeltexte von allen Formatierungen befreit und in Kleinbuchstaben. searchindex.MYI den "eigentlichen" von MySQL erzeugten Volltextindex. Warum MySQL die Tabellen bei dir mal so und mal anders anlegt ist mir allerdings ein Rätsel. Aber dass die Tabellen als InnoDB Angelegt wurden erklärt wohl den erhöhten Platzbedarf und auch, dass der Aufbau länger gedauert hat. Allerdings ist die searchindex.MYI bei mir auch nur halb so groß wie bei dir. --Berthold Werner 07:16, 3. Mär 2006 (CET)

!!! Berichtigung für max_allowed_packet & Import

Ihr habt vollkommen Recht: max_allowed_packet ist von 1M auf 16M zu setzen. Danach verläuft der Import des 20.Februar-Dumps ohne Fehlermeldung und endet (bei mir) nach gut 5 Stunden mit einem "Done!". Die Notwendigkeit, zur Komplettierung der Suche einen Textindex zu erstellen, entfällt weitgehend. Auch gibt es gibt kaum rote Binnenlinks in den Artikeln. ;-)

(Nachdem ich in der Suche sowohl „Arbeit“ als auch „Zinn“ als Artikel fand, ging ich davon aus, dass alles eingelesen worden ist. Verantwortlich für die Meldung „Sackgassenschleife“ ("error 2006, DeadlockLoop, mysql closed connection") hielt ich einen Fehler im Skript selbst, z.B. dass der Import nach Erreichen des Endes von vorn beginnt, Mysql dies aber bemerkt und schließt - aber alles falsch gedacht.)

Ich habe den Text entsprechend angepasst und umstrukturiert. Auch der Hinweis über Größe der Datei zur Reindexierung ist aufgenommen. Gruß&Dank Nasenbart

max_allow_packet muß an beiden Vorkommen in der my.* geändert werden, die Beschreibung habe ich angepasst. --Ferrydun 20:14, 25. Mär 2006 (CET)
damit die Werte auch korrekt eingelesen werden, muss der mysql-Server vor dem Import der XML-Daten neu gestartet werden sonst gibts den max_alow_packet-Fehler. Ich empfehle für die Nutzer dieser Anleitung einen Neustart von Windows, da der Neustart des mysql-Servers dann automatisch geschieht. Diese Anleitung ja für wenig im Umgang mit DBS-Servern erfahrene Nutzer gedacht. --Ferrydun 15:29, 26. Mär 2006 (CEST)
Ja, ok. Aber wenn man XAMPP nutzt kann man den Server einfach über das XAMPP Control Panel neustarten. --Berthold Werner 16:14, 26. Mär 2006 (CEST)
Ich hab mal ne Frage: Den Befehl RefreshLinks (oder so) kann man doch fortsetzen. Geht das denn nicht auch mit der Textindizierung? Bei 500.000 meldete Windows nämlich etwas von "php hat ein Problem festgestellt". Mein Computer lief schon 5 Stunden! Ich habe keine Lust ihn nochmal so lange laufen zu lassen! -uvoK 09:22, 10. Mai 2006 (CEST)Beantworten

7-zip installieren

Muss es umbedingt 7-zip sein ??? --Ldi91 18:03, 2. Mär 2006 (CET)

?? Nein muss es nicht. Z.B. Winrar (bekannte Shareware) tut's genauso. Ich habe es aber nur mit 7-zip (Version grafische Windows-Anwendung - GUI) getestet (Freeware). Eine Anmerkung zu den zu öffnenden Archivendungen ist in den Text eingefügt. --Nasenbart 21:32, 2. Mär 2006 (CET)
Danke. Versuche gerade das ganze unter Linux zu machen --Ldi91 20:24, 4. Mär 2006 (CET)


Wer kann mir helfen?

Also bei mir war max_allowed_package schon voreingestellt.

EDIT: In der my.cnf gibt es 2 max_allowed_package einträge. Der Eintrag:

[mysqldump]
quick
max_allowed_packet=16M

war bei mir schon voreingestellt.

[mysqld]
...
key_buffer = 16K
max_allowed_packet = 16M
table_cache = 4
...

Da muss es noch von 1M in 16M geändert werden.

Ich benutze die XAMPP Version 1.5.1. Aber ich hab noch einige Fragen, die nich nur das Wikipedia betreffen, sondern auch Wikibooks etc, da ich erstma mit den kleinen Wikis rumspiele, befor ich dann Wikipedia installiere und was falsch mache. Ich hatte nämlich auch einen MySQL-Error, bei der ersten installation und habs dann nochmal gelöscht.

1. kann ich Wikibooks, Wikiquotes... und Wikipedia in einem Wikimedia nutzen?

EDIT:Wikibooks und Wikiquotes konnte ich bis jetzt ohne Probleme parallel nutzen, da die Artikelnamen von Wikiquotes nicht in Wikibooks auftauchen. VERMUTLICH kann es wenn man Wikipedia und Wikiquotes gleichzeitig nutzen will zu Problemen kommen. SWiSH 19:34, 18. Mär 2006 (CET)


2. ich würde gerne wissen, was die anderen dumps auf http://download.wikimedia.org/ wie z.B. templatelinks.sql, imagelinks.sql... sind.

Info

1. Wer bei der Wikimedia-installation (schritt 11) doch ein Datatable Prefix eingesetzt hat, muss dass auch in den *.SQL-Dateien (nicht XML) ändern. Also da steht z.B. `images`, dann muss man das umwandeln in `prefiximages`. Dieser Tabellenname steht immer in Anführungszeichen ``.

2. zu schritt 3 (das mit der Path): Bei mir war das so (WinXP SP2), das die Variable nicht in der Registry unter dem angegebenen Schlüssel zu finden war. Ich konnte sie über Systemsteuerung->System->(Reiter)Erweitert->Umgebungsvaiablen und dann unter "Systemvariablen" finden.

SWiSH

Importzeit

Mal ne Frage: Wie lange dauert der Import denn durchschnittlich und wie hoch geht der Zähler (der in 100er-Schritten) maximal? Bei mir ist er zur Zeit bei 432.700, und importiert schon seit 15 Stunden mit ca. 9.xxx pro 100er-Schritt)... Die Wikipedia hat doch nur 380.000 Artikel??? Hab nen nagelneuen 2 GHz Centrino mit 1 GB RAM...


Nach kurzer Zeit wird bei mir nur noch mit ca. 1.5xxxx pages/sec importiert. Woran liegt das? Obwohl ich den max_packet_size Wert auf zweimal auf 16M gestellt habe. Wer kann mir helfen? Danke schonmal. 84.155.74.68 21:26, 1. Aug 2006 (CEST)

Vielleicht hilft es, die Festplatte vorher zu defragmentieren. --Berthold Werner 08:19, 2. Aug 2006 (CEST)
Bringt nichts. Nach kurzer Zeit 1.5 p/s. ->Dauert Tage Alien65 12:05, 2. Aug 2006 (CEST)
Habe "nur" 512MB RAM und die neuesten Versionen von Mysql bzw. Xampp...etc...; Bin inzwischen bei ca. 90000 pages, aber dafür brauchte ich ca. 2 Tage, habe das ganze schon mehrmals gestartet, dann fing es an schneller zu laufen. Allerdings aber nur bis zum letztmaligen Wert. Dann ist die importzeit wieder auf den alten Wert mit ca. 1.5xxx pages/sec abgesackt. Dafür bräuchte das ganze dann ca. 7 Tage (Nächte mitgerechnet). Vielleicht sollte ich doch meinen RAM aufrüsten??? Könnte ja sein, dass die neueren Versionen von MetaWiki, Xampp, mysql, etc...mehr Arbeitsspeicher benötigen!?? ...oder hat sonst wer ne Idee woran das liegen könnte? Trotzdem DANKE für die Hilfsversuche! 84.155.75.205
Kann es sein, das du dich irgendwo mit den Passworten vertippt hast? Ich hatte zuerst den Schritt "12. AdminSettings.php aufsetzen" vergessen, das Ergebnis waren auch nur 1.xxx pages/sec, nach der Korrektur rennt ER mit 40,xxx.--Rgorges 21:43, 28. Aug 2006 (CEST)
Habe mich inzwischen für die 7,6 GB Version auf DVD mit der Digitalen Bibliothek entschieden. Allerdings hat die halt den Nachteil, dass sie ewig alt ist (von 2005) eine neue DVD Version soll ja erst Okt 2006 erscheinen. 84.155.75.205 12:52, 3. Aug 2006 (CEST)

Volker Berlin 22:05, 8. Aug 2006 (CEST) Mit den Daten vom 12.07.2006 sind es 853000 Einträge.

Installation Math

Ich sehe hier immer <math> blablabla </math> . WIe installiere ich den Support für Math?

Problem bei Installation

Hallo, ich erhalte immer folgende Fehlermeldung.


Warning: socket_sendto() [function.socket-sendto]: Host lookup failed [0]: Der angegebene Host ist unbekannt. in C:\Programme\xampp\htdocs\dewiki\includes\GlobalFunctions.php on line 1504

Warning: socket_sendto() [function.socket-sendto]: Host lookup failed [0]: Der angegebene Host ist unbekannt. in C:\Programme\xampp\htdocs\dewiki\includes\GlobalFunctions.php on line 1507

Weiß jemand, was zu tun istß Andim 10:03, 22. Apr 2006 (CEST)

Die Datei GlobalFunctions.php hat bei mir garnicht soviele Zeilen (?). Welchen Servernamen hast du denn bei der Intallation der Wikisoftware für die Datenbank angegeben? Bei Heiminstallationen kommt da eigentlich nur localhost in Frage. --Berthold Werner 12:24, 22. Apr 2006 (CEST)
Ja, ich habe localhost angegeben. Die Datei GlobalFunctions.php hat bei mir (Mediawiki 1.6.3) 1788 Zeilen. Beide Zeilen lauten:

socket_sendto($socket,$statline,strlen($statline),0,"webster","3811"); Andim 13:03, 22. Apr 2006 (CEST)

Ich habe jetzt mal "webster" durch "localhost" ersetzt, jetzt funktioniert es.

Andim 13:04, 22. Apr 2006 (CEST)

Habe auch ein Problem: Vielleicht kann jemand mal schauen. Screenshot:[1] Sag mir jetzt rein gar nichts. Danke Alien65 15:12, 10. Jul 2006 (CEST)

Offline für Windows PDA?

Hallo, wie kann ich die Wikipedia auf meinem Windows PDA installieren?

Hallo?? Versuch`s mal mit dem Mobipocket mit dem habe ich es sogar hin gekriegt (-:

Gruß romy2002

PROBLEM MIT DEM IMPORT

Hallo,

ich hab ein Problem mit dem Importieren der Datebank bzw. der *.xml Datei. Ich hab mich an die Anleitung gehalten, ist auch eigentlich alles richtig eingestellt.

Folgende Meldung bekomme ich über die " Eingabeaufforderung ":



E:\XAMPP\xampp\htdocs\root\MEDIAWIKI\maintenance>php importDump.php < dewiki-200 60628-pages-articles.xml 100 (60.8456026353 pages/sec 60.8456026353 revs/sec) 200 (81.6184580561 pages/sec 81.6184580561 revs/sec) 300 (94.9475807666 pages/sec 94.9475807666 revs/sec) 400 (95.806589789 pages/sec 95.806589789 revs/sec) 500 (90.3347722529 pages/sec 90.3347722529 revs/sec) 600 (94.593954883 pages/sec 94.593954883 revs/sec) WikiRevision given a null title in import. Backtrace:

  1. 0 E:\XAMPP\xampp\htdocs\root\MEDIAWIKI\includes\SpecialImport.php(619): WikiRev

ision->setTitle(NULL)

  1. 1 [internal function]: WikiImporter->in_page(Resource id #52, 'revision', Array

)

  1. 2 E:\XAMPP\xampp\htdocs\root\MEDIAWIKI\includes\SpecialImport.php(418): xml_par

se(Resource id #52, '????????????]]?...', 0)

  1. 3 E:\XAMPP\xampp\htdocs\root\MEDIAWIKI\maintenance\importDump.php(110): WikiImp

orter->doImport()

  1. 4 E:\XAMPP\xampp\htdocs\root\MEDIAWIKI\maintenance\importDump.php(97): BackupRe

ader->importFromHandle(Resource id #51)

  1. 5 E:\XAMPP\xampp\htdocs\root\MEDIAWIKI\maintenance\importDump.php(132): BackupR

eader->importFromStdin()

  1. 6 {main}

E:\XAMPP\xampp\htdocs\root\MEDIAWIKI\maintenance>


Und das wars dann, danach kommt überhaupt nichts mehr. Was mach ich falsch ? Bitte um Hilfe ! Wenn möglich per msn: volkanz@bizimalem.de

DANKE, für diesen Artikel und jetzt schon für euere HILFE.

Gruss,

QPMEDIA-

Wäre schön wenn die Antwort auch hier stehen würde. Alien65 10:03, 20. Jul 2006 (CEST)
Wahrscheinlich weiss niemand eine Antwort. --Berthold Werner 10:22, 20. Jul 2006 (CEST)
wollte damit nur sagen, dass dieLösung per MSN verschicken nicht ideal ist. Alien65 11:18, 20. Jul 2006 (CEST)
Volker Berlin 21:46, 22. Jul 2006 (CEST) Hatte das gleiche Problem. Der Unterschied zur Anleitung, ist das ich das neuste WikiMedia 1.7.1 verwendet habe. Habe dann in der Datei SpecialImport.php in Zeile 619 eine kleine Änderung vorgenommen:
alt: throw new MWException( "WikiRevision given a null title in import." );
neu: $this->title = null;
Danach lief es dann weiter. Mal sehen wie weit ich komme.

Jep jetzt gehts, allerdings ist es in phase5 die Zeile 241. Es läuft jetzt. Danke. Alien65 11:28, 23. Jul 2006 (CEST)

Guter Tipp, das funktioniert, importDump.php bricht dann nicht mehr ab. dewikiquote, enwikiquote, ... kann man so importieren. Mein Problem mit dewiki ist jetzt nur noch, das mir der Speicher voll läuft - wohlgemerkt 3GB RAM + 5GB VMEM! Nach knapp 300.000 Einträgen ist Schluss.

Volker Berlin 22:29, 8. Aug 2006 (CEST) Ich habe es endlich geschaft mit WikiMedia 1.7.1. In dieser Version der PHP Scripte scheint ein dicker Memoryleak zu sein. Die Lösung ist das Script abzubrechen und erneut zu starten. Vor dem Neustart müssen 2 Tabellen von Schritt 15 zurückgesichert werden. Und zwar die Tabellen revision und text. Bei diesen beiden Tabellen wird immer angehängt. Damit die Datenbank nicht unendlich groß wird, also wieder zurücksetzten.
Solltet Ihr keine Kopie angelegt haben, dann den bisherigen Erfolg der Datenbank sichern. Und von vorne anfangen mit neuer Datenbank. Bevor dann das Script neu gestartet wird die alte Datenbank einspielen außer den beiden Tabellen. Die beiden Tabellen sichern.
Nach dem Neustart des Scripts läuft es etwa 20 mal schneller. Bis wieder neue Daten kommen.

PATH stimmt nicht, Hilfe zu MediaWiki-Installation

Der Path muss sowohl auf C:\X\xampp\php eingestellt werden, als auch auf C:\X\xampp\htdocs. Sonst funktioniert es bei mir nicht. Darüber hinaus bricht der Import nach 700... ab, so dass ich mit der Hilfe zur MediaWiki-Installation (Hilfe:MediaWiki-Installation) mit dem vorherigen Umwandeln der .xml-Datei in eine .sql-Datei mehr Erfolg hatte.

- Und wie wandelt man das in ne *.sql um ?? -> das mit dem Pfad ist ja nicjt so optimal, denn ich hab XAMPP auf E: und möchte es eigentlich auch dort lassen. Gruss QPMEDIA

Steht bei dem Link in den Beitrag über dir. Aber ich bekomme es auch nicht hin. Alien65 18:19, 20. Jul 2006 (CEST)