Wikipedia offline auf dem Mac nutzen

S

sachsie

Mitglied
Thread Starter
Dabei seit
02.03.2004
Beiträge
23
Reaktionspunkte
0
Hallo Macuser!

Weiß jemand ob und wie es möglich ist die Wikipedia Enzyklopädie (www.wikipedia.org) offline zu nutzen. Unter http://www.malepartus.de/wiki/index.php?title=Wikipartus:Download steht zu lesen das es theoretisch geht. Allerdings hilft mir diese Beschreibung nicht viel weiter. Für eine ausführliche Anleitung wäre ich sehr dankbar.

PS: Oder gibt es brauchbare Alternativen zu Wikipedia??? (Wenn möglich Freeware)

Vielen Dank!
 
Zuletzt bearbeitet von einem Moderator:
ja das währe doch eine nette sache...
 
würde mich auch interessiernen ob es Offline möglich ist. Allerdings hätte ich gerne das deutsche Wikipedia.

Man kann sich das alles runterladen, allerdings braucht man wohl die Software und ne mySQL Datenbank.

Mir wäre es am liebsten, wenn man das lokal syncronisieren könnte und jeden Tag halt die neuen Sachen updatet.
 
Schön wäre es schon, aber was meint ihr wieviel Daten das wären?
Das müssten doch mehere GB sein, oder?
 
wenn ich das recht gesehen habe, sind es glaube 17 - 18 GB !!!
 
...nur das deutsche aber gute 3gb oder?...mir ist die der Download zu lange (ISDN) und die Installation zu kompliziert!
 
Hi

Die SW einzuspielen ist gar nicht so kompliziert, es müsste nur MySQL installiert werden (da gibts einen Installer), evtl noch phpMyAdmin, mediaWiki (da ist im wesentlichen nur die Config anzupassen, bzw das installiert sich selbst), Apache ein wenig anpassen, aber alles in allem nichts was hier nicht schon beschrieben worden wäre

Aber:

Die Dumps der größeren Wikipedias erfordern zum Neubau der Linktabellen und Indizes eine nicht unerhebliche Menge RAM, an einen Dump der englischen Wikipedia sollte man sich mit weniger als 1,5 GB Arbeitsspeicher gar nicht herantrauen.

Ich würde mir das gut überlegen, und ich glaube einer der etwas besseren G4 oder ein G5 darf es dann auch schon sein

W
 
Wer es angehen möchte, braucht von http://wikipedia.sourceforge.net/ die MediaWiki Software samt aller notwendiger Komponenten (Apache Webserver, MySQL Datenbank, Python, ...).

Die Datenfiles von Wikipedia gibts dann auf http://download.wikimedia.org/ zum herunterladen und sind in Summe 18 Gigabyte gross. Alleine die deutschsprachigen Wikipedia Daten sind 3 Gigabyte -- und das ist noch immer bzip2 komprimiert wohlgemerkt! Unkomprimiert sind es entsprechend mehr.

Und dann kommen noch die Binärdaten wie z.B. Bilder. Das sind dann noch einmal 3.6 Gigabyte zusätzlich.

Ob das aber den Aufwand rechtfertigt? Du hast dann lediglich ein Wikipedia Snapshot von einem bestimmten Datum, aber keine synchronisation was sich tagtäglich geändert hat um dann zukünftig nur noch die diffs herunterzuladen.
 
Heinrich1 schrieb:
Ob das aber den Aufwand rechtfertigt? Du hast dann lediglich ein Wikipedia Snapshot von einem bestimmten Datum, aber keine synchronisation was sich tagtäglich geändert hat um dann zukünftig nur noch die diffs herunterzuladen.

da wird es doch Zeit für Wikipedia auf dem Desktop das automatisch neue Artikel syncronisiert.

Im September bringen die ne Wikipedia CD raus. Ich denke das ist schon mal ein Anfang,
 
Zurück
Oben Unten