KOMPLETTE Internet-Seite auf Festplatte speichern!

R

Rocco69

Aktives Mitglied
Thread Starter
Dabei seit
22.10.2004
Beiträge
962
Reaktionspunkte
77
Hallo!
Muss DRINGEND eine komplexe Internetseite auf meiner Platte speichern:
Hintergrund: Am Freitag wird ne neue Version gelauncht und ich brache noch nen paar Daten der alten Seite!
Hat jemand nen Freeware Programm womit ich die Seite sichern kann???
 
Unter OSX durfte "curl" installiert sein, ansonsten wget. Wie tief Links verfolgt werden sollen, kannst Du da einstellen. Wenns nur um eine Seite mit allen Bildern drauf etc. geht, kannst Du das ja mit dem Browser tun.
Wile
 
han mal mit Spotlight nach ”curl“ gesucht aber nichts gefunden!
...ich will schon die GANZE Seite downloaden!
 
Das hat MacOSX doch schon dabei:
man wget
man curl
 
Rocco69 schrieb:
han mal mit Spotlight nach ”curl“ gesucht aber nichts gefunden!
...ich will schon die GANZE Seite downloaden!

spotlight ist auch doof. Aber wenn du unbedingt wissen willst, wo es ist:

Vesta:~ David$ which curl
/usr/bin/curl
Vesta:~ David$
 
Warum sagt ihr ihm nicht das er dafür in das Terminal muss?
 
-Nuke- schrieb:
Warum sagt ihr ihm nicht das er dafür in das Terminal muss?

Ich sag ja bei GUI Programmen auch nicht, daß er die grafische Oberfläche benutzen soll ;-)
 
Rocco: Ich benutze immer wget; schau Dir doch die manpage zu Curl an (man curl), da duerften auch Beispiele drin stehen, welche Optionen Du brauchst.
Wile
 
@ wile: Kannst Du mir den ne n Befehl für wget schreiben?

Habe jetzt mal mit Pagesucker versucht die seite zu ziehen. Soweit so gut aber er hat die PopUp seiten nicht mitt runtergezogen...
 
Unter Tiger ist wohl kein wget installiert? Bei mir jedenfalls nicht...

@Rocco69
Versuch es mal mit "SiteSucker".
 
Meinte doch SiteSucker! :)
 
Nicht? Naja, dann hab ichs wohl irgendwann nachinstalliert.

Gerade geschaut, sowohl bei port, als auch bei fink ist das im repository.
 
z.B.:
Code:
wget -m www.irgendwas.org
sollte schon alles tun, macht bei mir:

-m
Turn on options suitable for mirroring. This option turns on
recursion and time-stamping, sets infinite recursion depth and
keeps FTP directory listings. It is currently equivalent to -r -N
-l inf -nr.
Kann aber sein, dass -m bei Dir anders belegt ist, dann kannst Du die Optionen aber mal einzeln eintippen. Hilfreich ist vielleicht zusaetzlich noch eine Option, die Dir absolute Links in relative auf Deiner Festplatte umwandelt (so dass Du die lokal gespeicherte Seite ganz normal im Browser verwenden kannst. Das duerfte "-k" sein.

Wile

edit: nein, unter OSX ist AFAIK nur curl, nicht wget drauf. Entweder wget ueber darwinports oder fink ziehen, oder einfach curl nehmen.
 
Zuletzt bearbeitet:
Zurück
Oben Unten