Website grabber?

The Spirit

Aktives Mitglied
Thread Starter
Dabei seit
18.12.2007
Beiträge
772
Reaktionspunkte
23
Hi.
Bin auf der Suche nach einem Prog, mit dem ich websites inkl. aller unterverzeichnisse und daten auf meinem mac local speichern kann.
Für windoof habe ich winhttrack gefunden.
Jedoch nichts für Mac.
Habt ihr da was für mich?
Thx
 
Nimm die solang:

Blue Crab von Limit Point Software (USA),
Page-Sucker aus Luxemburg,
SiteCrawler aus Schweden,
die Donationware Sitesucker von Rick Cranisky (USA)
Web Devil von Chaoticsoftware (USA),
WebDumper von MaxProg in Spanien und
die Freeware WebGrabber von epicware (USA)

Quelle: Maclife
 
sitecrawler ist super

Vorallem der Warnhinweis, (achtung freie übersetzung):" Sie laden möglicherweiße das komplette internet herunter, das kann etwas dauern ";)
 
Das ``mächtige´´ wget ist das was du suchst. Mit dem Befehl
Code:
wget -r -l 1 -p IRGEND_EINE_URL
kannst du dir die Website ziehen.

Das "-l 1" bestimmt die Tiefe in der Links gefolgt werden sollen. In diesem Fall eine Tiefe von einem Link.

"-p" sagt wget, daß es unabhängig von der bei "-l" eingestellten Tiefe alle für die Anzeige einer Website nötigen Dateien (Bilder, Sounds, Stylesheets) runter laden soll.

Am Ende des Befehls dann die URLs die du dir ziehen willst. Einzelne URLs werden durch Leerzeichen voneinander getrennt. Beim Einfügen von URLs solltest du darauf achten, daß die Zeichen escaped werden. Das Terminal bietet zum Glück bereits so eine Funktion: ^+Apfel+V um die URL aus der Zwischenablage escaped einzufügen.

Dann bietet wget noch einen ganzen Haufen anderer Funktionen wie Mirroring oder das HTML-Seiten nur runter geladen werden, wenn sie neuer sind, als die die lokal abgespeichert ist und was sonst noch alles für Funktionen. Aber schließlich ist es ja auch "mächtig".

Ach ja. Wo wget genannt wird, darf curl natürlich nicht fehlen. Damit habe ich allerdings noch nicht gearbeitet. Kann also Nichts dazu sagen.


Gruß Fabian
 
Kann jemand einen Programm zum Downloaden von Seiten mit Passwortschutz empfehlen (Benutzerangaben vorhanden, Benutzeranmeldung erfolgt per HTML-Formular, beispielsweise ein Diskussionsforum wie dieses hier)?

Martin
 
Kann jemand einen Programm zum Downloaden von Seiten mit Passwortschutz empfehlen (Benutzerangaben vorhanden, Benutzeranmeldung erfolgt per HTML-Formular, beispielsweise ein Diskussionsforum wie dieses hier)?
Leider war keines der einschlägigen Programme dazu in der Lage, jedenfalls nicht auf der gewünschten Website … mit der Mozilla Firefox-Erweiterung «DownThemAll!» hat's nun aber funktioniert! :)

Martin
 
Das mit dem wget...Command not found...
Und nu?
 
Zurück
Oben Unten