Bestehende Website mit "Haut und Haaren" herunterladen?

plasmatzee

Aktives Mitglied
Thread Starter
Dabei seit
06.01.2005
Beiträge
218
Reaktionspunkte
7
Hallo Leute, ich habe mittlerweile diverse im Netz noch bestehende Websites, zu denen ich FTP-mäßig aber leider keinen Zugang mehr habe.

Da ich jedoch Veränderungen vornehmen muß, bleibt mir praktisch also nichts anderes, als eine Kopie davon herunterzuladen (OS X).

Womit genau mache ich das am besten? Adobe Golive bietet eine Funktionalität, die danach klingt. Als ich das in der Vergangenheit versucht habe, hat es aber bestenfalls den Text geladen, nicht jedoch die enthaltenen Bilder, und dann jeweils auch nur eine Seite.

Danke für Eure Ideen!
 
z.B. Camino speichert Seiten komplett (mit allen enthaltenen Dateien) ab.

Grüße,
Flo
 
. . . und wenn Camino nicht reicht bietet curl (im Terminal) mehr Möglichkeiten -> man curl ;)


Gruß,

?=?
 
Ein schönes Teil ist

DeepVacuum

Es wird auch PHP und SSI ausgelesen, was die meisten Progs sonst nicht machen.
 
Unter Linux gibt's das grandiose Tool wget, dass genau deinen Zweck erfüllt. Ich weiß aber nicht, ob es das auch für OSX gibt.

Syntax wäre:

Code:
wget -R http://www.microsoft.com

Und nach mehr oder weniger vielen Stunden *g* hast du die komplette Seite auf deiner Platte.
 
Internet Explorer.
Düfrte bei dir installiert sein und speichert komplette Websites als .waf ab.
 
wenn Du die Seiten verändern mußt, wie willst Du sie dann wieder hochladen, wenn Du keinen FTP-Zugang hast? ;)
 
Seiten sollen nur kopiert werden

G4Wallstreet schrieb:
dito, oder willst Du sie nur kopieren ?

Hallo und danke für Eure zahlreichen Tips - ich werde mir Alles einmal ansehen!

Die Seiten sollen heruntergeladen und dann anschließend verändert andernorts wieder hochgeladen werden.
 
Zurück
Oben Unten