Bestehende Website mit "Haut und Haaren" herunterladen?

Diskutiere das Thema Bestehende Website mit "Haut und Haaren" herunterladen? im Forum Netzwerk-Software

  1. plasmatzee

    plasmatzee Thread Starter Mitglied

    Beiträge:
    181
    Zustimmungen:
    2
    Mitglied seit:
    06.01.2005
    Hallo Leute, ich habe mittlerweile diverse im Netz noch bestehende Websites, zu denen ich FTP-mäßig aber leider keinen Zugang mehr habe.

    Da ich jedoch Veränderungen vornehmen muß, bleibt mir praktisch also nichts anderes, als eine Kopie davon herunterzuladen (OS X).

    Womit genau mache ich das am besten? Adobe Golive bietet eine Funktionalität, die danach klingt. Als ich das in der Vergangenheit versucht habe, hat es aber bestenfalls den Text geladen, nicht jedoch die enthaltenen Bilder, und dann jeweils auch nur eine Seite.

    Danke für Eure Ideen!
     
  2. lengsel

    lengsel Mitglied

    Beiträge:
    4.586
    Zustimmungen:
    53
    Mitglied seit:
    25.11.2003
    z.B. Camino speichert Seiten komplett (mit allen enthaltenen Dateien) ab.

    Grüße,
    Flo
     
  3. ?=?

    ?=? Mitglied

    Beiträge:
    947
    Zustimmungen:
    14
    Mitglied seit:
    09.02.2004
    . . . und wenn Camino nicht reicht bietet curl (im Terminal) mehr Möglichkeiten -> man curl ;)


    Gruß,

    ?=?
     
  4. mactrisha

    mactrisha Mitglied

    Beiträge:
    717
    Medien:
    3
    Zustimmungen:
    7
    Mitglied seit:
    27.11.2003
  5. ruedi222

    ruedi222 Mitglied

    Beiträge:
    339
    Zustimmungen:
    0
    Mitglied seit:
    14.06.2004
    Ein schönes Teil ist

    DeepVacuum

    Es wird auch PHP und SSI ausgelesen, was die meisten Progs sonst nicht machen.
     
  6. Bartleby

    Bartleby Mitglied

    Beiträge:
    802
    Zustimmungen:
    19
    Mitglied seit:
    19.10.2004
    Unter Linux gibt's das grandiose Tool wget, dass genau deinen Zweck erfüllt. Ich weiß aber nicht, ob es das auch für OSX gibt.

    Syntax wäre:

    Code:
    wget -R http://www.microsoft.com
    Und nach mehr oder weniger vielen Stunden *g* hast du die komplette Seite auf deiner Platte.
     
  7. Lua

    Lua Mitglied

    Beiträge:
    3.137
    Zustimmungen:
    22
    Mitglied seit:
    27.05.2004
    Internet Explorer.
    Düfrte bei dir installiert sein und speichert komplette Websites als .waf ab.
     
  8. waiu

    waiu Mitglied

    Beiträge:
    220
    Zustimmungen:
    0
    Mitglied seit:
    12.05.2004

    Bestimmt frustrierend mit so einem langsamen Rechner, oder?
     
  9. oSIRus

    oSIRus Mitglied

    Beiträge:
    2.737
    Zustimmungen:
    0
    Mitglied seit:
    16.09.2004
    wenn Du die Seiten verändern mußt, wie willst Du sie dann wieder hochladen, wenn Du keinen FTP-Zugang hast? ;)
     
  10. G4Wallstreet

    G4Wallstreet Mitglied

    Beiträge:
    1.793
    Zustimmungen:
    77
    Mitglied seit:
    08.01.2004
    dito, oder willst Du sie nur kopieren ?
     
Die Seite wird geladen...
  1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Akzeptieren Weitere Informationen...