1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

Bestehende Website mit "Haut und Haaren" herunterladen?

Dieses Thema im Forum "Internet- und Netzwerk-Software" wurde erstellt von plasmatzee, 04.03.2005.

  1. plasmatzee

    plasmatzee Thread Starter MacUser Mitglied

    Mitglied seit:
    06.01.2005
    Beiträge:
    178
    Zustimmungen:
    2
    Hallo Leute, ich habe mittlerweile diverse im Netz noch bestehende Websites, zu denen ich FTP-mäßig aber leider keinen Zugang mehr habe.

    Da ich jedoch Veränderungen vornehmen muß, bleibt mir praktisch also nichts anderes, als eine Kopie davon herunterzuladen (OS X).

    Womit genau mache ich das am besten? Adobe Golive bietet eine Funktionalität, die danach klingt. Als ich das in der Vergangenheit versucht habe, hat es aber bestenfalls den Text geladen, nicht jedoch die enthaltenen Bilder, und dann jeweils auch nur eine Seite.

    Danke für Eure Ideen!
     
  2. lengsel

    lengsel MacUser Mitglied

    Mitglied seit:
    25.11.2003
    Beiträge:
    4.553
    Zustimmungen:
    53
    z.B. Camino speichert Seiten komplett (mit allen enthaltenen Dateien) ab.

    Grüße,
    Flo
     
  3. ?=?

    ?=? MacUser Mitglied

    Mitglied seit:
    09.02.2004
    Beiträge:
    941
    Zustimmungen:
    14
    . . . und wenn Camino nicht reicht bietet curl (im Terminal) mehr Möglichkeiten -> man curl ;)


    Gruß,

    ?=?
     
  4. mactrisha

    mactrisha MacUser Mitglied

    Mitglied seit:
    27.11.2003
    Beiträge:
    691
    Medien:
    3
    Zustimmungen:
    4
  5. ruedi222

    ruedi222 MacUser Mitglied

    Mitglied seit:
    14.06.2004
    Beiträge:
    339
    Zustimmungen:
    0
    Ein schönes Teil ist

    DeepVacuum

    Es wird auch PHP und SSI ausgelesen, was die meisten Progs sonst nicht machen.
     
  6. Bartleby

    Bartleby MacUser Mitglied

    Mitglied seit:
    19.10.2004
    Beiträge:
    785
    Zustimmungen:
    17
    Unter Linux gibt's das grandiose Tool wget, dass genau deinen Zweck erfüllt. Ich weiß aber nicht, ob es das auch für OSX gibt.

    Syntax wäre:

    Code:
    wget -R http://www.microsoft.com
    Und nach mehr oder weniger vielen Stunden *g* hast du die komplette Seite auf deiner Platte.
     
  7. Lua

    Lua MacUser Mitglied

    Mitglied seit:
    27.05.2004
    Beiträge:
    3.116
    Zustimmungen:
    22
    Internet Explorer.
    Düfrte bei dir installiert sein und speichert komplette Websites als .waf ab.
     
  8. waiu

    waiu MacUser Mitglied

    Mitglied seit:
    12.05.2004
    Beiträge:
    220
    Zustimmungen:
    0

    Bestimmt frustrierend mit so einem langsamen Rechner, oder?
     
  9. oSIRus

    oSIRus MacUser Mitglied

    Mitglied seit:
    16.09.2004
    Beiträge:
    2.721
    Zustimmungen:
    0
    wenn Du die Seiten verändern mußt, wie willst Du sie dann wieder hochladen, wenn Du keinen FTP-Zugang hast? ;)
     
  10. G4Wallstreet

    G4Wallstreet MacUser Mitglied

    Mitglied seit:
    08.01.2004
    Beiträge:
    1.591
    Zustimmungen:
    43
    dito, oder willst Du sie nur kopieren ?