Bestehende Website mit "Haut und Haaren" herunterladen?

Dieses Thema im Forum "Internet- und Netzwerk-Software" wurde erstellt von plasmatzee, 04.03.2005.

  1. plasmatzee

    plasmatzee Thread Starter MacUser Mitglied

    Beiträge:
    160
    Zustimmungen:
    0
    MacUser seit:
    06.01.2005
    Hallo Leute, ich habe mittlerweile diverse im Netz noch bestehende Websites, zu denen ich FTP-mäßig aber leider keinen Zugang mehr habe.

    Da ich jedoch Veränderungen vornehmen muß, bleibt mir praktisch also nichts anderes, als eine Kopie davon herunterzuladen (OS X).

    Womit genau mache ich das am besten? Adobe Golive bietet eine Funktionalität, die danach klingt. Als ich das in der Vergangenheit versucht habe, hat es aber bestenfalls den Text geladen, nicht jedoch die enthaltenen Bilder, und dann jeweils auch nur eine Seite.

    Danke für Eure Ideen!
     
  2. lengsel

    lengsel MacUser Mitglied

    Beiträge:
    4.551
    Zustimmungen:
    53
    MacUser seit:
    25.11.2003
    z.B. Camino speichert Seiten komplett (mit allen enthaltenen Dateien) ab.

    Grüße,
    Flo
     
  3. ?=?

    ?=? MacUser Mitglied

    Beiträge:
    941
    Zustimmungen:
    14
    MacUser seit:
    09.02.2004
    . . . und wenn Camino nicht reicht bietet curl (im Terminal) mehr Möglichkeiten -> man curl ;)


    Gruß,

    ?=?
     
  4. mactrisha

    mactrisha MacUser Mitglied

    Beiträge:
    674
    Medien:
    2
    Zustimmungen:
    4
    MacUser seit:
    27.11.2003
    Zuletzt von einem Moderator bearbeitet: 29.12.2016
  5. ruedi222

    ruedi222 MacUser Mitglied

    Beiträge:
    339
    Zustimmungen:
    0
    MacUser seit:
    14.06.2004
    Ein schönes Teil ist

    DeepVacuum

    Es wird auch PHP und SSI ausgelesen, was die meisten Progs sonst nicht machen.
     
  6. Bartleby

    Bartleby MacUser Mitglied

    Beiträge:
    777
    Zustimmungen:
    17
    MacUser seit:
    19.10.2004
    Unter Linux gibt's das grandiose Tool wget, dass genau deinen Zweck erfüllt. Ich weiß aber nicht, ob es das auch für OSX gibt.

    Syntax wäre:

    Code:
    wget -R http://www.microsoft.com
    Und nach mehr oder weniger vielen Stunden *g* hast du die komplette Seite auf deiner Platte.
     
  7. Lua

    Lua MacUser Mitglied

    Beiträge:
    3.117
    Zustimmungen:
    22
    MacUser seit:
    27.05.2004
    Internet Explorer.
    Düfrte bei dir installiert sein und speichert komplette Websites als .waf ab.
     
  8. waiu

    waiu MacUser Mitglied

    Beiträge:
    220
    Zustimmungen:
    0
    MacUser seit:
    12.05.2004

    Bestimmt frustrierend mit so einem langsamen Rechner, oder?
     
  9. oSIRus

    oSIRus MacUser Mitglied

    Beiträge:
    2.721
    Zustimmungen:
    0
    MacUser seit:
    16.09.2004
    wenn Du die Seiten verändern mußt, wie willst Du sie dann wieder hochladen, wenn Du keinen FTP-Zugang hast? ;)
     
  10. G4Wallstreet

    G4Wallstreet MacUser Mitglied

    Beiträge:
    1.521
    Zustimmungen:
    37
    MacUser seit:
    08.01.2004
    dito, oder willst Du sie nur kopieren ?
     
Die Seite wird geladen...

Diese Seite empfehlen