Bestehende Website mit "Haut und Haaren" herunterladen?

Dieses Thema im Forum "Netzwerk-Software" wurde erstellt von plasmatzee, 04.03.2005.

  1. plasmatzee

    plasmatzee Thread Starter MacUser Mitglied

    Beiträge:
    178
    Zustimmungen:
    2
    Mitglied seit:
    06.01.2005
    Hallo Leute, ich habe mittlerweile diverse im Netz noch bestehende Websites, zu denen ich FTP-mäßig aber leider keinen Zugang mehr habe.

    Da ich jedoch Veränderungen vornehmen muß, bleibt mir praktisch also nichts anderes, als eine Kopie davon herunterzuladen (OS X).

    Womit genau mache ich das am besten? Adobe Golive bietet eine Funktionalität, die danach klingt. Als ich das in der Vergangenheit versucht habe, hat es aber bestenfalls den Text geladen, nicht jedoch die enthaltenen Bilder, und dann jeweils auch nur eine Seite.

    Danke für Eure Ideen!
     
  2. lengsel

    lengsel MacUser Mitglied

    Beiträge:
    4.553
    Zustimmungen:
    53
    Mitglied seit:
    25.11.2003
    z.B. Camino speichert Seiten komplett (mit allen enthaltenen Dateien) ab.

    Grüße,
    Flo
     
  3. ?=?

    ?=? MacUser Mitglied

    Beiträge:
    941
    Zustimmungen:
    14
    Mitglied seit:
    09.02.2004
    . . . und wenn Camino nicht reicht bietet curl (im Terminal) mehr Möglichkeiten -> man curl ;)


    Gruß,

    ?=?
     
  4. mactrisha

    mactrisha MacUser Mitglied

    Beiträge:
    691
    Medien:
    3
    Zustimmungen:
    5
    Mitglied seit:
    27.11.2003
    Zuletzt von einem Moderator bearbeitet: 29.12.2016
  5. ruedi222

    ruedi222 MacUser Mitglied

    Beiträge:
    339
    Zustimmungen:
    0
    Mitglied seit:
    14.06.2004
    Ein schönes Teil ist

    DeepVacuum

    Es wird auch PHP und SSI ausgelesen, was die meisten Progs sonst nicht machen.
     
  6. Bartleby

    Bartleby MacUser Mitglied

    Beiträge:
    787
    Zustimmungen:
    18
    Mitglied seit:
    19.10.2004
    Unter Linux gibt's das grandiose Tool wget, dass genau deinen Zweck erfüllt. Ich weiß aber nicht, ob es das auch für OSX gibt.

    Syntax wäre:

    Code:
    wget -R http://www.microsoft.com
    Und nach mehr oder weniger vielen Stunden *g* hast du die komplette Seite auf deiner Platte.
     
  7. Lua

    Lua MacUser Mitglied

    Beiträge:
    3.116
    Zustimmungen:
    22
    Mitglied seit:
    27.05.2004
    Internet Explorer.
    Düfrte bei dir installiert sein und speichert komplette Websites als .waf ab.
     
  8. waiu

    waiu MacUser Mitglied

    Beiträge:
    220
    Zustimmungen:
    0
    Mitglied seit:
    12.05.2004

    Bestimmt frustrierend mit so einem langsamen Rechner, oder?
     
  9. oSIRus

    oSIRus MacUser Mitglied

    Beiträge:
    2.734
    Zustimmungen:
    0
    Mitglied seit:
    16.09.2004
    wenn Du die Seiten verändern mußt, wie willst Du sie dann wieder hochladen, wenn Du keinen FTP-Zugang hast? ;)
     
  10. G4Wallstreet

    G4Wallstreet MacUser Mitglied

    Beiträge:
    1.601
    Zustimmungen:
    46
    Mitglied seit:
    08.01.2004
    dito, oder willst Du sie nur kopieren ?
     
Die Seite wird geladen...
Ähnliche Themen - Bestehende Website Haut Forum Datum
Safari: Website Dateien erscheinen immer wieder neu Netzwerk-Software 18.04.2017
Safari kann die Identität der Website nicht verifizieren.... Netzwerk-Software 25.10.2016
Wie einfach eine Website erstellen? Netzwerk-Software 22.09.2016
Probleme bei Amazon-Website Netzwerk-Software 31.01.2016
Safari - Website will etwas mit dem Schlüsselbund signieren und öffnet sich nicht Netzwerk-Software 07.02.2015
Safari zeigt SSL Verschlüsselung von Website nicht Netzwerk-Software 22.12.2014
PDF lässt sich auf Website nicht anzeigen Netzwerk-Software 20.02.2014
Website per email versenden / Formatierung Netzwerk-Software 24.01.2014
Safari: Probleme mit kinopolis Website Netzwerk-Software 18.10.2013