Bestehende Website mit "Haut und Haaren" herunterladen?

Dieses Thema im Forum "Internet- und Netzwerk-Software" wurde erstellt von plasmatzee, 04.03.2005.

  1. plasmatzee

    plasmatzee Thread Starter MacUser Mitglied

    Beiträge:
    160
    Zustimmungen:
    0
    MacUser seit:
    06.01.2005
    Hallo Leute, ich habe mittlerweile diverse im Netz noch bestehende Websites, zu denen ich FTP-mäßig aber leider keinen Zugang mehr habe.

    Da ich jedoch Veränderungen vornehmen muß, bleibt mir praktisch also nichts anderes, als eine Kopie davon herunterzuladen (OS X).

    Womit genau mache ich das am besten? Adobe Golive bietet eine Funktionalität, die danach klingt. Als ich das in der Vergangenheit versucht habe, hat es aber bestenfalls den Text geladen, nicht jedoch die enthaltenen Bilder, und dann jeweils auch nur eine Seite.

    Danke für Eure Ideen!
     
  2. lengsel

    lengsel MacUser Mitglied

    Beiträge:
    4.627
    Zustimmungen:
    53
    MacUser seit:
    25.11.2003
    z.B. Camino speichert Seiten komplett (mit allen enthaltenen Dateien) ab.

    Grüße,
    Flo
     
  3. ?=?

    ?=? MacUser Mitglied

    Beiträge:
    941
    Zustimmungen:
    14
    MacUser seit:
    09.02.2004
    . . . und wenn Camino nicht reicht bietet curl (im Terminal) mehr Möglichkeiten -> man curl ;)


    Gruß,

    ?=?
     
  4. mactrisha

    mactrisha MacUser Mitglied

    Beiträge:
    674
    Medien:
    2
    Zustimmungen:
    4
    MacUser seit:
    27.11.2003
    Hi plazma

    betätige mal die Suchfunktion, [DLMURL]http://www.macuser.de/forum/search.php?searchid=556838[/DLMURL] da findet sich einiges. Ich persönlich nehme SiteSucker.

    defekter Link entfernt

    Salü,
    mactrisha.
     
  5. ruedi222

    ruedi222 MacUser Mitglied

    Beiträge:
    339
    Zustimmungen:
    0
    MacUser seit:
    14.06.2004
    Ein schönes Teil ist

    DeepVacuum

    Es wird auch PHP und SSI ausgelesen, was die meisten Progs sonst nicht machen.
     
  6. Bartleby

    Bartleby MacUser Mitglied

    Beiträge:
    786
    Zustimmungen:
    17
    MacUser seit:
    19.10.2004
    Unter Linux gibt's das grandiose Tool wget, dass genau deinen Zweck erfüllt. Ich weiß aber nicht, ob es das auch für OSX gibt.

    Syntax wäre:

    Code:
    wget -R http://www.microsoft.com
    Und nach mehr oder weniger vielen Stunden *g* hast du die komplette Seite auf deiner Platte.
     
  7. Lua

    Lua MacUser Mitglied

    Beiträge:
    3.119
    Zustimmungen:
    22
    MacUser seit:
    27.05.2004
    Internet Explorer.
    Düfrte bei dir installiert sein und speichert komplette Websites als .waf ab.
     
  8. waiu

    waiu MacUser Mitglied

    Beiträge:
    220
    Zustimmungen:
    0
    MacUser seit:
    12.05.2004

    Bestimmt frustrierend mit so einem langsamen Rechner, oder?
     
  9. oSIRus

    oSIRus MacUser Mitglied

    Beiträge:
    2.721
    Zustimmungen:
    0
    MacUser seit:
    16.09.2004
    wenn Du die Seiten verändern mußt, wie willst Du sie dann wieder hochladen, wenn Du keinen FTP-Zugang hast? ;)
     
  10. G4Wallstreet

    G4Wallstreet MacUser Mitglied

    Beiträge:
    1.595
    Zustimmungen:
    37
    MacUser seit:
    08.01.2004
    dito, oder willst Du sie nur kopieren ?
     
Die Seite wird geladen...
Ähnliche Themen - Bestehende Website Haut
  1. spike01
    Antworten:
    13
    Aufrufe:
    665
    tocotronaut
    08.11.2016
  2. Saloice
    Antworten:
    13
    Aufrufe:
    490
    Olivetti
    26.09.2016
  3. gerti80
    Antworten:
    10
    Aufrufe:
    1.315
    Matrickser
    31.01.2016
  4. HawkeyePierce
    Antworten:
    2
    Aufrufe:
    2.892
    tocotronaut
    07.02.2015
  5. ismon
    Antworten:
    4
    Aufrufe:
    1.143
    giesbert
    24.12.2014