Komplette homepage runterlaaden?

Dieses Thema im Forum "Netzwerk-Software" wurde erstellt von Tomcat, 04.12.2003.

  1. Tomcat

    Tomcat Thread Starter Mitglied

    Beiträge:
    588
    Zustimmungen:
    0
    Registriert seit:
    24.08.2002
    Gibt es eine möglichkeit eine komplette homepage mit allen texten bildern und querverweisen downzuloaden?
    Gruß Tomcat
     
  2. geht mit sitesucker, gibts bei vt.
     
  3. BEASTIEPENDENT

    BEASTIEPENDENT Mitglied

    Beiträge:
    1.978
    Zustimmungen:
    7
    Registriert seit:
    26.10.2003
    ja, mit site sucker, web grabber und anderen freeware/shareware-progs.

    allerdings scheint mir etwas nicht zu funktionieren: ich möchte nur eine dynamische unterseite und alle links darauf haben - das funzt nich mit site sucker. geht wohl mit dynamischen seiten so nicht? oder nur mit verzeichnissen wenn?
     
  4. CyberSeb

    CyberSeb Mitglied

    Beiträge:
    138
    Zustimmungen:
    4
    Registriert seit:
    14.11.2003
    WGET!!!

    WGET ist in der Hinsicht echt das beste. Es ist ein Kommandozeilenutility, welches bei Linux und Mac OS X dabei ist!

    /usr/local/bin/wget -r 5 www.yahoo.de

    lädt yahoo in 5 Ebenen runter. Oder:

    /usr/local/bin/wget -c www.server.com/datei.zip

    lädt die Datei runter. Falls der Download abgebrochen war, bewirkt das -c ein Fortsetzten.

    Nur um 2 der vielen Möglichkeiten zu nennen ;-)

    Gruß,
    Sebastian
     
  5. jokkel

    jokkel Mitglied

    Beiträge:
    3.701
    Zustimmungen:
    7
    Registriert seit:
    24.09.2003
    oder auch WebDevil
     
  6. jokkel

    jokkel Mitglied

    Beiträge:
    3.701
    Zustimmungen:
    7
    Registriert seit:
    24.09.2003
    @CyberSep
    Ich kann wget nicht finden:

    [apfelstrudel:/usr/local/bin] jokkel% wget
    tcsh: wget: Command not found.
    [apfelstrudel:/usr/local/bin] jokkel% cd wget
    tcsh: wget: No such file or directory.
    [apfelstrudel:/usr/local/bin] jokkel%
    mit ls ist auch nix aufgetaucht was so heisst.

    :mad:
     
  7. CyberSeb

    CyberSeb Mitglied

    Beiträge:
    138
    Zustimmungen:
    4
    Registriert seit:
    14.11.2003
  8. CyberSeb

    CyberSeb Mitglied

    Beiträge:
    138
    Zustimmungen:
    4
    Registriert seit:
    14.11.2003
    So sollte es aussehen:

    iBookG4:~ sebmate$ /usr/local/bin/wget
    wget: missing URL
    Usage: wget [OPTION]... ... Try `wget --help' for more options.
     
  9. Spock

    Spock Mitglied

    Beiträge:
    1.339
    Zustimmungen:
    36
    Registriert seit:
    10.09.2003
    WebDevil

    Sehr intuitiv und einfach!
    Bin sehr zufrieden mit dem Programm.
    Gruß
    Spock
     
  10. pixelmaus

    pixelmaus Mitglied

    Beiträge:
    146
    Zustimmungen:
    1
    Registriert seit:
    06.12.2003
    und mit Internet Explorer
    als webarchiv
    da ist dann alles drin
    gruss
     
Die Seite wird geladen...
  1. MacUser.de verwendet Cookies, weil diese die Bereitstellung unserer Dienste für dich erleichtern und dich z.B. nach der Registrierung angemeldet halten. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.