homepage download?

Dieses Thema im Forum "Netzwerk-Software" wurde erstellt von berichta, 17.05.2004.

  1. berichta

    berichta Thread Starter Mitglied

    Beiträge:
    77
    Zustimmungen:
    0
    Mitglied seit:
    10.12.2003
    ich hab mal eine frage bezüglich eines features welches ich noch von meinem pc und dem internetexplorer kenne:

    wie kann ich es mit safari anstellen, um eine komplette homepage runterzuladen? darunter verstehe ich alles verlinktenn htmls auf dem server in inklusive 1-2 unterordnern... dazu noch bilder und das alles möglichst einem ordner wiederfinden...?

    hab zwar ne funktion zum einzelnen frame speichern, aber ohne bilder etc... :-(

    gibts da nen trick?
    mfg, berichta
     
  2. Dr. Snuggles

    Dr. Snuggles Mitglied

    Beiträge:
    4.672
    Zustimmungen:
    0
    Mitglied seit:
    22.07.2003
    Da gabs schon ein paar Threads, verwende mal die Suche;)
    Ich glaube das Programm hieß Site sucker oder so....oder schau einfach bei versiontracker.com vorbei
     
  3. berichta

    berichta Thread Starter Mitglied

    Beiträge:
    77
    Zustimmungen:
    0
    Mitglied seit:
    10.12.2003
    danke danke, hab jetzt auch was gefunden, obwohl ich vorher mehrmals gesucht habe... kopfkratz
     
  4. crisp

    crisp Mitglied

    Beiträge:
    17
    Zustimmungen:
    0
    Mitglied seit:
    09.04.2004
    wGet

    Du kannst auch wget nutzen, ist sehr schnell und zieht den gesamten webspace (wenn du es willst) also auch die Source files (e.g. php)

    Gruss Crisp
     
  5. berichta

    berichta Thread Starter Mitglied

    Beiträge:
    77
    Zustimmungen:
    0
    Mitglied seit:
    10.12.2003
    hab in diesem zusammenhang auch DeepVacuum gefunden. baut auf wget auf!

    und ist bisher auch das programm, welches mir zusagt, weil es genau die funktionen bietet die ich gesucht habe...

    so long, berichta
     
  6. ruedi222

    ruedi222 Mitglied

    Beiträge:
    339
    Zustimmungen:
    0
    Mitglied seit:
    14.06.2004
    Hallo,

    greife das Thema nochmal auf.

    Alle Progs bezüglich Webseiten-Speichern zum Offline-Anschauen haben das Problem, dass includes und styles und php nicht mitgeladen werden. Jedenfalls hab ich es bisher nicht geschafft.

    Deep Vacuum entspricht ansonsten meinen Vorstellungen. Allerdings sollte der Download auch auf ner Dose laufen.

    Gibt's da ne Lösung?

    ruedi222
     
Die Seite wird geladen...
  1. Wir verwenden Cookies, weil diese die Bereitstellung unserer Dienste für dich erleichtern und dich z.B. nach der Registrierung angemeldet halten.