komplete Internetseite speichern? Wie?

DMC

Aktives Mitglied
Thread Starter
Dabei seit
15.01.2003
Beiträge
637
Reaktionspunkte
0
Hallo,

ich würde gerne eine komplete, also eine vollständige Internetseite speichern, damit ich diese offline lesen kann. Zum Hintergrund, ich habe ein Vorstellungsgespräch und würde gerne nun, die Firma genauer kennenlernen, will aber nicht stundenlang online sein...

Danke für die Hilfe!!!

dmc
 
Hi,

ich benutze für einzelne Seiten immer die Druckfunktion und speicher die Seite dort als PDF ab (OS X + Safari).

Für Seiten, bei welchen ich auch die Verknüfungen benötige, benutze ich wget auf der Konsole.

Gruß

Stan
 
habe es zwar lange nicht mehr gemacht, aber WebDevil hat das früher immmer sehr zuversichtlich gemacht..
 
mein name ist mein motto: SiteSucker

Freeware, 108k
 
@ martyx

danke, genau so ein Tool hab ich auch gesucht.

apmacus
 
das problem bei sitesucker ist nur daß es keine flash-dateien speichert (oder mach ich was falsch?). ich bräuchte auch eigentlich nur ein programm das ausschließlich diese funktion bietet. hab mich schon bei versiontracker, macupdate, google und im forum wundgesucht. würde mich freuen wenn jemand mir da mal den entscheidenden hinweis geben könnte.
 
Bei mir saugt Sitesucker Flash Datein und Du kannst auch angeben, das nur bestimmt Dateien gesaugt werden sollen (unter Preferences/File Types einfach swf oder was auch immer eingeben).
 
hat der Hoster nicht die Möglichkeit sowas zu unterbinden ?

Da es ja die (übrigens sehr genialen) Happy Tree Freinds auch auf DVD gibt kann ich mir schon vorstellen, das man verhindern möchte, das jemand einfach alles runterlädt....
 
Zuletzt bearbeitet von einem Moderator:
Hi,
versuchts doch mal mit iCab – da hb ich bisher nur gute Erfahrungen gemacht.


gruss
ed
 
wow, (erschlagen von ratschlägen) vielen dank erstmal für die tips. ich versuch das erstmal in ruhe. langsam versteh ich warum so viele forumteilnehmer immer so voll des lobes sind. ich sollte vielleicht doch mal über meinen passiv-mitles-schatten springen! Schring!!! :D
 
Original geschrieben von TobyMac
hat der Hoster nicht die Möglichkeit sowas zu unterbinden ?
Hat er, aber nur eingeschränkt. Er kann bestimmte User Agents (also Programme) nicht zulassen und bestimmte oder keinen Referrer (die Adresse, von der verlinkt auf die Objekte zugegriffen wurde) verbieten und damit Hardlinking unterbinden. Außerdem kann eine Zeitsperre eingebaut werden, Download-Programme sind ja schneller, als klickende Menschen.
Das kann das Download-Programm aber wiederum umgehen, indem es z.B. Mozilla als User Agent vortäuscht und als Referrer die selbe Domain, in der das Objekt liegt angibt.
Monica macht das mit dem MonicaHTTPLoader sehr geschickt. Der HTTP-Loader ist ein blinder Browser, der nur die Links ausspuckt, Monica arbeitet die per Drag&Drop reingezogenen Links Stück für Stück ab.
 
Versuchs doch mal mit WebGrabber ... hat für mich immer gute Ergebnisse gebracht.
 
habs geschafft! und zwar doch mit sitesucker. ich hab das ganze mit dem internet explorer (ihh, ihh, ihh!!!) geöffnet und dann auf die episode geklickt, die ich haben wollte. dann hab ich mir die url vom laufenden film anzeigen lassen und in sitesucker gezogen und "schringgg" schon gings. entweder ich war zu doof oder das war zu einfach. vielen dank an alle schösss
 
yo, ednong. iCab hat IMHO die beste Site-downloadfunktion, da es ja direkt aus dem Brauser funktioniert. Und die Dateien wandern in ein gezipptes Archiv, das iCab direkt und alle anderen Browser nach dem ent-zippen lesen können. Sehr clever.
Leider hat iCab noch ein paar Macken und kommt in der Entwicklung seit Jahren nicht mehr vom Fleck. Schade, denn seit Safari, Camino und Firebird ist der Markt wirklich winzig geworden für so einen feinen Browser...
 
Original geschrieben von box
(…) iCab hat IMHO die beste Site-downloadfunktion, (…) Sehr clever.
Leider hat iCab noch ein paar Macken und kommt in der Entwicklung seit Jahren nicht mehr vom Fleck.(…)
 
Dank für das Lob :D
Das mit der Entwicklung seh ich anders – grad heut ist wieder ne neue Beta raus für die registrierten User (ja, ich hab doch glatt für den Browser bezahlt – find ihn halt ebenso genial) und er macht Fortschritte. Ich weiß ja nicht, welches deine letzt genutzte Version ist …
Allerdings schreiben die wohl ne Menge Code neu – auch wegen der CSS-Unterstützung. Und das geht sicherlich nicht von heut auf morgen - aber ab und an mal ne neue Beta zeigt, das dran gearbeitet wird. Und das ist schön zu sehen.

Ich schätze mal, vielleicht Anfang nächsten Jahres wird er dann auch CSS komplett unterstützen – und da freu ich mich wirklich drauf.


gruss
ed
 
Zurück
Oben Unten