Download-Manager

Yoda

Aktives Mitglied
Thread Starter
Dabei seit
29.08.2002
Beiträge
1.766
Punkte Reaktionen
2
Hallo!

kennt jemand von euch einen DL-Manager für OSX (ahnlich Flashget für den PC) bei dem man auf einer Seite alle angegebenen Links zum DL auswählen känn - ohne alle einzeln anklicken zu müssen

Gruss

Yoda
 

xkeek

Mitglied
Dabei seit
25.02.2004
Beiträge
412
Punkte Reaktionen
0
Zwar etwas älter der Thread, ich wollte aber dafür nicht einen neuen aufmachen. :D

Ich suche einen Download-Manager mit o.g. Funktionen...

Irgendwelche Tipps?
 

Browning

Mitglied
Dabei seit
24.07.2002
Beiträge
67
Punkte Reaktionen
1
Ich bin nicht sicher, was Ihr meint, aber schaut Euch doch Mal iGetter an.
 

xkeek

Mitglied
Dabei seit
25.02.2004
Beiträge
412
Punkte Reaktionen
0
Browning schrieb:
Ich bin nicht sicher, was Ihr meint, aber schaut Euch doch Mal iGetter an.
Wenn du z.B. 10 Download-Links auf einer Webseite hast, dann müsstest du ja jeden einzelnen anklicken um die Datei herunterzuladen. FlashGet (im PC-Bereich) ist in der Lage automatisch alle Dateien mit einem Klick herunterzuladen.
goran schrieb:
Denn kenne ich noch nicht, der kann das?
konben81 schrieb:
Damit kann man, soweit ich weiß, nur die komplette Homepage downloaden, oder auch einzelne Dateien?
 

Maveric

Mitglied
Dabei seit
22.03.2004
Beiträge
462
Punkte Reaktionen
0
Ja wget kann sowas. Der "kleine" Haken ist, dass es ein Kommandozeilentool ist. "man wget" im Terminal hilft weiter und ich hab es so gemacht, dass ich mir die für mich wichtigsten Syntaxe bzw. Buchstaben für die Syntax rausgeschrieben habe und es dann mit meiner Webseite ausprobiert habe wie ich "alles" oder nur "einzelnes" von einer Webseite herunterladen kann. Ist meist nicht so schwierig und nicht abschrecken lassen.

Wget ist aber meines Wissens nach nicht bei OS X dabei, kann aber über google gefunden werden. Meist nicht die ganz aktuelle Version, aber aktuell genug.

Wenn du fink oder Darwinports bzw. Gentoo installiert hast, dann ist es da ich würde sagen zu 99% in einer aktuellen Version erhältlich.

Einen ähnlichen Zweck wie wget erfült "curl". Curl ist bei OS X dabei, hat aber eine andere Syntax. Auch hier gilt "man curl" und wie oben vorgehen.
 

konben81

Mitglied
Dabei seit
29.10.2003
Beiträge
533
Punkte Reaktionen
0
xkeek schrieb:
Damit kann man, soweit ich weiß, nur die komplette Homepage downloaden, oder auch einzelne Dateien?

Man kann auch Dateien laden, indem man ein Filter angibt, z.b:
Lade nur .pdf und .doc Dateien Auf Webseite sowieso mit der Tiefe 3 (Das ist die Tielfe wie weit ein Link verfolgt wird). Man kann damit praktisch auch ganze Webseiten spiegeln, sehr hilfreich bei Online-Büchern die normalerweise nicht zum Download angeboten werden.
 

Ebbi

Aktives Mitglied
Dabei seit
27.07.2003
Beiträge
1.339
Punkte Reaktionen
2
Schon mal "Speed Download" getestet?
 
Oben Unten