mit apple script webseiten speichern

D

dehose

unregistriert
Thread Starter
Dabei seit
05.03.2004
Beiträge
5.270
Reaktionspunkte
497
Hallo,

also ich würde gerne in einem Rutsch diverse Unterseiten einer Webseite laden und lokal in einem Ordner speichern.
Die url sieht ungefähr so aus: www.blablabla.de/index.php?id=$zahl

die $zahl geht sagen wir mal von 1 bis 1000, sind also quasi 1000 Seiten zu speichern.

Hab mir gedacht das alles in so eine Art for...do..while Schleife, oder ähnlich zu packen. Wie sähe das ganze in Applescript aus?

dehose, noch ni mit applescript gearbeitet
 
du kannst es ja zusammen mit wget machen ... oder mit einem shell-skript und wget ...
 
Oder mit Webdevil oder 'nem Ordnerscript wo der Link rein kommt, vielleicht!
 
Das mit dem wget kam mir auch schon in den Sinn, aber wie verbinde ich das mit einer Schleife? ob applescript oder shell-script ist mir eigentlich egal. Hauptsache ich bekomm in einem Rutsch irgendwie die 1000 Seiten auf die Platte :)
 
ok, wenns egal ist womit, dann hier per php:

<?php

for($i=1; $i<=1000; $i++) {
exec("wget --mirror http://someweb.net/index.php?id=".$i);
}

?>
 
@Kantana,

also das mit php ist ne gute Idee. php und apache läuft und hab auch noch eine Ausgabe der id's mit gemacht. Diese werden alle ausgegeben, aber gespeicherte
Seiten find ich nirgends. Eigentlich sollten die ja in dem Ordner sein, wo auch die php-Datei steckt, oder?
 
ja, das sollten sie ...
mit der option --mirror wird aber ein unterverzeichnis angelegt ...
 
Zuletzt bearbeitet:
hmm, ich glaube ich hab das Problem gefunden. Ein Kumpel (Linux Freak) hat mir auch grade nen shell script geschickt und das meckert nun rum das "wget" gar nicht existiert. Es existier wirklich nicht wenn ich es im terminal eingebe. Wo bekomm ich es her?
 
ich hatte es bis eben auch nicht, hab es mir über fink gezogen ... falls du weder fink noch interesse fink zu installieren hast, PN an mich und ich maile dir die wget-binary ...
 
siehe haben Post :)
 
sie aber auch : )
 
Danke, ist angekommn und auch in /usr/bin gespeichert, nur im terminal kommt "Permission denied" beim Aufruf von wget.
Was muss ich dann noch ändern?
 
öffne mal das verzeichnis mit dem finder, gehe auf wget und lasse dir mal die informationen anzeigen ... was steht bei eigentümer und zugriffsrechte ...
ansonsten steck wget mal in das verzeichnis zu dem php-skript ...
 
Öffnen mit: "nicht anwendbar", wenn ich terminal auswähle meckert der rum.

Sie dürfen: "nur lesen"
Eigentümer: "dehose" (also ich :)
Rechte: nur lesen

Gruppe: wheel
Rechte: nur lesen

Andere: nur lesen



Mhhh, ich installier mir jetzt einfach mal Fink, mal sehn ob ich das noch mit 23min restakku hinbekomme
 
bei mir ist der eigentümer "system" ...
 
hmm, na dann mal testen, hab mir auch Fink runtergeladen und teste das bei Gelegenheit. In noch 7min Akkulaufzeit schaff ich das nicht mehr.
Danke trotzdem
 
gerne doch ... auch wenns nicht ganz geklappt hat ... : )
 
So, also das mit Fink klappt wunderbar und wget ist auch da. juhu. Das php-skript funzt zwar irgendwie nicht, aber das shell-script was mir jemand geschrieben hat geht.
zur Info:

#!/bin/bash
declare -i i
declare -i max
i=413
while [ $i -ne 1217 ]
do
wget "http://www.blabla.de/index.php?id=$i"
i=i+1
done

muss jetzt nur noch die Datei-Endungen ranbauen und dann ist es perfekt.
 
Zurück
Oben Unten