Automator: URLs einzeln öffnen und schließen

bennynoise

bennynoise

Registriert
Thread Starter
Dabei seit
07.11.2014
Beiträge
2
Reaktionspunkte
0
Hallo zusammen,

ich möchte folgendes mit Automator erzielen:

1) Eine Liste mit URLs laden
2) Erste URL im Browser öffnen
3) Text der Website extrahieren und in Textdatei speichern
4) Erste URL schließen
5) Schritte 2 bis 4 mit allen weiteren URLs durchführen

Die Texte sollten im Idealfall alle in der selben Datei gespeichert werden. Ich konnte den Prozess schon so zurecht basteln, dass er mir die URLs alle gleichzeitig öffnet und die Inhalte speichert. Ich müsste aber eigentlich ca. 900 URLs durchlaufen lassen, das wird der Browser kaum mitmachen :D

Hat jemand eine Idee dazu?

Danke und viele Grüße!
 
Ich würde ein AppleScript einbinden und die Schleife mit einer Repeat While Anweisung bauen.
 
Text der Website extrahieren

Text kann auf einer Webseite ja in ganz unterschiedlichen Elementen auftauchen. Oder hattest sowas wie das Ergebnis der Safari/Firefox-Readeransicht im Sinn?
Was sind das für URLs? Alles Seiten einer einzigen Domain? Gibts von denen evtl. einen RSS-Feed? Da würde die Textextraktion einfacher machen.
 
schleife mit links/lynx/lynxlet -dump $url >>dump.txt
 
Zurück
Oben Unten