M
matt666
Mitglied
Thread Starter
- Dabei seit
- 13.10.2004
- Beiträge
- 28
- Reaktionspunkte
- 0
Hallo Leute,
ich habe ab und an das Problem das Leute meine Seite "spidern". Sprich da zieht sich jemand meine Seite, erzeugt massig traffic, um diese dann Lokal zu speichern. Inklusive aller Bilder etc....
Wie kann ich das verhindern?
Mit der robots.txt-Datei kann ich den Robots der Suchmaschinen mehr oder weniger gut einhalt gebieten (sofern die sich dran halten allow/denie).
Schönes Beispiel ist :
https://www.macuser.de/robots.txt
Das wird aber mein Problem nicht lösen.
Deswegen meine Frage, ist es möglich per .htaccess die Clients wie zB:
Mozilla/4.5 (compatible; HTTrack 3.0x; Windows 98)
auszusperren bzw umzuleiten ???
Hat da jemand bereits erfahrung gesammelt?
Danke - matt666
ich habe ab und an das Problem das Leute meine Seite "spidern". Sprich da zieht sich jemand meine Seite, erzeugt massig traffic, um diese dann Lokal zu speichern. Inklusive aller Bilder etc....
Wie kann ich das verhindern?
Mit der robots.txt-Datei kann ich den Robots der Suchmaschinen mehr oder weniger gut einhalt gebieten (sofern die sich dran halten allow/denie).
Schönes Beispiel ist :
https://www.macuser.de/robots.txt
Das wird aber mein Problem nicht lösen.
Deswegen meine Frage, ist es möglich per .htaccess die Clients wie zB:
Mozilla/4.5 (compatible; HTTrack 3.0x; Windows 98)
auszusperren bzw umzuleiten ???
Hat da jemand bereits erfahrung gesammelt?
Danke - matt666