XtreX
Mitglied
Thread Starter
- Dabei seit
- 29.05.2004
- Beiträge
- 59
- Reaktionspunkte
- 0
Hallo
Ich würde gerne verhindern, dass Google & Co. eine spezifische Seite und die darauf verlinkten Datein indexiert. Laut Google kann ich dies sowohl durch eine robots.txt Datei, als auch durch Meta-Tags realisieren.
Soweit ich es verstanden habe, kann mithilfe einer robots.txt Datei ein Verzeichnis von Google & Co. "versteckt" werden und per Meta-Tags das Folgen von Links verboten werden. Dessen bin ich mir aber nicht sicher, weshalb ich auch hier nachfrage: Welche Variante würdet Ihr mir empfehlen?
Ich würde gerne verhindern, dass Google & Co. eine spezifische Seite und die darauf verlinkten Datein indexiert. Laut Google kann ich dies sowohl durch eine robots.txt Datei, als auch durch Meta-Tags realisieren.
Soweit ich es verstanden habe, kann mithilfe einer robots.txt Datei ein Verzeichnis von Google & Co. "versteckt" werden und per Meta-Tags das Folgen von Links verboten werden. Dessen bin ich mir aber nicht sicher, weshalb ich auch hier nachfrage: Welche Variante würdet Ihr mir empfehlen?