Wie Dateien vor Searchbots verstecken?

Dieses Thema im Forum "Web Page Design" wurde erstellt von XtreX, 18.12.2006.

  1. XtreX

    XtreX Thread Starter MacUser Mitglied

    MacUser seit:
    29.05.2004
    Beiträge:
    59
    Zustimmungen:
    0
    Hallo

    Ich würde gerne verhindern, dass Google & Co. eine spezifische Seite und die darauf verlinkten Datein indexiert. Laut Google kann ich dies sowohl durch eine robots.txt Datei, als auch durch Meta-Tags realisieren.

    Soweit ich es verstanden habe, kann mithilfe einer robots.txt Datei ein Verzeichnis von Google & Co. "versteckt" werden und per Meta-Tags das Folgen von Links verboten werden. Dessen bin ich mir aber nicht sicher, weshalb ich auch hier nachfrage: Welche Variante würdet Ihr mir empfehlen?
     
  2. hossa

    hossa MacUser Mitglied

    MacUser seit:
    03.04.2005
    Beiträge:
    309
    Zustimmungen:
    0
    die robots Variante ist wohl die einfachste (schnellste), also die :)
    Textdatei mit dem Namen robots.txt erstellen und folgendes rein:
    Beispiel (alles in deinverzeichnis wird nicht indiziert):
    Code:
    User-agent: *
    Disallow: /deinverzeichnis/
    
    Diese Datei einfach im root-Verzeichnis deiner Webseite speichern, fertig.
     
    Zuletzt bearbeitet: 18.12.2006
  3. XtreX

    XtreX Thread Starter MacUser Mitglied

    MacUser seit:
    29.05.2004
    Beiträge:
    59
    Zustimmungen:
    0
    Wunderbar, danke!
     
Die Seite wird geladen...

Diese Seite empfehlen