- Alles erlauben - Zugriff für alle Suchmaschinen erlauben:
User-agent: *
Disallow:
- Alles verbieten - Zugriff für alle Suchmaschinen verbieten:
User-agent: *
Disallow: /
- Zugriff nur für einen Bot erlauben:
z.B. nur Google darf Ihre Webseite crawlen (Google-Bot Name ist „google“). Für alle andere Bots ist der Zugriff auf die ganze Webseite nicht erlaubt.
User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /
- Zugriff von einen Bot verbieten:
z.B. die Yandex-Suchmaschine (Name des Bots: yandex) darf Ihre Webseite nicht crawlen.
User-agent: *
Disallow:
User-agent: yandex
Disallow: /
- Ausnahme in einem blockierten Ordner zulassen:
Im folgenden Beispiel ist der Zugriff auf das Verzeichnis „/ordner/“ nicht erlaubt. Es ist jedoch erlaubt auf das Unterverzeichnis „/ordner/videos/“ und die Datei „/ordner/mein-video.avi“ zuzugreifen.
User-Agent: *
Disallow: /ordner/
Allow: /ordner/videos/
Allow: /ordner/mein-video.avi
- Alle Unterverzeichnisse blockieren, die mit "ordner" beginnen
User-agent: *
Disallow: /ordner*/
- Alle Unterverzeichnisse blockieren, die "ordner" enthalten
User-agent: *
Disallow: /*ordner/
- Nur ein ausgewähltes Verzeichnis blockieren
Dabei werden die hierarchisch tiefergelegen Verzeichnisse und Dateien nicht gesperrt.
User-agent: *
Disallow: /ordner/$
- Dateien mit einer Dateiendung blockieren
z.B. alle PDF-Dateien sollen blockiert werden:
User-agent: *
Disallow: /*.pdf$
- Dateien mit einer Dateiendung blockieren und nur eine Datei zulassen
z.B. alle AVI-Dateien sollen blockiert und nur eine (/ordner/mein-cooles-video.avi) erlaubt werden:
User-agent: *
Disallow: /*.avi$
Allow: /ordner/mein-cooles-video.avi
- Nur eine Datei blockieren
z.B. die Datei (/ordner/mein-geheimes-video.avi) soll blockiert werden:
User-agent: *
Disallow: /ordner/mein-geheimes-video.avi
- Seiten mit URL-Parameter blockieren
User-agent: *
Disallow: /*?
- Auslesegeschwindigkeit von Bots drosseln
Diese Konfigutation wird selten eingesetzt bzw. erst dann, wenn das Performance der Webseite durch das Crawlen bestimmter Bots beeinträchtigt ist.
z.B. „msnbot“ darf auf Ihre Webseite nur einmal pro 15 Sekunden zugreifen
User-agent: *
Disallow:
User-agent: msnbot
Crawl-delay: 15
- Komplexer Beispiel:
Anforderung:
- Bots: Zugriff für alle Bots ausser „testbot“ erlauben
- Das Verzeichnis „/search/“ blockieren
- Alle Verzeichnisse blockieren, welche am Anfang „conf“ haben.
- Alle Dateien mit der Endung „.pdf“ blockieren
- Nur die Datei "/ordner/seo.pdf" darf indexiert werden
- Zugriff auf die URLs mit Parametern verbieten
Inhalt der robots.txt-Datei sieht so aus:
User-agent: *
Disallow: /search/
Disallow: /conf*/
Disallow: /*.pdf$
Allow: /ordner/seo.pdf
Disallow: /*?
User-agent: testbot
Disallow: /