robots.txt-Generator – Crawler-Konfiguration generieren
robots.txt für SEO generieren. Einfach User-agent und Allow/Disallow-Regeln eingeben und fertig.
Input
Vorschau
User-agent: *
Verwendung
- User-agent eingeben (Standard * gilt für alle Crawler)
- Zu sperrende Pfade eingeben, einen pro Zeile
- Zu erlaubende Pfade eingeben, einen pro Zeile (optional)
- Download-Schaltfläche zum Abrufen der robots.txt-Datei
FAQ
- Was ist robots.txt?
- Eine Textdatei, die Suchmaschinen-Crawlern die Zugriffsregeln Ihrer Website mitteilt.
- Was passiert, wenn ich Disallow auf / setze?
- Das blockiert das Crawlen der gesamten Website. Verwenden Sie dies, wenn Suchmaschinen Ihre Website nicht indexieren sollen.
- Werden meine Daten an einen Server gesendet?
- Nein. Die gesamte Verarbeitung erfolgt im Browser.
- Können mehrere Crawler in User-agent angegeben werden?
- Ja. Durch Hinzufügen mehrerer User-agent-Direktiven können Sie für jeden Crawler unterschiedliche Regeln festlegen. Verwenden Sie * (Sternchen), um auf alle Crawler anzuwenden.
- Kann auch die Sitemap-Direktive hinzugefügt werden?
- Ja. Das Einfügen Ihrer Sitemap-URL als Sitemap-Direktive in robots.txt teilt Crawlern mit, wo sie Ihre Sitemap finden.
Verwandte Tools
Updateverlauf
Zuletzt aktualisiert: 2026-02-21
- 2026-02-21 Erstveröffentlichung