Zum Inhalt springen

robots.txt für KI-Crawler

Kurzfassung: Viele Websites blockieren versehentlich KI-Crawler in ihrer robots.txt. Das macht dich unsichtbar für ChatGPT, Perplexity und Claude. Hier erfährst du wie du es richtig machst.

  • robots.txt steuert welche Bots deine Website crawlen dürfen
  • Viele Standardkonfigurationen blockieren KI-Crawler
  • GPTBot, ClaudeBot, PerplexityBot müssen erlaubt sein
  • Einmal falsch konfiguriert = unsichtbar für KI-Assistenten
  • Prüfen und anpassen dauert 5 Minuten

Eine Textdatei im Hauptverzeichnis deiner Website die Suchmaschinen und Crawlern sagt was sie dürfen und was nicht.

Erreichbar unter: https://deine-domain.de/robots.txt

CrawlerBetreiberNutzt für
GPTBotOpenAIChatGPT, GPT-4
ChatGPT-UserOpenAIChatGPT Browse-Funktion
ClaudeBotAnthropicClaude
PerplexityBotPerplexityPerplexity AI
AmazonbotAmazonAlexa
Meta-ExternalAgentMetaMeta AI
User-agent: *
Allow: /
Sitemap: https://deine-domain.de/sitemap.xml

Das erlaubt allen Crawlern den Zugang. Einfach und effektiv.

  1. Datei aufrufen

    Gehe zu https://deine-domain.de/robots.txt

  2. Nach Blockierungen suchen

    Suche nach:

    • Disallow: / ohne vorheriges User-agent: [spezifisch]
    • Explizite Blockierungen wie User-agent: GPTBot gefolgt von Disallow: /
  3. Mit Tool prüfen

    Der LLM Readability Checker prüft automatisch ob KI-Crawler blockiert sind.

Du willst KI-Crawler erlauben, aber bestimmte Bereiche schützen?

User-agent: *
Allow: /
# Private Bereiche blockieren
Disallow: /admin/
Disallow: /intern/
Disallow: /mitglieder/

Das erlaubt Crawlern den öffentlichen Bereich, schützt aber interne Seiten.

  1. Warten

    Crawler lesen robots.txt nicht sofort neu. Gib ihnen ein paar Tage.

  2. Prüfen

    Nach 1-2 Wochen mit AI Radar checken ob du sichtbar wirst.

  3. Monitoring

    Regelmäßig prüfen ob Änderungen durch Updates überschrieben wurden.

Nein. User-agent: * Allow: / erlaubt alle. Einzeln auflisten ist nur nötig wenn du differenzieren willst.

Ja. Du kannst z.B. GPTBot erlauben aber PerplexityBot blockieren. Ob das sinnvoll ist, ist eine andere Frage.

Nein. Googlebot ist davon unabhängig. Du kannst beides gleichzeitig erlauben.

Nach jedem größeren Website-Update und mindestens alle 3 Monate. Plugins und Themes können Änderungen überschreiben.

Nein. Es ist die Grundvoraussetzung. Ohne Zugang kann keine KI deinen Content lesen. Aber für echte Sichtbarkeit brauchst du auch guten, strukturierten Content.

Signiert · 6d1c60a4... · CC BY 4.0 · 21.12.2025