llms.txt erstellen
Die nächste Ebene der KI-Optimierung.
Kurzfassung: Viele Websites blockieren versehentlich KI-Crawler in ihrer robots.txt. Das macht dich unsichtbar für ChatGPT, Perplexity und Claude. Hier erfährst du wie du es richtig machst.
Eine Textdatei im Hauptverzeichnis deiner Website die Suchmaschinen und Crawlern sagt was sie dürfen und was nicht.
Erreichbar unter: https://deine-domain.de/robots.txt
| Crawler | Betreiber | Nutzt für |
|---|---|---|
| GPTBot | OpenAI | ChatGPT, GPT-4 |
| ChatGPT-User | OpenAI | ChatGPT Browse-Funktion |
| ClaudeBot | Anthropic | Claude |
| PerplexityBot | Perplexity | Perplexity AI |
| Amazonbot | Amazon | Alexa |
| Meta-ExternalAgent | Meta | Meta AI |
User-agent: *Allow: /
Sitemap: https://deine-domain.de/sitemap.xmlDas erlaubt allen Crawlern den Zugang. Einfach und effektiv.
# SuchmaschinenUser-agent: GooglebotAllow: /
User-agent: BingbotAllow: /
# KI-CrawlerUser-agent: GPTBotAllow: /
User-agent: ChatGPT-UserAllow: /
User-agent: ClaudeBotAllow: /
User-agent: PerplexityBotAllow: /
User-agent: AmazonbotAllow: /
# Alle anderenUser-agent: *Allow: /
# SitemapSitemap: https://deine-domain.de/sitemap.xmlExplizit und klar - jeder Crawler einzeln aufgeführt.
User-agent: *Allow: /
# LLM-spezifische Informationen# Siehe: https://deine-domain.de/llms.txt
Sitemap: https://deine-domain.de/sitemap.xmlVerweist zusätzlich auf deine llms.txt.
Datei aufrufen
Gehe zu https://deine-domain.de/robots.txt
Nach Blockierungen suchen
Suche nach:
Disallow: / ohne vorheriges User-agent: [spezifisch]User-agent: GPTBot gefolgt von Disallow: /Mit Tool prüfen
Der LLM Readability Checker prüft automatisch ob KI-Crawler blockiert sind.
Du willst KI-Crawler erlauben, aber bestimmte Bereiche schützen?
User-agent: *Allow: /
# Private Bereiche blockierenDisallow: /admin/Disallow: /intern/Disallow: /mitglieder/Das erlaubt Crawlern den öffentlichen Bereich, schützt aber interne Seiten.
Warten
Crawler lesen robots.txt nicht sofort neu. Gib ihnen ein paar Tage.
Prüfen
Nach 1-2 Wochen mit AI Radar checken ob du sichtbar wirst.
Monitoring
Regelmäßig prüfen ob Änderungen durch Updates überschrieben wurden.
Nein. User-agent: * Allow: / erlaubt alle. Einzeln auflisten ist nur nötig wenn du differenzieren willst.
Ja. Du kannst z.B. GPTBot erlauben aber PerplexityBot blockieren. Ob das sinnvoll ist, ist eine andere Frage.
Nein. Googlebot ist davon unabhängig. Du kannst beides gleichzeitig erlauben.
Nach jedem größeren Website-Update und mindestens alle 3 Monate. Plugins und Themes können Änderungen überschreiben.
Nein. Es ist die Grundvoraussetzung. Ohne Zugang kann keine KI deinen Content lesen. Aber für echte Sichtbarkeit brauchst du auch guten, strukturierten Content.
llms.txt erstellen
Die nächste Ebene der KI-Optimierung.
Sichtbarkeit prüfen
Check nach 1-2 Wochen.