1. Auffindbarkeit
Der Agent prüft robots.txt und Sitemaps, um Zugriffsrechte zu klären.
Kurzfassung: Agent Experience (AX) beschreibt die Summe aller Eigenschaften einer digitalen Ressource, die es einem autonomen KI-Agenten ermöglichen, den Inhalt zuverlässig zu finden, zu verstehen, zu verifizieren und zu nutzen. Wer AX vernachlässigt, ist für die Software unsichtbar, die Menschen zunehmend beim Recherchieren und Einkaufen ersetzt.
Agent Experience (AX) beschreibt die Summe aller Eigenschaften einer digitalen Ressource, die es einem autonomen KI-Agenten ermöglichen, den Inhalt zuverlässig zu finden, zu verstehen, zu verifizieren und zu nutzen. Anders als UX, die auf menschliche Intuition und Emotion ausgerichtet ist, oder SEO, das auf die Indexierung durch Google-Crawler zielt, optimiert AX eine Webseite für die Logik, das Sicherheitsbedürfnis und die Entscheidungsfindung von Maschinen.
Die Paradigmenverschiebung im Internet vollzieht sich leise, aber radikal. Wo früher die Suchmaschine das Tor zum Wissen war, übernehmen nun KI-Agenten (ChatGPT, Perplexity, autonome Browser-Agenten) diese Rolle. Sie suchen nicht nur Informationen — sie führen Aufgaben aus: Flüge buchen, Versicherungen vergleichen, Support-Tickets lösen, Produkte einkaufen — im Auftrag des Nutzers.
Für Marketer bedeutet das eine fundamentale Umkehr der Prioritäten. Wer weiterhin nur für Google optimiert (Backlinks, Keyword-Density), optimiert für einen Kanal, der an struktureller Bedeutung verliert. Die neue Suchmaschine ist kein Algorithmus mehr, sondern eine Intelligenz, die Quellen prüft, bevor sie zitiert.
Tools wie Google AI Mode, Perplexity oder Browser-native LLM-Integrationen zeigen bereits heute bevorzugt Quellen an, die maschinenlesbar, verifizierbar und strukturiert sind. Das ist kein Trend — das ist der neue Baseline-Standard für digitale Sichtbarkeit.
Ein KI-Agent liest eine Webseite grundlegend anders als ein Mensch. Während Menschen sich von Farben, Bildern und emotionaler Ansprache leiten lassen, sieht ein Agent kalte Datenstrukturen.
1. Auffindbarkeit
Der Agent prüft robots.txt und Sitemaps, um Zugriffsrechte zu klären.
2. Strukturanalyse
Er liest das HTML, ignoriert visuelles Markup und sucht nach semantischen Hinweisen (H1, H2, ARIA-Labels).
3. Datenextraktion
Der Agent sucht aktiv nach JSON-LD (strukturierten Daten), um Fakten zu extrahieren — statt den Fließtext zu interpretieren.
4. Verifizierung
Er prüft, ob die Identität des Anbieters maschinell überprüfbar ist (z.B. über NIP-05 oder Author-Markup).
Entscheidung: Basierend auf Datenqualität und Vertrauenswürdigkeit entscheidet der Agent, ob er die Quelle nutzt oder übergeht.
Eine Webseite, die nur für das menschliche Auge gestaltet ist — schöne Bilder, aber kein JSON-LD — ist für den Agenten ein schwarzes Loch. Er kann sie nicht lesen, nicht zitieren, nicht nutzen.
Die drei Konzepte werden häufig verwechselt, weil sie alle „Optimierung” im Namen tragen. Dabei adressieren sie grundlegend unterschiedliche Zielgruppen.
| UX | SEO | AX | |
|---|---|---|---|
| Zielgruppe | Mensch | Google-Bot | KI-Agent |
| Optimiert für | Design, Emotion, Usability | Backlinks, Keywords, Meta-Tags | Struktur, Verifizierbarkeit, API |
| Erfolgskriterium | Conversion Rate | Ranking | Zitierung |
| Werkzeuge | Figma, Hotjar | Ahrefs, Search Console | Schema.org, JSON-LD, NIP-05 |
Alle drei Konzepte schließen sich nicht aus — aber sie haben unterschiedliche Prioritäten, verschiedene Werkzeuge und verschiedene Erfolgskriterien. Wer nur UX und SEO beherrscht, hat für die nächste Infrastruktur-Schicht keine Grundlage gelegt.
Der Agent muss die Welt nicht erraten. Mit Schema.org-Markup — z.B. Product, Article, Organization — liefern Sie die Fakten in maschinenlesbarer Form direkt im HTML-Head. Das ist das Fundament von AX. Ohne es arbeitet der Agent mit Vermutungen.
Verzichten Sie auf leere Marketing-Phrasen wie „Next Generation AI Solutions” oder „ganzheitliche Innovationsbegleitung”. Schreiben Sie konkret: „Wir bieten Python-basierte LLM-Optimierung für mittelständische Unternehmen im DACH-Raum.” Je präziser die Sprache, desto wahrscheinlicher das Zitat. Agenten optimieren nicht — sie selektieren.
Woher weiß der Agent, dass Sie sind, wer Sie behaupten zu sein? Im dezentralen Web etabliert sich der NIP-05-Standard (Nostr Improvement Proposal 05) als kryptografisch verankerte Identitätsprüfung: Eine DNS-basierte Verknüpfung zwischen einem Nutzernamen (name@domain.tld) und einem öffentlichen Nostr-Schlüssel erlaubt es jeder Maschine, die Identität ohne zentrale Instanz zu verifizieren. Klassisches rel="author"-Markup erfüllt im klassischen Web denselben Zweck.
Wenn ein Agent für Sie einkaufen oder recherchieren soll, darf keine Login-Wall den Weg versperren. Keine Captchas, die nur Menschen lösen können. Keine JavaScript-Loader, die Inhalte erst nach Interaktion sichtbar machen. Der maschinelle Zugang muss technisch friktionslos möglich sein — sonst bricht der Agent die Aufgabe ab.
Kann der Agent die Information prüfen? Werden Quellen genannt? Gibt es digitale Signaturen — etwa für Bilder über VisionFusen — die Echtheit und Herkunft belegen? Vertrauen wird hier nicht behauptet, sondern technisch bewiesen. Das ist der Unterschied zwischen einer Quelle, die ein Agent zitiert, und einer, die er überspringt.
Organization- und Product-JSON-LD, NIP-05 im Footer, API-Doku öffentlich, rel="author" mit Signatur.Das JSON-LD im HTML-Head sieht dann so aus:
{ "@context": "https://schema.org", "@type": "Organization", "@id": "https://example.com", "name": "Ihre Firma GmbH", "description": "LLM-Optimierung für mittelständische Unternehmen im DACH-Raum.", "url": "https://example.com", "founder": { "@type": "Person", "name": "Max Mustermann", "sameAs": ["https://linkedin.com/in/mustermann"] }, "knowsAbout": ["LLM-Optimierung", "Agent Experience", "Strukturierte Daten"], "offers": { "@type": "Service", "name": "JSON-LD Audit", "description": "Analyse und Implementierung strukturierter Daten für KI-Sichtbarkeit." }}Der Agent liest diesen Block und weiß sofort: Wer steht dahinter, was wird angeboten, für wen. Kein Raten, kein Interpretieren.
Schema.org-Markup implementieren. Fügen Sie Ihrer Seite Article-, Organization- oder Product-JSON-LD hinzu. Testen Sie mit dem Google Rich Results Test.
Identität maschinenlesbar machen. Richten Sie einen NIP-05-Eintrag ein oder implementieren Sie rel="author" konsequent auf allen Seiten.
Texte bereinigen. Überarbeiten Sie Ihre Startseite und ersetzen Sie subjektive Superlative durch objektive Beschreibungen. Was tut Ihr Produkt konkret, für wen, mit welchem Ergebnis?
Zugang öffnen. Entfernen Sie unnötige Login-Hürden für öffentliche Informationen. Prüfen Sie, ob kritische Inhalte hinter JavaScript-Loadern versteckt sind.
Verifizierbarkeit einbauen. Zitieren Sie Quellen. Signieren Sie Bilder. Je mehr ein Agent prüfen kann, desto sicherer fühlt er sich beim Zitieren.
Mehr zum strategischen Rahmen hinter diesen Maßnahmen: Was ist LLM-Optimierung?
Agent Experience ist nicht das neue SEO — es ist dessen Nachfolger in einer Infrastruktur, die von autonomen Agenten dominiert wird. SEO hat für Google-Crawler optimiert. AX optimiert für Software, die eigenständig entscheidet, handelt und zitiert. Der entscheidende Unterschied: Der Agent muss Ihrer Seite vertrauen können. Das erreichen Sie nicht durch bessere Texte allein, sondern durch bessere Daten, klare Identität und maschinell prüfbare Verifizierbarkeit. Wer das jetzt implementiert, ist sichtbar. Alle anderen sind es bald nicht mehr.