Agent-Ready. Das neue SEO.
Agent-Ready ist das offene, kostenlose Badge für Websites, die von KI-Agenten wie ChatGPT, Claude, Perplexity und Gemini strukturiert gelesen werden können. Grundlage sind drei simple Bausteine: eine llms.txt im Root, strukturierte Daten nach schema.org und sauberes, semantisches HTML. Das Siegel wurde im April 2026 von Fiperly — der KI-Entwicklungsgesellschaft aus Deutschland — initiiert und ist gemeinfrei. Wer jetzt einsteigt, wird in KI-Antworten zitiert, während andere unsichtbar bleiben.
Für Nutzer
Ein sichtbares Signal: diese Seite nimmt die KI-Ära ernst, ist transparent und liefert saubere Daten statt SEO-Tricks.
Für Entwickler
Qualitätsmerkmal wie „SSL secured" vor 15 Jahren — zeigt, dass die Website moderne Web-Standards für Agenten umsetzt.
Für LLM-Agenten
Ein llms.txt im Root + strukturierte Daten sorgen dafür, dass Agenten die Seite korrekt zitieren und verlinken.
In einfachen Worten
Stell dir vor, ein Freund fragt dich im Gespräch nach einem Thema. Früher hätte er bei Google gesucht, sich fünf Artikel angesehen und sich eine eigene Meinung gebildet. Heute fragt er stattdessen ChatGPT, Claude oder Perplexity — und bekommt eine einzige zusammengefasste Antwort, die sich aus mehreren Websites speist. Welche Websites dabei zu Wort kommen, entscheidet die KI in Sekundenbruchteilen.
Genau an dieser Stelle entscheidet sich, ob deine Seite im neuen Web sichtbar ist. Eine Website, die für KI-Agenten verständlich aufgebaut ist, wird zitiert. Eine Website, die nur für menschliche Augen gebaut ist, wird übersehen. Nicht weil sie schlechter wäre — sondern weil die KI ihre Inhalte nicht zuverlässig entziffern kann.
Agent-Ready ist die einfache Antwort auf diese neue Realität. Drei kleine Bausteine — eine Textdatei, ein bisschen maschinenlesbares Etikett und sauberes HTML — machen aus jeder Website eine Quelle, die KI-Systeme verstehen und weiterempfehlen. Das Logo auf deiner Seite zeigt Besuchern und Maschinen gleichzeitig: diese Seite ist im KI-Zeitalter angekommen.
Für Programmierer ist das in einer Stunde erledigt. Für Nicht-Programmierer gibt es Anleitungen, Tools und Agenturen — der Aufwand ist überschaubar, der Effekt langfristig. Wer jetzt handelt, gehört zu den ersten tausend Websites weltweit, die sich offiziell als Agent-Ready positionieren.
Die drei großen Web-Siegel — und warum Agent-Ready das dritte wird
Das Internet hat in dreißig Jahren zwei universelle Qualitätssiegel hervorgebracht. Beide begannen als Insider-Thema und wurden innerhalb weniger Jahre zum Standard. Agent-Ready steht an der Schwelle, das dritte zu werden:
- HTTPS (seit etwa 2014) — das Vorhängeschloss in der Adressleiste. Zeigt: die Verbindung ist verschlüsselt. Heute: Grundvoraussetzung, ohne HTTPS wird eine Seite von Browsern als unsicher markiert.
- Mobile-Friendly (seit 2015) — Google belohnt mobiloptimierte Seiten in der Suche. Heute: Grundvoraussetzung, nicht-mobile Seiten verschwinden faktisch.
- Agent-Ready (ab 2026) — das Siegel dafür, dass eine Seite für KI-Agenten strukturiert lesbar ist. In wenigen Jahren der Standard, an dem sich Seriosität und Sichtbarkeit im Web messen werden.
Wer heute Agent-Ready umsetzt, holt sich denselben zeitlichen Vorsprung, den Early-Adopter bei HTTPS und Mobile-Friendly hatten — mit dem Unterschied, dass die KI-gestützte Suche schneller wächst als mobile Browser es je taten.
Was heißt „Agent-Ready"?
Agent-Ready beschreibt einen Zustand, in dem eine Website nicht nur für menschliche Leser, sondern auch für maschinelle Leser — insbesondere Large Language Models und die von ihnen gesteuerten Agenten — vollständig erschlossen ist. Eine Website trägt den Badge zu Recht, wenn sie drei Grundvoraussetzungen erfüllt:
/llms.txtliegt im Root und beschreibt die Seite in klarem Markdown — Zweck, wichtigste Unterseiten, Kontaktdaten, Zitierregeln. Nach dem Vorschlag von llmstxt.org (Jeremy Howard, fast.ai, September 2024).- Strukturierte Daten in JSON-LD nach schema.org — mindestens
OrganizationundWebSite, je nach Inhalt zusätzlichArticle,TechArticle,FAQPage,Product,EventoderPerson. - Semantisches HTML mit sauberer Überschriften-Hierarchie, echten
<nav>/<main>/<article>/<section>-Tags, aussagekräftigenalt-Texten und sprechenden Link-Ankern statt „hier klicken".
Kein neues Framework, keine Abhängigkeit, keine Gebühren. Reines Handwerk — zurück zu dem, wie HTML ursprünglich gedacht war, bevor JavaScript-Frameworks und Cookie-Banner die Seiten für Maschinen unzugänglich gemacht haben.
Warum klassisches SEO nicht mehr reicht
Die Suche verlagert sich. Wer 2026 nach einem Fakt, einer Produktempfehlung oder einer medizinischen Einordnung sucht, tippt nicht mehr automatisch in das Google-Suchfeld, sondern stellt die Frage direkt einem Sprachmodell. ChatGPT, Claude, Perplexity, Gemini und die in Browser, IDE oder Betriebssystem eingebauten KI-Assistenten holen Antworten aus dem Web — aber sie liefern sie nicht als Link-Liste, sondern als zusammengefasste Antwort mit Quellenangabe.
Das verändert die Spielregeln grundlegend. Zehn Jahre lang hieß SEO: Keyword-Dichte, Backlinks, Ladezeit, Meta-Description. Das reicht nicht mehr. Ein Sprachmodell braucht verständlichen Fließtext, maschinenlesbare Struktur und klare Fakten mit Quellen. Es ignoriert Texte, die nur auf Keywords optimiert sind, und belohnt Texte, die einem klugen Leser etwas erklären.
Dieser neue Optimierungs-Ansatz hat bereits einen Namen: Generative Engine Optimization oder kurz GEO. Agent-Ready ist die sichtbare Zertifizierung dieses Ansatzes. Wer den Badge trägt, signalisiert: diese Seite ist nicht für SEO-Tricks gebaut, sondern für substanzielle Antworten — und genau das ist, was Modelle in ihre Antworten hochziehen.
Wie LLM-Agenten eine Website lesen
Ein KI-Agent hat wenige Sekunden, um zu verstehen, ob und wie eine Seite für eine konkrete Nutzerfrage relevant ist. Dabei läuft typischerweise folgender Prozess ab, der unter dem Begriff Retrieval-Augmented Generation (RAG) zusammengefasst wird:
- Discovery — Der Agent findet die Seite über eine Suchmaschine, einen Link in einer anderen Antwort, einen llms.txt-Eintrag oder direktes Nutzer-Linking.
- Fetch — Er ruft die Seite ab, idealerweise als statisches HTML. Seiten, die ihren Inhalt erst per JavaScript nachladen, sind für viele Agenten unsichtbar.
- Parse — Der Agent extrahiert Überschriften, Absätze, Listen, Tabellen und strukturierte Daten. Je klarer das HTML, desto zuverlässiger das Ergebnis.
- Chunk & Embed — Der Text wird in sinnvolle Abschnitte zerlegt und in einem Vektorraum eingebettet, damit das Modell die Relevanz zur Nutzerfrage messen kann.
- Cite — Die passenden Abschnitte fließen in die generierte Antwort ein, meistens mit Quellenangabe und Link zurück zur Ursprungsseite.
Agent-Ready zielt auf die Schritte 2 bis 5. Eine sauber strukturierte Seite wird zuverlässiger gefunden, korrekter geparst, präziser gechunkt und häufiger zitiert. Seiten ohne semantisches HTML, ohne JSON-LD und ohne llms.txt erscheinen in KI-Antworten deutlich seltener — und wenn sie erscheinen, oft mit inhaltlichen Fehlern, weil das Modell raten muss, was die Seite eigentlich sagt.
Checkliste — Ist meine Seite Agent-Ready?
Die folgenden zwölf Punkte sind Pflicht. Wer alle abhakt, erfüllt den Standard und darf den Badge führen:
/llms.txtliegt im Root, ist unter 500 Zeilen und beschreibt Zweck, Hauptseiten, Kontakt, Zitierregeln in Markdown./robots.txterlaubt explizitGPTBot,ChatGPT-User,OAI-SearchBot,ClaudeBot,Claude-Web,PerplexityBot,Google-ExtendedundCCBot./sitemap.xmlexistiert und listet alle öffentlichen URLs mitlastmod-Datum.- JSON-LD mit
OrganizationundWebSiteim<head>jeder Seite. - Artikel und Ratgeberseiten haben zusätzlich
ArticleoderTechArticlemitauthor,datePublished,dateModified. - FAQ-Sektionen sind als
FAQPage-Schema ausgezeichnet. - Saubere H1-bis-H3-Hierarchie — genau eine H1 pro Seite, keine Sprünge.
- Echte semantische Tags
<nav>,<main>,<article>,<section>,<aside>,<footer>statt<div>-Wüste. - Alle Bilder haben beschreibende
alt-Attribute — keine leeren, keine Dateinamen, keine Keyword-Spam-Ketten. - Links haben aussagekräftigen Ankertext („zur Preisübersicht" statt „hier klicken").
- Inhalte sind als statisches HTML auslieferbar — kein JavaScript-Rendering als Pflicht.
- Canonical-URL, Meta-Description und Open-Graph-Daten sind pro Seite individuell gesetzt.
Tipp: Teste die eigene Seite mit dem Google Rich-Results-Test, mit view-source: im Browser und indem du eine Frage zu deiner Seite in ChatGPT oder Perplexity eingibst. Werden die Inhalte korrekt zusammengefasst und zitiert, ist das ein starkes Zeichen, dass Agent-Ready greift.
Glossar — die wichtigsten Begriffe rund um Agent-Ready
llms.txt
Markdown-Datei im Wurzelverzeichnis einer Website, die im September 2024 von Jeremy Howard (Mitgründer von fast.ai) vorgeschlagen wurde. Sie erklärt einem Sprachmodell in Klartext, worum es auf der Seite geht, welche Unterseiten die wichtigsten sind und welche Quellen der Agent zitieren soll. Das Format ist bewusst schlicht: ein H1 mit Projektname, ein Absatz Einleitung, danach H2-Überschriften mit Listen relevanter URLs.
schema.org
Gemeinsames Vokabular von Google, Microsoft, Yahoo und Yandex für strukturierte Daten im Web, gestartet 2011. Über Typen wie Organization, Person, Article oder Product werden Inhalte maschinenlesbar ausgezeichnet. Eingebunden wird schema.org am besten als JSON-LD im <head>.
JSON-LD
JavaScript Object Notation for Linked Data — die von Google empfohlene Einbindungsform für schema.org. Ein JSON-Block im <script type="application/ld+json"> stört das HTML nicht, ist aber für Crawler und LLM-Agenten sofort auswertbar.
Generative Engine Optimization (GEO)
Weiterentwicklung von SEO. Während SEO darauf zielt, in Ergebnislisten oben zu erscheinen, zielt GEO darauf, in den generierten Antworten von KI-Systemen zitiert zu werden. Wesentliche Hebel sind klare Fakten, nachvollziehbare Quellen, strukturierter Text und maschinenlesbares Markup.
Retrieval-Augmented Generation (RAG)
Verfahren, bei dem ein Sprachmodell nicht nur aus seinem Trainingswissen antwortet, sondern zur Laufzeit passende Quellen abruft und in die Antwort einbaut. RAG ist der Standard moderner KI-Assistenten und der Grund, warum Websites als Lieferquelle für Agenten immer wichtiger werden.
Semantisches HTML
HTML, das seine Bedeutung über Tag-Namen transportiert. Eine Navigation steht in <nav>, der Hauptinhalt in <main>, ein in sich geschlossener Artikel in <article>. Für Maschinen ist der Unterschied zwischen einem <div class="nav"> und einem echten <nav> erheblich — nur letzteres ist ohne Klassen-Raten verständlich.
LLM-Bot / KI-Crawler
Automatisierter Abruf-Agent eines KI-Anbieters. Beispiele: GPTBot und OAI-SearchBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot (Perplexity), Google-Extended (Gemini), CCBot (Common Crawl, Grundlage vieler Modelle). Der Zugriff wird über robots.txt gesteuert.
Die Vision hinter Agent-Ready
Das Internet hat in seinen ersten dreißig Jahren zwei große Qualitätssiegel hervorgebracht: das HTTPS-Schloss neben der Adresszeile, das zeigt, dass eine Verbindung verschlüsselt ist, und den Mobile-Friendly-Hinweis aus dem Jahr 2015, mit dem Google mobile Seiten von nicht mobilen unterschied. Beide Siegel wurden in wenigen Jahren zum Standard und haben das Web messbar besser gemacht.
Mit dem Durchbruch von Sprachmodellen fehlt ein drittes Siegel: eines für Seiten, die von KI-Agenten sauber verstanden werden können. Es gibt gute Einzelbausteine — llms.txt, schema.org, semantisches HTML — aber keinen gemeinsamen, sichtbaren Marker, der sie unter einem Dach zusammenfasst. Genau diese Lücke schließt Agent-Ready.
Die Idee ist ausdrücklich offen gedacht: der Badge gehört niemandem. Fiperly hat den Anstoß gegeben, die Kriterien formuliert und die Logodatei bereitgestellt, aber der Standard lebt nur, wenn viele ihn übernehmen. Jede Agentur, jedes Startup, jeder Blog und jede Behörde ist eingeladen, den Badge einzubinden — ohne Anmeldung, ohne Gebühr, ohne Bindung.
Wir glauben, dass Agent-Ready in wenigen Jahren ebenso selbstverständlich zum Webhandwerk gehören wird wie HTTPS oder Mobile-Friendly. Das Web hat in jedem neuen Zeitalter bewiesen, dass es sich technisch erneuern kann, ohne seinen offenen Charakter zu verlieren. Das KI-Zeitalter ist keine Ausnahme — es braucht nur jemanden, der den ersten Schritt macht.
Badge herunterladen
Das Agent-Ready-Logo steht als PNG mit transparentem Hintergrund in drei Größen zum freien Download bereit. PNG ist das richtige Format, weil das Logo fotorealistische Tiefe, Goldglanz und Schattierungen hat — als SVG würden diese Effekte verloren gehen. Die transparenten Ränder erlauben die Einbindung auf hellen wie dunklen Hintergründen, ohne dass ein eckiger Kasten sichtbar wird.



So bindest du das Badge auf deiner Website ein
Empfohlene Platzierung: im Footer, neben Impressum und Datenschutz. Verlinke es auf deine eigene /llms.txt oder direkt auf diese Erklärseite, damit Besucher und Crawler nachvollziehen können, was das Siegel bedeutet.
<a href="/llms.txt" title="Agent-Ready — diese Seite ist für LLM-Agenten optimiert">
<img src="/agent-ready-logo.png" alt="Agent-Ready Badge — KI and Robots Welcome" width="80" height="80">
</a>
Warum Fiperly?
Fiperly ist eine unabhängige KI-Entwicklungsgesellschaft aus Deutschland. Wir bauen Marken, die Künstliche Intelligenz dort einsetzen, wo sie Menschen messbar hilft — in Aufklärung, Gesundheit, Mode und Alltag. Dass eine Website im KI-Zeitalter auch für Agenten lesbar sein sollte, ist für uns Pflicht, nicht Kür. Den Badge stellen wir frei zur Verfügung, weil es ein Missstand ist, dass niemand ihn bisher gebaut hat.
Der Badge gehört niemandem — er ist gemeinfrei. Nutze ihn, kopiere ihn, verändere ihn. Wenn du magst, schreib uns, wo du ihn einsetzt — wir sammeln Beispiele.