llms.txt, erklaert fuer WordPress-Betreiber.
llms.txt ist ein vorgeschlagener Standard, der KI-Systemen hilft, den wertvollen Content auf deiner Website zu finden und zu verstehen. Es ist fuer LLM Crawler das, was sitemap.xml vor zehn Jahren fuer Suchmaschinen war — nur einfacher und vermutlich wichtiger.
Was es ist
llms.txt ist eine Plain-Text-Datei, die du im Root deiner Domain hostest — unter /llms.txt — und die deine Website fuer Large Language Models beschreibt. Vorgeschlagen Ende 2024 von Jeremy Howard (Gruender von fast.ai). Community-Konvention, kein IETF-Standard. Die Adoption auf Publisher-Seite ist breit — Anthropic, Cloudflare, Stripe und Vercel liefern alle eine aus — aber die Crawler, die sie tatsaechlich konsumieren, haben sich oeffentlich groesstenteils nicht dazu geaeussert.
In der Praxis gibt es zwei zusammengehoerige Dateien:
/llms.txt— ein kurzes Manifest, das deine wichtigsten Seiten mit Beschreibungen auflistet/llms-full.txt— der eigentliche Inhalt deiner Website, umgewandelt in sauberes Markdown
Wie es sich von robots.txt und sitemap.xml unterscheidet
robots.txt sagt Crawlern, was sie besuchen duerfen und was nicht. sitemap.xml sagt ihnen, wo jede Seite liegt. llms.txt geht einen Schritt weiter: Es sagt LLMs, warum jede Seite wichtig ist, und liefert den Content in einem Format, das billig zu verarbeiten ist — kein HTML-Parsing, kein Navigations-Clutter, kein JavaScript noetig.
Der letzte Punkt ist der stille Vorteil. Wenn ein AI Crawler eine typische WordPress-Seite besucht, verbrennt er Tokens, um durch Theme-Markup zu parsen und den eigentlichen Content zu finden. Mit llms-full.txt gibst du ihm den Inhalt direkt — im billigsten Format.
Wie ein minimales llms.txt aussieht
# Muster Buchhaltung
> Kleinunternehmer-Buchhaltungskanzlei mit Sitz in Berlin.
> Wir sind spezialisiert auf Buchhaltung, Steuererklaerungen und USt.
## Leistungen
- [Buchhaltung](/leistungen/buchhaltung/): Monatliche Buchhaltung ab 200 EUR/Monat
- [Steuererklaerungen](/leistungen/steuer/): Privat- und Unternehmenssteuern
- [USt-Registrierung](/leistungen/ust/): EU-USt Setup und Compliance
## Ueber uns
- [Ueber uns](/ueber-uns/): 12 Jahre alte Kanzlei, 40+ Mandanten
- [Kontakt](/kontakt/): Buero in Berlin
Das Blockquote oben ist die Site-Beschreibung. Jede H2 gruppiert Seiten. Jeder Listenpunkt ist eine Seite mit einer einzeiligen Beschreibung. Das ist die gesamte Spec.
Wie llms-full.txt aussieht
Gleiche Struktur, aber mit dem vollstaendigen Text jeder Seite dran. Statt nur einem Link zu /leistungen/buchhaltung/ bekommst du die gesamte Buchhaltungsseite als Markdown — Ueberschriften, Absaetze, FAQs, alles. AI Crawler koennen die gesamte Datei in einem Request indizieren.
Werden AI Crawler es tatsaechlich beachten?
Ehrlich gesagt: Das hat noch niemand sicher gesagt. Kein grosser KI-Anbieter hat ein formales Commitment veroeffentlicht, llms.txt im Crawler-Verhalten zu konsumieren, und die, die sich geaeussert haben, waren bewusst vage. Einige unabhaengige Berichte deuten darauf hin, dass Retrieval-Systeme die Dateien parsen, wenn sie sie finden; andere sagen, der Effekt sei nicht von gut strukturiertem HTML zu unterscheiden.
Das ehrliche Argument, trotzdem eins zu haben: Die Datei kostet nichts und nimmt deiner Seite nichts weg. Wenn es bei KI-Zitaten hilft, gut. Wenn nicht, hast du ein paar Kilobyte Plain Text im Root. Billige Versicherung, kein garantiertes Signal.
Wie du llms.txt zu WordPress hinzufuegst
Drei Optionen:
- Von Hand schreiben. Textdatei erstellen, per FTP ins Root hochladen. Jedes Mal updaten, wenn du Seiten hinzufuegst oder entfernst. Geht klar fuer eine 10-Seiten-Website, bei allem Groesseren eher nervig.
- Code-Snippet. Rewrite Rule und einen template_redirect Handler registrieren, der die Datei aus deiner Sitemap ausgibt. Funktioniert, wenn du fit in
functions.phpbist. - Dennis GEO verwenden. Das Plugin generiert sowohl
/llms.txtals auch/llms-full.txtautomatisch aus deiner Sitemap und den Beschreibungen pro Seite. Wird bei jedem Publish neu generiert. Kein Code.
Ich wuerde natuerlich Option drei empfehlen, aber eins und zwei sind genauso valide.
Teste es auf deiner Seite
Ruf https://deineseite.de/llms.txt auf und schau, ob die Datei da ist. Wenn du einen 404 bekommst, weiss kein AI Crawler, wie er deine Website lesen soll.