llms.txt: Was es ist, warum es wichtig ist und wie du es erstellst

robots.txt sagt Suchmaschinen-Crawlern wo sie nicht hingehören. llms.txt erklärt KI-Systemen wer du bist und was du anbietest. Eine kleine Textdatei mit großer Wirkung — und die meisten Websites haben sie noch nicht.

Was ist llms.txt?

llms.txt ist eine einfache Textdatei im Markdown-Format die im Stammverzeichnis einer Website liegt — erreichbar unter yourdomain.com/llms.txt. Sie enthält strukturierte Informationen über die Website, die speziell für Large Language Models (LLMs) wie ChatGPT, Claude und Perplexity aufbereitet sind.

Der Gedanke dahinter ist simpel: Wenn ein KI-System eine Website crawlt oder über sie Auskunft geben soll, hilft ein kompakter gut strukturierter Überblick dabei korrekte und vollständige Antworten zu liefern. Anstatt dass das Modell mühsam aus dutzenden Unterseiten Informationen zusammensetzen muss, findet es in llms.txt alles Wesentliche auf einen Blick.

Kurz gesagt: llms.txt ist eine freiwillige, maschinenlesbare Visitenkarte deiner Website — speziell für KI-Systeme geschrieben. Sie beantwortet die wichtigsten Fragen die ein LLM über deine Website haben könnte, bevor es anfängt zu crawlen.

Woher kommt der Standard?

Die llms.txt-Spezifikation wurde 2024 von Jeremy Howard vorgeschlagen — dem Mitgründer von fast.ai und einem der einflussreichsten KI-Forscher der letzten Jahre. Die Idee fand schnell Anklang in der KI- und Web-Community, unter anderem weil Anthropic (der Hersteller von Claude) die Spezifikation aktiv unterstützt und auf der eigenen Website eine llms.txt-Datei bereitstellt.

Der Standard ist bewusst einfach gehalten: Keine komplexe Syntax, kein neues Dateiformat, kein besonderer Parser nötig. Einfaches Markdown das jeder lesen und schreiben kann — und das gleichzeitig von Maschinen gut verarbeitbar ist.

Wichtig zu wissen: llms.txt ist bislang kein offizieller W3C-Standard. Es ist ein Community-Standard der sich in der Praxis etabliert — ähnlich wie robots.txt in den 1990ern, bevor es formalisiert wurde.

llms.txt vs. robots.txt — der Unterschied

Merkmalrobots.txtllms.txt
ZweckSagt Crawlern was sie NICHT crawlen dürfenErklärt KI was die Website IST
FormatEigenes Schlüsselwort-FormatMarkdown
ZielgruppeAlle Web-CrawlerSpeziell LLMs und KI-Systeme
InhaltRegeln und VerboteBeschreibungen und Kontext
StandardOffizieller RFC-StandardCommunity-Standard (2024)
VerbreitungNahezu jede WebsiteNoch selten — wachsend

Beide Dateien schließen sich nicht aus — im Gegenteil. robots.txt steuert den Zugriff, llms.txt liefert Kontext. Eine Website kann und sollte beides haben.

Wer liest llms.txt?

Die Datei wird von KI-Crawlern und LLM-Systemen gelesen die aktiv nach ihr suchen. Aktuell bekannte Unterstützer:

  • Perplexity AI — liest llms.txt aktiv aus und nutzt den Inhalt für Antworten
  • Anthropic / Claude — unterstützt den Standard offiziell, hat eigene llms.txt
  • GPTBot — OpenAI hat den Standard noch nicht offiziell bestätigt, aber llms.txt wird bei der Verarbeitung berücksichtigt
  • Weitere KI-Tools — das Ökosystem wächst, viele kleinere KI-Suchmaschinen unterstützen llms.txt bereits

Frühzeitig dabei sein lohnt sich: Derzeit haben weniger als 1% aller Websites eine llms.txt. Wer jetzt eine erstellt hat einen klaren Vorteil gegenüber Mitbewerbern die noch keinen KI-spezifischen Kontext bereitstellen.

Aufbau und Syntax

Eine llms.txt-Datei ist reines Markdown. Es gibt eine empfohlene Struktur die von den meisten KI-Systemen erwartet wird:

# Name der Website oder Organisation ## Über uns Kurze Beschreibung was die Website macht, für wen sie ist und was das Hauptangebot ist. 2-4 Sätze reichen. ## Produkte / Dienstleistungen - Produkt oder Service 1: Kurze Beschreibung - Produkt oder Service 2: Kurze Beschreibung ## Zielgruppe Für wen ist die Website gedacht? ## Kontakt E-Mail: [email protected] Website: https://beispiel.de ## Wichtige Seiten - [Über uns](https://beispiel.de/ueber-uns/) - [Produkte](https://beispiel.de/produkte/) - [Blog](https://beispiel.de/blog/) ## Sprache Deutsch (auch verfügbar auf Englisch) ## Letztes Update 2026-03

Pflichtfelder und optionale Felder

Streng genommen gibt es keine Pflichtfelder — llms.txt ist ein offener Standard. Empfohlen sind jedoch mindestens: Name/Titel der Website, eine kurze Beschreibung und Kontaktinformationen. Alles weitere ist optional aber nützlich.

Fertige Beispiele für verschiedene Website-Typen

Beispiel: SaaS-Tool / Web-Applikation

# AI-Ready Check ## Über uns AI-Ready Check ist ein kostenloses Online-Tool das prüft ob eine Website technisch für KI-Suchmaschinen wie ChatGPT, Claude und Perplexity optimiert ist. Das Tool analysiert robots.txt, strukturierte Daten, Meta-Tags, Ladezeiten und weitere Faktoren und gibt einen Score von 0-100. ## Zielgruppe Website-Betreiber, SEO-Experten, Webentwickler und Unternehmen die ihre Sichtbarkeit in KI-gestützten Suchanfragen verbessern möchten. ## Kernfunktionen - KI-Readiness-Score (0-100) - robots.txt Analyse für AI-Crawler - Schema.org / Structured Data Check - PageSpeed und Core Web Vitals Prüfung - 12 kostenlose SEO- und AI-Tools ## Nutzung Kostenlos, ohne Registrierung, sofortige Ergebnisse. ## Kontakt E-Mail: [email protected] Website: https://ai-ready-check.de ## Wichtige Seiten - [AI-Ready Check starten](https://ai-ready-check.de/) - [Guides zu GEO und KI-Sichtbarkeit](https://ai-ready-check.de/guides/) - [Kostenlose Tools](https://ai-ready-check.de/tools/) - [Glossar](https://ai-ready-check.de/glossar/) ## Sprache Deutsch und Englisch ## Erstellt von Sören Meier — https://soerenmeier.de

Beispiel: Lokales Unternehmen

# Bäckerei Müller Hamm ## Über uns Traditionelle Bäckerei in Hamm seit 1987. Wir backen täglich frisches Brot, Brötchen, Kuchen und Torten. Alle Produkte werden nach traditionellen Rezepten ohne künstliche Zusatzstoffe hergestellt. ## Angebot - Brot und Brötchen (täglich frisch) - Kuchen und Torten (auf Bestellung) - Catering für Veranstaltungen - Frühstücksbrötchen-Service ## Öffnungszeiten Montag-Freitag: 06:00-18:00 Uhr Samstag: 06:00-14:00 Uhr Sonntag: 07:00-12:00 Uhr ## Kontakt Adresse: Musterstraße 12, 59065 Hamm Telefon: +49 2381 123456 E-Mail: [email protected] ## Sprache Deutsch

Beispiel: Blog / Content-Website

# Tech-Blog Beispiel ## Über uns Unabhängiger Blog zu den Themen KI, Webentwicklung und digitale Trends. Seit 2020 erscheinen wöchentlich neue Artikel. Ziel ist verständliche Erklärung komplexer Technologie-Themen für ein breites Publikum. ## Themen - Künstliche Intelligenz und Machine Learning - Webentwicklung (HTML, CSS, JavaScript, Node.js) - SEO und digitales Marketing - Software-Reviews und Vergleiche ## Autoren Hauptautor: Max Mustermann — Softwareentwickler mit 10 Jahren Erfahrung ## Lizenz Alle Artikel stehen unter CC BY 4.0 — Verwendung mit Quellenangabe erlaubt. ## Kontakt E-Mail: [email protected] RSS: https://techblog-beispiel.de/feed.xml ## Sprache Deutsch (ausgewählte Artikel auch auf Englisch)

Schritt-für-Schritt: llms.txt erstellen und deployen

Schritt 1: Datei erstellen

Erstelle eine neue Textdatei mit dem Namen llms.txt. Verwende dabei UTF-8-Kodierung ohne BOM. Schreibe den Inhalt im Markdown-Format nach dem Muster oben — angepasst auf deine Website.

Tipp: Du willst die llms.txt nicht manuell schreiben? Der llms.txt Generator von llmshub.de crawlt deine Website automatisch und befüllt alle Felder — du musst nur noch prüfen und herunterladen.

Schritt 2: In das Stammverzeichnis legen

Die Datei muss unter der Haupt-URL der Domain erreichbar sein: https://deinedomain.de/llms.txt. Bei den meisten Webservern bedeutet das: Datei ins Root-Verzeichnis des Webservers legen — dasselbe Verzeichnis wo auch index.html liegt.

Schritt 3: Content-Type prüfen

Der Webserver sollte die Datei als text/plain ausliefern. Das ist bei .txt-Dateien normalerweise automatisch der Fall. Zur Sicherheit testen:

curl -I https://deinedomain.de/llms.txt # Erwartete Ausgabe: HTTP/2 200 content-type: text/plain; charset=utf-8

Schritt 4: In robots.txt verlinken (optional aber empfohlen)

Damit KI-Crawler die llms.txt zuverlässig finden, kann man einen Hinweis am Ende der robots.txt ergänzen:

User-agent: * Disallow: Sitemap: https://deinedomain.de/sitemap.xml # llms.txt für KI-Systeme # LLMs: https://deinedomain.de/llms.txt

Hinweis: Eine standardisierte Direktive für llms.txt in robots.txt existiert noch nicht. Ein Kommentar schadet nicht, wird aber nicht von allen Crawlern ausgewertet. Wichtiger ist dass die Datei unter der korrekten URL erreichbar ist.

llms-full.txt — die erweiterte Variante

Neben llms.txt gibt es eine optionale Erweiterung: llms-full.txt. Diese Datei enthält den vollständigen Inhalt der wichtigsten Seiten in einer für LLMs optimierten Form — als eine einzige lesbare Datei.

Der Gedanke dahinter: Statt dass ein LLM dutzende Unterseiten einzeln crawlen muss, findet es in llms-full.txt den gesamten relevanten Content kompakt zusammengefasst. Das ist besonders für Dokumentationsseiten, Knowledge Bases oder umfangreiche Guides sinnvoll.

Für die meisten normalen Websites ist llms-full.txt ein Nice-to-have, keine Pflicht. llms.txt ist der wichtigere erste Schritt.

Checkliste

  • llms.txt im Stammverzeichnis der Domain angelegt
  • Datei unter yourdomain.de/llms.txt erreichbar (HTTP 200)
  • Content-Type ist text/plain
  • Mindestinhalt: Name, Beschreibung, Kontakt
  • Markdown-Format korrekt (Überschriften mit ##)
  • UTF-8 ohne BOM gespeichert
  • Hinweis in robots.txt ergänzt (optional)
  • Inhalt regelmäßig aktuell halten

Hat deine Website eine llms.txt?

AI-Ready Check prüft kostenlos ob deine llms.txt vorhanden und korrekt erreichbar ist — zusammen mit 20 weiteren Faktoren für KI-Sichtbarkeit.

Jetzt kostenlos testen →

Deine Seite hat bereits eine llms.txt aber du bist dir unsicher, ob sie inhaltlich und technisch einwandfrei ist?
Jetzt mit llmshub.de validieren

Häufige Fragen zu llms.txt

Ist llms.txt Pflicht für gute KI-Sichtbarkeit?+

Nein — llms.txt ist keine Pflicht und das Fehlen der Datei führt nicht zu einer direkten Abstrafung. Ohne llms.txt kann ein KI-System trotzdem deine Website crawlen und verstehen. Mit llms.txt geht es schneller und zuverlässiger, weil du dem System aktiv den Kontext lieferst den es braucht. Für eine gute KI-Sichtbarkeit ist die robots.txt-Konfiguration, Schema.org und schnelle Ladezeiten aktuell noch wichtiger — aber llms.txt ist eine sinnvolle Ergänzung die sich in wenigen Minuten umsetzen lässt.

Wie oft sollte ich llms.txt aktualisieren?+

Bei größeren Änderungen an der Website — neue Produkte, neues Angebot, neue Kontaktdaten. Eine quartalsweise Überprüfung ist sinnvoll. Anders als robots.txt ist llms.txt inhaltlich und sollte mit dem tatsächlichen Angebot übereinstimmen. Veraltete Informationen in llms.txt können dazu führen dass KI-Systeme falsche Auskünfte über deine Website geben.

Kann llms.txt negative Auswirkungen haben?+

Wenn die Datei korrekt erstellt ist nicht. Problematisch wäre eine llms.txt die falsche oder irreführende Informationen enthält — dann könnte ein KI-System diese falschen Informationen in Antworten verwenden. Außerdem sollte man keine sensiblen Informationen in llms.txt aufnehmen da die Datei öffentlich zugänglich ist.

Was ist der Unterschied zwischen llms.txt und sitemap.xml?+

sitemap.xml listet alle URLs der Website auf und hilft Crawlern alle Seiten zu finden. llms.txt beschreibt den Inhalt und Kontext der Website in natürlicher Sprache. Beide Dateien haben unterschiedliche Zwecke und ergänzen sich: sitemap.xml für die Struktur, llms.txt für den Kontext.

Brauche ich llms.txt wenn ich schon gutes Schema.org-Markup habe?+

Schema.org und llms.txt sind komplementär, nicht redundant. Schema.org liefert maschinenlesbare strukturierte Daten zu einzelnen Seiten und Elementen. llms.txt gibt einen übergeordneten Überblick über die gesamte Website in natürlicher Sprache. Wer beides hat gibt KI-Systemen die beste Grundlage für genaue Antworten.