AI-Readiness Glossar

Alle wichtigen Begriffe rund um KI-Suchmaschinen und Website-Optimierung verständlich erklärt

A

Zugänglichkeit

Accessibility (Barrierefreiheit)

Die Zugänglichkeit einer Website für alle Nutzer, einschließlich Menschen mit Behinderungen und KI-Bots. Wichtige Elemente sind Alt-Texte für Bilder, korrekte Überschriftenstruktur, ARIA-Labels und semantisches HTML. KI-Suchmaschinen bevorzugen barrierefreie Websites, da sie leichter zu crawlen und zu verstehen sind.

SEO

AI-Readiness

Der Grad, zu dem eine Website für KI-Suchmaschinen wie ChatGPT, Claude und Perplexity optimiert ist. Umfasst strukturierte Daten, semantisches HTML, klare Metadaten und crawlbare Inhalte. Eine AI-ready Website wird von KI-Bots besser verstanden und häufiger in AI-generierten Antworten zitiert.

Technisch

Alt-Text

Alternativer Text, der Bilder beschreibt. Wird von Screenreadern vorgelesen und hilft KI-Bots, Bildinhalte zu verstehen. Format: <img alt="Beschreibung des Bildes">. Wichtig für Accessibility und AI-Readiness, da Bots Bilder nicht "sehen" können.

Technisch

ARIA-Labels

Accessible Rich Internet Applications - HTML-Attribute, die zusätzliche Informationen für Screenreader und KI-Bots bereitstellen. Beispiel: aria-label="Suchfeld", role="navigation". Verbessert die semantische Struktur und AI-Verständlichkeit.

B

SEO

Bot / Crawler

Automatisierte Programme, die Websites durchsuchen und indexieren. Beispiele: Googlebot (Google), GPTBot (ChatGPT), ClaudeBot (Claude). Bots folgen Links, lesen Inhalte und sammeln Daten für Suchmaschinen oder KI-Modelle. Die robots.txt steuert, welche Bots Zugriff haben.

Content

Breadcrumbs

Navigationspfad, der die Seitenstruktur zeigt (z.B. Home > Produkte > Kategorie). Hilft Nutzern und Bots, die Website-Hierarchie zu verstehen. Kann mit Schema.org BreadcrumbList strukturiert werden für bessere AI-Verständlichkeit.

C

KI

ChatGPT

KI-Chatbot von OpenAI, der Websites über GPTBot crawlt. Nutzt gecrawlte Inhalte, um Fragen zu beantworten. Websites können GPTBot in der robots.txt blockieren oder erlauben. Wichtig für AI-Readiness: strukturierte Daten und klare Inhalte.

KI

Claude

KI-Assistent von Anthropic, crawlt Websites mit ClaudeBot. Analysiert Inhalte für Kontext und Antworten. Bevorzugt gut strukturierte, barrierefreie Websites mit klaren Metadaten und Schema.org Markup.

SEO

Content-Qualität

Maß für die Qualität von Website-Inhalten. Faktoren: Textlänge, Text-Code-Verhältnis, interne Verlinkung, Überschriftenstruktur, Listen und Tabellen. KI-Bots bevorzugen substanziellen, gut strukturierten Content gegenüber dünnen Seiten.

SEO

Crawlability

Die Fähigkeit von Bots, eine Website zu durchsuchen. Wird beeinflusst durch robots.txt, Meta-Tags (noindex/nofollow), Sitemaps und interne Verlinkung. Gute Crawlability ist essentiell für AI-Readiness.

Technisch

Canonical Tag

HTML-Element das die bevorzugte URL einer Seite definiert. Format: <link rel="canonical" href="https://example.com/seite/">. Verhindert Duplicate-Content-Probleme und hilft Bots, die kanonische Version zu indexieren.

KI

ClaudeBot

Offizieller Crawler von Anthropic für Claude. User-Agent: "ClaudeBot". Kann in robots.txt blockiert werden: "User-agent: ClaudeBot" + "Disallow: /". Crawlt Websites für das Trainieren und Aktualisieren des Claude KI-Modells.

SEO

Core Web Vitals

Drei Google-Metriken: LCP (Ladezeit), INP (Reaktionszeit) und CLS (visuelle Stabilität). Seit 2021 offizieller Rankingfaktor. AI-Crawler brechen bei langsamen Seiten früher ab als Googlebot.

Technisch

Crawl Budget

Die Anzahl an Seiten, die ein Bot pro Zeiteinheit crawlt. noindex-Seiten, Duplikate und langsame Server reduzieren das effektive Crawl Budget für wichtige Inhalte.

D

Technisch

Disallow

Anweisung in der robots.txt, die Bots vom Crawlen bestimmter Bereiche ausschließt. Beispiel: "Disallow: /" blockiert alle Bots. "Disallow: /admin/" blockiert nur den Admin-Bereich. Kritisch für AI-Readiness: versehentliches Blockieren verhindert Indexierung.

E

SEO

E-E-A-T

Experience, Expertise, Authoritativeness, Trustworthiness — Googles Qualitätskriterien für Inhalte. Erfahrung, Fachwissen, Autorität und Vertrauenswürdigkeit. KI-Modelle bevorzugen Quellen mit hohem E-E-A-T Score für Zitierungen in generierten Antworten.

F

SEO

FAQ-Schema

Schema.org Markup für Frage-Antwort-Inhalte. Format: FAQPage mit Question und Answer. Ermöglicht Rich Snippets in Google. KI-Modelle nutzen FAQ-Strukturen bevorzugt für direkte Antworten auf Nutzerfragen.

SEO

Featured Snippet

Hervorgehobener Ergebnisausschnitt in Google-Suchergebnissen (Position 0). Seiten die Featured Snippets erhalten werden häufiger von KI-Suchmaschinen zitiert, da sie als autoritative Quelle eingestuft werden.

G

SEO

GEO (Generative Engine Optimization)

Die Optimierung von Inhalten für KI-gestützte Suchmaschinen und Chatbots wie ChatGPT, Claude und Perplexity. GEO geht über klassisches SEO hinaus und fokussiert sich auf strukturierte Daten, natürliche Sprache, Kontext und semantische Markup, um in KI-generierten Antworten zitiert zu werden. Synonym für AI-Readiness und KI-Sichtbarkeit.

KI

Google Gemini / Bard

KI-Chatbot von Google, nutzt Google-Extended Bot zum Crawlen. Integriert in Google-Suche. Websites können über robots.txt steuern, ob Google-Extended Zugriff hat.

KI

GPTBot

Offizieller Crawler von OpenAI für ChatGPT. User-Agent: "GPTBot". Kann in robots.txt blockiert werden: "User-agent: GPTBot" + "Disallow: /". Crawlt Websites, um Trainingsdaten und aktuelle Informationen zu sammeln.

H

Technisch

H1-Tag

Hauptüberschrift einer Seite (Heading 1). Best Practice: genau eine H1 pro Seite, beschreibt das Hauptthema. Wichtig für SEO und AI-Readiness, da Bots H1 als primären Content-Indikator nutzen.

Zugänglichkeit

Heading-Hierarchie

Logische Struktur der Überschriften (H1 → H2 → H3). Keine Ebenen überspringen! Falsch: H1 → H3. Richtig: H1 → H2 → H3. Hilft Bots und Screenreadern, die Inhaltsstruktur zu verstehen.

Technisch

HTML Sitemap

Für Menschen lesbare Übersicht aller Seiten einer Website (meist /sitemap.html). Ergänzt die XML-Sitemap und verbessert die Navigation für Nutzer und Bots.

I

SEO

Indexierung

Der Prozess, bei dem eine Suchmaschine eine Seite in ihre Datenbank aufnimmt. Voraussetzung für das Erscheinen in Suchergebnissen und KI-Antworten. Kann durch noindex-Tags, robots.txt oder fehlende interne Verlinkung verhindert werden.

Technisch

INP (Interaction to Next Paint)

Core Web Vital, der die Reaktionszeit einer Seite auf Nutzereingaben misst. Ersetzt seit 2024 FID. Gut: unter 200ms. Verbesserungswürdig: 200–500ms. Schlecht: über 500ms. Hoher INP deutet auf zu viel JavaScript hin.

J

Strukturierte Daten

JSON-LD

JavaScript Object Notation for Linked Data — das von Google bevorzugte Format für strukturierte Daten. Wird im <head> als <script type="application/ld+json"> eingebettet. Einfacher als Microdata und beeinflusst nicht das sichtbare HTML.

K

SEO

KI-Sichtbarkeit

Synonym für AI-Readiness. Beschreibt, wie gut eine Website von KI-Suchmaschinen wie ChatGPT, Claude und Perplexity gefunden, verstanden und zitiert wird. Faktoren: Strukturierte Daten (Schema.org), semantisches HTML, Crawlability (robots.txt), Content-Qualität und Barrierefreiheit. Im deutschen Markt der etablierte Begriff für die Optimierung auf KI-Bots.

KI

KI-Suchmaschine

Suchmaschine, die KI nutzt, um Antworten zu generieren statt nur Links zu zeigen. Beispiele: ChatGPT, Claude, Perplexity, Google Gemini. Nutzen Webinhalte, um natürlichsprachliche Antworten zu erstellen.

L

Technisch

Lang-Attribut

HTML-Attribut, das die Sprache einer Seite definiert. Format: <html lang="de">. Hilft Bots und Screenreadern, die richtige Sprache zu erkennen. Wichtig für internationale SEO.

Technisch

LCP (Largest Contentful Paint)

Core Web Vital, der misst wie lange das größte sichtbare Element zum Laden braucht. Gut: unter 2,5s. Verbesserungswürdig: 2,5–4s. Schlecht: über 4s. Häufige Ursachen: nicht optimierte Bilder, langsamer Server.

SEO

Lighthouse Score

Automatisches Audit-Tool von Google für Performance, Accessibility, Best Practices und SEO. Scores 0–100, ab 90 gilt als gut. Verfügbar in Chrome DevTools und PageSpeed Insights.

Technisch

llms.txt

Eine einfache Textdatei im Markdown-Format im Root-Verzeichnis einer Website — erreichbar unter yourdomain.de/llms.txt. Sie liefert KI-Systemen wie ChatGPT, Claude und Perplexity strukturierte Informationen über die Website: Beschreibung, Angebot, Zielgruppe und wichtige Seiten. Ähnlich wie robots.txt für Crawler, aber als inhaltliche Beschreibung statt als Regelwerk. Community-Standard seit 2024, unterstützt von Anthropic und Perplexity.

M

SEO

Meta Description

Kurze Beschreibung einer Seite im HTML-Head. Wird in Suchergebnissen angezeigt. Optimal: 150-160 Zeichen. Wichtig für Click-Through-Rate, hilft auch KI-Bots beim Verstehen des Seiteninhalts.

Technisch

Meta-Tag

HTML-Element im <head>, das Metainformationen bereitstellt. Beispiele: description, keywords, robots, viewport. Meta-Tags steuern, wie Bots die Seite behandeln (indexieren/nicht indexieren).

N

Technisch

NOINDEX

Meta-Tag, das Suchmaschinen anweist, eine Seite NICHT zu indexieren. Format: <meta name="robots" content="noindex">. KRITISCH: Verhindert, dass die Seite in Suchergebnissen erscheint. Häufiger Fehler bei AI-Readiness!

Technisch

NOFOLLOW

Anweisung an Bots, Links auf einer Seite nicht zu folgen. Als Meta-Tag: <meta name="robots" content="nofollow"> oder Link-Attribut: <a rel="nofollow">. Verhindert Weitergabe von Link-Authority.

O

SEO

Open Graph

Meta-Tags für Social Media Sharing (Facebook, LinkedIn). Format: og:title, og:description, og:image. Steuert, wie Links in sozialen Medien dargestellt werden. Verbessert die Präsentation beim Teilen.

P

KI

Perplexity

KI-Suchmaschine, die Websites mit PerplexityBot crawlt. Spezialisiert auf faktenbasierte Antworten mit Quellenangaben. Zitiert häufig gut strukturierte Websites mit klaren Daten.

Technisch

PageSpeed

Ladegeschwindigkeit einer Website. AI-Crawler von ChatGPT, Perplexity und Claude haben kürzere Timeouts als Googlebot. Seiten mit hoher TTFB oder render-blockierenden Ressourcen werden von AI-Bots möglicherweise gar nicht erst gecrawlt.

KI

PerplexityBot

Offizieller Crawler von Perplexity AI. User-Agent: "PerplexityBot". Kann in robots.txt gesteuert werden. Perplexity ist auf faktenbasierte Antworten mit Quellenangaben spezialisiert.

R

Technisch

robots.txt

Textdatei im Root-Verzeichnis (/robots.txt), die Crawling-Regeln für Bots definiert. Steuert, welche Bereiche gecrawlt werden dürfen. Kritisch für AI-Readiness: "Disallow: /" blockiert ALLE Bots!

Content

RSS-Feed

XML-Format für Content-Updates (Really Simple Syndication). Ermöglicht automatische Content-Distribution. Hilft Bots, neue Inhalte schnell zu entdecken. Format: application/rss+xml oder application/atom+xml.

SEO

Rich Snippets

Erweiterte Suchergebnisse mit zusätzlichen Informationen wie Bewertungen, Preisen oder FAQs. Werden durch strukturierte Daten (Schema.org) ermöglicht. Erhöhen die Klickrate in Suchergebnissen und signalisieren KI-Systemen hohe Content-Qualität.

S

SEO

Schema.org

Vokabular für strukturierte Daten im Web. Definiert Typen wie Article, Product, Organization. Wird in JSON-LD, Microdata oder RDFa eingebettet. Essentiell für AI-Readiness - hilft Bots, Inhalte semantisch zu verstehen.

SEO

SEO (Search Engine Optimization)

Optimierung einer Website für Suchmaschinen. Umfasst On-Page (Content, Meta-Tags, Struktur) und Off-Page (Backlinks) Maßnahmen. Grundlage für AI-Readiness, aber KI-Optimierung geht darüber hinaus (strukturierte Daten, semantisches HTML).

Technisch

Sitemap

XML-Datei, die alle URLs einer Website auflistet (meist /sitemap.xml). Hilft Suchmaschinen, Seiten zu finden und zu indexieren. Wird in robots.txt oder Google Search Console eingereicht. Wichtig für vollständige Indexierung.

Strukturierte Daten

Strukturierte Daten

Maschinenlesbare Daten im Code, die Inhalte semantisch beschreiben. Formate: JSON-LD (bevorzugt), Microdata, RDFa. Nutzt Schema.org Vokabular. Ermöglicht Rich Snippets in Suchmaschinen und besseres KI-Verständnis.

T

SEO

Title-Tag

Titel einer Seite im HTML-Head. Wird in Browser-Tabs und Suchergebnissen angezeigt. Optimal: 50-60 Zeichen. Wichtigster On-Page SEO-Faktor. Sollte Hauptkeyword enthalten und zum Klicken anregen.

Technisch

TTFB (Time to First Byte)

Zeit bis der Browser das erste Byte vom Server empfängt. Gut: unter 800ms. Verbesserungswürdig: 800ms–1,8s. Schlecht: über 1,8s. Hoher TTFB kann AI-Crawler dazu bringen, das Crawling abzubrechen.

SEO

Twitter Card

Meta-Tags für die Darstellung von Links auf X (Twitter). Typen: summary, summary_large_image. Format: <meta name="twitter:card" content="summary_large_image">. Verbessert die Sichtbarkeit beim Teilen auf Social Media.

U

Technisch

User-Agent

Kennung, die ein Bot oder Browser sendet. Beispiele: "Googlebot", "GPTBot", "ClaudeBot". In robots.txt verwendet, um spezifische Bots zu steuern. Wichtig: Jeden Bot einzeln in robots.txt definieren!

V

Technisch

Viewport Meta-Tag

HTML-Tag der das Viewport-Verhalten auf mobilen Geräten steuert. Standard: <meta name="viewport" content="width=device-width, initial-scale=1.0">. Ohne diesen Tag sieht die Seite auf Smartphones nicht korrekt aus — wichtig für Mobile-First-Indexierung.

W

Technisch

Wildcards (*)

Platzhalter in robots.txt für mehrere URLs. User-agent: * = alle Bots. Disallow: /*.pdf = alle PDF-Dateien. Nützlich für effiziente Crawling-Regeln.

X

Technisch

XML Sitemap

Maschinelles Sitemap-Format für Suchmaschinen (/sitemap.xml). Enthält URLs, letzte Änderung, Priorität. Hilft Bots, alle Seiten zu finden. Sollte in robots.txt verlinkt werden: "Sitemap: https://example.com/sitemap.xml"