Core Web Vitals und AI-Sichtbarkeit: Was du wissen musst

Ladezeiten sind nicht nur ein Rankingfaktor für Google — sie entscheiden auch darüber ob AI-Crawler wie GPTBot und ClaudeBot deine Seite überhaupt vollständig lesen können. Dieser Guide erklärt den Zusammenhang zwischen Core Web Vitals und KI-Sichtbarkeit und zeigt konkrete Maßnahmen zur Optimierung.

Warum Ladezeiten für AI-Crawler wichtig sind

Wenn ein Mensch eine Website aufruft die 5 Sekunden zum Laden braucht, wartet er vielleicht — oder er springt ab. Ein AI-Crawler hat keine Geduld: Er sendet eine HTTP-Anfrage, wartet eine definierte Zeit auf eine Antwort und bricht ab wenn der Server zu lange braucht.

Dieses Timeout ist bei AI-Crawlern deutlich kürzer als bei Googlebot. Eine Seite die für Google noch "schnell genug" ist, kann für GPTBot oder ClaudeBot bereits zu langsam sein — mit der Folge dass der Crawler die Seite als nicht erreichbar wertet und sie beim nächsten Crawl-Versuch möglicherweise überspringt.

Dazu kommt ein zweites Problem: Selbst wenn der Crawler die Seite erreicht, kann eine schlechte Performance dazu führen dass nur ein Teil des Inhalts geladen wird bevor der Timeout greift. Der Crawler sieht dann eine unvollständige Seite — und wertet den Inhalt entsprechend geringer.

Kernaussage: Core Web Vitals sind nicht nur ein SEO-Faktor für Google — sie sind die technische Grundvoraussetzung dafür dass AI-Crawler deine Inhalte vollständig und zuverlässig lesen können.

Die Core Web Vitals erklärt

Google hat 2020 die Core Web Vitals als standardisierte Metriken für die Nutzererfahrung eingeführt. Sie messen drei Aspekte: Ladegeschwindigkeit, Interaktivität und visuelle Stabilität.

LCP
Largest Contentful Paint
Gut: ≤ 2,5 Sek.
Verbesserungsbedarf: 2,5–4,0 Sek.
Schlecht: > 4,0 Sek.

Misst wie lange es dauert bis das größte sichtbare Element (Bild oder Textblock) vollständig geladen ist.

INP
Interaction to Next Paint
Gut: ≤ 200 ms
Verbesserungsbedarf: 200–500 ms
Schlecht: > 500 ms

Misst die Reaktionszeit auf Nutzerinteraktionen. Für AI-Crawler weniger relevant — diese interagieren nicht.

CLS
Cumulative Layout Shift
Gut: ≤ 0,1
Verbesserungsbedarf: 0,1–0,25
Schlecht: > 0,25

Misst visuelle Stabilität — wie stark sich Elemente beim Laden verschieben. Für AI-Crawler indirekt relevant.

TTFB
Time to First Byte
Gut: ≤ 800 ms
Verbesserungsbedarf: 800–1800 ms
Schlecht: > 1800 ms

Zeit bis der erste Byte der Serverantwort ankommt. Der wichtigste Wert für AI-Crawler.

TTFB — der kritischste Wert für AI-Crawler

Unter allen Performance-Metriken ist der TTFB (Time to First Byte) der wichtigste für die AI-Sichtbarkeit. Er misst die Zeit zwischen der HTTP-Anfrage eines Crawlers und dem Moment in dem der erste Byte der Antwort beim Crawler ankommt.

Ein hoher TTFB bedeutet: Der Server braucht lange um überhaupt mit der Antwort zu beginnen. Das kann an einem langsamen Server liegen, an zu vielen Server-seitigen Berechnungen, an einer Datenbankabfrage die blockiert, oder an fehlender Serverseite Caching.

Während Googlebot Timeouts von mehreren Sekunden toleriert, brechen AI-Crawler bei einem TTFB über 2-3 Sekunden häufiger ab. Empfehlenswert ist ein TTFB von unter 800ms — das ist auch der Wert den Google PageSpeed als "gut" klassifiziert.

Ursachen für hohen TTFB

  • Kein serverseitiges Caching: Jede Anfrage löst eine neue Datenbankabfrage aus statt gecachte Inhalte auszuliefern
  • Langsamer Hosting-Provider: Shared Hosting mit überlasteten Servern
  • Kein CDN: Der Server steht physisch weit vom Crawler entfernt
  • Schwere PHP/Python-Prozesse: Komplexe serverseitige Logik die vor jeder Antwort ausgeführt wird
  • Zu viele Datenbankabfragen: Besonders bei WordPress-Websites mit vielen Plugins

Googlebot vs. AI-Crawler: Unterschiede bei Timeouts

Ein direkter Vergleich zeigt wo die wesentlichen Unterschiede zwischen Googlebot und AI-Crawlern liegen:

Kriterium Googlebot GPTBot / ClaudeBot
TTFB-Toleranz bis ~5 Sekunden empfohlen unter 800ms
JavaScript-Rendering Ja (verzögert) Nein
Crawling-Frequenz Täglich bei wichtigen Seiten Wochen bis Monate
Fehlertoleranz Hoch — versucht es erneut Niedriger — überspringt eher
Transparenz Search Console Keine öffentlichen Tools
Einfluss auf Ranking Google-Suchergebnisse KI-Antworten und Zitierungen

Wichtig: Eine Seite die bei Google PageSpeed 70/100 erreicht kann für AI-Crawler trotzdem problematisch sein — besonders wenn der TTFB hoch ist oder wichtige Inhalte erst nach JavaScript-Rendering sichtbar werden.

Core Web Vitals messen

Bevor du optimierst, musst du wissen wo du stehst. Diese Tools helfen bei der Messung:

Google PageSpeed Insights

Das wichtigste kostenlose Tool für Core Web Vitals. Es analysiert sowohl Lab-Daten (simulierter Test) als auch Field-Daten (echte Nutzererfahrungen aus dem Chrome-Nutzerpool). Aufrufbar unter pagespeed.web.dev — oder direkt über den PageSpeed Check auf dieser Website.

Google Search Console

Unter "Nutzererfahrung" → "Core Web Vitals" zeigt die Search Console welche URLs auf deiner Website schlechte Werte haben — basierend auf echten Chrome-Nutzerdaten. Das ist wertvoller als reine Lab-Tests.

Chrome DevTools

Im Browser-Entwicklertool (F12) unter "Lighthouse" kannst du einen vollständigen Performance-Audit direkt aus dem Browser starten. Nützlich für schnelle lokale Tests.

Konkrete Optimierungsmaßnahmen

TTFB verbessern

  • Serverseitiges Caching aktivieren: Bei WordPress z.B. WP Super Cache oder W3 Total Cache. Bei statischen Websites ist Caching meist bereits eingebaut.
  • CDN verwenden: Cloudflare (kostenlos) stellt deine Inhalte von einem Server nahe beim Crawler bereit — das reduziert Latenz drastisch.
  • Hosting upgraden: Shared Hosting mit schlechter Performance ist für KI-Sichtbarkeit ein echtes Problem. Ein VPS oder dedizierter Server verbessert den TTFB oft um das Dreifache.
  • Datenbankabfragen optimieren: Besonders bei WordPress: Plugins reduzieren, Datenbank optimieren, Query-Caching aktivieren.

LCP verbessern

  • Bilder komprimieren und im WebP-Format ausliefern: WebP ist deutlich kleiner als JPEG bei gleicher Qualität.
  • Lazy Loading für Bilder unterhalb des sichtbaren Bereichs: Das größte sichtbare Element (LCP-Element) sollte nie lazy geladen werden.
  • Preload-Direktive für das LCP-Element: <link rel="preload"> signalisiert dem Browser früh welches Bild oder welche Schrift zuerst geladen werden soll.
  • Render-blockierende Ressourcen entfernen: CSS und JavaScript das die initiale Darstellung blockiert, verzögert den LCP.

JavaScript-Abhängigkeit reduzieren

Das ist für AI-Crawler besonders wichtig: Da GPTBot und ClaudeBot kein JavaScript rendern, dürfen wichtige Inhalte nicht ausschließlich per JavaScript in die Seite geladen werden.

  • Server-Side Rendering (SSR) statt Client-Side Rendering: Bei React, Vue oder Angular sollte der wichtigste Inhalt serverseitig gerendert werden.
  • Kritischen Content im initialen HTML: Überschriften, Einleitungstext und strukturierte Daten müssen im rohen HTML-Quelltext vorhanden sein.
  • JavaScript für Enhancement, nicht für Content: JavaScript sollte die Nutzererfahrung verbessern, nicht den Grundinhalt liefern.

CLS verbessern

  • Bildgrößen im HTML angeben: width und height Attribute bei img-Tags verhindern Layout-Shifts.
  • Werbeanzeigen reservieren feste Plätze: Anzeigen die nach dem Laden erscheinen und andere Elemente verschieben, erhöhen den CLS stark.
  • Web Fonts mit font-display: optional: Verhindert dass Texte nach dem Laden der Schrift springen.

Checkliste für AI-optimierte Performance

  • TTFB unter 800ms — mit PageSpeed Insights messen
  • LCP unter 2,5 Sekunden
  • CLS unter 0,1
  • Serverseitiges Caching aktiviert
  • CDN (z.B. Cloudflare) aktiv
  • Bilder komprimiert und in modernem Format (WebP)
  • Kritischer Content im initialen HTML — nicht nur per JavaScript geladen
  • Render-blockierendes JavaScript minimiert
  • Bildgrößen im HTML definiert (width + height Attribute)
  • SSL-Zertifikat gültig — HTTP-Verbindungen werden von AI-Crawlern schlechter behandelt

Wie performt deine Website für AI-Crawler?

Der AI-Ready Check analysiert TTFB, PageSpeed-Score und weitere technische Faktoren — kostenlos, in 30 Sekunden.

Jetzt kostenlos testen →

Häufig gestellte Fragen

Sind Core Web Vitals ein direkter Rankingfaktor für KI-Antworten?+

Nicht direkt — KI-Systeme wie ChatGPT und Perplexity nutzen keine Metriken wie LCP oder CLS als explizite Ranking-Signale. Aber die zugrunde liegende Performance beeinflusst ob ein AI-Crawler die Seite überhaupt vollständig lesen kann. Eine Seite die wegen schlechter Performance nicht vollständig gecrawlt wird, kann auch nicht zitiert werden.

Mein Google PageSpeed-Score ist 90+. Bin ich damit für AI-Crawler gut aufgestellt?+

Ein guter PageSpeed-Score ist eine gute Basis — aber nicht ausreichend. Besonders wichtig ist der TTFB: Ein PageSpeed-Score von 90 kann trotzdem mit einem TTFB von 1,5 Sekunden einhergehen, der für AI-Crawler bereits problematisch sein kann. Prüfe den TTFB separat und stelle sicher dass kein wichtiger Inhalt ausschließlich per JavaScript geladen wird.

Wie stark wirkt sich ein CDN auf den TTFB aus?+

Ein CDN wie Cloudflare kann den TTFB erheblich reduzieren — oft um 50-70%. Der Grund: Der Crawler erreicht nicht mehr den physischen Server in Deutschland oder wo auch immer er steht, sondern einen CDN-Knoten in seiner Nähe der die gecachte Seite direkt ausliefert. Für Websites die international gecrawlt werden sollen, ist ein CDN besonders wichtig.

INP ist für AI-Crawler nicht relevant — warum sollte ich ihn trotzdem optimieren?+

INP misst die Reaktion auf Nutzerinteraktionen — AI-Crawler interagieren nicht, daher ist INP für das Crawling direkt irrelevant. Indirekt ist er aber wichtig: Ein schlechter INP-Wert signalisiert ein insgesamt performanceschwaches JavaScript-Bundle, das auch die initiale Ladezeit beeinflussen kann. Außerdem ist INP ein Google-Rankingfaktor — und ein gutes Google-Ranking erhöht die Wahrscheinlichkeit dass AI-Systeme eine Seite als vertrauenswürdig einstufen.

Reicht es die Performance einmal zu optimieren?+

Nein — Performance ist kein einmaliges Projekt sondern ein kontinuierlicher Prozess. Neue Plugins, mehr Inhalte, veränderte Serverlasten und neue Bildformate können die Performance über Zeit verschlechtern. Empfehlenswert ist eine monatliche Überprüfung der Core Web Vitals in der Google Search Console und ein regelmäßiger PageSpeed-Test bei wichtigen Seiten.