Skip to main content

Was ist AI Search? Wie RAG, Retrieval und Ranking wirklich funktionieren

AI Search ist kein Textgenerator mit Internetzugang. Es ist eine mehrstufige Pipeline – und nur wer die Mechanik versteht, kann sinnvoll daran optimieren.


Das Wichtigste in Kürze

  • AI Search ist kein einzelnes System, sondern eine Pipeline aus Query Understanding, Retrieval, Ranking, Re-Ranking und generativer Antwortproduktion. Das LLM ist nur der letzte Schritt.

  • RAG (Retrieval-Augmented Generation) ist das dominierende Architekturprinzip: Das Modell "weiß" nichts Verlässliches aus eigenem Antrieb – es bekommt ausgewählte Inhalte vorgelegt und erzeugt daraus eine Antwort.

  • Wer im Retrieval nicht erscheint, kann nicht zitiert werden. Klassisches Ranking ist notwendig, aber nicht ausreichend. Sichtbarkeit in AI Search beginnt eine Stufe früher.

  • Query Fan-out zerlegt eine einzelne Nutzerfrage in mehrere parallele Suchanfragen. Du wirst nicht mehr mit "einer Seite" bewertet, sondern damit, ob du einen Intent-Komplex wirklich abdeckst.

  • Content muss passagenweise verwertbar sein. Jeder Abschnitt sollte als eigenständiger Antwortbaustein funktionieren – nicht nur die Seite als Ganzes.

  • Der Vier-Stufen-Funnel (Eligibility → Retrieveability → Selectability → Citeability) ist das richtige Denkmodell, wenn du AI-Search-Sichtbarkeit systematisch aufbauen willst.

  • RAG reduziert Halluzinationen, eliminiert sie nicht. Fehler entstehen an mehreren Punkten in der Pipeline. Das Vorhandensein von Quellenangaben ist kein Qualitätsbeweis.


Warum du das jetzt verstehen musst

Google AI Mode ist seit Oktober 2025 auch in Deutschland, Österreich und der Schweiz aktiv. ChatGPT Search gehört für Millionen Nutzer inzwischen zur täglichen Routine. Perplexity positioniert sich offensiv als "Answer Engine", die den klassischen Suchprozess ersetzen soll. Das ist keine Zukunftsmusik mehr.

Gleichzeitig ist die Qualität des Halbwissens in der Branche bemerkenswert hoch. "Wir müssen jetzt für KI optimieren" klingt selbstbewusst, deckt aber selten ab, was das konkret bedeutet. Strukturierte Daten hinzufügen. Eine llms.txt anlegen. "AI-freundlichen Content" schreiben, ohne zu wissen, was das technisch heißt.

Das Problem: Ohne Verständnis der Mechanik führt jede Optimierung ins Ungefähre. Du weißt nicht, warum etwas funktioniert oder nicht. Du kannst keinen Hebel benennen, keinen Fortschritt messen und kein belastbares Urteil über den ROI deiner Maßnahmen treffen.

Dieser Artikel schließt diese Lücke. Er erklärt, wie AI-Search-Systeme tatsächlich aufgebaut sind, welche Schritte eine Antwort durchläuft, bevor sie beim Nutzer landet, und was das konkret für deine Arbeit bedeutet. Keine Folienmoral, keine Tool-Listen, keine Versprechungen.


Was AI Search eigentlich ist

Klassische Suche funktioniert nach einer einfachen Logik: Du tippst einen Begriff, das System gleicht ihn gegen einen Index ab und liefert dir eine Liste von Dokumenten, sortiert nach Relevanz. Du entscheidest, was du liest. Du synthetisierst selbst.

AI Search verschiebt diese Logik fundamental. Das System übernimmt die Synthese. Du formulierst eine Frage oder eine Aufgabe, das System zerlegt sie, sucht über mehrere Quellen und Datenpfade, bewertet und selektiert, baut daraus einen Kontext auf und erzeugt eine fertige Antwort. Mit Quellenverweisen, manchmal mit Tabellen, Bildern, Follow-up-Fragen.

Dimension Klassische Suche AI Search
Nutzerinput Keyword, kurze Phrase Frage, Aufgabe, Vergleich, Dialog
Systemreaktion SERP mit Links Synthetisierte Antwort mit Quellen
Hauptprozess Crawling → Indexing → Ranking → Snippet Query Understanding → Retrieval → Ranking → Kontextaufbau → Generierung
Relevanzlogik Dokumente werden zur Query gerankt Passagen, Fakten, Entitäten werden für eine Antwort ausgewählt
Nutzerverhalten Nutzer klickt und synthetisiert selbst System synthetisiert, Nutzer vertieft optional
SEO-Ziel Ranking und Klick Auffindbarkeit, Auswählbarkeit, Zitierfähigkeit

Wichtig ist eine Trennschärfe, die in der Branchendiskussion regelmäßig fehlt: AI Search ist nicht gleich LLM. Das Sprachmodell ist ein Baustein in einer langen Pipeline. Ohne Index, Retrieval, Ranking, Quellenbewertung und Sicherheitslogiken wäre es ein Chatbot, der dir aus seinem Trainingswissen antwortet. Das ist etwas grundlegend anderes.

Google formuliert das direkt: AI Overviews und AI Mode arbeiten mit bestehenden Search-Systemen, Ranking-Systemen und dem Knowledge Graph zusammen. Das LLM erzeugt die Antwort, aber die Vorarbeit leisten dieselben Grundsysteme, die du aus klassischem SEO kennst.


Die Pipeline: Sieben Schritte von der Frage zur Antwort

Wer AI Search als "Blackbox" behandelt, kann sie nicht systematisch beeinflussen. Wer die einzelnen Schritte kennt, weiß, wo Sichtbarkeit entsteht – und wo sie verloren geht.

Schritt 1: Query Understanding

Das System analysiert die Eingabe: Welche Absicht steckt dahinter? Informationale Suche, Vergleich, Transaktionsabsicht? Welche Entitäten sind gemeint? Welcher Kontext liegt vor – Gerät, Standort, Suchverlauf, Sprache?

Dabei bleibt es nicht beim Keyword-Matching. Systeme wie Googles Gemini oder OpenAIs GPT-Modelle mit Webzugang interpretieren semantische Bedeutung, erkennen implizite Annahmen und können Mehrdeutigkeiten auflösen.

Schritt 2: Query Rewrite und Query Fan-out

Hier passiert etwas, das viele unterschätzen. Die ursprüngliche Nutzerfrage wird nicht als einzige Suchanfrage verwendet. Das System schreibt sie um, erweitert sie, zerlegt sie in Unterfragen. Google nennt das explizit "Query Fan-out": AI Mode und AI Overviews zerteilen eine Frage in Subtopics und führen mehrere Suchanfragen parallel aus. Deep Search – der Research-Modus in AI Mode – kann laut Google sogar hunderte Suchanfragen ausführen, um einen fundierten Bericht zu erzeugen.

Was das bedeutet: Du wirst nicht mehr mit "einer Seite für ein Keyword" bewertet. Das System fragt: Kann ich aus diesem Angebot an Inhalten einen Intent-Komplex vollständig abdecken?

Schritt 3: Retrieval

Das System sucht Kandidaten: Webseiten, Passagen, Knowledge-Graph-Einträge, strukturierte Daten, lokale Informationen, Nachrichtenartikel. Retrieval bedeutet zunächst nur: eine relevante Teilmenge finden. Noch keine finale Reihenfolge, noch keine Auswahl.

Die kritische Konsequenz: Wer im Retrieval nicht im Kandidatenpool erscheint, kann danach nicht mehr ausgewählt oder zitiert werden. Re-Ranking sortiert nur um, was vorher gefunden wurde. Ein Reranker ist kein Rettungsanker für Inhalte, die das System gar nicht erst erfasst hat.

Schritt 4: Ranking und Re-Ranking

Aus dem Kandidatenpool wird eine Rangfolge erstellt, dann noch einmal verfeinert. Mehr dazu weiter unten – dieser Schritt verdient einen eigenen Abschnitt.

Schritt 5: Kontextaufbau

Aus den gerankten Kandidaten wählt das System Passagen, Fakten und Zitate aus. Diese werden zusammen mit der ursprünglichen Frage in das Eingabefenster des Sprachmodells gepackt. Technisch: Prompt-Konstruktion.

Hier liegt ein oft übersehenes Entscheidungsmoment. Nicht jede gefundene und gerankte Quelle landet auch im Kontext. Die Auswahl hängt davon ab, ob eine Passage inhaltlich klar, entitätseindeutig und direkt antwortfähig ist. Eine Seite, die im Retrieval erscheint, kann in diesem Schritt trotzdem herausfallen.

Schritt 6: Antwortgenerierung

Das Sprachmodell erzeugt aus dem Kontext eine Antwort. Im besten Fall ist sie eng an den Quellen geerdet und enthält Belege. Im schlechteren Fall entstehen Lücken, Überinterpretationen oder Aussagen, die nicht vollständig durch die Quelltexte gestützt werden.

RAG reduziert das Risiko von Halluzinationen, eliminiert es nicht. Mehr dazu im nächsten Abschnitt.

Schritt 7: Post-Processing, Qualitätsprüfung, Ausgabe

Systeme prüfen Sicherheitsrisiken, Qualitätssignale, Widersprüche, YMYL-Relevanz und Spam. Google betont, dass AI Overviews und AI Mode in seine bestehenden Quality- und Safety-Systeme integriert sind. Was am Ende ausgespielt wird, hat diese Filter passiert.


RAG: Das Architekturprinzip, das AI Search trägt

RAG steht für Retrieval-Augmented Generation. Das Konzept beschreibt ein Systemdesign, bei dem ein Sprachmodell nicht allein aus seinem Trainingswissen antwortet, sondern zur Laufzeit externe Informationen abruft und diese in die Antwortgenerierung einbezieht.

Das klingt technisch, ist aber für SEOs und Content-Strategen das entscheidende Verständnis: Das Modell "weiß" nichts mit Sicherheit. Es bekommt ausgewählte Inhalte vorgelegt, und es formuliert daraus eine Antwort. Deine Inhalte müssen deshalb nicht nur existieren – sie müssen abrufbar, auswählbar und in verwertbare Passagen zerlegt sein, bevor das Modell überhaupt damit arbeiten kann.

Das ursprüngliche RAG-Konzept (Lewis et al., arXiv 2020) beschreibt die Kombination aus parametrischem Modellwissen und einem externen, nicht-parametrischen Informationsspeicher. Einfacher gesagt: ein vortrainiertes Modell, das mit einem durchsuchbaren Index externer Texte kombiniert wird.

Warum RAG-Systeme für AI Search so zentral wurden

Reine Sprachmodelle haben drei strukturelle Schwächen, die für ein Suchprodukt inakzeptabel sind:

Problem reiner LLMs RAG-Ansatz
Trainingswissen ist veraltet Externe Quellen können aktuell abgefragt werden
Antworten sind kaum nachprüfbar Quellen können transparent mitgeliefert werden
Halluzinationen sind systemimmanent Antwort wird an echte Dokumente gebunden
Domänen- oder unternehmensspezifisches Wissen fehlt Datenbanken, Websites und Fachquellen integrierbar

Wichtig: RAG bedeutet nicht Korrektheit

Ein verbreitetes Missverständnis lautet: Wenn eine KI Quellen zitiert, stimmt die Antwort. Das ist falsch. Fehler können an mehreren Stellen in der Pipeline entstehen:

  • Die richtige Quelle wird im Retrieval nicht gefunden.

  • Sie wird gefunden, aber schlechter gerankt als schwächere Quellen.

  • Die relevante Passage wird aus dem Kontextfenster verdrängt.

  • Das Modell interpretiert die Passage falsch.

  • Die Antwort enthält korrekte Quellenverweise, aber nicht jede Aussage wird durch diese Quellen wirklich gestützt.

  • Widersprechende Quellen werden nicht sauber aufgelöst.

Forschungsarbeiten zu "RAG Failure Points" (arXiv 2024) dokumentieren diese Schwachstellen explizit. RAG-Systeme erben sowohl die Grenzen klassischer Information-Retrieval-Systeme als auch LLM-spezifische Fehler. Beides gleichzeitig.

Für die Praxis heißt das: Zitatpräsenz in einer KI-Antwort ist ein Qualitätssignal, kein Qualitätsbeweis.


Retrieval: Wie Systeme relevante Inhalte überhaupt finden

Retrieval ist der Schritt, bei dem das System aus einem potenziell riesigen Corpus eine überschaubare Menge relevanter Kandidaten filtert. Kein System kann bei jeder Anfrage das gesamte Web vollständig semantisch durchrechnen – deshalb läuft Retrieval bewusst schnell und kompromisshaft, bevor teurere Bewertungsschritte folgen.

Es gibt drei grundlegende Ansätze, die in produktiven Systemen unterschiedlich kombiniert werden.

Lexical Retrieval (Sparse Retrieval)

Klassische Suchmaschinen arbeiten mit invertierten Indizes und Termgewichtung. BM25 ist die bekannteste Rankingfunktion: Sie berücksichtigt vereinfacht, wie häufig ein Begriff in einem Dokument vorkommt, wie selten er im Gesamtcorpus ist und wie lang das Dokument ist.

Lexical Retrieval bleibt hochrelevant, weil es präzise ist. Produktnummern, Eigennamen, Markenbegriffe, Gesetztesartikel, spezifische Fachbegriffe: Sie funktionieren über exakte Textsignale zuverlässiger als über semantische Ähnlichkeit.

Dense Retrieval (Vektorsuche)

Dense Retrieval wandelt Texte in Vektoren um. Diese mathematischen Darstellungen kodieren semantische Bedeutung, nicht nur Wortfrequenz. Eine Suchanfrage wie "Warum indexiert Google meine Seite nicht?" kann damit Inhalte finden, die "Crawling-Fehler beheben" oder "Indexierungsprobleme diagnostizieren" als Überschriften haben, ohne ein einziges Keyword gemeinsam zu haben.

Die Ähnlichkeit zwischen Query-Vektor und Dokumentvektor wird über Distanzmaße wie Cosine Similarity berechnet: Je näher zwei Vektoren beieinanderliegen, desto semantisch verwandter sind die Inhalte.

Hybrid Retrieval: Der produktionsnahe Standard

In der Praxis gewinnt fast immer die Kombination. Systeme wie Googles Search, ChatGPT Search oder Microsoft Azure AI Search kombinieren BM25 und semantische Vektorsuche, häufig über Rank Fusion (die Fusion verschiedener Ranking-Listen). Lexical Retrieval liefert Präzision bei exakten Begriffen, Dense Retrieval erhöht den Recall bei semantisch ähnlichen Inhalten.

Methode Stärke Schwäche
BM25 / Lexical Präzise bei Eigennamen, Marken, Produktnummern, Fachbegriffen Keine Synonyme, kein Konzeptverständnis
Dense Vector Versteht Bedeutung und Kontext, findet semantisch Verwandtes Kann spezifische Begriffe und seltene Entitäten verfehlen
Hybrid Kombiniert Präzision und semantische Breite Komplexer zu gewichten und zu evaluieren

Für die Praxis: AI Search wird nicht "keywordlos". Klare Begriffe, eindeutige Entitäten und präzise Überschriften bleiben wichtig, müssen aber in ein semantisch belastbares Themenmodell eingebettet sein.

Ein Unterschied, der zählt: Ganzseiten-Indexierung vs. Sub-Dokument-Indexierung

Hier liegt ein technischer Unterschied zwischen Systemen, der selten diskutiert wird, aber erhebliche Content-Implikationen hat.

Klassische Suchmaschinen indexieren Dokumente als Ganzes. Sie bewerten eine Seite, ordnen sie ein, ranken sie. Wenn ein AI-System auf dieser Architektur aufsetzt (wie ChatGPT Search, das auf Bing-Ergebnisse zugreift), holt es typischerweise die Top-Dokumente, gibt sie dem Modell und lässt es zusammenfassen.

Systeme wie Perplexity hingegen arbeiten nach einem anderen Prinzip: Sie indexieren auf Sub-Dokument-Ebene – also einzelne Passagen, nicht ganze Seiten. Wenn ein Nutzer eine Frage stellt, werden nicht 50 Dokumente, sondern die relevantesten Passagen aus dem gesamten Corpus geladen. Das Kontextfenster des Modells wird soweit wie möglich mit direkt relevanten Textfragmenten gefüllt, um das Modell wenig Spielraum für Erfindungen zu lassen.

Für Content bedeutet das: Passagen, die sich als eigenständige Antworteinheiten lesen, funktionieren in beiden Architekturen. Seiten, die nur im Ganzen Sinn ergeben, funktionieren in Sub-Dokument-Systemen schlechter.


Ranking und Re-Ranking: Warum gefunden nicht ausgewählt bedeutet

Retrieval liefert einen Kandidatenpool. Ranking entscheidet, welche Kandidaten weiterverarbeitet werden – und in welcher Reihenfolge.

First-Stage Ranking

Direkt nach dem Retrieval wird eine erste Rangfolge auf Basis von Relevanzscores erstellt: BM25-Score, Vektor-Ähnlichkeit, Freshness, Dokumenttyp, Autorität, Sprache, lokale Relevanz. Das Ergebnis ist ein "Top-K"-Set: z. B. 50 bis 200 Kandidaten, die für die weitere Verarbeitung bereitstehen.

Google nennt hier explizit Systeme wie BERT, Neural Matching und PageRank als Teil des Ranking-Stacks. AI Overviews und AI Mode setzen auf diesen Systemen auf, sie ersetzen sie nicht.

Re-Ranking: Der zweite Qualitätsfilter

Re-Ranking bewertet den Kandidatenpool ein zweites Mal, diesmal mit deutlich aufwendigeren Modellen: neuronale Cross-Encoder, LTR-Modelle (Learning to Rank), semantisch tiefe Bewertungen.

Der Unterschied zum ersten Ranking: Im First-Stage werden Query und Dokument oft getrennt bewertet. Im Re-Ranking werden sie gemeinsam betrachtet – das Modell prüft, ob dieser spezifische Inhalt auf diese spezifische Anfrage wirklich gut passt.

Microsofts Semantic Ranker funktioniert genau so: Er nimmt die Top-Ergebnisse einer BM25- oder Hybrid-Suche und ordnet sie semantisch neu. Entscheidend ist: Er durchsucht nicht den gesamten Corpus neu. Er sortiert nur um, was schon im Pool ist.

Das ist die strategische Kernaussage: Reranking ist kein Rettungsmechanismus. Wer im Retrieval nicht erscheint, ist raus.

Unterschiedliche Modellarchitekturen

Ansatz Funktionsprinzip Rolle in AI Search
Bi-Encoder Query und Dokument werden getrennt eingebettet Schnell, gut für große Kandidatenmengen im First-Stage
Cross-Encoder Query und Dokument werden gemeinsam bewertet Genauer, teurer – gut fürs Re-Ranking
Late Interaction Tokenbasierte Interaktion nach getrenntem Encoding Kompromiss aus Effizienz und Genauigkeit (z. B. ColBERT)
LLM-as-Ranker LLM bewertet Relevanz und Qualität direkt Möglich, aber operativ teuer

Für SEOs praktisch relevant: In jedem dieser Modelle werden Inhalte besser bewertet, die eine Frage direkt und eindeutig beantworten. Schwammige Texte, generische Einleitungen und Aussagen ohne klaren Informationsgehalt schneiden in semantischen Bewertungen strukturell schlechter ab.


Query Fan-out: Der Paradigmenwechsel, den viele noch nicht eingepreist haben

Das ist die mechanische Veränderung, die am meisten unterschätzt wird.

Klassisches SEO denkt in der Logik: eine Seite – ein Hauptkeyword – eine SERP. AI Search denkt in einer anderen Logik: eine Entscheidungssituation – mehrere Teilfragen – mehrere Retrieval-Pfade – Antwortkomposition.

Google beschreibt Query Fan-out als Kerntechnik sowohl von AI Overviews als auch von AI Mode: Die Anfrage wird in Subtopics zerlegt, und das System führt mehrere Suchanfragen gleichzeitig aus. Deep Search, der Research-Modus in AI Mode, kann dabei nach Googles eigenen Angaben hunderte Suchläufe durchführen, um einen vollständig belegten Bericht zu erzeugen.

Ein Beispiel. Ein Nutzer fragt: "Welches CRM-System eignet sich für ein kleines B2B-Unternehmen in der Schweiz mit begrenztem Budget und DSGVO-Anforderungen?"

Das System leitet daraus möglicherweise ab:

  • CRM für KMU Schweiz

  • CRM DSGVO-konform EU

  • CRM HubSpot Alternativen

  • CRM für B2B Vertrieb

  • CRM Kosten kleines Unternehmen

  • CRM Datenschutz Schweiz

  • CRM Vergleich deutschsprachiger Markt

Deine Website wird nicht gefragt: "Rank ich für CRM Schweiz?" Das System fragt: "Ist dieser Anbieter in der Lage, mehrere dieser Teilfragen fundiert zu beantworten?"

Klassisches SEO-Denken AI-Search-Denken
Hauptkeyword optimieren Intent-Komplex abdecken
Einzelne SERP gewinnen In mehreren Subqueries abrufbar sein
Snippet optimieren Antwortbausteine und Belege liefern
Rankings tracken Prompt-, Quellen- und Citation-Visibility messen
Content als Seite betrachten Content als Passage, Entität und Beleg betrachten

Dünne Landingpages haben in dieser Logik ein strukturelles Problem. Sie beantworten oft nur die Verkaufsoberfläche, nicht aber die Bewertungs-, Vergleichs-, Risiko- und Vertrauensfragen, die das System im Fan-out-Prozess berücksichtigt.


Was das für deinen Content bedeutet

Der Vier-Stufen-Funnel für AI-Search-Sichtbarkeit

Anstatt "Rankt meine Seite?" ist die richtige Frage: Wo in der Pipeline steht mein Content?

Stufe Leitfrage Was du brauchst
1. Eligibility Darf und kann das System die Seite erfassen? Crawling erlaubt, indexierbar, snippet-eligible, keine Blocking-Fehler
2. Retrieveability Wird die Seite oder Passage für Subfragen gefunden? Klare Entitäten, Themenabdeckung, semantische Struktur, interne Verlinkung
3. Selectability Wird die Quelle als stark genug bewertet? Autorität, Aktualität, Trust-Signale, Belegqualität, Format
4. Citeability Wird die Quelle sichtbar in der Antwort referenziert? Extrahierbare Aussagen, präzise Abschnitte, klare Definitionen, Quellenlogik

Jede Stufe hat andere Hebel. Ein technisches Problem auf Stufe 1 macht Optimierungsarbeit auf Stufe 4 wertlos. Und umgekehrt hilft perfekte technische Indexierbarkeit nichts, wenn der Inhalt in keiner der Subqueries als beste Antwort durchkommt.

Von der Seite zur Passage denken

AI Search arbeitet oft nicht mit "der Seite" als bewerteter Einheit, sondern mit Abschnitten, Passagen und Fakten daraus. Eine Seite, die als Ganzes Sinn ergibt, aber in einzelnen Passagen schwammig ist, hat ein Retrievability-Problem.

Ein belastbarer Abschnitt funktioniert so:

  1. Direkte Antwort im ersten Satz. Was ist die Antwort auf die Frage, die diese Überschrift stellt?

  2. Einordnung und Mechanismus. Warum ist das so?

  3. Konkretes Beispiel oder Einschränkung. Wann gilt das nicht?

  4. Ggf. Beleg oder Quelle. Was stützt das?

Ein Satz wie "Unsere Lösung bringt Ihr Unternehmen auf das nächste Level" ist retrieval- und zitatschwach. Er enthält keine belegbare Aussage, keine Entität, keine Definition.

Ein Satz wie "Ein SEO-Audit prüft technische Indexierbarkeit, Informationsarchitektur, Contentqualität und Suchintentionen, um priorisierte Wachstums- und Risikohebel zu identifizieren" ist verwertbar: Er enthält Entität, Scope, Prozess und Nutzen in einem Satz.

Entitätsklarheit ist keine Kür mehr

AI Search muss verstehen, über wen oder was gesprochen wird. Unternehmen, Personen, Produkte, Leistungen, Orte: Alle brauchen konsistente Entitätsarbeit.

Entitätstyp Worauf es ankommt
Unternehmen Name, Branche, Region, Leistungen, Referenzen konsistent verwenden
Person Rolle, Expertise, Autorenschaft, externe Profile verlinken
Leistung Definition, Zielgruppe, Prozess, Abgrenzung zu ähnlichen Leistungen
Thema Definition, Unterthemen, Fachbegriffe, Beispiele

Ohne Entitätsklarheit kann ein System Inhalte nicht korrekt zuordnen, disambiguieren oder in unterschiedlichen Fan-out-Pfaden wiederfinden.

Klassisches SEO bleibt die Eintrittskarte

Das ist keine Einschränkung, sondern eine wichtige Priorisierung. Die operative Reihenfolge bleibt:

  1. Crawlbar sein

  2. Indexierbar sein

  3. Intern auffindbar sein

  4. Technisch sauber auslieferbar sein

  5. Textlich verwertbar sein

  6. Thematisch autoritativ sein

  7. Passagenweise extrahierbar sein

  8. Aktuell und belegbar sein

Google sagt explizit: Eine Seite muss für AI Overviews und AI Mode indexiert und snippet-eligible sein. Darüber hinaus braucht es keine speziellen KI-Dateien, keine neuen Schema.org-Markups, keine "AI-optimierten" Formate. Wer crawlbar, indexierbar und inhaltlich stark ist, hat die Basis.


Fallbeispiel: Eine mittelständische Unternehmensberatung in der AI-Search-Pipeline

Ausgangslage (Annahmen): Eine Unternehmensberatung im DACH-Raum, 15 Mitarbeitende, Schwerpunkt auf Prozessoptimierung im Mittelstand. Website mit ca. 40 Seiten, gut strukturiert, technisch sauber. Klassisch rankt sie für einige Longtail-Keywords gut. In AI Overviews erscheint sie selten. In ChatGPT Search wird sie kaum zitiert.

Analyse anhand des Vier-Stufen-Funnels:

Eligibility: Kein Problem. Seiten sind gecrawlt, indexiert, snippet-eligible.

Retrieveability: Hier liegt der erste Engpass. Die Website hat starke Leistungsseiten, aber kaum Inhalte, die Subfragen eines Fan-out-Prozesses abdecken: Kein Artikel zu "Woran erkenne ich, ob meine Prozesse ein Problem haben?", kein Beitrag zu "Wie lange dauert eine Prozessoptimierung?", keine Abgrenzung zu verwandten Angeboten wie Unternehmensberatung allgemein oder IT-getriebener Prozessautomatisierung.

Das System, das den Fan-out "Was kostet Prozessoptimierung Mittelstand?" in mehrere Subfragen zerlegt, findet für die meisten davon keine verwertbaren Inhalte auf der Domain.

Selectability: Für die wenigen Inhalte, die gefunden werden, fehlen Autoritätssignale: keine Fallstudien mit messbaren Ergebnissen, keine Autorenprofile, keine verlinkenden externen Quellen im Themenbereich.

Citeability: Die vorhandenen Inhalte sind zu Marketingsprache hin geschrieben. "Wir optimieren Ihre Prozesse nachhaltig und schaffen echten Mehrwert" ist keine Aussage, die ein AI-System aus einem Kontextfenster zitieren kann.

Was konkret zu tun wäre:

  • Fünf bis acht Fachartikel schreiben, die Subfragen des primären Intent-Komplexes abdecken: typische Prozessengpässe, Kostenrahmen für Projekte, Abgrenzung zu internen Optimierungen, Vorgehensweise, Metriken für Erfolg

  • Bestehende Leistungsseiten auf passagenweise Verwertbarkeit prüfen und überarbeiten: jeder H2-Abschnitt muss als eigenständige Antwort funktionieren

  • Autorenprofile für Berater aufbauen und intern verlinken

  • Mindestens eine Fallstudie mit konkreten Zahlen und Zeitrahmen publizieren


Was du messen musst

Klassisches Ranktracking bildet AI-Search-Sichtbarkeit nicht ausreichend ab. Sinnvoll ist ein kombiniertes Messmodell:

Messbereich Kennzahlen
Klassische Suche Rankings, Impressionen, Klicks, CTR, Crawling-Fehler
AI Overviews / AI Mode AIO-Auslösung für deine Keywords, Quellenpräsenz, ob du unter den zitierten Domains erscheinst
ChatGPT / Perplexity / Gemini Prompt-Sets testen, Markennennungen dokumentieren, zitierte Quellen und Sentiment
Retrieval-Fähigkeit Abdeckung von Subfragen zu deinen Kernthemen, Entitätsklarheit auf zentralen Seiten
Business Outcome Qualifizierte Anfragen, Erstgespräche, Assisted Conversions

Die entscheidende Verschiebung in der Fragestellung: Nicht "Welches Ranking hat meine Seite?" sondern "Bei welchen Entscheidungssituationen werde ich als relevante Quelle, Anbieter oder Erklärung verwendet?"

Tools wie Rankscale ermöglichen es, systematisch Prompt-Sets zu definieren und die eigene Präsenz in AI-Antworten über Zeit zu tracken. Das ersetzt kein klassisches Ranktracking, ergänzt es aber an genau der Stelle, wo klassische Tools blind sind.


60-Minuten-Checkliste: AI-Search-Readiness prüfen

Technische Basis (10 Minuten)

  • Alle relevanten Seiten gecrawlt und indexiert? (GSC prüfen)

  • Snippets in Search Console aktiv? Keine Nosnippet-Direktiven auf wichtigen Seiten?

  • Core Web Vitals in grünem Bereich?

  • Interne Verlinkungsstruktur: Sind Kerninhalte über interne Links auffindbar?

Retrieveability (15 Minuten)

  • Welche Subfragen würde ein Fan-out-System zu deinem Kernthema erzeugen? Liste 10 auf.

  • Hast du für mindestens 7 davon verwertbaren Content?

  • Sind Entitäten (Unternehmen, Personen, Leistungen) konsistent benannt?

  • Werden Synonyme kontrolliert eingesetzt statt wild variiert?

Selectability (15 Minuten)

  • Gibt es mindestens eine Fallstudie mit messbaren Ergebnissen?

  • Gibt es Autorenprofile mit Expertise-Signalen?

  • Sind wichtige Inhalte aktuell datiert?

  • Gibt es externe Verlinkungen von thematisch relevanten Quellen?

Citeability (20 Minuten)

  • Öffne deine drei wichtigsten Seiten. Liest du jeden H2-Abschnitt als eigenständige Antwort?

  • Enthält der erste Absatz unter jeder Überschrift eine direkte, extrahierbare Aussage?

  • Gibt es Tabellen oder Listen, die Vergleiche und Entscheidungskriterien zusammenfassen?

  • Sind zentrale Definitionen eindeutig formuliert (nicht in Fließtext versteckt)?

  • Teste exemplarisch: Kannst du deinen eigenen Content als RAG-Quelle verwenden?


FAQ

  • Was ist der Unterschied zwischen AI Search und einem KI-Chatbot?

    Ein KI-Chatbot antwortet aus seinem Trainingswissen heraus, ohne aktuelle externe Quellen zu nutzen. AI Search dagegen kombiniert Websuche, Retrieval und Antwortgenerierung: Das System durchsucht aktiv externe Quellen, bewertet sie und erzeugt erst dann eine Antwort. Google AI Overviews, AI Mode, ChatGPT Search und Perplexity sind AI-Search-Systeme. ChatGPT ohne aktivierte Websuche ist ein Chatbot.

  • Muss ich für AI Search anders optimieren als für klassische Google-Suche?

    Nicht komplett anders, aber mit erweiterter Perspektive. Die technische Basis bleibt: crawlbar, indexierbar, snippet-eligible. Was sich ändert, ist die Granularität. Seiten müssen nicht nur insgesamt ranken, sondern einzelne Passagen müssen als eigenständige Antworteinheiten verwertbar sein. Und du musst nicht nur ein Hauptkeyword abdecken, sondern den Intent-Komplex dahinter.

  • Brauche ich spezielle Dateien oder Markups für AI Search, zum Beispiel llms.txt oder spezielle Schema-Auszeichnungen?

    Google sagt explizit: Nein. Es werden keine speziellen KI-Dateien, keine "AI text files" und kein neues Schema.org-Markup für AI Overviews oder AI Mode benötigt. Strukturierte Daten, die sichtbaren Inhalt korrekt auszeichnen, können helfen – aber als Ergänzung, nicht als Eintrittskarte.

  • Warum erscheine ich klassisch gut in der Suche, aber kaum in KI-Antworten?

    Weil klassisches Ranking und AI-Search-Sichtbarkeit nicht dasselbe messen. Klassisches Ranking bewertet, ob deine Seite für eine Query relevant ist. AI Search bewertet zusätzlich, ob deine Inhalte in Subfragen abrufbar sind, ob Passagen direkt verwertbar sind, ob die Seite als vertrauenswürdige Quelle gewertet wird und ob deine Aussagen zitierfähig formuliert sind. Platz 1 in der SERP ist kein automatisches Zitat in der KI-Antwort.

  • Kann ich kontrollieren, ob ich in AI-Antworten erscheine?

    Direkte Kontrolle: nein. Systematischen Einfluss: ja. Du kannst die Voraussetzungen schaffen, die die Wahrscheinlichkeit erhöhen: technische Eligibility sicherstellen, Retrieveability durch Themenabdeckung aufbauen, Selectability durch Autorität und Aktualität stärken, Citeability durch passagenweise verwertbare Inhalte erreichen. Das ist kein Schalter, den du umlegen kannst, aber es ist auch keine Blackbox.

  • Stimmt es, dass KI-Antworten immer korrekt sind, weil sie Quellen zitieren?

    Nein. Quellenverweise in AI-Antworten sind kein Qualitätsbeweis. Fehler entstehen an mehreren Stellen: falsche Quellen gefunden, richtige Quelle schlechter gerankt, Passage falsch interpretiert, Aussagen nicht vollständig durch Quellen gestützt, widersprüchliche Quellen nicht sauber aufgelöst. Wer KI-Antworten zu wichtigen Entscheidungen ohne Verifikation nutzt, trägt das Risiko selbst.

  • Wie unterscheidet sich Perplexity technisch von ChatGPT Search?

    Der wesentliche Unterschied liegt in der Indexierungsebene. ChatGPT Search arbeitet im Kern mit klassischer Seitenindexierung: Es ruft Top-Dokumente ab und lässt das Modell zusammenfassen. Perplexity arbeitet nach eigenen Angaben auf Sub-Dokument-Ebene: Es indexiert und ruft Passagen direkt ab, nicht ganze Seiten. Das Ziel ist, das Kontextfenster des Modells möglichst vollständig mit relevanten Fragmenten zu füllen, um Halluzinationen zu reduzieren. Für Content bedeutet das: Passagen-Klarheit ist bei Perplexity noch direkter relevant als bei ChatGPT Search.

  • Was ist Query Fan-out, und warum ist das für Content-Strategie wichtig?

    Query Fan-out ist eine Technik, bei der das System eine einzelne Nutzerfrage in mehrere parallele Suchanfragen zerlegt. Google beschreibt sie als Kerntechnologie von AI Mode und AI Overviews. Für Content-Strategie bedeutet das: Du wirst nicht mehr nur nach "passt diese Seite zu diesem Keyword" bewertet, sondern danach, ob du einen ganzen Intent-Komplex abdeckst. Dünne Landingpages, die nur die Verkaufsoberfläche adressieren, haben in dieser Logik ein strukturelles Defizit.


Fazit

AI Search ist kein Algorithmus und kein Chatbot-Feature. Es ist ein mehrstufiges System, das dieselben Grundlagen wie klassisches SEO nutzt, darüber aber eine Schicht aus semantischem Retrieval, Re-Ranking, Query Fan-out und generativer Synthese legt.

Die zentrale Konsequenz für deine Arbeit:

AI Search verschiebt die Optimierungsfrage von "Rankt meine Seite?" zu "Ist mein Content für jeden Schritt der Pipeline verwertbar?"

Das ist keine Abkehr von SEO. Technisches SEO, Informationsarchitektur, Contentqualität, Entitätsarbeit und Linkaufbau bleiben relevant. Was dazukommt, ist Granularität: Nicht nur Seiten müssen performen, sondern Passagen, Aussagen und Belege.

Wer heute nur Keywords besetzt, wird in vielen AI-Antworten fehlen. Wer Themen, Entitäten und Entscheidungsfragen sauber abdeckt, baut eine robustere Sichtbarkeitsschicht auf – für klassische Suche, AI Overviews, ChatGPT Search, Perplexity und die agentischen Suchsysteme, die als nächstes kommen.

Der erste Schritt: Nicht fragen, was AI Search verändert. Fragen, für welche Subfrage deines Kernthemas du heute noch keine belastbare Antwort hast – und diese Lücke schließen.


Du weißt jetzt, wie die Pipeline funktioniert. Aber wo steht deine Website darin?

Ein kurzer Blick auf deine Inhalte zeigt, ob du gecrawlt, gefunden und zitierfähig bist - oder ob du an einer der vier Stufen hängst. Kein Pitch, kein Pauschalangebot. Nur eine klare Einschätzung, wo der echte Hebel liegt.

SEO mit System: Mehr Sichtbarkeit bei Google und in KI-Antworten

feller.systems - Technisch präzise. Strategisch durchdacht.
Auf Wirkung und Nachhaltigkeit optimiert.

© Carsten Feller | feller.systems