AI-Chatbots und ihre Quellen: Warum dein klassisches SEO schon die halbe Miete ist
Alle optimieren gerade für AI-Chatbots. Die wenigsten schauen nach, welche Suchindizes diese Chatbots tatsächlich nutzen. Dabei steckt in dieser einen Frage die ehrlichste Antwort auf den aktuellen GEO-Hype.
Das Wichtigste in Kürze
- ChatGPT Search greift bei Web-Anfragen auf Microsofts Bing-Index plus einen eigenen, kleineren Teilindex zurück. Wer bei Bing rankt, ist für ChatGPT sichtbar.
- Gemini ist direkt mit Googles Suchindex und Knowledge Graph verbunden. Hier gibt es keine Abkürzung an klassischem Google-SEO vorbei.
- Claude ist nach aktuellem Stand ausschließlich an Brave Search gebunden. Das ist der einzige relevante Dienst, der komplett außerhalb von Bing und Google operiert.
- Perplexity kombiniert einen eigenen, inzwischen ausgebauten Index mit starkem Bing-Retrieval.
- Ecosia steht nicht mehr für Bing: Die Suchmaschine hat 2024 auf vorwiegend Google umgestellt und baut mit Qwant einen eigenen europäischen Index auf.
- AI-Chatbot Zugriffe in deutschen Website-Logs liegen in den meisten Projekten noch im Promille-Bereich. Die Leads und Conversions passieren weiterhin überwiegend in den klassischen Suchsystemen.
Gutes SEO für Google und Bing ist in der Praxis bereits die Grundlage für Sichtbarkeit in den meisten AI-Chatbots. Wer das versteht, braucht keinen "GEO-Kurs".
Warum das jetzt zählt
LinkedIn-Feeds bestehen gerade zu einem nicht unerheblichen Teil aus Posts, die dir erklären, dass du ohne sofortige AI-Search Optimierung die nächsten drei Jahre verschläfst. GEO-Zertifizierungen werden angeboten, AEO-Audits verkauft, und wer noch von "SEO" spricht, wirkt leicht angestaubt.
Das Muster ist bekannt. Voice Search hatte seinen Moment. Featured Snippets hatten ihren Moment.
Jedes Mal gab es Dienstleister, die eine neue Disziplin aus der Taufe hoben, für die es zufälligerweise nur wenige ausgewiesene Experten gab. Zufälligerweise waren sie dann selbst einer davon.
Was diesmal tatsächlich neu ist: Es gibt AI-Chatbots mit echter Nutzerbasis, die bei bestimmten Anfragen auf Web-Inhalte zugreifen und Quellen zitieren. Das ist kein Hype, das ist Realität. Aber die entscheidende Frage, die fast niemand stellt, lautet:
Auf welche Quellen greifen diese Systeme eigentlich zu? Und was bedeutet das für dein SEO-Budget?
Die Antwort auf diese Frage ist weniger dramatisch als dein LinkedIn- oder Twitter-Feed vermuten lässt. Sie ist aber konkreter, und damit brauchbarer.
Welcher KI-Chatbot nutzt welchen Index?
Bevor ein AI-Chatbot dir eine Antwort mit Quellenangaben liefern kann, muss er irgendwo nachschlagen. Trainingsdaten reichen für aktuelle Informationen nicht aus. Deshalb haben alle größeren Systeme eine Anbindung an externe Suchindizes. Die entscheidende Frage ist: An welche?
Hier ist der aktuelle Stand, verifiziert gegen Primärquellen (Stand: März 2026):
| Dienst | Genutzte Suchindizes |
|---|---|
| ChatGPT (Search-Modus) | Microsoft Bing + eigener OAI-SearchBot-Teilindex |
| Gemini | Google Search Index + Knowledge Graph |
| Claude.ai | Brave Search Index (Stand: März 2025) |
| Perplexity | Eigener Index + starkes Bing-Retrieval |
| Microsoft Copilot | Microsoft Bing |
| Ecosia | Vorwiegend Google + teilweiser eigener EU-Index (Ecosia/Qwant) |
| Yahoo Search | Microsoft Bing |
| DuckDuckGo | Bing + Yahoo BOSS + weitere Quellen + eigener Crawler |
Quellen: TechCrunch (Anthropic/Brave-Bestätigung März 2025), ai.google.dev (Gemini Grounding-Dokumentation), thekeyword.co (OpenAI-Bing-Bestätigung), Wikipedia (Ecosia-Index-Wechsel 2024), heise.de (Bing API-Abschaltung August 2025)
ChatGPT: Bing plus ein wachsender eigener Index
OpenAI nutzt für ChatGPT Search primär den Bing-Index von Microsoft, ergänzt durch den eigenen OAI-SearchBot, der einen proprietären Teilindex aufbaut. Die Bing-Anbindung ist dabei keine Zufälligkeit, sie ist Teil der strategischen Microsoft-Investition in OpenAI. Aus Sicht eines Website-Betreibers bedeutet das: Wer in den Bing Webmaster Tools nicht auftaucht oder dort schlecht rankt, ist für ChatGPT Search strukturell benachteiligt. Das ändert sich gerade graduell durch den wachsenden eigenen Index, aber Bing bleibt die dominante Datenbasis.
Praktische Konsequenz: Prüfe, ob deine Website in den Bing Webmaster Tools angemeldet ist. Prüfe Indexierungsstatus und Crawl-Fehler. Das ist technisches SEO-Basishandwerk, kein neues Spielfeld.
Ein Vorbehalt zur Vollständigkeit: Im Juli 2025 hat der Researcher Abhishek Iyer mit erfundenen Phantombegriffen nachgewiesen, dass die kostenlose ChatGPT-Version bei Web-Anfragen nachweislich auf Google zurückgreift, nicht auf Bing. Backlinko hat das im August 2025 unabhängig bestätigt. OpenAI hat sich dazu nie offiziell geäußert. CPO Kevin Weil hatte beim Launch von ChatGPT Search lediglich gesagt, Bing spiele "an important role", was im Nachhinein bewusst vage wirkt. Die wahrscheinlichste Erklärung: OpenAI nutzt je nach Nutzerversion, Anfrage oder Infrastrukturverfügbarkeit unterschiedliche Quellen, und der eigene Suchindex wird auf der Free-Tier-Basis getestet. Für den Paid-Bereich ist Bing weiterhin die gut belegte Hauptdatenbasis. Wer die kostenlose Version im Blick hat, muss damit rechnen, dass Google dort eine Rolle spielt, die sich einer einfachen Zuordnung entzieht.
Gemini: Google durch und durch
Gemini ist tief in Googles Infrastruktur integriert. Die "Grounding with Google Search"-Funktion, die Google in der Gemini-API dokumentiert, greift direkt auf Googles Webindex zu. Wer für Googles organische Suche optimiert, optimiert automatisch für Geminis Quellenbasis. Das ist keine Vereinfachung, das ist die technische Realität.
Für Gemini gibt es keine parallele Optimierungsstrategie. Gutes Google-SEO ist die Optimierungsstrategie.
Claude: Der Sonderfall Brave
Claude.ai ist der einzige der relevanten Dienste, der nach aktuellem Stand ausschließlich außerhalb von Google und Bing operiert.
Anthropic hat sich für Brave Search als Suchpartner entschieden, bestätigt von TechCrunch im März 2025. Brave betreibt seit 2021 einen eigenen Index und hat die Bing-API 2023 vollständig aufgegeben.
Was das bedeutet: Wer bei Brave Search nicht indexiert ist, taucht in Claudes Web-Recherche nicht auf. Brave Search ist keine Nische mehr, aber es ist ein anderer Index mit anderen Crawl-Prioritäten als Google oder Bing. Für Websites mit solider technischer Grundlage und breiter Verlinkung ist die Brave-Indexierung in der Regel kein Problem. Wie vollständig der Index im Vergleich zu Google oder Bing ist, lässt sich pauschal nicht beziffern. Für sehr neue oder strukturell schwache Domains ist ein Check aber sinnvoll.
Perplexity: Hybrid mit eigenem Gewicht
Perplexity ist selbst eine AI-Suchmaschine mit eigener Retrieval-Infrastruktur, und dieser eigene Index ist inzwischen ausgebaut genug, dass er nicht mehr als Add-On zu Bing bezeichnet werden sollte. Dennoch bleibt Bing eine starke Datenbasis für Perplexity. In der Praxis behandeln viele SEO-Analysen Perplexity als Hybrid, was die Realität gut trifft.
Ecosia: Die stille Kehrtwende
Hier lohnt ein kurzer Stopp, weil Ecosia oft in einem Atemzug mit Bing genannt wird. Das war bis 2023/2024 korrekt. Seit 2024 hat Ecosia auf vorwiegend Google-Ergebnisse umgestellt und baut zusammen mit dem europäischen Suchanbieter Qwant einen eigenen Index auf, der seit August 2025 schrittweise einfließt. Wer Ecosia noch als "Bing-Kanal" führt, arbeitet mit veralteten Informationen.
Was die Infrastruktur über den GEO-Hype aussagt
Wenn du die Tabelle oben anschaust, siehst du etwas Aufschlussreiches: Die beiden mit Abstand größten AI-Dienste, ChatGPT und Gemini, stützen sich auf Bing beziehungsweise Google. Das sind die beiden klassischen Suchmaschinen, für die SEOs seit Jahren optimieren.
Setzt du jetzt noch Gary Illyes von Google daneben, der auf der Search Central Live APAC 2025 sagte, "AI at Google is just SEO. We don't need another acronym", dann wird das Muster deutlich.
Was als GEO oder AEO verkauft wird, ist in 95 Prozent der Fälle dasselbe, was gutes SEO schon immer war: Klare Content-Struktur, Themenautorität, E-E-A-T-Signale, technische Sauberkeit, strukturierte Daten, Brand Building.
Das ist kein Geheimnis. Es ist auch kein Fehler der GEO-Gurus, diese Dinge zu empfehlen. Es ist aber ein Problem, sie als neues Handwerk zu verkaufen.
Der einzige tatsächlich neue Baustein ist das Monitoring. Du musst wissen, welche KI-Systeme deine Inhalte zitieren, wie oft, und ob dieser Traffic konvertiert. Das ist messbar. Dazu kommen wir gleich.
Realitätsabgleich: Was deine Logs gerade wirklich zeigen
Hier ist die unbequeme Frage, die sich jeder stellen sollte, bevor er sein SEO-Budget Richtung GEO umschichtet: Wie viele tatsächliche Chatbot-Zugriffe siehst du in deinen Server-Logs?
In den meisten deutschen KMU-Projekten ist die Antwort: Wenige bis sehr wenige.
Was in den Logs auftaucht
OpenAI betreibt drei verschiedene Bots, die unterschiedliche Aufgaben haben:
GPTBot crawlt Websites, um Trainingsdaten für die Modelle zu sammeln. Dieser Bot hat keinen direkten Einfluss auf ChatGPT-Suchantworten. Er erscheint in Logs, ist aber für Traffic-Zwecke irrelevant.
OAI-SearchBot sucht aktiv nach aktuellen Informationen für ChatGPT Search-Anfragen. Dieser Bot ist der relevante Akteur für deine Sichtbarkeit in ChatGPT-Suchantworten.
ChatGPT-User ist besonders: Dieser Bot besucht eine Seite nur dann, wenn ein echter Nutzer ChatGPT befragt und das System entscheidet, deine Seite direkt aufzurufen. Jeder ChatGPT-User-Treffer in deinen Logs repräsentiert eine echte Nutzeranfrage. OpenAI selbst schreibt dazu: "This bot triggers when users ask ChatGPT a question that requires real-time information from your site." Dementsprechend kann man diese Log-Einträge als direkten Proxy für Nutzer-Prompts auswerten.
Wie du die Bots identifizierst
In deinen Server-Logs erkennst du die relevanten AI-Crawler an diesen User-Agent-Strings:
OAI-SearchBot → OpenAI Search-Crawler (ChatGPT Search)
GPTBot → OpenAI Trainingscrawler
PerplexityBot → Perplexity-Crawler
Google-Extended → Googles Crawler für Gemini/SGE-Training
ClaudeBot → Anthropics Crawler
Ein einfacher Grep-Befehl auf deinen Access-Logs zeigt dir sofort, ob und wie häufig diese Bots auftauchen:
grep -i "OAI-SearchBot\|GPTBot\|PerplexityBot\|ClaudeBot" /var/log/nginx/access.log | wc -l
Was die Zahlen bedeuten
Wenn du feststellst, dass OAI-SearchBot deine Seite einmal pro Woche besucht und ChatGPT-User drei Treffer im letzten Monat hinterlassen hat, dann weißt du, was du weißt: Der AI-Traffic ist real, aber er ist klein. Sehr klein.
Das deckt sich mit den aggregierten DACH-Zahlen aus dem Q1 2026, die für die meisten deutschen Websites AI-Referral-Traffic zwischen 0,2 und 0,6 Prozent des Gesamttraffics zeigen. Nicht als Prognose, nicht als Benchmark aus US-Enterprise-Daten, sondern als tatsächliche Messung in europäischen Märkten.
Leads und Conversions entstehen gerade überwiegend dort, wo sie schon immer entstanden sind: in der klassischen Suche, direkt oder über Referrals. Das ist der Kanal, der Aufmerksamkeit und laufende Pflege braucht.
Strategie: Was jetzt wirklich sinnvoll ist
ChatGPT sucht bei Bing, Gemini bei Google. Die "Wahl" zwischen klassischem SEO und AI-Search-Optimierung gibt es in der Praxis schlicht nicht. Es ist dieselbe Grundlage. Was sich ändert, ist das Monitoring, nicht das Handwerk.
Technisches SEO für Bing nachziehen, wenn nötig
Viele SEO-Projekte optimieren ausschließlich für Google. Das war jahrelang vertretbar, weil Bing in Deutschland 5 bis 6 Prozent Marktanteil hatte (Stand: Mai 2025 laut Statcounter).
Durch die ChatGPT-Bing-Anbindung hat Bing nun eine indirekte Reichweite, die weit über den direkten Marktanteil hinausgeht.
Konkret prüfen:
- Ist die Website in den Bing Webmaster Tools angemeldet?
- Gibt es Crawl-Fehler oder Indexierungslücken in Bing?
- Ist IndexNow eingerichtet? (IndexNow meldet neue und geänderte Inhalte proaktiv an Bing und andere teilnehmende Suchmaschinen, was die Indexierungsgeschwindigkeit erhöht.)
Das ist kein großer Aufwand. Eine Stunde Einrichtung, dann läuft es im Hintergrund.
Neu seit Februar 2026: AI Performance Report in den Bing Webmaster Tools
Microsoft hat am 10. Februar 2026 einen "AI Performance Report" in den Bing Webmaster Tools im Public Preview gestartet. Er ist damit die erste native Messmöglichkeit, die ein großer Suchanbieter für AI-Zitierungen anbietet.
Der Report zeigt:
- Total Citations: Wie oft Inhalte deiner Website in AI-generierten Antworten zitiert wurden
- Avg. Cited Pages per Day: Wie viele deiner Seiten durchschnittlich täglich zitiert werden
- Grounding Queries: Die Suchphrasen, die Copilot intern generiert, um relevante Inhalte zu finden. Das sind nicht die originalen Nutzeranfragen, sondern die reformulierten "Fan-out-Queries", mit denen das System im Index sucht. Diese Daten haben echten strategischen Wert, weil sie zeigen, für welche Themen dein Content als zitierfähig eingestuft wird.
- Page-Level Citation Activity: Welche einzelnen URLs wie häufig zitiert werden
Wichtige Einschränkung: Der Report deckt nur Microsoft Copilot, KI-generierte Zusammenfassungen in Bing und ausgewählte Microsoft-Partnerintegrationen ab. Daten zu ChatGPT, Perplexity, Gemini oder anderen Systemen sind nicht enthalten. Google Search Console zeigt AI-Overview-Daten weiterhin nicht getrennt vom organischen Traffic aus. Bing ist damit der erste, aber noch nicht der einzige relevante Datenpunkt.
Wer seine Website in den Bing Webmaster Tools angemeldet hat, findet den Report unter dem Menüpunkt "AI Performance" in der linken Navigation.
Brave Search Indexierung prüfen
Claude.ai ist an Brave Search gebunden. Brave betreibt seit 2021 einen eigenen Index und hat die Bing-API 2023 vollständig aufgegeben. Für Websites mit solider technischer Grundlage und breiter Verlinkung ist die Brave-Indexierung in der Regel kein Problem.
Falls deine Website sehr neu ist oder strukturelle technische Probleme hat (fehlerhafte Robots.txt, schlechte interne Verlinkung, dünne oder duplizierte Inhalte), ist ein Check sinnvoll. Suche in Brave nach deiner Domain mit "site:deinedomain.de" und vergleiche die Ergebniszahl mit Google. Große Abweichungen sind ein Signal.
AI-Traffic-Monitoring in GA4 einrichten
GA4 hat keine native "AI Search"-Kanalgruppe. Du musst sie einrichten. Die relevanten Referral-Domains:
chatgpt.com | chat.openai.com
perplexity.ai
claude.ai
gemini.google.com
copilot.microsoft.com
Erstelle eine benutzerdefinierte Kanalgruppe in GA4 mit diesen Quellen. Das dauert 20 Minuten und gibt dir eine Baseline, gegen die du künftige Entwicklungen messen kannst.
Wichtiger Hinweis: Ein erheblicher Teil des AI-Einflusses auf Kaufentscheidungen bleibt in GA4 unsichtbar. Wer über ChatGPT von einer Marke erfährt und danach direkt auf die Website navigiert, landet als "Direct" in GA4. Das ist kein lösbares Datenproblem, sondern die Realität aller nicht-referral-basierten Kanäle. Branded Search Volume und Direct-Traffic-Entwicklung sind die sinnvollsten Proxy-Metriken dafür.
Strukturierte Daten ausbauen
Strukturierte Daten (Schema.org-Markup) sind kein neues GEO-Werkzeug. Sie sind ein Signal, das sowohl klassische Suchmaschinen als auch AI-Retrieval-Systeme nutzen, um den Inhalt einer Seite maschinenlesbar zu verstehen. FAQPage-, HowTo-, Article- und Organization-Schema verbessern die Verarbeitbarkeit für alle Systeme gleichzeitig.
Falls du das noch nicht vollständig umgesetzt hast, ist das einer der wenigen Punkte, bei denen eine Investition parallel für Google, Bing und AI-Systeme wirkt. Nicht als magisches GEO-Werkzeug, sondern als saubere technische Grundlage.
Content-Strategie nicht umwerfen, aber nüchtern prüfen
Informationaler Top-of-Funnel-Content verliert durch AI Overviews bei Google messbar CTR. Das ist ein eigenständiges Problem, das mit AI-Chatbot-Optimierung wenig zu tun hat, aber oft in denselben Diskussionen landet.
Die relevante Frage für deinen Content-Mix: Welche deiner Inhalte beantworten Fragen, die Google oder ChatGPT inzwischen direkt beantwortet? Diese Inhalte verlieren Traffic nicht, weil dein SEO schlechter geworden ist, sondern weil das System die Antwort absorbiert hat. Das ist eine strukturelle Verschiebung, die eine Anpassung des Content-Verhältnisses rechtfertigt, nicht einen kompletten Umbau.
Fallbeispiel: Mittelständischer B2B-Dienstleister, 50 Mitarbeiter
Ausgangslage: Unternehmen mit 120 rankenden Keywords in Google, solider Sichtbarkeit im deutschen Markt, kein Bing-Webmaster-Tools-Konto, keine GA4-Segmentierung für AI-Traffic. Ein Berater empfiehlt einen "AI-Readiness-Audit" für 4.800 Euro plus GEO-Retainer.
Realitätscheck:
- Kein AI-Traffic-Segment in GA4 bedeutet, dass niemand weiß, wie viel AI-Traffic bereits ankommt. Wahrscheinlichkeit: unter 1 Prozent, typisch für den DACH-Markt 2026.
- Kein Bing-Konto bedeutet, dass ChatGPT-Search-Sichtbarkeit nicht aktiv gemanaged wird. Aber: Wer bei Google rankt, rankt meist auch bei Bing. Die Korrelation ist hoch, weil beide Systeme ähnliche Qualitätssignale bewerten.
- Der Ratschlag "sofort AI-Readiness-Audit" ist Aktionismus vor Analyse. Die sinnvolle Reihenfolge: Erst messen, was bereits da ist. Dann entscheiden, ob Handlungsbedarf besteht.
Empfohlenes Vorgehen (Eigenaufwand: 3-4 Stunden):
- Bing Webmaster Tools einrichten, Sitemap einreichen (30 Minuten)
- IndexNow implementieren (60 Minuten, abhängig von CMS)
- GA4-Kanalgruppe für AI-Traffic einrichten (20 Minuten)
- Server-Logs auf AI-Bot-Zugriffe prüfen (30 Minuten)
- Brave Search Indexierungsstatus prüfen (10 Minuten)
- Messung über 90 Tage laufen lassen, dann Datenbasis bewerten
Erwartetes Ergebnis: Wahrscheinlich stellt sich heraus, dass der AI-Traffic klein ist, wächst, aber keine sofortige Budgetumschichtung rechtfertigt. Das klassische SEO läuft weiter, das Monitoring ist jetzt vorhanden, und man kann in 90 Tagen eine fundierte Entscheidung treffen statt einer emotionalen.
60-Minuten-Checkliste: AI-Chatbot-Sichtbarkeit im Basischeck
Infrastruktur-Check (15 Minuten)
- [ ] Bing Webmaster Tools: Ist die Website angemeldet?
- [ ] Bing Webmaster Tools: Gibt es Crawl-Fehler oder Indexierungslücken?
- [ ] Brave Search: Stimmt die Indexierungstiefe in etwa mit Google überein
- [ ] robots.txt: Sind OAI-SearchBot, GPTBot, PerplexityBot und ClaudeBot zugelassen?
Log-Analyse (20 Minuten)
- [ ] AI-Bots in Server-Logs identifiziert und gezählt: OAI-SearchBot, GPTBot, ChatGPT-User, PerplexityBot, ClaudeBot
- [ ] Verhältnis GPTBot zu OAI-SearchBot notiert (Training vs. aktive Suche)
- [ ] ChatGPT-User-Einträge: Welche Seiten wurden aufgerufen?
- [ ] Baseline dokumentiert (Datum, Zeitraum, Gesamtzahl pro Bot)
Analytics (15 Minuten)
- [ ] GA4-Kanalgruppe "AI Search" mit allen relevanten Referral-Domains eingerichtet
- [ ] Branded Search Volume als Vergleichsmetrik in Search Console notiert
- [ ] Direct-Traffic-Baseline dokumentiert
Inhalt und Strukturierte Daten (10 Minuten)
- [ ] FAQPage-Schema auf Seiten mit Frage-Antwort-Formaten vorhanden?
- [ ] Article-Schema auf Blogbeiträgen korrekt implementiert?
- [ ] Organization-Schema mit vollständigen Unternehmensdaten vorhanden?
Messung und Monitoring: Was du brauchst, damit es keine Bauchentscheidung bleibt
Wenn du es nicht messen kannst, steuerst du nach Gefühl. Das gilt für klassisches SEO, und es gilt für AI-Chatbot-Sichtbarkeit genauso.
Primäre KPIs
| KPI | Datenquelle | Messintervall |
|---|---|---|
| AI-Referral-Traffic (absolut und prozentual) | GA4, Kanalgruppe „AI Search" | Monatlich |
| AI-Referral-Conversions und Conversion Rate | GA4 | Monatlich |
| OAI-SearchBot Crawls pro Monat | Server-Logs | Monatlich |
| ChatGPT-User-Zugriffe pro Monat | Server-Logs | Monatlich |
| Branded Search Volume | Google Search Console | Monatlich |
Proxy-Metriken für indirekten AI-Einfluss
Weil AI-Traffic in GA4 teilweise als "Direct" erscheint, brauchst du Proxy-Metriken:
Branded Search Volume: Ein Anstieg von Markensuchen ohne gleichzeitige Werbekampagnen ist ein starkes Indiz, dass die Marke in AI-Antworten als Empfehlung auftaucht.
Direct-Traffic-Trend: Wenn Direct-Traffic mit wachsender AI-Chatbot-Präsenz korreliert, ist das ein Beleg für indirekten Einfluss. Dieser Zusammenhang ist nie sauber messbar, aber er ist beobachtbar.
Failure Modes
Was schief geht, wenn man nicht misst:
- Du machst ein GEO-Audit und kannst danach nicht belegen, ob irgendetwas davon etwas bewirkt hat.
- Du weißt nicht, welche deiner Seiten von AI-Bots bevorzugt gecrawlt werden, und kannst diese Information nicht für Content-Entscheidungen nutzen.
- Du reagierst auf LinkedIn-Posts statt auf eigene Daten.
Fazit: Weniger Hype, mehr Logs
Die Infrastruktur der AI-Chatbots ist kein Argument gegen AI-Search-Optimierung. Sie ist ein Argument für Nüchternheit. ChatGPT greift auf Bing zurück, Gemini auf Google, Perplexity auf eine Bing-Mischung. Wer für diese Suchmaschinen vernünftig aufgestellt ist, ist in den größten AI-Systemen bereits sichtbar.
Claude mit Brave Search ist der einzige relevante Sonderfall, der einen eigenen Blick rechtfertigt. Und der kostet, wenn das technische Fundament sitzt, eine halbe Stunde.
Was fehlt, ist in den meisten Projekten kein proprietäres GEO-Framework. Es fehlen die Messung und der ehrliche Blick in die eigenen Logs. Dort steht, wie viele AI-Bot-Zugriffe tatsächlich ankommen. Für die meisten deutschen Websites ist die Antwort: deutlich weniger als dir dein LinkedIn-Feed suggeriert.
Der nächste sinnvolle Schritt: Öffne deine Server-Logs. Grep nach OAI-SearchBot, GPTBot und ChatGPT-User. Zähle die Treffer der letzten 30 Tage. Richte dann GA4-Segmentierung für AI-Traffic ein. Dann hast du eine Datenbasis. Alles, was danach kommt, ist Strategie statt Aktionismus.
FAQ
Häufige Fragen
Muss ich jetzt für jeden KI-Chatbot separat optimieren?
Nein. Weil ChatGPT auf Bing und Gemini auf Google zurückgreift, deckt klassisches SEO für diese beiden Suchmaschinen den größten Teil ab. Claude nutzt Brave Search, was einen separaten Check rechtfertigt, aber keinen separaten Prozess. Perplexity folgt ähnlichen Qualitätssignalen wie Bing. Ein sauberes, technisch solides SEO-Fundament ist die universelle Grundlage.
Was ist der Unterschied zwischen GPTBot und OAI-SearchBot?
GPTBot sammelt Trainingsdaten für OpenAIs Sprachmodelle. Er hat keinen direkten Einfluss darauf, ob deine Website in ChatGPT-Suchantworten zitiert wird. OAI-SearchBot ist der Crawler, der für ChatGPT Search aktiv Webseiten abruft und indexiert. Für deine AI-Sichtbarkeit in ChatGPT ist OAI-SearchBot der relevante Bot.
Sollte ich GPTBot in der robots.txt blockieren?
Das ist eine strategische Entscheidung. Blockierst du GPTBot, nimmst du Einfluss auf das Training der Sprachmodelle, verhinderst aber nicht, dass ChatGPT Search deine Seite zitiert, das übernimmt OAI-SearchBot. Viele Verlage blockieren GPTBot aus urheberrechtlichen Überlegungen. Für die meisten KMU ist das nicht notwendig, aber zulässig. OAI-SearchBot sollte nicht blockiert werden, wenn du in ChatGPT-Antworten sichtbar sein willst.
Warum taucht meine Website in ChatGPT-Antworten nicht auf, obwohl ich bei Google ranke?
Mehrere mögliche Ursachen: Erstens könnte deine Seite bei Bing (dem primären ChatGPT-Index) schlechter ranken als bei Google. Zweitens könnte OAI-SearchBot in deiner robots.txt geblockt sein. Drittens: ChatGPT zitiert keine Quellen für Antworten, die es aus den Trainingsdaten beantwortet, Quellangaben erscheinen nur, wenn tatsächlich eine Web-Suche durchgeführt wird. Für viele Anfragen passiert das gar nicht.
Was hat Brave Search mit SEO zu tun?
Brave Search betreibt seit 2023 einen vollständig eigenen Web-Index, der nicht mehr auf Bing-Daten basiert. Da Claude.ai exklusiv auf Brave Search als Web-Quelle zurückgreift, ist Brave-Indexierung die Voraussetzung dafür, in Claudes Web-Recherche-Antworten zu erscheinen. Für Websites mit guter technischer Grundlage ist das kein eigenständiges Handlungsfeld. Es lohnt aber ein kurzer Check.
Ist GEO dasselbe wie SEO?
Im Wesentlichen ja, mit einer relevanten Ergänzung: GEO (Generative Engine Optimization) beschreibt die Optimierung für AI-generierte Antworten. Weil diese Antworten auf denselben Suchindizes basieren wie klassische Suche, sind die Maßnahmen weitgehend identisch. Was tatsächlich neu ist: das Monitoring von AI-Traffic-Quellen, die Beobachtung von Zitierverhalten in AI-Systemen und die Optimierung von Inhalten auf Zitierfähigkeit (kurze, klare Antwortblöcke, strukturierte Daten). Das sind Ergänzungen, keine Ersatzstrategie.
Wie oft wird meine Website von AI-Bots gecrawlt?
Das variiert stark nach Autorität, Themenrelevanz und technischer Qualität der Website. Für kleine bis mittelgroße deutsche Websites sind ChatGPT-User-Einträge im einstelligen bis zweistelligen Bereich pro Monat realistisch, für stark frequentierte Domains deutlich mehr. Der einzige Weg, das zu wissen: Server-Logs analysieren.
Lohnt sich ein "GEO-Retainer" für mein Unternehmen?
Stand März 2026: Für die meisten deutschen KMU nicht. AI-Traffic liegt im DACH-Markt bei 0,2 bis 0,6 Prozent des Gesamttraffics. Wer einen teuren Retainer zahlt, bevor er weiß, was schon vorhanden ist, handelt auf Basis von LinkedIn-Angst, nicht auf Basis von Daten. Der sinnvolle erste Schritt ist Messung. Dann lässt sich eine fundierte Entscheidung treffen.