Aktualisiert am 5 März 2026

AI Search vs. traditionelle Suche: Analyse für den DACH-Raum jenseits von Hype und Panik (Q4/2025)

ChatGPT generiert 0,13 % Traffic. Google hält 92 % Marktanteil. Und trotzdem hat AI Search eine Eigenschaft, die man nicht ignorieren sollte: AI-Besucher konvertieren mit 14,2 %, Google-Traffic schafft 2,8 %.

Dies ist der erste Teil einer fortlaufenden Analyse-Serie, in der ich quartalsweise die Entwicklung von AI-gestützter Suche im Vergleich zu traditionellen Suchmaschinen im deutschsprachigen Raum untersuche. Alle Zahlen basieren auf aktuellen Studien, eigenen Kundenanalysen und Marktdaten.

tl;dr

Die Kernaussagen auf einen Blick.

AI Search ist real und wächst, aber mit unter 0,5% Traffic-Anteil noch Nischenphänomen. Google dominiert mit rund 92% Marktanteil. Zero-Click ist die unmittelbarere Herausforderung.

Kernfakten:

  • AI-Traffic liegt bei durchschnittlich 0,13 - 0,15 % über 10.000+ deutsche Websites (ChatGPT ~ 0,10 %, Perplexity ~ 0,03 %). Weit unter medialen Prognosen.
  • Google behält 91,98 % Marktanteil in Deutschland. Organischer Traffic macht 54,25 % des Gesamt-Traffics aus, Suchvolumen wuchs 2024 um 21,6 %.
  • B2B Tech/SaaS zeigt 70 % AI Overview-Präsenz (von 36 % in Mai 2024), Versicherungen 271 % Wachstum. E-Commerce nur 4 % Präsenz.
  • 52 - 60 % der AI Overview-Citations stammen aus organischen Top 10. Traditionelles SEO bleibt die Grundlage für AI Visibility.
  • AI-Traffic konvertiert mit 14,2 % deutlich besser als Google-Traffic mit 2,8 %. Kleiner Kanal, aber hochwertige Besucher.

Handlungsempfehlung:
Quartalsweises Monitoring von AI-Traffic-Quellen (chatgpt.com, perplexity.ai) in Analytics etablieren. B2B-Unternehmen sollten jetzt informationalen Content für AI Overviews optimieren. E-Commerce kann weiter auf traditionelles SEO setzen.

→ Im Hauptartikel: Branchenspezifische Daten, technische RAG-Grundlagen, Monitoring-Anleitungen, mittelfristige Prognosen 2025-2030

Die Ausgangslage: Was die Daten tatsächlich zeigen

Wenn ich mir die Traffic-Quellen meiner Kunden anschaue (hauptsächlich GA4, Matomo und Pirsch.io, vereinzelt Access Logs), ergibt sich ein interessantes Bild: KI-Systeme wie ChatGPT oder Perplexity sind für etwa 0,2 bis 0,6 % des Traffics verantwortlich, in Ausnahmefällen bis zu 1,5%. Andere KI-Tools wie Gemini oder Microsoft Copilot bewegen sich zwischen 0,02% und 0,08 %, in Ausnahmefällen bis 0,2 %.

Eine Analyse von SE Ranking über 10.000+ deutsche Websites ermittelte einen durchschnittlichen AI-Traffic-Anteil von 0,13 % - ChatGPT führt mit 0,0990%, Perplexity erreicht 0,0283% und Google Gemini kommt auf 0,0040%. Eine aktuellere DACH-Analyse desselben Anbieters mit 63.987 Websites (Januar-April 2025) zeigt den Anteil bereits bei 0,15 % - mit ChatGPT bei 76,48% des gesamten AI-Traffics und Perplexity bei 20,54 %, was im europäischen Vergleich überdurchschnittlich hoch ist.

Die zentrale Erkenntnis: AI Search ist trotz massiver medialer Aufmerksamkeit noch ein Nischenphänomen. Gleichzeitig zeigen die Daten einen klaren Trend und branchenspezifische Unterschiede, die man nicht ignorieren sollte. Und eine Zahl lohnt sich bereits jetzt zu behalten: AI-Traffic konvertiert laut einer Conductor-Analyse mit 14,2 %, verglichen mit 2,8 % bei Google-Traffic. Kleiner Kanal, hochwertiger Traffic.

Die Marktdominanz von Google bleibt unangetastet

Die wichtigsten Zahlen für den deutschen Markt (Stand 2025):

  • Google Marktanteil: 91,98 %
  • Organischer Traffic-Anteil am Gesamt-Traffic: 54,25 %
  • ChatGPT Suchvolumen vs. Google: 0,27 % (Verhältnis 373:1)
  • Google Suchvolumen-Wachstum 2024: +21,6 % gegenüber 2023

Die oft zitierte Gartner-Prognose eines 25%igen Rückgangs traditioneller Suche bis 2026 findet in den aktuellen Daten keine Bestätigung. Im Gegenteil: Google verzeichnet weiterhin starkes Wachstum beim Suchvolumen, auch wenn der Marktanteil minimal sinkt.

[Exkurs]: Gartner-Studien haben ein strukturelles Problem: Sie richten sich an Konzerne, die Entscheidungen rechtfertigen müssen, nicht an Praktiker, die Entscheidungen treffen müssen. Teure Bestätigung vorhandener Biases, verpackt in bunte Quadranten und Buzzword-Diagramme. Wer seine digitale Strategie primär daran ausrichtet, optimiert für interne Präsentationen und nicht für Kunden.

Deutschland als AI-Vorreiter, mit Vorbehalt

Deutschland zeigt im europäischen Vergleich eine relativ hohe AI-Adoption:

  • 43% der Deutschen haben ChatGPT mindestens einmal ausprobiert (Stand April 2025)
  • 20-24 Millionen nutzen ChatGPT monatlich
  • Dennoch: Der tatsächliche Website-Traffic aus AI-Tools liegt bei 0,13 - 0,15 %

Diese Diskrepanz zwischen Awareness und tatsächlicher Nutzung für Informationssuche ist bemerkenswert. Viele experimentieren mit ChatGPT, nutzen es aber nicht als primäre Suchmaschine. Ein Tool ausprobieren und es täglich für Recherchen einsetzen ist ein Unterschied, den Adoption-Statistiken gerne verwischen.

Zero-Click: Die unmittelbarere Bedrohung

Während die Disruption durch reine AI-Suchtools noch auf sich warten lässt, ist die Zero-Click-Entwicklung bereits Realität:

  • 58,5 % aller Google-Suchen enden ohne Klick
  • AI Overviews reduzieren die CTR um 20 - 40 % (wo sie erscheinen)
  • Google AI Overviews erscheinen bei ca. 17 % der deutschen Keywords
  • Primär betroffen: Informationale Suchanfragen

Diese Entwicklung hat vermutlich einen größeren kurzfristigen Impact auf organischen Traffic als der Wechsel zu ChatGPT und Co. Wer sich also fragt, wo Traffic verschwindet, sollte zuerst in die Search Console schauen, nicht in Richtung Perplexity.

Wie LLMs Inhalte finden und zitieren: Die technische Realität

Um AI Visibility realistisch einzuschätzen, muss man verstehen, wie diese Systeme tatsächlich funktionieren.

Retrieval-Augmented Generation (RAG)

Der technische Prozess hinter modernen AI-Suchtools:

  1. Dokumenten-Zerlegung: Inhalte werden in 200 - 500 Token große Chunks zerlegt
  2. Vektorisierung: Umwandlung in semantische Vektoren (Embeddings mit 768 - 1536 Dimensionen)
  3. Speicherung: Ablage in Vektordatenbanken
  4. Query-Matching: Suchanfragen werden ebenfalls vektorisiert
  5. Retrieval: Per Cosinus-Ähnlichkeit werden die 3-10 relevantesten Chunks abgerufen
  6. Generation: Das LLM erhält diese Chunks als Kontext für die Antwort

Das ist kein magisches Verstehen deiner Inhalte. Das System sucht nach semantisch ähnlichen Textabschnitten zu einer gegebenen Anfrage. Strukturierter, klar formulierter Content hat damit schlicht bessere Chancen, gefunden und zitiert zu werden.

ChatGPT Search: Die Quellenauswahl

ChatGPT Search nutzt primär Bings Index, ergänzt um Media-Partnerschaften. Die Quellenauswahl folgt erkennbaren Mustern:

Primäre Ranking-Faktoren:

  • Glaubwürdigkeit: Bekannte Marken, offizielle Quellen werden bevorzugt
  • Autorenautorität: Biographien, institutionelle Zugehörigkeit
  • Methodik: Transparente Quellen und dokumentierte Tests
  • Aktualität: Starke Gewichtung für aktuellen Content
  • Top-20-Fokus: Primäre Auswahl aus den ersten ~20 Suchergebnissen

Eine BrightLocal-Studie zu lokalen Suchen zeigt die tatsächliche Quellenverteilung:

  • 58 % Business-Websites direkt
  • 27 % Business-Erwähnungen (davon 39 % Wikipedia)
  • 15 % Verzeichnisse

Kritisch: ChatGPT wählt primär aus gut rankenden Seiten. Traditionelles SEO bleibt damit die Grundlage für AI Visibility.

Perplexity AI: Ein anderer Ansatz

Perplexity bevorzugt andere Signale als ChatGPT:

  • Direkte Antworten: Klare, auf den Punkt gebrachte Informationen
  • Lesbarkeit: Einfache Sprache wird bevorzugt
  • Vertrauenswürdige Sites: Kleine Liste vertrauenswürdiger Quellen (laut Entwickleraussagen)
  • Aktualität: Klare Zeitstempel erforderlich
  • Conversational Tone: "Erklärt wie einem Freund" statt Corporate-Prosa
  • Q&A-Format: Frage-Antwort-Strukturen

Perplexitys Algorithmus gilt als „einer der einfachsten" unter AI-Such-Konkurrenten. Das macht ihn berechenbarer und für kleinere Websites zugänglicher, wenn der Content klar strukturiert ist.

Google AI Overviews: Das hybride Modell

Google kombiniert mehrere LLMs (PaLM2, MUM, Gemini) mit über 15 bestehenden Ranking-Systemen:

  • Helpful Content System
  • Link Analysis (PageRank)
  • Reviews System
  • Spam Detection
  • BERT, RankBrain

Die entscheidende Zahl: 52 - 60 % der AI Overview-Zitationen stammen aus den organischen Top 10. Nach Ahrefs-Daten sind es sogar 76 %.

Strukturierte Daten spielen eine wichtige Rolle, sind aber alleine nicht der Game-Changer, als den sie manche verkaufen. Traditionelle Rankings bleiben der primäre Hebel für AI Visibility bei Google.

Die JavaScript-Problematik

97% aller Websites nutzen JavaScript, aber die meisten AI Crawler können JavaScript nicht rendern.

Ohne Server-Side Rendering (SSR), Static Site Generation (SSG) oder entsprechende Rendering-Lösungen bleiben JavaScript-lastige Sites für viele AI-Systeme praktisch unsichtbar. Single-Page Applications (SPAs) ohne SSR haben hier ein strukturelles Problem, das nichts mit Content-Qualität zu tun hat.

Branchenspezifische Unterschiede: Wo AI Search bereits relevant ist

Die Relevanz von AI Search variiert massiv je nach Branche.

Hohe Priorität: Sofortiges Handeln erforderlich

B2B Technology & SaaS

  • AI Overviews bei 70 % der SERPs (Anstieg von 36 % in Mai 2024)
  • ChatGPT generiert 7,8 Mio. + Sessions zu IT- und Software-Development-Sites
  • Komplexe Produkte und informationsintensive Inhalte begünstigen AI-Intermediation

Healthcare & Medical

  • Top-4-Branche bei AI Overview-Präsenz
  • 52,2 % der ChatGPT-Queries sind informational (vs. 36,4 % bei Google)
  • Deutsche Healthcare-Regulierungen machen informationalen Content zum primären Marketing-Tool

Versicherungen

  • 63 % AI Overview-Präsenz (von 17 % in Mai 2024)
  • 271 % Wachstum - höchste Rate neben B2B Tech
  • Research-intensive Kaufentscheidungen begünstigen AI-Zusammenfassungen

Professional Services (Recht, Consulting, Steuerberatung)

  • 79 % der Rechtsanwälte nutzen bereits AI in der Praxis
  • Lange Überlegungsphasen (6+ Wochen Research) bedeuten AI-dominierte Research-Phase

B2B Mittelstand-Hersteller

  • Moderate bis hohe Relevanz
  • Technische Dokumentationen werden zunehmend AI-zusammengefasst

Alle genannten Branchen verbindet dasselbe Muster: Lange Recherchephasen, erklärungsbedürftige Produkte oder Dienstleistungen und ein hoher Anteil informationaler Queries in der Customer Journey. Genau das macht sie anfällig für AI-Intermediation.

Niedrige Priorität: Traditionelles SEO bleibt effektiv

E-Commerce & Retail

  • Nur 4 % AI Overview-Präsenz (gesunken von 29 % beim Launch!)
  • Transaktionaler Intent dominiert
  • AI Overviews erscheinen nur bei 10 % kommerzieller bzw. transaktionaler Queries

Lokale Dienstleistungen

  • Nur 7 % AI Overview-Präsenz
  • Local Pack dominiert mit 70 % der Klicks
  • Geografische Nähe bleibt primärer Ranking-Faktor

Transaktionales oder navigationales Intent widersetzt sich AI-Disruption strukturell. Nutzer wollen kaufen, vergleichen oder einen konkreten Anbieter finden, nicht recherchieren. Produktbilder, Bewertungen, Preise und lokale Integration (Local Pack, Maps) sind Bereiche, die Textantworten nicht abbilden können.

Die B2B vs. B2C Kluft

B2B-Unternehmen erleben 2-3x höheren AI-Search-Impact als B2C. Die Gründe:

  • Längere Verkaufszyklen = mehr Research-Touchpoints
  • Komplexe Produkte = informationsintensiver Content
  • Multiple Entscheider = mehr informationale Queries

Eine bemerkenswerte Zahl: 77,35 % des LLM-Referral-Traffic geht zu Blog-Posts, Produktseiten erhalten unter 0,5 %. Wer AI Visibility anstrebt, muss in Bildungscontent investieren, das gilt für B2B mehr als für irgendjemand sonst.

Query-Type-Muster: Was AI übernimmt vs. was bei Google bleibt

Hohe AI-Nutzung:

  • Informationale Queries (52,2 % bei ChatGPT vs. 36,4 % bei Google)
  • Komplexe Long-Tail-Queries (8+ Wörter sind 7x wahrscheinlicher für AI Overviews)
  • Vergleichs- und Research-Queries

Niedrige AI-Nutzung:

  • Transaktionale Queries (nur 10 % AI Override-Präsenz)
  • Navigationale Queries (50 % aller Google-Suchen, nur 34 % bei ChatGPT)
  • Lokalebzw. geografische Queries

Eine deutsche Besonderheit: Die Präferenz für Preisvergleichsseiten wie Idealo oder Check24 erhält traditionelles Suchverhalten zusätzlich aufrecht.

Die mittelfristige Perspektive: 1–5 Jahre im DACH-Raum

Ein Blick in meine Kristallkugel.

2025–2026: Aktueller Stand und unmittelbare Entwicklung

Erwartete Entwicklungen:

  • Google behält 90 %+ Marktanteil in Deutschland
  • AI-Traffic wächst auf 0,3 - 0,5 % des gesamten Website-Traffics
  • ChatGPT konsolidiert Dominanz unter AI-Tools, Gemini holt bei Referral-Traffic auf (Sep–Nov 2025 bereits +388 % YoY gegenüber ChatGPTs +52 %)
  • AI Overviews expandieren, bleiben aber primär bei informationalen Anfragen
  • 44 % der Deutschen nutzen generative AI (leichter Anstieg)

Realistische Einschätzung: Bis zu einem spürbaren Traffic-Shift von 3–5 % haben die meisten Unternehmen noch 2 - 3 Jahre. Das ist kein Grund zur Panik, aber auch kein Argument, das Thema auf die lange Bank zu schieben.

2026–2027: Beschleunigte Adoption

  • AI-Traffic erreicht 1-2 % des totalen Website-Traffics
  • 30-40 % der Gen Z und Millennials nutzen AI als primäre Suchmethode
  • Googles Marktanteil sinkt auf 88–90 % in Deutschland
  • Enterprise-Adoption beschleunigt sich im B2B-Sektor
  • Lokale und transaktionale Suchen bleiben Google-dominiert

2028–2030: Neue Balance

  • AI-Traffic potenziell bei 5 - 10 % des gesamten Website-Traffics
  • Google behält 75 - 85 % Marktanteil, von Verdrängung kann keine Rede sein
  • Hybrid-Suchverhalten wird zur Norm
  • Informationale Queries shiften zu 40 - 50 % zu AI
  • Kommerzielle und lokale Queries bleiben zu 80 %+ bei Google
  • Industry 4.0 treibt B2B AI-Search-Adoption im DACH-Raum

Kritische Faktoren für Deutschland:

✅  Beschleunigend: EU AI Act schafft Vertrauensrahmen, 5 Mrd. Euro AI-Investition der Bundesregierung, hohe Englischkompetenz ermöglicht optimale AI-Tool-Nutzung, Industry-4.0-Leadership.

❌ Bremsend: Datenschutzbedenken (DSGVO-Kultur), 37 % der Unternehmen haben bisher nicht in AI investiert, regulatorische Unsicherheit, 52 % sehen AI negativ für menschliche Beziehungen.

Was du jetzt monitoren solltest

Traffic-Quellen analysieren

In GA4 oder deiner Analytics-Lösung:

  • ChatGPT-Traffic: Referrer chatgpt.com
  • Perplexity-Traffic: Referrer perplexity.ai
  • Gemini-Traffic: Referrer gemini.google.com
  • Microsoft Copilot: Referrer copilot.microsoft.com

Vergleiche diese Werte quartalsweise mit dem organischen Google-Traffic bzw. Direct Traffic. Und schau dir die Engagement-Metriken an: AI-Besucher verbringen laut SE Ranking-Analyse durchschnittlich 11 Minuten und 19 Sekunden auf Websites, Google-Besucher nur 6 Minuten und 24 Sekunden. Das ist eine andere Nutzerqualität.

AI Overview-Präsenz prüfen

Tools zur Überwachung von AI Overviews:

  • SEMrush (Position Tracking): AI Overview-Indikator bei Keywords
  • Ahrefs: Experimentelles AI Overview Tracking
  • Manuelles Testing: Inkognito-Suchen für wichtige Keywords

Eigene Vergleichswerte dokumentieren

Etabliere deine persönlichen Baseline-Werte:

  • Aktuelle AI-Traffic-Werte als Ausgangspunkt
  • Quartalsweise Messungen zur Trendbeobachtung
  • Wettbewerber-Monitoring (wo sichtbar)

So kannst du die Entwicklung für deine spezifische Branche nachvollziehen, unabhängig von allgemeinen Marktprognosen.

LLM-Citations manuell prüfen

Teste regelmäßig:

  • 5-10 wichtige informatorische Queries in ChatGPT
  • Gleiche Queries in Perplexity
  • Gleiche Queries in Google (für AI Overviews)
  • Dokumentiere: Wird deine Site zitiert? Wenn ja, welcher Content?

Fazit: Evolutionär, nicht revolutionär

Die Daten zeigen ein klares Bild: AI Search ist real, wächst, aber entwickelt sich deutlich langsamer als die mediale Aufmerksamkeit suggeriert. Der nächste spürbare Traffic-Shift kommt, aber er gibt dir Zeit für eine strukturierte Strategie statt Panik-Aktionismus.

Was jetzt zählt: AI-Traffic in deinen Analytics sichtbar machen, Baselines setzen, B2B-Content für informationale Queries optimieren und verstehen, dass traditionelles SEO weiterhin das Fundament für AI Visibility ist. Kein neues Playbook, kein kompletter Strategieschwenk. Solide Grundlagenarbeit, konsequent weitergeführt.

Im nächsten Teil dieser Serie (Q1 2026) werde ich prüfen, ob die Prognosen sich bewahrheiten oder ob Korrekturen fällig sind.


Häufige Fragen

Wie viel Traffic kommt aus AI-Tools wie ChatGPT und Perplexity in Deutschland?

Nach einer Analyse von SE Ranking über 10.000+ deutsche Websites liegt der durchschnittliche AI-Traffic-Anteil bei 0,13%. ChatGPT führt mit 0,0990%, Perplexity kommt auf 0,0283%, Google Gemini auf 0,0040%. Eine aktuellere DACH-Studie mit 63.987 Websites (Januar–April 2025) zeigt den Anteil bereits bei 0,15%. Für die meisten Websites ist AI damit noch ein Nischenkanal, der aber schnell wächst.

Ist SEO noch relevant, wenn AI-Suchtools wie ChatGPT immer beliebter werden?

Ja, und zwar aus einem konkreten Grund: 52–60% der AI Overview-Zitationen bei Google stammen aus den organischen Top 10. ChatGPT wählt primär aus den ersten 20 Suchergebnissen von Bing. Traditionelles SEO ist damit nicht das Gegenteil von AI Visibility, sondern deren Grundlage. Wer gut rankt, wird auch häufiger zitiert.

Was sind AI Overviews und wie beeinflussen sie den Website-Traffic?

Google AI Overviews sind KI-generierte Zusammenfassungen, die oberhalb der organischen Suchergebnisse erscheinen. Sie reduzieren die Klickrate (CTR) um 20–40% in den Bereichen, wo sie erscheinen, da Nutzer die Antwort bereits auf der Suchergebnisseite erhalten. Derzeit erscheinen sie bei ca. 17% der deutschen Keywords, primär bei informationalen Anfragen. In Googles eigenem AI Mode enden sogar 93% der Suchen ohne Klick auf externe Seiten.

Welche Branchen sind von AI Search am stärksten betroffen?

B2B Technology & SaaS zeigt mit 70% AI Overview-Präsenz die höchste Betroffenheit. Versicherungen folgen mit 63% (Wachstum von 271% seit Mai 2024). Healthcare, Recht und Professional Services sind ebenfalls stark betroffen. E-Commerce hat hingegen nur 4% AI Overview-Präsenz, lokale Dienstleistungen 7%. Der entscheidende Unterschied: Branchen mit langen Recherchephasen und informationsintensiven Produkten verlieren früher Traffic an KI-Systeme.

Wie funktioniert RAG (Retrieval-Augmented Generation) bei AI-Suchtools?

RAG ist der technische Kern moderner AI-Suchtools. Inhalte werden in 200–500 Token große Textabschnitte (Chunks) zerlegt und als semantische Vektoren gespeichert. Bei einer Suchanfrage wird diese ebenfalls vektorisiert und mit den gespeicherten Chunks per Cosinus-Ähnlichkeit verglichen. Die relevantesten Chunks werden als Kontext an das LLM übergeben, das daraus eine Antwort generiert. Klar strukturierter Content mit direkten Antworten hat in diesem System strukturell bessere Chancen, zitiert zu werden.

Wie kann ich AI-Traffic in Google Analytics messen?

n GA4 trackst du AI-Traffic über die Referrer-Quellen: chatgpt.com für ChatGPT, perplexity.ai für Perplexity, gemini.google.com für Gemini und copilot.microsoft.com für Microsoft Copilot. Erstelle ein Segment oder eine benutzerdefinierte Dimension, um diese Quellen quartalsweise zu vergleichen. Wichtig: Google AI Overviews tauchen in diesen Daten nicht auf, da sie innerhalb von Google.com verbleiben.


Hast du andere Traffic-Werte in deinen Analytics? Diskrepanzen zwischen Branchen? Ich freue mich über Feedback und deine Beobachtungen in den Kommentaren oder per E-Mail.

Quellen:

Aktualisiert am 5 März 2026

Kommentare