Aktualisiert am 26 März 2026

Von ChatGPT empfohlen werden: Was hinter AI Visibility wirklich steckt

Die meisten Strategien messen das Falsche und nennen es Fortschritt. Hier ist, was Citations, Mentions und Recommendations tatsächlich bedeuten und welche Hebel für ein KMU wirklich zählen.

Das Wichtigste zuerst

  • Es gibt vier verschiedene Arten, in KI-Antworten aufzutauchen: Mentions, Citations, Recommendations und parametrische Präsenz. Sie funktionieren nach unterschiedlichen Mechanismen und erfordern unterschiedliche Maßnahmen.
  • ChatGPT empfiehlt Anbieter primär aus seinem Trainingsgedächtnis, nicht aus dem, was es gerade im Netz findet. Citations sind in vielen Fällen nachträgliche Rationalisierung, kein Beweis für tatsächliche Quellennutzung.
  • Perplexity, Google AI Overviews und ChatGPT mit aktivierter Websuche arbeiten anders als reines ChatGPT: Sie rufen Seiten in Echtzeit ab. Hier ist klassische Suchsichtbarkeit direkt relevant.
  • Citation-Dashboards messen das Retrieval-Layer, nicht das Trainingsgedächtnis. Das ist kein Messfehler, sondern ein Verständnisproblem.
  • Für ein KMU ist die wirksamste Strategie nicht neu: Konsistente, breit verteilte Inhalte auf autoritativen Plattformen. Der Mechanismus dahinter hat sich geändert, die Grundlogik nicht.
  • Was sich lohnt zu messen: Nicht Citation-Häufigkeit, sondern ob du bei konkreten kaufentscheidungsrelevanten Anfragen tatsächlich empfohlen wirst.

Warum dein Google-Ranking dich bei ChatGPT nicht rettet

Stell dir vor, ein potenzieller Kunde sucht einen IT-Dienstleister für sein mittelständisches Unternehmen in deiner Region. Er fragt nicht mehr Google. Er fragt ChatGPT: "Welche IT-Dienstleister im Raum Stuttgart sind für mittelständische Unternehmen empfehlenswert?"

ChatGPT nennt drei Namen. Deiner ist nicht dabei.

Du rankst auf Seite 1 bei Google für dein Hauptkeyword. Du hast 47 Google-Bewertungen mit 4,8 Sternen. Du hast eine gepflegte Website. Trotzdem: Nicht dabei.

Das ist kein theoretisches Szenario. Es ist für viele KMU bereits Alltag. Und es wird häufiger, je mehr die KI-Nutzung steigt. Laut einer TÜV-Studie vom November 2025 nutzen in Deutschland bereits 65 % der Bevölkerung KI-Tools, bei den unter 29-Jährigen sind es 92 %. Unter den verwendeten Chatbot-Plattformen liegt ChatGPT weit vorne.

Entscheidend ist dabei, für welche Art von Anfragen KI-Systeme eingesetzt werden. Wer nach einer Pizzeria für heute Abend sucht, fragt Google Maps oder schaut auf Lieferando. Wer einen IT-Dienstleister, einen Steuerberater, eine Unternehmensberatung oder einen Spezialisten für ein konkretes Problem sucht, fragt zunehmend ChatGPT. Das sind genau die erklärungsbedürftigen, vergleichsintensiven Anfragen, bei denen früher eine Google-Suche mit fünf offenen Tabs stattfand. Heute gibt es eine Antwort. Oft mit zwei, drei Anbieternamen. Wer nicht dabei ist, existiert für diesen Kunden in diesem Moment nicht.

Das Problem: Die meisten Empfehlungen, die du gerade zu diesem Thema liest, erklären nicht, warum das passiert. Sie verkaufen dir stattdessen, was du tun sollst. Backlinks aufbauen. Reddit-Erwähnungen sichern. Wikipedia-Einträge. Citations erhöhen. Das ist nicht falsch, aber es greift zu kurz. Und teils optimiert es am falschen System.

Dieser Artikel erklärt dir den Mechanismus. Wer den Mechanismus versteht, kann Maßnahmen priorisieren, statt blind das Budget zu verteilen.


Die vier Begriffe, die du kennen musst

Bevor wir in die Strategie gehen, brauchen wir saubere Begriffe. In der Branche werden Mentions, Citations, Recommendations und parametrische Präsenz oft synonym verwendet. Das sind sie nicht. Jeder Begriff beschreibt einen anderen Zustand, entsteht durch einen anderen Mechanismus und reagiert auf andere Hebel.

Mention (Erwähnung): Dein Markenname oder Unternehmensname taucht in einer KI-Antwort auf, irgendwo, irgendwie, ohne dass eine URL oder eine Kaufempfehlung damit verbunden ist. Das Modell "weiß", dass du existierst.

Citation (Quellenangabe): Eine konkrete URL aus deiner Domain wird als Beleg in der Antwort angezeigt. Das Modell behauptet damit, diese Seite für die Antwort genutzt zu haben. Ob das stimmt, hängt davon ab, welches System im Hintergrund läuft (dazu gleich mehr).

Recommendation (Empfehlung): Das Modell schlägt dich aktiv als Lösung für eine konkrete Anfrage vor, typischerweise als Antwort auf eine Kaufentscheidungs- oder Anbieterfrage. Das ist der Zustand, der für dein Geschäft zählt.

Parametric Presence (Trainingsdatenpräsenz): Deine Inhalte wurden beim Training des Modells verarbeitet und sind als statistische Muster in den Modellgewichten gespeichert. Unsichtbar, nicht verlinkbar, kein Timestamp. Aber genau hier wird die Grundlage für Empfehlungen gelegt.

Begriff Was es bedeutet Wie es entsteht Was es für dich bedeutet
Mention Dein Name taucht in der Antwort auf Trainingsdaten oder Abruf aus dem Netz Sichtbarkeit, aber keine Konversion
Citation Eine URL aus deiner Domain wird als Quelle angezeigt Echtzeit-Abruf (RAG) oder nachträgliche Rationalisierung Abhängig vom System: real oder irreführend
Recommendation Du wirst aktiv als Lösung empfohlen Kombination aus Trainingsgedächtnis und Relevanzfilter Direkte Geschäftsrelevanz
Parametric Presence Deine Inhalte sind im Modellgedächtnis kodiert Training (Monate bis Jahre zurück) Langfristig wirksam, nicht kurzfristig steuerbar

Das Wichtige: Viele Unternehmen, die an ihrer "AI Visibility" arbeiten, messen Citations und nennen das Einfluss auf Empfehlungen. Das ist so, als würdest du Bewerbungseingang messen und daraus schließen, dass du die Stelle bekommst.


Zwei Systeme, ein Missverständnis

Hier ist die Erklärung, die du in den meisten Artikeln zu diesem Thema nicht findest. Sie ist der Schlüssel zu allem anderen.

Wenn ein KI-Modell wie ChatGPT antwortet, kann das aus zwei grundverschiedenen Quellen kommen:

System 1: Das Trainingsgedächtnis (parametrisches Wissen)

Beim Training verarbeitet das Modell riesige Mengen an Texten aus dem Netz, aus Büchern, aus Foren, aus lizenzierten Datenquellen. Diese Inhalte werden nicht gespeichert wie Dateien auf einer Festplatte. Sie werden als statistische Muster in Milliarden von Modellparametern verdichtet. Die Originalquellen verschwinden dabei, ihre Muster bleiben.

Das Ergebnis: Das Modell "weiß" Dinge, ohne zu wissen, woher es sie weiß. Es kann dir Anbieter empfehlen, ohne eine einzige URL abgerufen zu haben. Und die Inhalte, die dabei ins Modellgedächtnis eingeflossen sind, liegen Monate bis Jahre zurück. Das Trainingsgedächtnis ist zum Zeitpunkt des Gesprächs eingefroren.

System 2: Echtzeit-Abruf (RAG, also Retrieval-Augmented Generation)

Wenn das Modell mit einem Suchwerkzeug ausgestattet ist, kann es bei einer Anfrage in Echtzeit Seiten abrufen, lesen und in seine Antwort einbeziehen. Diese abgerufenen Seiten sind die Grundlage für die Citations, die du dann siehst.

Das ist ein komplett anderer Prozess als das Training. Andere Quelle, anderer Zeitstempel, andere Steuerbarkeit.

Die Metapher, die es am klarsten ausdrückt: Das Trainingsgedächtnis ist das, was schon in der Speisekammer steht. Der Echtzeit-Abruf ist das, was du gerade beim Einkaufen holst. Wenn dir ChatGPT einen Anbieter empfiehlt, kommt die Empfehlung aus der Speisekammer. Die Zutaten, die danach beim Einkaufen besorgt werden, begründen die Empfehlung nachträglich, haben sie aber nicht ausgelöst.

Das klingt abstrakt, ist aber konkret nachprüfbar. Ein Team von Optimierern hat festgestellt, dass Modelle manchmal URLs zitieren, die längst offline sind und gar nicht mehr existieren. Ein Echtzeit-System kann keine nicht-existierende Seite abrufen. Das Modell hat die URL aus dem Trainingsgedächtnis nachträglich ergänzt, um seine bereits getroffene Empfehlung zu untermauern.

Wann gilt was?

Das System, das im Hintergrund läuft, hängt davon ab, wie das Modell konfiguriert ist. Und genau das wissen die meisten Nutzer nicht.

ChatGPT ohne aktivierte Websuche (so, wie viele Nutzer es täglich verwenden): reines Trainingsgedächtnis. Citations, die hier erscheinen, sind häufig nachträgliche Rationalisierung, teils halluziniert.

ChatGPT mit aktivierter Websuche (Browsing-Tool): Echtzeit-Abruf. Die Citations sind echte Quellen, die abgerufen wurden. Aber auch hier gilt: Das Modell entscheidet erst, was es empfehlen will, und sucht dann nach Belegen. Die Citation hat die Empfehlung nicht verursacht, sie unterstützt sie.

Perplexity: Standardmäßig Echtzeit-Abruf. Fast immer RAG. Citations hier sind tatsächlich mit der Antwort verbunden. Klassische SEO-Sichtbarkeit zahlt direkt ein.

Google AI Overviews: Stark mit dem Google-Index verknüpft. RAG-basiert, mit direktem Zugriff auf den Index. Wer bei Google rankt, hat hier einen strukturellen Vorteil. Experimente zeigen, dass Inhalte, die in einem Blogartikel verlinkt werden, innerhalb von Stunden in AI Overviews auftauchen können.

Claude (Anthropic): Standardmäßig ohne Websuche. Mit aktivierter Suche RAG-augmentiert. Weniger "citation-orientiert" als Perplexity in der Standardkonfiguration.

Gemini: Je nach Kontext (Suche vs. Chat) unterschiedlich stark RAG-integriert. In Google-Suche und Google-Workspace stark vernetzt, in isolierter Chat-Nutzung ähnlich wie ChatGPT.

Plattform Standard-Modus Citations verlässlich? Hebel für KMU
ChatGPT (ohne Suche) Trainingsgedächtnis Nein, oft nachträglich Langfristig: Markenaufbau, breite Inhaltsverteilung
ChatGPT (mit Suche) RAG-augmentiert Weitgehend ja Suchsichtbarkeit für relevante Anfragen
Perplexity Fast immer RAG Ja Klassisches SEO zahlt direkt ein
Google AI Overviews RAG mit Index-Zugriff Ja Google-Ranking bleibt relevant
Claude Meist ohne Suche Nein (Standard) Parametrische Präsenz, Autorenschaft
Gemini Kontextabhängig Teilweise Google-Ökosystem-Präsenz

Was "Citation-Tracking" wirklich misst

Jetzt müssen wir über die Branche reden.

Es gibt eine wachsende Zahl von Agenturen und Tools, die "AI Visibility" als Dienstleistung anbieten. Ihr zentrales Messinstrument: Citation-Dashboards. Sie zeigen dir, wie oft deine Domain in ChatGPT-, Perplexity- und Gemini-Antworten zitiert wird, auf welchen Plattformen du erscheinst, und vergleichen das mit deinen Wettbewerbern.

Das ist nicht wertlos. Aber es wird systematisch falsch interpretiert.

Was Citation-Tracking tatsächlich misst: Wie häufig deine Seiten bei Echtzeit-Abfragen (RAG) abgerufen werden. Das ist das Retrieval-Layer-Verhalten, also wie gut dich die aktuelle Suchinfrastruktur abruft, wenn das Modell nachschaut.

Was Citation-Tracking nicht misst: Welchen Einfluss deine Inhalte auf das Trainingsgedächtnis des Modells haben. Das ist die Schicht, aus der tatsächliche Empfehlungen entstehen.

Die Trainingsgewichte sind eingefroren. Sie lassen sich durch heutige Citations nicht rückwirkend ändern.

Kurz gesagt: Du optimierst den Einkaufszettel, nicht die Speisekammer. Und Empfehlungen kommen aus der Speisekammer.

Rand Fishkins LinkedIn-Thread vom März 2026, an dem über 300 Branchenexperten beteiligt waren, hat diesen Punkt sehr klar gemacht: Das Problem sitzt nicht bei den Tools selbst. Rankscale, Peec AI und vergleichbare Plattformen messen, was sie messen: Retrieval-Layer-Verhalten, also wie oft deine Domain bei Echtzeit-Abfragen abgerufen wird, in welchem Kontext, mit welchem Sentiment. Das ist nützliche Information, solange klar ist, was sie bedeutet. Das Problem entsteht, wenn diese Metriken als Nachweis für Einfluss auf das Trainingsgedächtnis verkauft oder interpretiert werden. Der Kunde sieht steigende Citation-Zahlen und glaubt, er baue Einfluss auf das auf, was ChatGPT über ihn "denkt". Das Tool behauptet das nicht. Der Pitch tut es manchmal schon.

Das bedeutet nicht, dass Citations egal sind. Für RAG-basierte Plattformen wie Perplexity und Google AI Overviews ist deine Suchsichtbarkeit direkt relevant. Wenn du dort gut rankst, wirst du häufiger abgerufen, häufiger zitiert, und dein Brand-Framing in der Antwort hängt von deinen Inhalten ab.

Aber für die Schicht, aus der ChatGPT (ohne aktive Websuche) seine Empfehlungen zieht, hilft dir kein Citation-Dashboard. Die einzige Möglichkeit, dort Einfluss zu nehmen, ist eine langfristige, breite Inhalts- und Markenpräsenz, die in zukünftige Trainingsdaten einfließt. Einen direkten Kanal dorthin gibt es nicht. Wer dir einen verkauft, lügt.

Realitätsabgleich: So scheitert es in der Praxis

Ein Unternehmen investiert drei Monate in Citation-Aufbau: Reddit-Erwähnungen, Fachportal-Einträge, Wikipedia-Verlinkungen. Das Citation-Dashboard zeigt Fortschritt. Das Management ist zufrieden.

Dann wird geprüft, ob ChatGPT das Unternehmen tatsächlich bei kaufentscheidungsrelevanten Anfragen empfiehlt. Ergebnis: keine Veränderung. Denn das Trainingsgedächtnis hat sich nicht aktualisiert. Das war zu erwarten, ist aber nie kommuniziert worden.

Das ist kein Einzelfall, sondern eine strukturelle Fehlkalibrierung. Sie entsteht, weil Citations messbar und dashboardfähig sind, Trainings-Einfluss aber nicht.

Fishkin ist das Problem im Januar 2026 auch empirisch angegangen. Sein Team hat mit 600 Freiwilligen 2.961 Prompts durch ChatGPT, Claude und Google AI laufen lassen und dabei untersucht, ob KI-Tools konsistent genug sind, um valide Visibility-Metriken zu liefern.

Das Ergebnis: Weniger als 1 von 100 Durchläufen lieferte dieselbe Markenliste, weniger als 1 von 1.000 dieselbe Liste in derselben Reihenfolge. KI-Empfehlungen sind keine deterministischen Rankings, sondern Wahrscheinlichkeitsziehungen aus einem Kandidatenpool.

Was sich als stabil herausstellte, war nicht die Reihenfolge, sondern ob eine Marke überhaupt im Pool auftaucht.

Das ist eine andere Frage als Citation-Häufigkeit, und sie verlangt andere Maßnahmen. Die vollständige Studie ist auf sparktoro.com veröffentlicht.


Was für ein KMU wirklich den Unterschied macht

Gute Nachricht: Die wirksamste Strategie ist nicht neu. Sie ist nur mit einem anderen Mechanismus begründbar als früher.

Der Kern ist dieser: Mach deine Marke zur risikoärmsten Antwort. Nicht zur sichtbarsten, nicht zur lautesten, sondern zur konsistentesten und zuverlässigsten.

KI-Modelle neigen dazu, die Antwort zu geben, bei der die Wahrscheinlichkeit eines Fehlers am geringsten ist. Ein Anbieter, der auf vielen unabhängigen, autoritativen Quellen in konsistentem Kontext beschrieben wird, ist eine sichere Antwort.

Das bedeutet konkret:

Konsistenz über alle Plattformen. Was ChatGPT über dein Unternehmen weiß, stammt aus dutzenden Quellen, die beim Training verarbeitet wurden: deine Website, Fachportale, Bewertungsplattformen, Branchenverzeichnisse, Presseerwähnungen, Interviewartikel. Wenn diese Quellen dich unterschiedlich beschreiben (andere Leistungsbeschreibung, andere Zielgruppe, anderer Schwerpunkt), ist dein Brand-Signal diffus. Das Modell kann keine klare Aussage über dich machen, also macht es gar keine.

Tiefe, nicht Breite beim Content. Oberflächliche Inhalte, die Keywords erfüllen, helfen wenig. Inhalte, die eine Frage so vollständig und spezifisch beantworten, dass ein Nutzer keine weitere Quelle braucht, haben eine deutlich höhere Wahrscheinlichkeit, sowohl in RAG-Systemen abgerufen als auch in Trainingskorpora verarbeitet zu werden.

Autorenschaft und Expertenpräsenz. KI-Modelle verarbeiten nicht nur Unternehmens-Content, sondern auch persönliche Expertise. Wer als Autor auf Fachportalen, in Interviews, in Podcasts präsent ist, baut parametrische Präsenz auf einer zweiten Ebene auf: der Personenebene. Das ist für Einzelpersonen und kleine Unternehmen oft der direkteste Weg.

Echtzeit-Sichtbarkeit für RAG-Systeme sichern. Für Perplexity und Google AI Overviews gilt: Du musst abrufbar sein, wenn das System nachschlägt. Das bedeutet, für relevante Anfragen in deiner Nische bei Google zu ranken. Nicht auf Position 1 zwingend, aber sichtbar genug, um in den Abruf-Pool zu geraten.

Entity-Klarheit. Das Modell muss verstehen, wer du bist, was du anbietest, für wen, wo. Eine Grounding Page, ein vollständiges Google Business Profile, saubere Schema.org-Auszeichnung, ein Wikipedia-Eintrag falls relevant: das sind keine optionalen Nice-to-haves, sondern die Grundlage dafür, dass das Modell dich überhaupt als eindeutige Entität erkennt.

Was einen KMU von Großunternehmen unterscheidet

Große Marken haben einen natürlichen Vorteil: Sie sind in so vielen Quellen präsent, dass ihre parametrische Präsenz sich fast von selbst ergibt. Als KMU kannst du das nicht durch Masse kompensieren.

Dein Vorteil ist Nische und Konsistenz. In einer engen geografischen Region oder einer spezifischen Branche kann ein KMU so dominant und konsistent präsent sein, dass das Modell keine andere Wahl hat, als dich zu nennen. Ein Steuerberater, der für "Steuerberatung für Freiberufler in Freiburg" auf fünf unabhängigen Quellen mit identischer Beschreibung auftaucht, ist für diese Anfrage die sichere Antwort.


Messung und Monitoring

Das Problem mit der Messung: Es gibt kein direktes Werkzeug, das dir zeigt, ob du im Trainingsgedächtnis eines Modells präsent bist. Das ist strukturell unmöglich, weil die Gewichte eines Modells nicht interpretierbar sind auf dieser Granularitätsstufe.

Was du stattdessen messen kannst und solltest:

Prompt-Testing: Formuliere 10 bis 15 kaufentscheidungsrelevante Anfragen, die deine potenziellen Kunden stellen würden. Teste sie regelmäßig (mindestens monatlich) auf ChatGPT, Perplexity und Google AI Overviews. Notiere, ob du genannt wirst, in welchem Kontext, mit welcher Wertung, und wer stattdessen genannt wird. Das ist kein automatisiertes Dashboard, aber es ist das, was tatsächlich zählt.

Share of Voice in AI-Antworten: Für wie viele relevante Anfragen in deiner Nische wirst du genannt, im Verhältnis zu deinen direkten Wettbewerbern? Das ist dein AI Share of Voice. Einige spezialisierte Tools beginnen, das zu messen, etwa Peec AI oder vergleichbare Plattformen. Die Qualität der Messung variiert stark je nach Modell und Query-Set.

Recommendation Quality Score: Wirst du nur erwähnt, oder wirst du empfohlen? Wirst du bei allgemeinen Anfragen genannt, aber aus der Shortlist gefiltert, sobald der Nutzer Einschränkungen hinzufügt ("...im Raum München", "...mit Erfahrung in SaaS")? Das ist die wichtigere Frage als die bloße Mentions-Häufigkeit.

Baseline und Intervall: Nimm heute eine Baseline auf. Dokumentiere dein aktuelles Prompt-Testing-Ergebnis, bevor du Maßnahmen startest. Maßnahmen brauchen Vorlaufzeit, besonders für parametrische Effekte. Rechne mit drei bis sechs Monaten, bevor messbare Veränderungen sichtbar werden.

KPI Was es misst Werkzeug Messintervall
Prompt-Test-Ergebnis Ob du bei kaufrelevanten Anfragen empfohlen wirst Manuell (ChatGPT, Perplexity, AI Overviews) Monatlich
AI Share of Voice Dein Anteil an Empfehlungen vs. Wettbewerber Manuell oder spezialisierte Tools Quartalsweise
Recommendation Quality Ob du bei eingeschränkten Anfragen übrig bleibst Manuell, Prompt-Variationen Quartalsweise
Citation Rate (RAG-Systeme) Wie oft du als Quelle abgerufen wirst Peec AI, BrandMentions o.ä. Monatlich
Konsistenz-Check Ob deine Beschreibung über Quellen hinweg einheitlich ist Manuell, Grounding Page Audit Halbjährlich

Fallbeispiel: IT-Dienstleister, gut bei Google, unsichtbar bei ChatGPT

Nehmen wir ein konkretes Szenario. Ein IT-Dienstleister aus dem Stuttgarter Raum, 15 Mitarbeiter, spezialisiert auf Microsoft 365-Implementierungen für mittelständische Kanzleien und Beratungsunternehmen. Google-Ranking: Seite 1 für "IT-Dienstleister Stuttgart", diverse Long-Tail-Keywords. Gute Bewertungen, aktive Website.

Bei der Frage "Welche IT-Dienstleister in Stuttgart sind auf Microsoft 365 für Beratungsunternehmen spezialisiert?" nennt ChatGPT (ohne Websuche) drei andere Namen. Keiner davon ist der Marktführer in der Region.

Was ist passiert?

Erstens: ChatGPT ohne Websuche zieht aus dem Trainingsgedächtnis. Das Trainingsgedächtnis wurde vor Monaten aktualisiert. Die Inhalte, die damals in den Trainingskorpus geflossen sind, stammten aus den relevantesten, am häufigsten verlinkten und am weitesten verteilten Quellen. Wenn der IT-Dienstleister bis dato primär über seine eigene Website kommuniziert hat, ist sein Trainingssignal dünn.

Zweitens: Die Spezifizierung "für Beratungsunternehmen" ist ein Filter. Wer diese Spezialisierung nicht explizit und konsistent in mehreren unabhängigen Quellen beschrieben hat, fällt beim Relevanzfilter raus.

Was hilft: ein Gastbeitrag in einem Fachmagazin für Unternehmensberatung, das die Spezialisierung beschreibt. Ein Interview auf einem relevanten Branchenpodcast. Eine Fallstudie, die auf dem eigenen Blog veröffentlicht und von einer Branchenplattform aufgegriffen wird. Ein Eintrag in einem spezialisierten Anbieterverzeichnis mit konsistenter Beschreibung. Und eine Grounding Page auf der eigenen Website, die die Entität eindeutig definiert.

Keine dieser Maßnahmen liefert einen Citation in einem Dashboard. Alle wirken auf das, was tatsächlich zählt.

Zeitrahmen bis zur messbaren Verbesserung beim Prompt-Test: vier bis acht Monate, je nach Modell-Update-Zyklus.


60-Minuten-Checkliste: Dein AI Visibility Basis-Audit

Schritt 1: Bestandsaufnahme (20 Minuten)

Formuliere 10 Anfragen, die deine Zielkunden an ChatGPT stellen würden. Beispiele:

  • "[Deine Dienstleistung] in [deiner Region]"
  • "Wer ist empfehlenswert für [dein Spezialsegment] in [deiner Branche]?"
  • "Wie löse ich [konkretes Problem deiner Zielgruppe]?" (ohne Regionalisierung)

Teste jede Anfrage auf ChatGPT (ohne Websuche) und auf Perplexity. Notiere: Wirst du genannt? Falls ja, wie? Falls nein, wer statt dir?

Schritt 2: Konsistenz-Audit (15 Minuten)

Rufe deine fünf wichtigsten externen Quellen auf: Google Business Profile, wichtigstes Branchenverzeichnis, LinkedIn-Unternehmensseite, wichtigste Bewertungsplattform, Presseartikel (falls vorhanden). Stimmt die Beschreibung deines Unternehmens überall überein? Gleiche Leistungsbeschreibung, gleiche Spezialisierung, gleiche Zielgruppe?

Schritt 3: Entity-Check (10 Minuten)

Gibt es eine strukturierte Seite auf deiner Website, die klar beschreibt: Wer bist du, was bietest du an, für wen, in welcher Region, seit wann, mit welchen Nachweisen? Wenn nicht: Das ist deine erste Priorität (Grounding Page).

Schritt 4: Lückenanalyse (15 Minuten)

Wo ist deine Spezialisierung von unabhängigen Quellen bestätigt? Listet ein Fachportal, ein Magazin, ein Branchenblog deine Expertise in deinem Kernsegment? Falls nicht: Das ist deine zweite Priorität.


FAQ

Was ist der Unterschied zwischen Citation und Recommendation?

Eine Citation ist eine URL, die als Quelle in einer KI-Antwort angezeigt wird. Eine Recommendation ist eine aktive Empfehlung des Modells, dein Unternehmen für eine konkrete Anfrage in Betracht zu ziehen. Citations und Recommendations hängen zusammen, sind aber nicht dasselbe. Ein Modell kann dich zitieren, ohne dich zu empfehlen. Es kann dich empfehlen, ohne dich zu zitieren.

Warum erscheine ich bei Perplexity, aber nicht bei ChatGPT?

Perplexity arbeitet standardmäßig mit Echtzeit-Abruf (RAG). Wenn du für relevante Anfragen bei Google rankst, wirst du dort regelmäßig abgerufen und zitiert. ChatGPT ohne aktivierte Websuche nutzt dagegen sein Trainingsgedächtnis. Das wurde vor Monaten aktualisiert. Wenn du dort nicht präsent bist, hilft dir dein aktuelles Google-Ranking kurzfristig nicht.

Hilft Reddit wirklich?

Reddit erscheint häufig in Citation-Dashboards, weil es ein stark crawlbares, diskursives Medium ist und von vielen RAG-Systemen häufig abgerufen wird. Das bedeutet aber nicht, dass ein Reddit-Post über dein Unternehmen dich in ChatGPT-Empfehlungen bringt. Der Effekt ist plattformspezifisch (Perplexity ja, ChatGPT ohne Suche nein) und inhaltsspezifisch (eine sachliche, nützliche Diskussion über dein Fachthema hilft, eine Eigenwerbung nicht).

Was ist eine Grounding Page und brauche ich eine?

Eine Grounding Page ist eine strukturierte Seite auf deiner Website, die dein Unternehmen als Entität eindeutig definiert: Name, Leistungen, Region, Spezialisierung, Nachweise, Verlinkung zu externen Bestätigungsquellen. KI-Modelle brauchen konsistente, strukturierte Fakten, um dich als eindeutigen Anbieter zu klassifizieren. Wenn das auf deiner Website fehlt, ist dein Entitätssignal schwach.

Wie lange dauert es, bis Maßnahmen wirken?

Für RAG-basierte Systeme (Perplexity, Google AI Overviews) können Effekte innerhalb von Wochen messbar sein, weil die Inhalte in Echtzeit abgerufen werden. Für das Trainingsgedächtnis von ChatGPT und ähnlichen Modellen ist der Zeithorizont deutlich länger: Modelle werden nach aktuellem Stand unregelmäßig mit neuen Trainingsdaten aktualisiert, ohne fixen Rhythmus und ohne publizierten Zeitplan. Maßnahmen, die heute umgesetzt werden, können frühestens beim nächsten Modell-Update wirken.

Kann ich mit Prompt Injection oder manipulierten Meta-Daten mein Ranking beeinflussen?

Solche Taktiken werden diskutiert, sind aber für legitime Unternehmen keine relevante Strategie. Abgesehen davon, dass sie gegen die Nutzungsbedingungen der Plattformen verstoßen, funktionieren sie für RAG-Systeme bestenfalls kurzfristig und für das Trainingsgedächtnis gar nicht.

Was ist der einfachste erste Schritt für ein KMU ohne großes Budget?

Starte mit dem Konsistenz-Audit: Prüfe, ob dein Unternehmen auf allen wichtigen externen Plattformen mit identischer Beschreibung, identischen Leistungen und identischer Zielgruppenformulierung präsent ist. Das kostet nichts außer Zeit und hat einen direkten Effekt auf die Entity-Klarheit, die Modelle bei der Klassifizierung nutzen.

Sollte ich ein AI Visibility Tool kaufen?

Für die meisten KMU ist manuelles Prompt-Testing der sinnvollere Einstieg. Ein strukturiertes Set von 10 bis 15 kaufentscheidungsrelevanten Anfragen, das du einmal im Monat testest, liefert dir mehr handlungsrelevante Information als ein Citation-Dashboard, das dir Retrieval-Layer-Verhalten zeigt und als Trainings-Einfluss verkauft. Spezialisierte Tools werden sinnvoll, wenn du den Prozess skalieren willst oder mehrere Wettbewerber systematisch beobachten musst.


Fazit

Von ChatGPT empfohlen zu werden ist kein Button, den du drückst. Es ist auch kein Dashboardwert, den du durch Citation-Aufbau nach oben treibst.

Es ist das Ergebnis eines langen, konsistenten Signals. Das Modell empfiehlt, was es kennt, was es mehrfach und konsistent in verlässlichen Quellen gesehen hat, und was das geringste Risiko trägt, falsch zu sein. Das gilt für das Trainingsgedächtnis, das Empfehlungen generiert. Und es gilt für den Echtzeit-Abruf, der diese Empfehlungen mit aktuellen Quellen unterlegt.

Der praktische erste Schritt ist nicht kompliziert: Beschreib dein Unternehmen überall gleich. Bau externe Bestätigung deiner Spezialisierung auf. Miss, ob du bei kaufentscheidungsrelevanten Anfragen tatsächlich empfohlen wirst, nicht, wie oft du zitiert wirst.

Und wenn dir jemand ein Dashboard verkaufen will, das dir zeigt, wie gut du "von ChatGPT gefunden wirst", frag zuerst: Was misst das genau? Das Retrieval-Layer-Verhalten oder das Trainingsgedächtnis? Wer die Frage stellt, hat verstanden, was hier eigentlich gespielt wird.

Aktualisiert am 26 März 2026

Kommentare