Aktualisiert am 16 April 2026

Googles Spam-Definition schützt ein Geschäftsmodell, nicht die Nutzer

Was zwei US-Gerichtsurteile, laufende EU-Verfahren und dokumentierte Traffic-Verluste über Googles Qualitätsbegriff verraten. Und was du konkret tun kannst, bevor das nächste Update entscheidet.

Das Wichtigste auf einen Blick

  • Google definiert Spam offiziell als Täuschung von Nutzern und Manipulation von Ranking-Systemen. In der Praxis wirken die Updates so, dass kleine und unabhängige Publisher existenziell getroffen werden, während Googles eigene Produkte und strategische Partner massiv Sichtbarkeit gewinnen.
  • Der entscheidende Befund stammt nicht aus einem SEO-Blog, sondern aus US-Bundesgerichten: Google wurde in zwei separaten Verfahren rechtskräftig als Monopolist verurteilt. Die EU führt parallel DMA-Verfahren, darunter seit November 2025 explizit gegen Googles Spam-Policy.
  • Das Helpful Content Update (HCU) funktionierte in der Praxis als Marken-Stärke-Filter, nicht als Content-Qualitäts-Filter. Kleine Sites verloren nicht wegen schlechter Inhalte, sondern wegen zu geringer Markenbekanntheit.
  • Der Forbes-Effekt ist der härteste dokumentierte Beleg für selektive Durchsetzung: große Publisher bekamen zwei Monate Vorlauf, bevor die Site-Reputation-Abuse-Policy griff. Kleine Sites wurden ohne Vorwarnung algorithmisch bestraft.
  • YouTube, Reddit und Shopify profitieren strukturell von genau den SERP-Veränderungen, die kleine unabhängige Sites vernichtet haben. In allen drei Fällen gibt es finanzielle oder strategische Verflechtungen mit Google.
  • Die Handlungsempfehlung ist keine Panik-Reaktion: Traffic-Diversifikation ist eine betriebswirtschaftliche Grundentscheidung, keine SEO-Maßnahme. Wer heute ausschließlich von Google-Traffic abhängt, sitzt auf einem Risiko, das Gerichte und Regulierer inzwischen offiziell als Marktmacht-Missbrauch einordnen.

Bevor wir anfangen: Was das hier ist und was nicht

Dieser Artikel ist keine Anklage. Er ist auch kein Aufruf zur Google-Abstinenz.

Charles Floate, bekannter SEO-Praktiker, hat auf X formuliert: „I've been saying for years that Google's definition of 'spam' is small sites competing with THEIR investments, preferred partners and interests." Das ist eine zugespitzte These, die man leicht als Verschwörungserzählung abtun kann.

Das Problem: Die belegbaren Fakten stützen die Grundstruktur dieser Aussage. Nicht als nachgewiesene Absicht, aber als nachgewiesene Wirkung. Und zwischen Absicht und Wirkung ist in einer marktrechtlichen Bewertung weniger Unterschied, als Google gern hätte.

Was du in diesem Artikel findest: eine strukturelle Analyse mit Quellen, konkrete Muster aus dokumentierten Fällen, und am Ende eine pragmatische Empfehlung. Nicht: Panik, Rauswurf aus dem Index, SEO ist tot.


Was Google offiziell unter Spam versteht

Googles Spam-Richtlinien gelten laut offiziellem Wortlaut für alle Inhalte in der Websuche, ausdrücklich eingeschlossen die eigenen Properties von Google. Spam ist demnach alles, was Nutzer täuscht oder Ranking-Systeme manipuliert.

Konkret benennt Google folgende Praktiken:

  • Scaled Content Abuse: massenhaft erstellte Inhalte, primär zum Ranking-Zweck, unabhängig davon, ob sie von Menschen, KI oder automatisierten Systemen erzeugt werden.
  • Site Reputation Abuse: Drittanbieter-Content auf Domains mit hoher Autorität, der deren Vertrauenswürdigkeit ausnutzt, um minderwertige Inhalte durchzusetzen.
  • Expired Domain Abuse: Missbrauch abgelaufener Domains, um über alte Ranking-Signale neue, qualitätsschwache Inhalte hochzuziehen.
  • Link Spam: Kauf und Verkauf von Links zur Ranking-Beeinflussung ohne rel="nofollow" oder rel="sponsored".

Das klingt vernünftig. Und es ist vernünftig, in dem Maß, in dem es konsequent und symmetrisch durchgesetzt wird.

Genau das ist der Punkt, an dem die offizielle Beschreibung und die beobachtbare Realität auseinandergehen.


Der eigentliche Mechanismus: Das HCU war kein Qualitätsfilter

Im August 2022 führte Google das Helpful Content Update ein. Der Name versprach eine neue Richtung: Inhalte, die für Menschen geschrieben sind, sollen besser ranken als Inhalte, die primär für Suchmaschinen optimiert sind. Das klingt nach einer sinnvollen Maßnahme.

Was ab September 2023 tatsächlich passierte, war etwas anderes.

Tom Capper, Analyst bei Moz, wertete die Daten der von HCU betroffenen Sites aus und kam zu einem Befund, der die offizielle Erzählung fundamental erschüttert: Negativ betroffene Sites hatten im Durchschnitt einen Brand Authority Score von 37. Nicht betroffene Sites lagen bei 50 bis 52. Der HCU-Classifier unterschied demnach nicht nach Content-Qualität, sondern nach Markenstärke.

Sites mit schwacher Markenbekanntheit und dünner Linkbasis verloren, sites mit starker Markenbekanntheit blieben stabil oder wuchsen. Eine Analyse von 671 Reise-Publishern durch die SEO-Agentur Digitaloft ergab, dass 78 Prozent dieser Sites zwischen dem Start des HCU im August 2022 und dem March 2024 Core Update organischen Traffic verloren haben. Bei 32 Prozent dieser Sites betrug der Rückgang mehr als 90 Prozent.

Danny Sullivan, Googles eigener Search Liaison, räumte im Oktober 2024 auf einem Treffen mit kleinen Publishern explizit ein, dass viele der betroffenen Sites nichts falsch gemacht hätten. Der Algorithmus habe Kollateralschäden verursacht, die nicht beabsichtigt gewesen seien.

Was Sullivan nicht sagte: Es gab danach kein Recovery-Programm, keinen beschleunigten Prüfprozess, keine Kompensation. Und John Mueller, Google-Mitarbeiter und bekannte Kommunikationsfigur, formulierte es so: „Websites can regain traffic by improving quality, but returning to pre-update levels isn't realistic." Das bedeutet auf Klartext übersetzt: Die Verluste sind strukturell und dauerhaft.

Eine Praxisbeobachtung aus der Beratung, die sich mit den dokumentierten Mustern deckt: Der HCU hat nicht nur kleinere Publisher ohne erkennbare Qualitätsprobleme getroffen, sondern auch Sites, die Produkt-Feeds und Werbanzeigen in informationsorientierten Grenzbereichen eingesetzt haben. Der Algorithmus interpretierte Kommerzialisierung als Qualitätssignal, nicht als Monetarisierungsmodell. Sites mit klarer inhaltlicher Ausrichtung, aber sichtbarer Ads-Integration, wurden pauschal in Haftung genommen, während dieselbe Kommerzialisierung auf großen Mediendomains problemlos überstand.


Die Fallstudien: Wenn Zahlen nicht lügen

HouseFresh: 91 Prozent weniger Traffic für nachweislich guten Content

HouseFresh ist ein kleines, unabhängiges Testportal für Luftreiniger. Die Site zeichnet sich durch tatsächliche Produkterfahrung aus, die Gründerinnen haben die getesteten Geräte physisch in der Hand gehabt. Vor Oktober 2023 kamen rund 4.000 Google-Besucher täglich auf die Seite. Nach dem March 2024 Core Update waren es noch etwa 200 täglich, davon der Großteil über direkte Markensuche.

Was gleichzeitig passierte: Für den Suchbegriff „best budget air purifiers", für den HouseFresh seit Mai 2023 auf Position 2 rangiert hatte, erschienen nach dem Update 64 Google-Shopping-Produktlistings vor dem eigenen organischen Ergebnis von HouseFresh. Google Shopping ist Googles eigenes Produkt.

Mountain Weekly News: Von 35.000 auf 368 Besucher täglich

Die Mountain Weekly News verlor zwischen September 2023 und April 2024 ihren Google-Traffic von 30.000 bis 40.000 Besuchern täglich auf 368. Das entspricht einem Rückgang von über 99 Prozent. Der Betreiber dokumentiert öffentlich, dass Google-Shopping-Listings nach dem Update vor themenrelevanten redaktionellen Inhalten erscheinen.

Gamurs Group: Entlassungen wegen eines Algorithm-Updates

Gamurs Group, ein Gaming- und Medienverlag, entließ im September 2024 dreißig Mitarbeiter und nannte das Helpful Content Update explizit als Ursache. Es handelt sich damit um eines der wenigen öffentlich dokumentierten Fälle, in denen ein Algorithmus-Update direkt zu Personalabbau geführt hat.

mynewmicrophone.com: E-E-A-T nach Lehrbuch, Ergebnis trotzdem katastrophal

Eine Site mit über 1.000 Artikeln, einem Domain-Rating von 47, 125.000 Backlinks und einem zugehörigen YouTube-Kanal als explizitem E-E-A-T-Signal verlor massiv durch das HCU. Nach Googles eigenen Richtlinien hätte diese Site hochwertig gelten müssen. Der Fall wurde in der SEO-Community auf Reddit als exemplarischer Beleg dafür diskutiert, dass Googles Klassifizierung nicht an Content-Qualität, sondern an anderen Signalen hängt.

Was diese Fälle gemeinsam haben

Es sind keine Spam-Sites. Keine Contentfarmen. Keine Link-Manipulatoren.

Es sind unabhängige, oft jahrelang aufgebaute redaktionelle Projekte, die algorithmisch so behandelt wurden wie Black-Hat-Operationen, während an anderer Stelle die Regeln sichtbar flexibler ausgelegt wurden.


Der Forbes-Effekt: Zwei-Klassen-Recht mit Datum und Uhrzeit

Das stärkste Einzelargument in dieser ganzen Diskussion ist nicht eine Behauptung. Es ist ein Datum.

Am 5. März 2024 kündigte Google die neue Site-Reputation-Abuse-Policy an. Inkrafttreten: 5. Mai 2024. Also zwei Monate Vorlauf für alle, die betroffen sein könnten.

Forbes hatte diesen Vorlauf bitter nötig. Das Unternehmen betrieb unter dem Label „Forbes Marketplace" seit Jahren skaliertes Parasite-SEO in industriellem Maßstab: externe Anbieter kauften sich Plätze auf der hochautoritären Forbes-Domain für SEO-Traffic in völlig themenfremden Bereichen, darunter CBD-Produkte, Online-Kasinos und Kreditkarten-Vergleiche. Forbes nutzte seinen eigenen guten Ruf, um Drittanbietern Rankings zu verkaufen. Das ist das Musterbeispiel von Site Reputation Abuse.

Google wusste das. Google sah das. Google wartete bis September 2024, um Forbes eine manuelle Maßnahme auszusprechen, also fünf Monate nach dem offiziellen Inkrafttreten der Policy.

HouseFresh, Mountain Weekly News und Hunderte andere Sites hatten keine Vorwarnung bekommen. Sie wurden sofort algorithmisch bestraft, ohne Erklärung, ohne Rückkanal, ohne Vorlauf. Das passierte, während Forbes ungehindert weiterarbeitete.

Das ist keine Interpretation. Das sind belegte Daten mit veriffizierbaren Zeitstempeln.

Google erklärt den Vorlauf damit, dass große Publisher mehr Zeit brauchen, um ihre Strukturen anzupassen. Das ist eine Begründung. Sie erklärt aber nicht, warum kleine Sites zeitgleich sofortige, unwiderrufliche und kommunikationslose algorithmische Bestrafung erhalten haben. Wenn eine Policy gilt, gilt sie. Der Vorlauf hätte symmetrisch sein müssen, oder er hätte gar nicht sein dürfen.


Das Interessengeflecht: Wer von den SERP-Veränderungen profitiert

Einzelne Algorithmus-Updates lassen sich als Fehler einordnen. Was schwerer zu erklären ist: die Konsistenz des Musters, und die Tatsache, dass die Sites, die gewinnen, überwiegend in einer direkten finanziellen oder strategischen Beziehung zu Google stehen.

YouTube: 402 Sichtbarkeits-Punkte Gewinn im Jahr des HCU-Kollaps

YouTube gehört Google. YouTube erwirtschaftete 2024 laut Alphabet-Geschäftsbericht 36,15 Milliarden US-Dollar an Werbeeinnahmen und überschritt 2025 die 60-Milliarden-Grenze. Gleichzeitig stieg youtube.com 2024 seinen Sichtbarkeits-Index laut SISTRIX um 402,30 Punkte, zeitgleich mit dem Kollaps kleiner video-affiner Publisher durch HCU und March 2024 Core Update.

Zufall ist möglich. Aber Video-Content-Publisher, die algorithmisch verloren haben, haben in erheblichem Umfang an YouTube verloren, das heißt: an Googles eigenem Konkurrenzprodukt.

Reddit: 60 Millionen Dollar und 978 Prozent mehr Sichtbarkeit

Im Februar 2024 schloss Google einen Datenlizenzvertrag mit Reddit im Wert von bis zu 60 Millionen US-Dollar jährlich ab. Google erhält Exklusivzugang zu Reddits Daten für das Training von KI-Modellen und für AI Overviews. Reddit blockierte im Gegenzug andere Suchmaschinen-Crawler über robots.txt, gewährt Google jedoch weiterhin vollen Zugang.

Was gleichzeitig passierte: Reddit stieg laut SISTRIX 2024 um 1.274 Sichtbarkeits-Index-Punkte und war damit einer der absoluten Gewinner im US-Suchmarkt. Semrush-Daten zeigen für Foren insgesamt einen Anstieg von 978 Prozent. SISTRIX hat die Ungewöhnlichkeit dieses Deals explizit analysiert und als strukturellen Interessenkonflikt eingeordnet.

Aus eigener Beobachtung im deutschsprachigen Raum: Suchanfragen in informationellen Bereichen, die vor 2023 von spezialisierten Fachseiten beantwortet wurden, zeigen heute häufig Reddit-Threads oder YouTube-Videos an erster oder zweiter Stelle. Die inhaltliche Qualität dieser Ergebnisse ist oft deutlich geringer als die der verdrängten Sites. Das ist kein subjektiver Eindruck, das bestätigen auch die deutschen Netzpolitik-Analysen zur abnehmenden Google-Suchqualität.

Shopify: Die nächste Stufe der vertikalen Integration

2026 vertiefte Google seine Partnerschaft mit Shopify in Richtung Agentic-AI: Googles KI-Agenten sollen Shopify-Transaktionen direkt abwickeln können. Das bedeutet strukturell, dass ein Google-Agent, der für einen Nutzer einkauft, bevorzugt auf Shopify-Händler zugreift. Ob und in welchem Ausmaß das bereits Auswirkungen auf die Sichtbarkeit von Nicht-Shopify-E-Commerce-Sites in Google Shopping hat, ist noch nicht belastbar quantifiziert.

AI Overviews: Der doppelte Sichtbarkeitsverlust

Ab 2024 kommt für viele HCU-betroffene Sites ein zweites Problem hinzu: Sie werden von Google AI Overviews systematisch ausgeschlossen, auch wenn sie noch für traditionelle organische Ergebnisse ranken. Das bedeutet doppelten Sichtbarkeitsverlust aus zwei verschiedenen Systemen.

Penske Media Corporation, Eigentümer von Rolling Stone und Variety, klagte im September 2025 gegen Google und bezifferte den Traffic-Verlust durch AI Overviews auf bis zu 58 Prozent. Googles Antwort: AI Overviews seien eine rechtmäßige Produktverbesserung, Publisher könnten sich jederzeit über robots.txt aus der Indexierung abmelden. Was Google nicht sagt: Wer sich abmeldet, verliert jede organische Sichtbarkeit. Die Wahl ist keine echte Wahl.


Was Gerichte und Regulierer bereits festgestellt haben

Das ist der Teil, der die Diskussion von Meinung in belegtes Recht verschiebt.

USA, August 2024: US-Bezirksrichter Amit Mehta urteilte nach einem neunwöchigen Verfahren, dass Google ein Monopolist ist und als solcher gehandelt hat. Google hielt laut Gerichtsurteil rund 89,2 Prozent des US-Suchmarkts und sicherte diese Position durch exklusive Verträge ab. Allein 2021 zahlte Google 26,3 Milliarden US-Dollar an Partner wie Apple, damit Google als Standard-Suchmaschine voreingestellt bleibt.

USA, April 2025: Ein zweites DOJ-Verfahren am Eastern District of Virginia endete mit einem weiteren Schuldspruch: Google hat den Markt für Publisher-Ad-Server und Ad-Exchanges durch jahrelanges anticompetitives Verhalten monopolisiert. Das Gericht dokumentierte, dass Google dem eigenen AdX-Exchange im Real-Time-Bidding systematisch Vorteile gegenüber Konkurrenten verschafft hat.

EU: Die EU-Kommission hat Google 2017 zu einer Strafe von 2,42 Milliarden Euro für Shopping-Selbstbevorzugung verurteilt. Im September 2025 folgte eine weitere Strafe von 2,95 Milliarden Euro im AdTech-Verfahren. Im November 2025 eröffnete die Kommission eine explizite Untersuchung zu Googles Site-Reputation-Abuse-Policy, weil der Verdacht besteht, dass legitime Publisher-Erlösmodelle durch Googles Spam-Definition diskriminiert werden. Das Strafmaß bei einer DMA-Non-Compliance-Entscheidung: bis zu 10 Prozent des weltweiten Jahresumsatzes.

Das Gesamtbild ist eindeutig: Googles Marktdominanz ist gerichtlich festgestellt. Die Frage, ob Spam-Policies Teil dieser Dominanz sind oder ihr dienen, ist regulatorisch geöffnet, auch wenn der direkte Kausalnachweis noch nicht abschließend geführt wurde.

Was Googles Gegenargument angeht: Der Konzern betont, dass seine Richtlinien ausschließlich der Nutzererfahrung dienen und dass kleinere Creator sogar Googles Kampf gegen Parasite-SEO unterstützen. Das ist kein falsches Statement. Es ist ein unvollständiges Statement. Parasite-SEO war ein echtes Problem. Aber die Lösung hat in ihrer Durchsetzung ein so massives Ausmaß an Kollateralschaden verursacht, dass Googles Search Liaison es selbst bestätigt hat, und sie trifft strukturell andere Sites als die, die das eigentliche Problem verursacht haben.


Was du konkret tun kannst

Diese Empfehlungen sind keine Panik-Reaktion auf ein Algorithmus-Update. Sie sind eine betriebswirtschaftliche Grundentscheidung.

Verstehe deine Traffic-Abhängigkeit als Risiko

Wenn mehr als 70 Prozent deines organischen Traffics von Google stammt, sitzt du auf einem Risiko, das du bei einem einzigen Rohstofflieferanten oder Distributor niemals akzeptieren würdest. Mach den Test: Berechne, was ein Traffic-Verlust von 50 Prozent über drei Monate für deinen Umsatz bedeutet. Wenn das Ergebnis existenzbedrohend ist, ist das kein SEO-Problem. Es ist ein unternehmerisches Risiko-Problem.

Baue Brand Authority, nicht nur Rankings

Der HCU hat gezeigt, dass Markenstärke im Algorithmus mehr zählt als Content-Qualität. Das bedeutet nicht, dass du mit schlechten Inhalten durchkommst. Es bedeutet, dass gute Inhalte allein nicht reichen, wenn niemand aktiv nach deiner Marke sucht. Die messbare Proxy-Variable: navigational Search Volume, also die Zahl der Nutzer, die direkt nach deinem Markennamen suchen. Das ist der einzige Traffic, den ein Algorithmus dir nicht nehmen kann.

Newsletter und Direct Traffic sind keine Rückfallposition, sondern primäre Ziele

Ein Nutzer auf deiner E-Mail-Liste ist unabhängig von Googles nächstem Core Update. Tausend Newsletter-Abonnenten mit 40-prozentiger Öffnungsrate liefern dir stabilen, wiederkehrenden Traffic, der nichts mit Ranking zu tun hat. Wer heute noch keinen eigenen Verteiler aufbaut, baut keine Resilienz.

Diversifiziere in Kanäle, die du kontrollierst

Social Media ist keine echte Alternative zu Google, weil du auch dort einem Algorithmus ausgeliefert bist, den du nicht kontrollierst.

Was du kontrollierst: eigene Newsletter, Podcasts mit eigenem Feed, Kooperationen mit Fachmedien, die unabhängig von Google-Traffic sind, und direkte Partnerschaften mit deiner Zielgruppe.

Dokumentiere Expertise sichtbar, nicht implizit

E-E-A-T ist in der SEO-Praxis oft eine Checkbox-Übung. In der Realität geht es darum, dass Google und KI-Systeme eine klare Antwort auf die Frage finden: Wer steckt hinter dieser Site, warum ist diese Person qualifiziert, und wie wird das nachvollziehbar gemacht? Ein Impressum und ein kurzer About-Absatz reichen nicht. Autorenprofile mit nachvollziehbarer Expertise, externe Erwähnungen in Branchenmedien, und konsistente Markenpräsenz über mehrere Plattformen hinweg schaffen die Signale, die algorithmisch zählen.

Beobachte die regulatorischen Entwicklungen aktiv

Die DMA-Verfahren der EU könnten 2026 oder 2027 zu strukturellen Veränderungen bei Google Search führen. Wenn Dritte Zugang zu Suchdaten erhalten und Ausweichalternativen wettbewerbsfähiger werden, öffnen sich neue Kanäle. Wer das erst dann registriert, wenn es passiert, baut zu spät um.


Sonderfall: Was tun, wenn die Erholung ausbleibt?

Vollständige Erholung auf Vorniveau beschreibt Google selbst als unrealistisch. Was aber, wenn das keine akzeptabler Zustand ist?

Die naheliegende Reaktion ist ein Domain-Wechsel. Meine Einschätzung dazu: Eine neue Domain löst gar nichts, wenn du das Problem nicht zuerst auf der alten behebst. Eine frische Domain hat keine Brand-Signale, keine navigational Search Volume, keinen gewachsenen Linkaufbau. Genau die Faktoren, nach denen der Algorithmus heute filtert. Du startest nicht bei null, du startest im Nachteil. Und eine 301-Migration von einer supprimierten auf eine neue Domain zieht mit hoher Wahrscheinlichkeit die negative Belegung durch die Qualitätsprobleme mit, weil Google den inhaltlichen und technischen Zusammenhang erkennt.

Das heißt aber nicht, dass ein Domain-Wechsel grundsätzlich ausscheidet. Es heißt, dass die Reihenfolge entscheidend ist.

Die Strategie, die in der Praxis funktioniert

Was ich in zwei Fällen mit Kunden erarbeitet habe, die nach schweren algorithmischen Verlusten auf einen Domain-Wechsel hinarbeiteten, folgt einem klaren Ablauf:

Schritt 1: Erst die alte Domain sanieren. Vollständige inhaltliche Überarbeitung, Abbau der schwächsten Seiten, Stärkung der thematischen Autorität, sichtbare Autorenschaft. Kein Migrationsgespräch, solange sich die Domain nicht wieder erholt.

Schritt 2: Auf steigende Sichtbarkeit warten, nicht auf vollständige Erholung. Der entscheidende Zeitpunkt ist nicht, wenn die alten Traffic-Werte wieder erreicht sind, sondern wenn die Ranking-Trends messbar nach oben zeigen und die Domain algorithmisch wieder als positiv bewertet wird. Das kann dauern und sich über einige Core-Updates hinziehen, die Daten sagen dir, wann es so weit ist.

Einen verlässlichen Branchen-Benchmark dafür gibt es nicht. Glenn Gabe (GSQI) hat in einer Analyse von über 380 HCU-betroffenen Sites dokumentiert, dass nach zwölf oder mehr Monaten nur 22 Prozent der Sites eine Erholung von mindestens 20 Prozent verzeichnet hatten. Das ist aber eher eine Aussage über das Ausmaß der Erholung, nicht über den Zeitpunkt erster positiver Signale. Aus eigener Projekterfahrung zeigen sich erste messbare Verbesserungen frühestens nach vier bis sechs Monaten konsequenter inhaltlicher Arbeit, sofern der Algorithmus überhaupt reagiert.

Schritt 3: Dann migrieren, und zwar selektiv. Nicht alles weiterleiten. Nur die Seiten mit den besten aktuellen Rankings und den stärksten positiven Ranking-Trends erhalten 301-Redirects auf die neue Domain. Schwache Seiten werden nicht mitgenommen. Das bedeutet bewussten Verzicht auf einen Teil des Linkprofils, ist aber ein zusätzlicher Schutz gegen die Übertragung von Low-Quality-Signalen auf die neue Domain.

In beiden Fällen war der Wechsel mit einem strategischen Ziel verbunden, das unabhängig vom HCU-Schaden Sinn ergab: Einmal der Wechsel von einer .de auf eine .com für internationale Erweiterung, einmal von einer .ch auf eine .swiss für klarere regionale Positionierung. Die Migration war also kein Notausgang, sondern ein geplanter (eigentlich für die Zukunft, wurde vorgezogen) Schritt, den der vorherige Sanierungsprozess erst möglich gemacht hat.

Was daraus folgt

Ein Domain-Wechsel als Reaktion auf algorithmische Suppression ist nur dann sinnvoll, wenn drei Bedingungen gleichzeitig erfüllt sind: Die inhaltliche Arbeit ist getan, der Algorithmus reagiert nicht. Es gibt einen legitimen strategischen Grund für die neue Domain, der unabhängig vom SEO-Problem existiert. Und der Wechsel erfolgt erst dann, wenn die alte Domain wieder positive Ranking-Signale zeigt.

Was regelmäßig scheitert: neue Domain, gleiche Struktur, gleiche Monetarisierung, vollständige Redirects. Das verlagert das Problem, löst es nicht.


Bin ich strukturell gefährdet? 8 Risikosignale für deine Website

Prüf diese acht Punkte. Wenn du bei vier oder mehr zustimmst, ist dein Traffic-Risiko erhöht.

  1. Mehr als 70 Prozent deines Traffics kommt von Google organisch. Kein weiterer Kanal liefert auch nur 15 Prozent.
  2. Deine Domain ist weniger als fünf Jahre alt und hat keine externe Markenpräsenz in Fachmedien, Branchenverzeichnissen oder nicht-SEO-getriebenen Erwähnungen.
  3. Navigational Search Volume für deinen Markennamen ist unter 100 Suchen pro Monat. Kaum jemand sucht direkt nach dir.
  4. Dein primäres Geschäftsmodell ist Affiliate-SEO, programmatische Werbung oder Produkt-Feeds in einem informationsorientierten Bereich, in dem auch Google Shopping-Listings sichtbar sind.
  5. Deine Site behandelt Themen, für die es YouTube-Videos oder Reddit-Threads als ernsthafte organische Konkurrenz gibt. Das betrifft insbesondere How-to-Content, Produkt-Reviews und Vergleiche.
  6. Du hast keinen eigenen E-Mail-Verteiler oder er umfasst weniger als 500 aktive Abonnenten.
  7. Du hast im letzten HCU- oder Core-Update-Zeitraum messbare Traffic-Rückgänge registriert und seitdem keine strukturelle Erholung auf das Vorniveau.
  8. Du hast keine direkte Kommunikationsmöglichkeit mit Google (kein Ansprechpartner, kein Agenturkanal, kein Google-Partnerprogramm). Bei algorithmischen Abstrafungen gibt es keine GSC-Meldung. Du erfährst es aus dem Traffic-Dashboard.

KPI-Set für Traffic-Diversifikation (Zielwerte):

Kanal Zielanteil Messmetrik Baseline-Empfehlung
Google organisch max. 50 % GSC Clicks Aktuellen Anteil dokumentieren
Newsletter / Direct min. 20 % GA4 Direct + Email Listenaufbau starten
Andere organische Quellen min. 15 % GA4 Referral Bing, externe Fachmedien
Social / Community min. 10 % GA4 Social Plattformwahl nach Zielgruppe
Navigational Search wachsend GSC Brand-Queries Monatlich tracken

FAQ

Ist Google wirklich ein Monopolist?

Rechtlich: ja. Zwei US-Bundesgerichte haben Google als Monopolisten im Suchmarkt und im Ad-Tech-Markt verurteilt. Die EU hat in mehreren Verfahren Selbstbevorzugung festgestellt und in Summe über fünf Milliarden Euro an Strafen verhängt. Das ist kein Vorwurf, das ist rechtskräftig festgestelltes Recht.

Hat Google absichtlich kleine Sites abgestraft, um eigene Produkte zu stärken?

Das ist nicht beweisbar und wird in diesem Artikel auch nicht behauptet. Was beweisbar ist: Die Wirkung der Updates hat konsistent kleine und unabhängige Sites getroffen, während Googles eigene Produkte und finanzielle Partner massive Sichtbarkeitsgewinne verzeichnet haben. Ob das Absicht, strukturelle Ignoranz oder ein Algorithmus-Fehler mit bequemen Kollateraleffekten ist, können nur Einblick in interne Entscheidungsprozesse beantworten, die Google nicht offenlegt.

Warum greift die EU-Regulierung nicht schneller?

EU-Kartellverfahren dauern im Schnitt mehrere Jahre. Die DMA-Verfahren sind neueren Datums und noch nicht abgeschlossen. Erschwerend kommt hinzu, was ein Artikel in Netzpolitik im September 2025 beschrieb: politischer Druck aus Washington soll die finale DMA-Entscheidung der EU-Kommission verzögert haben. Regulierung bewegt sich langsamer als Algorithmen.

Was bringt mir E-E-A-T konkret, wenn der HCU nach Markenstärke filtert?

E-E-A-T ist weiterhin relevant, aber nicht ausreichend. Expertise-Signale helfen dabei, nicht als Spam-Kandidat klassifiziert zu werden. Sie schützen dich nicht vor einer site-weiten algorithmischen Suppression aufgrund von schwacher Markenstärke. Beides ist notwendig, keines ersetzt das andere.

Soll ich aufhören, auf Google zu optimieren?

Nein. Google ist und bleibt der primäre Nachfrage-Kanal für die meiste Suchintentionen. Die Empfehlung ist nicht, Google aufzugeben. Die Empfehlung ist, nicht ausschließlich auf Google zu setzen, weil du damit ein regulatorisch bestätigtes Monopol-Risiko in dein Geschäftsmodell integrierst.

Wie erkenne ich, ob meine Site algorithmisch supprimiert ist?

Algorithmische Demotions erscheinen nicht in der Google Search Console als manuelle Maßnahme. Du siehst sie ausschließlich im Traffic-Rückgang. Wenn du einen abrupten Traffic-Verlust von über 20 Prozent registrierst, der zeitlich mit einem Google Core Update zusammenfällt, ist eine algorithmische Suppression der wahrscheinlichste Grund. Das Datum des Updates findest du im Google Search Status Dashboard.

Hilft es, Inhalte zu löschen, um aus einer HCU-Suppression herauszukommen?

Die Evidenz dafür ist gemischt. Glenn Gabe (GSQI), einer der meistzitierten Analysten in diesem Bereich, dokumentiert, dass das HCU-System eine site-weite Klassifizierung vornimmt. Das bedeutet: Schwache Inhalte auf einem Teil der Site können alle anderen Inhalte mitziehen. Löschen oder deutliches Überarbeiten von Seiten mit geringer inhaltlicher Substanz kann helfen, ist aber kein Garant. Vollständige Erholung auf Vorniveau beschreibt Google selbst als unrealistisch.

Was bedeutet das für KMU, die keine eigene SEO-Kapazität haben?

Für KMU ohne interne SEO-Ressourcen ist die Botschaft einfach: Delegiere nicht deine gesamte Sichtbarkeit an einen einzigen externen Kanal, den du nicht kontrollierst. Das gilt für Google genauso wie für Meta oder TikTok. Eine klare Marke, ein eigener Newsletter und regelmäßige direkte Kundenkommunikation sind keine Luxus-Marketing-Maßnahmen. Sie sind betriebswirtschaftliche Risikominimierung.


Fazit: Der Mechanismus ist das Problem, nicht die einzelne Policy

Googles Spam-Richtlinien sind nicht per se falsch. Parasite-SEO war ein echtes Problem, Scaled Content Abuse ist ein echtes Problem, Expired Domain Abuse ist ein echtes Problem. Google hatte legitime Gründe zu handeln.

Was das Handeln problematisch macht, ist die selektive, asymmetrische Durchsetzung: große Partner bekommen Vorlauf, kleine Sites werden ohne Kommunikation algorithmisch vernichtet. Googles eigene Produkte gewinnen systematisch dort Sichtbarkeit, wo unabhängige Sites verlieren. Und wenn Gerichte in zwei Ländern unabhängig voneinander zu dem Schluss kommen, dass dieses Unternehmen ein Monopolist ist, der seine Marktmacht zu Lasten von Wettbewerbern einsetzt, dann ist das die relevante Einordnung, nicht Googles eigene Qualitätskommunikation.

Die praktische Konsequenz für dich: Nicht aufhören, Google zu bedienen. Aber aufhören, Google als einzigen Kanal zu behandeln. Wer heute ausschließlich von organischem Google-Traffic abhängt, hat kein SEO-Problem. Er hat eine Unternehmensstruktur, die auf einem regulatorisch angeschlagenen Monopolisten als einziger Vertriebsinfrastruktur aufgebaut ist.

Das ist reparierbar. Aber nur, wenn du damit anfängst, bevor das nächste Update dich dazu zwingt.

Aktualisiert am 16 April 2026

Kommentare