Aktualisiert am 6 März 2026

Die riskante Abhängigkeit: Wie fragil die Datenbasis der meisten SEO-Tools wirklich ist

Wenn der Wegfall eines URL-Parameters eine ganze Branche erschüttern kann, stimmt etwas ganz gewaltig nicht. Es wird endlich Zeit für ehrliche und sichere SEO-Metriken.

Wir haben uns an Zahlen gewöhnt, die uns Sicherheit suggerieren. Keyword-Positionen auf zwei Nachkommastellen, tägliche Sichtbarkeitskurven, granulare SERP-Feature-Analysen. Das klingt präzise. 

In Wahrheit werden viele dieser Zahlen auf einer extrem unsicheren Basis erhoben: auf fremden Servern, mit geduldetem Scraping und stillschweigenden Annahmen, die nie dokumentiert wurden. Das ist ein strukturelles Problem, das im September 2025 erstmals für die breite SEO-Community unübersehbar wurde.

tl;dr
Der Wegfall des num=100-Parameters am 11. September 2025 hat live gezeigt, wie fragil die Datenbasis der SEO-Tool-Branche ist. Google änderte einen URL-Parameter ohne Ankündigung, bei 87,7 % aller gecrawlten Sites brachen Impressions ein, Positionen stiegen künstlich. Kein einziger Ranking-Punkt hatte sich geändert. Es war ein Messartefakt. Wer das nicht einordnen konnte, verlor Kundenvertrauen und produzierte Panik.

Konsequenz: Search Console und Logfiles als Primärquellen aufwerten. Metriken mit Confidence-Scores versehen. Wirkung messen statt Positions-Fetisch. Das gilt unabhängig davon, was Google als nächstes ändert.

Ausgangslage: Verboten, aber trotzdem gemacht

Google untersagt das maschinelle Crawling seiner SERPs seit jeher. In den Google Terms of Service heißt es explizit, dass die Nutzung „automatisierter Mittel zum Zugriff auf Inhalte unserer Dienste unter Verletzung der maschinenlesbaren Anweisungen auf unseren Webseiten" verboten ist. Die Terms of Service für persönliche Nutzung untersagen zusätzlich „automatisierte Abfragen der Google-Systeme ohne vorherige ausdrückliche Genehmigung", einschließlich Software zur Überprüfung von Website-Rankings.

Trotzdem basieren Ranking-Checks, SERP-Features-Tracking, Wettbewerbsanalysen und Sichtbarkeitsindizes unzähliger Anbieter auf genau diesem Scraping. Das Ergebnis ist ein Millionenmarkt, dessen Rohstoff, nämlich SERP-Daten, rechtlich und technisch jederzeit eingeschränkt werden kann.

Die jüngste Episode: Der Wegfall des URL-Parameters num=100, mit dem sich bis zu 100 Suchergebnisse auf einer Seite laden ließen. Viele Tools nutzten diese Abkürzung, um effizienter und kostengünstiger Rankings in der Breite zu erfassen. Google hat seit dem 11. September 2025 klargestellt, dass dieser Parameter „nicht formal unterstützt" wird. Keine offizielle Ankündigung, kein Changelog, kein Vorlauf.

Quellen: Search Engine Land – „Google Search confirms it does not support the results per page parameter", SEO Südwest

Der Single Point of Failure – live demonstriert

Der num=100-Einschnitt ist mehr als eine kleine technische Änderung. Er zeigt exemplarisch den massiven Single Point of Failure der Tool-Ökonomie:

  • Der Datenzufluss hängt vollständig von Duldung und technischen Entscheidungen Dritter (Google) ab.
  • Änderungen an Rendering, Parametern, Rate Limits, Bot-Detection oder Captcha-Politik können ganze Metriksysteme verzerren oder abschalten.
  • Ergebnis: sichtbare „Metrik-Brüche" in Reports, die mit echter Performance nur bedingt zu tun haben.

Brodie Clark hat dieses Phänomen unter dem Begriff „The Great Decoupling" beschrieben: In vielen GSC-Properties stammten auffällig viele Search-Console-Impressions offenbar von Tool-Abfragen, nicht von realen Nutzern. Als Google an dieser Schraube drehte, divergierten Scraper-Traffic und echte Impressions sichtbar. Sein Beitrag dazu: https://brodieclark.com/the-great-decoupling-num100/

Was danach passierte, ist lehrreich. DataForSEO entwickelte innerhalb weniger Wochen einen Workaround, der dieselben 100 Ergebnisse mit nur zwei Crawls statt zehn abruf, was die Kosten um 80 Prozent reduzierte. Google erkannte das Muster und blockierte den Workaround innerhalb von fünf Tagen. Das ist kein technischer Zufall. Das ist aktives Gegenmanagement. Die Ankündigungsseite von DataForSEO wurde anschließend stillschweigend vom Netz genommen. Ahrefs meldete Ende Oktober 2025, das top-100-Tracking schrittweise über eine andere technische Route wiederherzustellen. Ob Google auch diese Route schließen wird, ist offen.

Was die Zahlen tatsächlich belegen

Die Auswirkungen auf Search-Console-Daten sind quantifiziert. Laut einer Auswertung von Zeo Agency zeigten 87,7% aller beobachteten Sites einen Rückgang der Gesamt-Impressions, 77,6% verloren sichtbare Keywords. Die durchschnittliche Position verbesserte sich scheinbar, weil die Rankings jenseits von Position 10 nicht mehr abgefragt wurden.

Clicks blieben stabil. Das ist der entscheidende Hinweis: Die Bots, die Rankings abgerufen haben, haben nie geklickt. Was in den Impression-Zahlen verschwunden ist, war nie echter Nutzer-Traffic. Die scheinbar verbesserte CTR ist ein mathematisches Artefakt, kein Leistungsgewinn.

Wer diese Zusammenhänge nicht kannte oder nicht schnell genug kommuniziert hat, hat Kundengespräche geführt, in denen er Panik erklären musste, die keine reale Grundlage hatte.

Methodische und betriebswirtschaftliche Fragilität

Methodisch steht die Branche hier auf dünnem Eis, und das war schon vor dem September 2025 so:

Scheinpräzision. Granulare Rankings, tägliche Sichtbarkeitskurven und pixelgenaues SERP-Features-Tracking wirken präzise, sind aber oft nur Stichproben mit unbekannten Biases durch Personalisierung, Lokalisierung, Device-Mix, Test-Varianten und Index-Splits. Zwei Tools messen dasselbe Keyword für dieselbe Domain und kommen zu unterschiedlichen Ergebnissen. Das ist kein Bug. Das ist das System.

Messartefakte. Werden lange SERP-Seiten nicht mehr geladen, sinken Impressions künstlich, während die durchschnittliche Position steigt. Nicht weil besser gerankt wird, sondern weil weniger Ergebnisseiten abgefragt werden.

Vendor-Lock-in. Ganze Reporting-Stacks hängen an proprietären Scrape-Pipelines und heuristischen Normalisierungen. Fällt der Rohstoff weg oder verändert er sich, erodiert das Produkt, das Kunden eingekauft haben.

Betriebswirtschaftlich ist das brandgefährlich. Hohe Fixkosten für Crawling-Infrastruktur, Proxies und Anti-Bot-Umgehung treffen auf Datenquellen, die jederzeit ohne Vorwarnung wegfallen können. Kunden sehen Metrik-Sprünge, deren Ursache bei Google liegt, das Vertrauen leidet, der Churn steigt. Roadmaps werden reaktiv: Firefighting statt Produktstrategie.

Warum Google die Daumenschrauben weiter anzieht

Es gibt wenig Anreiz für Google, massenhaftes SERP-Scraping dauerhaft zu tolerieren:

Kosten. Scrapes erzeugen Serverlast ohne Nutzerwert. In einer Zeit, in der Compute für KI ohnehin knapp und teuer ist, und in der Google massiv in eigene KI-Infrastruktur investiert, ist jede parasitäre Last ein betriebswirtschaftliches Problem.

Missbrauchsrisiken. Dritte, einschließlich LLM-Anbieter, können SERPs als Rohstoff anzapfen und in eigenen Produkten verwerten. Das ist Googles primärem Geschäftsmodell direkt zuwider.

Produktexperimente. Mit AI Overviews und AI Mode verschiebt Google selbst die Interaktion weg von „10 Blue Links" hin zu kontextuellen Antworten. Jede UI-Änderung verändert die Scrape-Ökologie und damit die Datenverfügbarkeit. Die Blue Links bleiben, Zusammenfassungen gewinnen an Gewicht, und für uns heißt das: Weniger vorhersagbare Klickpfade, mehr Volatilität, mehr Test-Varianten und noch fragilere Scrape-Daten.

Was das für SEO-Praktiker bedeutet

Die SEO-Community hat sich ein Maß an Abhängigkeit von nicht belastbaren Strukturen geschaffen, das strategisch nicht zu halten ist. Drei Konsequenzen:

1. Metrik-Hygiene und Demut

Kennzahlen-Definitionen offenlegen: Was wurde gemessen? Unter welchen Annahmen? Plötzliche Sprünge kritisch prüfen und in Dashboards annotieren, zum Beispiel mit einem einfachen Eintrag „Parameter-/UI-Change bei Google, 11.09.2025". Fokus verschieben: Statt täglicher Pseudo-Präzision lieber robuste Tendenzen, reale Nachfrage, Conversions und messbarer Beitrag zum Geschäftswert.

2. Datenquellen diversifizieren: Permissioned Data First

Search Console und Logfiles als Primärquellen aufwerten. Real User Signals, Crawl- und Serve-Muster, Statuscodes, Rendering: Das sind Daten, auf die Google keinen Schalter umlegen kann, weil sie aus der eigenen Infrastruktur des Seitenbetreibers kommen. Branchenweite, anonymisierte Panels mit klarer Governance sind sauberer als heimliches Scraping. Offizielle APIs, Datenkooperationen und browsernahe Telemetrie (unter strengen Datenschutzauflagen) gehören langfristig in jeden robusten Reporting-Stack.

3. Tool-Architektur entkoppeln

Feature-Detection resilienter bauen: mehr Client-Side-Parsing, domänenspezifische Fallbacks, Test-Suites gegen SERP-Varianten. Datenpipelines versionieren und Metrik-Migrationspfade bereitstellen, also automatisches Re-Baselining bei Google-Änderungen. Gegenüber Kunden Change-Logs, Confidence-Scores und Unsicherheitsintervalle kommunizieren. Nicht als Schwäche, sondern als Zeichen von Kompetenz.

LLM-Suche: Doppelte Disruption

Neue Suchsysteme auf Basis von LLMs verschieben die Wertschöpfung weiter in eine Richtung, die Scrape-basierte KPIs zusätzlich entwertet:

Antwort-zentrierte UIs reduzieren Klicks auf klassische Ergebnisse. Wer seine KPIs allein um Impressions und Positionen gebaut hat, misst zunehmend etwas, das immer weniger mit tatsächlichem Geschäftswert korreliert. LLMs nutzen lizenzierte, aggregierte oder proprietäre Feeds. Wer weiterhin nur auf geduldete SERP-Scrapes setzt, verliert Anschluss an die Stellen, an denen LLMs ihre Informationen tatsächlich beziehen. Retrieval verändert sich: Strukturierte, maschinenlesbare Inhalte, klare Quellenzitation, Lizenzmodelle und direkte Feeds werden wichtiger als „Ranking auf Position X".

Ein Weg aus dem Dilemma: Von geduldet zu erlaubt

Ein zukunftsfähiger Pfad kombiniert Technik, Prozesse und Governance:

Erlaubte Datenströme priorisieren. Offizielle APIs (Search Console, Ads), Partnerschaften, Content-Lizenzen, First-Party-Messung. Ja, das ist unvollständig. Aber es ist verlässlich.

Wirkung messen statt Position. Task Success, SERP-CTR unter realen Nutzerkohorten, On-SERP-Visibility (einschließlich AI Overviews), Downstream-Conversions, Customer LTV. Das sind Metriken, die Google nicht mit einem URL-Parameter-Update wegräumen kann.

Content für Retrieval und Attribution optimieren. Klare Strukturen via Schema.org, präzise Snippets, E-E-A-T mit echten Belegen, dedizierte Answer Fragments, Feed- und API-Angebote für KI- und Suche-Integrationen.

Branchenstandard fördern. Gemeinsame Panels, Auditierbarkeit, Dokumentation von Metrikbrüchen, offene Referenz-Datasets. Weniger Wettbewerb über geheime Scrape-Pipelines, mehr über Interpretationskompetenz und Qualität der Analyse.

Fazit

Der `num=100`-Fall war kein Randproblem für Tool-Entwickler. Er war ein Weckruf für die gesamte Branche. Unsere Reports sind nur so belastbar wie ihre stillschweigenden Annahmen. Wer weiterhin auf geduldete Scrapes als Primärrohstoff setzt, baut Produkte auf Treibsand, mit Google als sprichwörtlichem Ein-Schalter-Risiko. Die Zukunft gehört Permissioned Data, klarer Attribution in LLM-Ökosystemen und einer Profession, die Unsicherheit nicht kaschiert, sondern einpreist und erklärt.


Häufige Fragen zur Abhängigkeit von SEO-Tools von Google-Daten

Was war der num=100-Parameter und warum ist er verschwunden?

Der num=100-Parameter war ein URL-Zusatz, der Google dazu brachte, bis zu 100 Suchergebnisse auf einer Seite anzuzeigen statt der üblichen 10. SEO-Tools nutzten ihn jahrelang, um Ranking-Daten effizienter und kostengünstiger abzurufen. Am 11. September 2025 hat Google ihn ohne offizielle Ankündigung deaktiviert. Als Begründung nannte Google nachträglich, der Parameter sei nie offiziell unterstützt gewesen. Die wahrscheinlicheren Gründe: Infrastrukturkosten, Schutz vor KI-Scraping und aktiveres Gegenmanagement gegen Dritt-Tools.

Warum brachen meine Impressions in der Search Console Mitte September 2025 ein?

Das ist ein Messartefakt, kein Ranking-Verlust. Viele Tool-Abfragen haben in der Search Console als Impressions gezählt, obwohl keine echten Nutzer dahinterstanden. Als Google den num=100-Parameter abschaltete, verschwanden diese Bot-generierten Impressions aus den Reports. Clicks blieben stabil, weil Bots nie geklickt haben. Was wie ein Traffic-Einbruch aussieht, ist in Wirklichkeit eine Bereinigung von aufgeblähten Messzahlen.

Ist SERP-Scraping durch SEO-Tools legal?

Nein, formal nicht. Googles Terms of Service untersagen explizit automatisierte Abfragen ohne ausdrückliche Genehmigung. Trotzdem basiert ein Großteil der SEO-Tool-Branche auf genau diesem Scraping, de facto geduldet, aber rechtlich und technisch jederzeit angreifbar. Das ist kein Geheimnis, wurde aber selten so offen thematisiert wie nach dem num=100-Vorfall.

Welche Datenquellen sind als Alternative zu SERP-Scraping verlässlich?

Die Search Console ist Pflicht: Real User Signals, tatsächliche Klicks, Crawl-Muster und Indexierungsstatus kommen direkt aus Googles Infrastruktur und können nicht durch einen URL-Parameter-Wechsel verzerrt werden. Logfiles ergänzen das Bild um echte Crawler- und Nutzeraktivitäten auf Serverebene. Paneldaten mit klarer Governance sind transparenter als Scrape-Pipelines. Offizielle APIs (Google Ads, Search Console API) liefern verlässlichere Grundlagen als geduldetes Scraping.

Betrifft der num=100-Einschnitt auch LLM-basierte Suchwerkzeuge?

Ja, und der Effekt ist dort sogar noch gravierender. LLM-Anbieter haben SERP-Daten als Rohstoff für Trainingsdaten und Live-Retrieval genutzt. Durch die Einschränkung wird der Bulk-Datenzugriff deutlich teurer und aufwendiger. Gleichzeitig setzen LLM-Suchen zunehmend auf lizenzierte Feeds statt auf öffentliche SERP-Scrapes. Wer nur auf geduldetes Scraping setzt, verliert schrittweise Anschluss an die Informationsquellen, die KI-Suchen tatsächlich verwenden.

Was bedeutet das konkret für SEO-Reporting gegenüber Kunden?

Zwei Dinge: Erstens sollten alle Dashboards den 11. September 2025 als Bruchpunkt annotieren, damit historische Vergleiche nicht in die Irre führen. Zweitens ist jetzt ein guter Zeitpunkt, Metriken zu verschieben. Weg von Impressions und Durchschnittspositionen, hin zu Clicks, Conversions und Geschäftswert. Das ist nicht nur transparenter gegenüber Kunden, sondern auch robuster gegenüber Googles nächstem Parameter-Entscheid.

Aktualisiert am 6 März 2026