Aktualisiert am 7 April 2026

Die riskante Abhängigkeit: Wie fragil die Datenbasis der meisten SEO-Tools wirklich ist

Wenn der Wegfall eines URL-Parameters eine ganze Branche erschüttern kann, stimmt etwas ganz gewaltig nicht. Es wird endlich Zeit für ehrliche und sichere SEO-Metriken.

Du hast dich an Zahlen gewöhnt, die dir Sicherheit suggerieren. Keyword-Positionen (sogar mit Nachkommastelle), tägliche Sichtbarkeitskurven, granulares SERP-Features-Tracking. Das klingt präzise.

In Wahrheit werden viele dieser Zahlen auf einer extrem unsicheren Basis erhoben: auf fremden Servern, mit geduldetem Scraping und stillschweigenden Annahmen, die nie dokumentiert wurden. Das ist ein strukturelles Problem, das im September 2025 erstmals für die breite SEO-Community unübersehbar wurde.

tl;dr
Der num=100-Parameter ermöglichte es SEO-Tools jahrelang, 100 Suchergebnisse mit einer einzigen Abfrage abzurufen. Am 11. September 2025 hat Google ihn ohne Ankündigung deaktiviert. Bei 87,7% aller beobachteten Sites brachen Impressions ein, 77,6% verloren messbare Keywords. Kein einziger Ranking-Punkt hatte sich geändert. Das Messverfahren hatte sich geändert, nicht die Performance. Clicks blieben stabil, weil Bots nie geklickt haben. Was wie ein Traffic-Einbruch aussah, war ein Artefakt aufgeblähter Messzahlen.

Ausgangslage: Verboten, aber trotzdem gemacht

Google untersagt das maschinelle Crawling seiner SERPs seit jeher. In den Google Terms of Service heißt es explizit, dass die Nutzung „automatisierter Mittel zum Zugriff auf Inhalte unserer Dienste unter Verletzung der maschinenlesbaren Anweisungen" verboten ist. Die Terms of Service für persönliche Nutzung untersagen zusätzlich ausdrücklich „automatisierte Abfragen der Google-Systeme ohne vorherige ausdrückliche Genehmigung", einschließlich Software zur Überprüfung von Website-Rankings.

Trotzdem basieren Ranking-Checks, SERP-Features-Tracking, Wettbewerbsanalysen und Sichtbarkeitsindizes unzähliger Anbieter auf genau diesem Scraping. Das Ergebnis ist ein Millionenmarkt, dessen Rohstoff, nämlich SERP-Daten, rechtlich und technisch jederzeit eingeschränkt werden kann. Das wissen alle. Es wird nur selten so direkt ausgesprochen.

Der jüngste Beleg dafür ist der Wegfall des URL-Parameters num=100, mit dem sich bis zu 100 Suchergebnisse auf einer Seite laden ließen. Tools aller Größen nutzten ihn, um Rankings effizienter und kostengünstiger in der Breite zu erfassen. Seit dem 11. September 2025 funktioniert er nicht mehr. Google bezeichnete ihn nachträglich als „nicht formal unterstützt". Eine offizielle Ankündigung gab es nicht, keinen Changelog, keinen Vorlauf.

Quellen: Search Engine Land – „Google Search confirms it does not support the results per page parameter", SEO Südwest


Der Single Point of Failure - live demonstriert

Der num=100-Einschnitt ist mehr als eine kleine technische Änderung. Er zeigt exemplarisch den massiven Single Point of Failure der gesamten Tool-Ökonomie: Dein Datenzufluss hängt vollständig von der Duldung und den technischen Entscheidungen Dritter ab. Änderungen an Rendering, Parametern, Rate Limits, Bot-Detection oder Captcha-Politik können ganze Metriksysteme verzerren oder abschalten. Das Ergebnis sind sichtbare Metrik-Brüche in deinen Reports, die mit echter Performance nur bedingt zu tun haben.

Brodie Clark hat dieses Phänomen unter dem Begriff „The Great Decoupling" beschrieben: In vielen GSC-Properties stammten auffällig viele Impressions offenbar von Tool-Abfragen, nicht von realen Nutzern. Als Google an dieser Schraube drehte, divergierten Scraper-Traffic und echte Nutzerimpressionen sichtbar.

Sein Beitrag dazu: https://brodieclark.com/the-great-decoupling-num100/

Was danach passierte, ist lehrreich. DataForSEO entwickelte innerhalb weniger Wochen einen Workaround, der dieselben 100 Ergebnisse mit nur zwei Crawls statt zehn abrufen konnte und damit die Kosten um 80 Prozent reduzierte. Google erkannte das Muster und blockierte den Workaround innerhalb von fünf Tagen. Die Ankündigungsseite von DataForSEO verschwand anschließend stillschweigend vom Netz: https://ppc.land/google-shuts-down-dataforseos-api-cost-cut-in-five-days/. Ahrefs meldete Ende Oktober 2025, das Top-100-Tracking über eine andere technische Route schrittweise wiederherzustellen: ppc.land – Ahrefs restores top-100 search result tracking. Ob Google auch diese Route schließen wird, ist offen.

Das ist kein technischer Zufall. Das ist aktives Gegenmanagement.


Was die Zahlen tatsächlich belegen

Die Auswirkungen auf Search-Console-Daten sind quantifiziert. Laut Auswertungen mehrerer SEO-Datenplattformen zeigten 87,7% aller beobachteten Sites einen Rückgang der Gesamt-Impressions, 77,6% verloren sichtbare Keywords. Die durchschnittliche Position verbesserte sich scheinbar, weil Rankings jenseits von Position 10 schlicht nicht mehr abgefragt wurden.

Clicks blieben stabil. Das ist der entscheidende Hinweis: Bots, die Rankings abrufen, klicken nicht. Was in deinen Impression-Zahlen verschwunden ist, war nie echter Nutzer-Traffic. Die scheinbar verbesserte Click-Through-Rate ist ein mathematisches Artefakt, kein Leistungsgewinn.

Wenn du diese Zusammenhänge nicht kanntest oder nicht schnell genug kommuniziert hast, hast du evtl. (Kunden-) Gespräche geführt, in denen du Panik erklären musstest, die keine reale Grundlage hatte.


Methodische und betriebswirtschaftliche Fragilität

Methodisch standest du schon vor September 2025 auf dünnem Eis, nur war es weniger sichtbar.

Scheinpräzision. Granulare Rankings, tägliche Sichtbarkeitskurven und pixelgenaues SERP-Features-Tracking wirken präzise, sind aber oft nur Stichproben mit unbekannten Biases durch Personalisierung, Lokalisierung, Device-Mix, Test-Varianten und Index-Splits. Zwei Tools messen dasselbe Keyword für dieselbe Domain und kommen zu unterschiedlichen Ergebnissen. Das ist kein Bug. Das ist das System. Falls du das noch nicht erlebt hast: Sistrix und SE Ranking im direkten Keyword-Vergleich zeigt genau das.

Messartefakte. Werden lange SERP-Seiten nicht mehr geladen, sinken Impressions künstlich, während die durchschnittliche Position steigt. Nicht weil du besser rankst, sondern weil weniger Ergebnisseiten abgefragt werden.

Vendor-Lock-in. Ganze Reporting-Stacks hängen an proprietären Scrape-Pipelines und heuristischen Normalisierungen. Fällt der Rohstoff weg, erodiert das Produkt, das deine Kunden eingekauft haben.

Betriebswirtschaftlich ist das gefährlich. Hohe Fixkosten für Crawling-Infrastruktur, Proxies und Anti-Bot-Umgehung treffen auf Datenquellen, die jederzeit ohne Vorwarnung wegfallen. Deine Kunden sehen Metrik-Sprünge, deren Ursache bei Google liegt. Vertrauen leidet, Churn steigt. Roadmaps werden reaktiv: Firefighting statt Produktstrategie.


Warum Google die Daumenschrauben weiter anzieht

Es gibt wenig Anreiz für Google, massenhaftes SERP-Scraping dauerhaft zu tolerieren.

Scrapes erzeugen Serverlast ohne Nutzerwert. In einer Zeit, in der Google massiv in eigene KI-Infrastruktur investiert und Compute knapp und teuer ist, ist jede parasitäre Last ein betriebswirtschaftliches Problem. Dazu kommt: Dritte, einschließlich LLM-Anbieter, können SERPs als Rohstoff anzapfen und in eigenen Produkten verwerten. Das ist Googles primärem Geschäftsmodell direkt zuwider, und Google hat gezeigt, dass es Gegenmaßnahmen aktiv durchsetzt. Der DataForSEO-Fall ist dafür kein Einzelbeispiel, sondern ein Muster. Wer mehr über Googles fragwürdige Produktpolitik im Datenbereich lesen will, findet in der 5-Jahres-Analyse zu GA4 weitere einschlägige Beispiele.

Mit AI Overviews und AI Mode verschiebt Google außerdem selbst die Interaktion weg von „10 Blue Links" hin zu kontextuellen Antworten. Jede UI-Änderung verändert die Scrape-Ökologie und damit die Datenverfügbarkeit. Die Blue Links bleiben, Zusammenfassungen gewinnen an Gewicht.

Für dich als SEO-Praktiker bedeutet das: Weniger vorhersagbare Klickpfade, mehr Volatilität, mehr Test-Varianten und noch fragilere Scrape-Daten.


Drei Konsequenzen für die SEO-Praxis

Die SEO-Community hat sich ein Maß an Abhängigkeit von nicht belastbaren Strukturen aufgebaut, das strategisch nicht zu halten ist. Drei Konsequenzen, die du direkt umsetzen kannst.

Metrik-Hygiene. Kennzahlen-Definitionen offenlegen: Was wurde gemessen, unter welchen Annahmen? Plötzliche Sprünge kritisch prüfen und in Dashboards annotieren. Ein einfacher Eintrag „Parameter-Change Google, 11.09.2025" erspart dir Erklärungsaufwand beim nächsten Kundengespräch. Fokus verschieben: Statt täglicher Pseudo-Präzision lieber robuste Tendenzen, reale Nachfrage, Conversions und messbarer Beitrag zum Geschäftswert.

Permissioned Data First. Search Console und Logfiles als Primärquellen aufwerten. Real User Signals, Crawl- und Serve-Muster, Statuscodes, Rendering: Das sind Daten, auf die Google keinen Schalter umlegen kann, weil sie aus deiner eigenen Infrastruktur kommen. Was Search Console im Vergleich zu anderen Quellen wirklich leistet und wo ihre Grenzen liegen, habe ich im Vergleich zwischen Bing Webmaster Tools und Google Search Console beleuchtet. Branchenweite, anonymisierte Panels mit klarer Governance sind sauberer als heimliches Scraping. Offizielle APIs, Datenkooperationen und browsernahe Telemetrie unter strengen Datenschutzauflagen gehören langfristig in jeden robusten Reporting-Stack.

Tool-Architektur entkoppeln. Feature-Detection resilienter bauen: mehr Client-Side-Parsing, domänenspezifische Fallbacks, Test-Suites gegen SERP-Varianten. Datenpipelines versionieren und Metrik-Migrationspfade bereitstellen, also automatisches Re-Baselining bei Google-Änderungen. Gegenüber deinen Kunden Change-Logs, Confidence-Scores und Unsicherheitsintervalle kommunizieren. Nicht als Schwäche, sondern als Zeichen von Kompetenz.


LLM-Suche: Noch eine Baustelle

Neue Suchsysteme auf LLM-Basis verschieben die Wertschöpfung in eine Richtung, die Scrape-basierte KPIs weiter entwertet. Antwort-zentrierte UIs reduzieren Klicks auf klassische Ergebnisse. Wenn du deine KPIs allein um Impressions und Positionen gebaut hast, misst du zunehmend etwas, das immer weniger mit Geschäftswert korreliert.

LLM-Anbieter setzen außerdem zunehmend auf lizenzierte, aggregierte oder proprietäre Feeds statt auf öffentliche SERP-Scrapes. Wer nur auf geduldetes Scraping setzt, verliert Anschluss an genau die Stellen, an denen KI-Suchsysteme ihre Informationen tatsächlich beziehen. Retrieval verändert sich: Strukturierte, maschinenlesbare Inhalte, klare Quellenzitation und direkte Feeds werden wichtiger als „Ranking auf Position X". Wie du deinen Content für diese Systeme aufbereitest, zeigt der Leitfaden zu strukturierten Daten für AI Search.

Das ist keine ferne Zukunft. Das läuft gerade.


Ein Weg aus dem Dilemma

Ein zukunftsfähiger Pfad kombiniert Technik, Prozesse und Governance.

Erlaubte Datenströme priorisieren: offizielle APIs (Search Console, Ads), Partnerschaften, Content-Lizenzen, First-Party-Messung. Ja, das ist unvollständig im Vergleich zu Scrape-Daten. Aber es ist verlässlich.

Wirkung messen statt Position: Task Success, SERP-CTR unter realen Nutzerkohorten, On-SERP-Visibility einschließlich AI Overviews, Downstream-Conversions, Customer LTV. Das sind Metriken, die Google nicht mit einem URL-Parameter-Update wegräumen kann. Was die veränderte Sichtbarkeit durch AI Overviews konkret für deinen Traffic bedeutet, habe ich in Googles neue KI-Features: SEO-Auswirkungen, Traffic-Verluste, Gegenstrategien aufgedröselt.

Content für Retrieval und Attribution optimieren: klare Strukturen via Schema.org, präzise Snippets, E-E-A-T mit echten Belegen, dedizierte Answer Fragments, Feed- und API-Angebote für KI-Suchintegrationen.

Branchenstandard fördern: Gemeinsame Panels, Auditierbarkeit, Dokumentation von Metrikbrüchen, offene Referenz-Datasets. Weniger Wettbewerb über geheime Scrape-Pipelines, mehr über Interpretationskompetenz und Qualität der Analyse.

Fazit

Der num=100-Fall war kein Randproblem für Tool-Entwickler. Er war ein Weckruf für die gesamte Branche. Deine Reports sind nur so belastbar wie ihre stillschweigenden Annahmen. Wer weiterhin auf geduldete Scrapes als Primärrohstoff setzt, baut auf Treibsand, mit Google als sprichwörtlichem Ein-Schalter-Risiko. Die Zukunft gehört Permissioned Data, klarer Attribution in LLM-Ökosystemen und einer Profession, die Unsicherheit nicht kaschiert, sondern einpreist und erklärt.


Häufige Fragen zur Abhängigkeit von SEO-Tools von Google-Daten

Was war der num=100-Parameter und warum ist er verschwunden?

Der num=100-Parameter war ein URL-Zusatz, der Google dazu brachte, bis zu 100 Suchergebnisse auf einer Seite anzuzeigen statt der üblichen 10. SEO-Tools nutzten ihn jahrelang, um Ranking-Daten effizienter und kostengünstiger abzurufen. Am 11. September 2025 hat Google ihn ohne offizielle Ankündigung deaktiviert und nachträglich als „nicht formal unterstützt" bezeichnet. Die wahrscheinlicheren Gründe: Infrastrukturkosten, Schutz vor massenhaftem KI-Scraping und aktives Gegenmanagement gegen Dritt-Tools.

Warum brachen meine Impressions in der Search Console Mitte September 2025 ein?

Das ist ein Messartefakt, kein Ranking-Verlust. Viele Tool-Abfragen haben in der Search Console als Impressions gezählt, obwohl keine echten Nutzer dahinterstanden. Als Google den num=100-Parameter abschaltete, verschwanden diese bot-generierten Impressions aus den Reports. Clicks blieben stabil, weil Bots nie geklickt haben. Was wie ein Traffic-Einbruch aussieht, ist in Wirklichkeit eine Bereinigung aufgeblähter Messzahlen.

Ist SERP-Scraping durch SEO-Tools legal?

Nein, formal nicht. Googles Terms of Service untersagen explizit automatisierte Abfragen ohne ausdrückliche Genehmigung. Trotzdem basiert ein Großteil der SEO-Tool-Branche auf genau diesem Scraping: de facto geduldet, aber rechtlich und technisch jederzeit einschränkbar. Das ist kein Geheimnis, wurde aber selten so offen thematisiert wie nach dem num=100-Vorfall.

Welche Datenquellen sind als Alternative zu SERP-Scraping verlässlich?

Search Console ist Pflicht: Real User Signals, tatsächliche Clicks, Crawl-Muster und Indexierungsstatus kommen direkt aus Googles Infrastruktur und lassen sich nicht durch einen Parameter-Wechsel verzerren. Logfiles ergänzen das Bild um echte Crawler- und Nutzeraktivitäten auf Serverebene. Paneldaten mit klarer Governance sind transparenter als Scrape-Pipelines. Offizielle APIs liefern verlässlichere Grundlagen als geduldetes Scraping.

Was bedeutet der num=100-Einschnitt für LLM-basierte Suchwerkzeuge?

Auch LLM-Anbieter haben SERP-Daten als Rohstoff für Trainingsdaten und Live-Retrieval genutzt. Durch die Einschränkung wird Bulk-Datenzugriff deutlich teurer und aufwendiger. Gleichzeitig setzen LLM-Suchsysteme zunehmend auf lizenzierte Feeds statt auf öffentliche SERP-Scrapes. Wer nur auf geduldetes Scraping setzt, verliert schrittweise Anschluss an die Informationsquellen, die KI-Suchen tatsächlich verwenden.

Was bedeutet das konkret für dein SEO-Reporting gegenüber Kunden?

Du solltest alle Dashboards mit dem 11. September 2025 als Bruchpunkt annotieren, damit historische Vergleiche nicht in die Irre führen. Außerdem ist jetzt der richtige Zeitpunkt, Metriken zu verschieben: weg von Impressions und Durchschnittspositionen, hin zu Clicks, Conversions und Geschäftswert. Das ist nicht nur transparenter gegenüber Kunden, sondern auch robuster gegenüber Googles nächstem Parameter-Entscheid.

Aktualisiert am 7 April 2026