Skip to main content

Black Hat SEO

Was in verseuchten Nischen wirklich passiert und warum der Überblick kein optionaler Luxus ist.


tl;dr: Black Hat SEO ist kein Museumsthema. In hart umkämpften Nischen sind die Methoden aktiv im Einsatz, und Negative SEO trifft auch Websites, die sich selbst nichts zuschulden kommen lassen haben. Wer das Spielfeld kennt, erkennt Angriffe früher, kann gezielter gegensteuern und trifft fundiertere Entscheidungen über das eigene Risikoprofil. Dieser Artikel erklärt, was existiert und welche Konsequenzen drohen. Er ist keine Anleitung zur Umsetzung.


Was ist Black Hat SEO?

Black Hat SEO bezeichnet Optimierungsmaßnahmen, die bewusst gegen die Richtlinien von Suchmaschinen verstoßen. Das Ziel: Rankings künstlich verbessern, ohne dass die Qualität der Website das rechtfertigt. Der Begriff stammt aus klassischen Western, wo der Bösewicht am schwarzen Hut zu erkennen war. Im SEO-Kontext ist die Metapher halbwegs treffend, aber sie verdeckt einen wichtigen Punkt: Die Grenzen zwischen Black Hat, Grey Hat und aggressivem White Hat SEO sind in der Praxis fließender, als die meisten Definitionen eingestehen.

Die Geschichte ist schnell erzählt. Als die ersten Suchmaschinen in den 1990er-Jahren entstanden, haben Webmaster sofort nach Wegen gesucht, die Algorithmen auszutricksen. Keyword Stuffing, versteckter Text, Linktausch-Netzwerke – das war die erste Generation. Google hat darauf reagiert, die Branche hat sich angepasst, Google hat wieder reagiert. Dieses Katz-und-Maus-Spiel läuft bis heute. Die Methoden sind raffinierter geworden, die Erkennungsmechanismen auch.

Zur Einordnung: Ich halte die meisten Grey-Hat-Taktiken und alle Black-Hat-Methoden im normalen Projektgeschäft in der Schublade. Nicht aus Naivität, sondern weil das Risiko für den Kunden in den meisten Fällen den möglichen Nutzen deutlich übersteigt. Trotzdem sollte jeder, der sich professionell mit SEO beschäftigt, wissen, was auf dem Spielfeld passiert. Wer Angriffe nicht erkennt, kann sie auch nicht abwehren. Und in manchen Nischen – Affiliate, Glücksspiel, Finance, stark kompetitiver E-Commerce – gehört es zur Realität, dass Wettbewerber nicht zimperlich sind.


Klassische Methoden und wie sie funktionieren

Cloaking

Beim Cloaking bekommt Google einen anderen Inhalt zu sehen als der menschliche Besucher. Das kann über verschiedene Wege passieren: Die Server-IP des Googlebot wird erkannt und er bekommt einen perfekt optimierten Artikel ausgeliefert, während echte Nutzer auf eine Spam- oder Phishing-Seite umgeleitet werden. Andere Varianten nutzen User-Agent-Erkennung oder JavaScript-basierte Redirects.

Das Risiko: Google vergleicht regelmäßig, was der Crawler sieht und was ein normaler Browser sieht. Wird Cloaking entdeckt, folgt meist sofortige Deindexierung, keine Abstrafung mit Ranking-Verlust, sondern kompletter Ausschluss.

Keyword Stuffing und versteckter Text

Keywords in absurd hoher Dichte zu wiederholen war in den frühen 2000er-Jahren eine akzeptierte Praxis, weil die Algorithmen damals tatsächlich primär auf Worthäufigkeit reagiert haben. Das Ergebnis waren Texte, die für Menschen nicht lesbar waren. Die modernere Variante ist subtiler: Keywords werden im Quellcode versteckt, als weißer Text auf weißem Hintergrund, in winziger Schriftgröße oder in für den Nutzer unsichtbaren HTML-Elementen (sogenannte Hidden Divs). Google erkennt beides zuverlässig.

Linkfarmen und Private Blog Networks (PBNs)

Backlinks gelten seit den Anfängen von Google als zentrale Ranking-Signale. Deshalb war es nur eine Frage der Zeit, bis jemand angefangen hat, Backlinks industriell zu produzieren. Linkfarmen sind Netzwerke aus Websites, die ausschließlich dazu existieren, Links zu setzen. Private Blog Networks (PBNs) sind die ausgefeiltere Version: Dabei kauft jemand mehrere abgelaufene Domains mit noch vorhandener Linkpopularität, baut scheinbar unabhängige Websites auf diesen Domains auf und nutzt sie, um gezielt Links auf die eigentliche Zielseite zu setzen.

Moderne PBNs arbeiten mit KI-generierten Texten, glaubhaften Autorenbiografien und aktiven Social-Media-Profilen, um den Anschein echter Websites zu erwecken. Googles Penguin-Update zielt speziell auf unnatürliche Linkprofile ab. Wenn ein PBN identifiziert wird, können alle beteiligten Domains gleichzeitig abgestraft werden.

Content Spinning und AI Spam

Beim Content Spinning wird ein Ausgangstext automatisiert umformuliert, um viele scheinbar einzigartige Textvarianten zu erzeugen. Frühere Spinning-Software produzierte erkennbaren Unsinn. Mit heutigen LLMs ist das anders: Vollständig KI-generierter Content in großem Maßstab, ohne menschliche Qualitätssicherung, ist eine der verbreitetsten aktuellen Black-Hat-Methoden. Google hat seine Richtlinien 2023 klargestellt: Die Frage ist nicht, ob ein Text von KI oder Menschen geschrieben wurde, sondern ob er für Menschen nützlich ist oder primär dazu dient, Suchmaschinen zu manipulieren. Programmatische Spam-Seiten in großem Maßstab landen regelmäßig in Googles manuellen Aktionen.


Neuere Methoden: KI, Schema-Missbrauch, Deepfake SEO

Schema Markup Manipulation

Strukturierte Daten helfen Suchmaschinen, Inhalte besser zu verstehen, und führen bei korrekter Implementierung zu Rich Snippets in den Suchergebnissen. Schema-Missbrauch bedeutet, falsche Informationen im Markup zu hinterlegen: gefälschte Bewertungen im AggregateRating-Markup, erfundene FAQ-Inhalte, irreführende Produkt- oder Preisinformationen. Google prüft aktiv, ob Schema-Daten mit dem sichtbaren Seiteninhalt übereinstimmen, und schließt Seiten bei Abweichungen von Rich-Snippet-Anzeigen aus.

E-E-A-T Fälschung

E-E-A-T – Experience, Expertise, Authoritativeness, Trustworthiness – ist Googles Framework zur Qualitätsbewertung. Die Black-Hat-Reaktion darauf ist die Fabrikation von Autorität: KI-generierte Autorenprofile mit fotorealistischen Porträts, erfundene Qualifikationen, gefälschte Erwähnungen in vermeintlich seriösen Quellen. Deepfake SEO geht noch einen Schritt weiter: Fake-Video-Testimonials, geklonte Stimmen für Podcasts und KI-generierte Fachartikel mit fingierten Quellenangaben. Das zielt darauf ab, Google davon zu überzeugen, dass eine Seite echte Expertise demonstriert.

Local SEO Spam und Google Business Profile Manipulation

Lokale Suchergebnisse sind besonders anfällig für Manipulation: gefälschte Unternehmenseinträge mit erfundenen Adressen, Keyword Stuffing im Firmennamen des Google Business Profile (was gegen Googles Richtlinien verstößt), koordinierte Fake-Bewertungskampagnen. Für lokale KMUs ist das ein reales Problem, weil Wettbewerber mit manipulierten Einträgen kurzfristig sichtbarer erscheinen können und echte Bewertungsprofile damit beschädigt werden.

Click Farming und User-Signal-Manipulation

Wenn Nutzerverhalten als Ranking-Signal gewichtet wird, ist es nur folgerichtig, dass jemand versucht, dieses Verhalten zu fälschen. Click Farming bedeutet: Bots oder bezahlte Nutzer klicken gezielt auf bestimmte Suchergebnisse, um Klickraten zu simulieren. Dwell-Time-Manipulation verlängert künstlich die Verweildauer. Ob diese Taktiken tatsächlich zuverlässig funktionieren und wie stark Google User-Signale direkt gewichtet, ist in der SEO-Community weiterhin umstritten. Die Prozessdokumente aus dem DOJ-Antitrust-Fall gegen Google (2024) haben einige Hinweise geliefert, ohne die Frage abschließend zu klären.

SERP Spoofing

Eine seltenere, aber technisch elegante Methode: Die dynamische Anpassung des Title-Tags je nach Besucher. Google-Crawler sehen einen seriösen, optimierten Titel. Echte Nutzer sehen in den Suchergebnissen einen Clickbait-Titel, der auf der eigentlichen Seite gar nicht existiert. Das funktioniert, weil Google gelegentlich gecachte Versionen von Seiten für Snippet-Anzeigen nutzt.


Grey Hat SEO: Die Grauzone

Grey Hat SEO ist der Bereich, in dem keine eindeutige Richtlinien-Verletzung vorliegt, aber auch kein sauberes White-Hat-Vorgehen. Die Grauzone ist nicht statisch: Was Google 2018 toleriert hat, kann 2025 zu einer manuellen Maßnahme führen. Das ist keine abstrakte Warnung, sondern gelebte Realität für SEOs, die auf Gastartikel-Kampagnen, Expired-Domain-Strategien oder aggressive Ankertextprofile gesetzt haben.

Parasite SEO bezeichnet das Platzieren von optimierten Inhalten auf fremden, hochautoritären Domains, um dort besser zu ranken als mit der eigenen Website. Das Prinzip: Eine Plattform mit starkem Domain-Trust wird als Vehikel genutzt. Legale Varianten davon sind Gastbeiträge oder PR-Veröffentlichungen. Die missbräuchliche Variante wurde 2025 und 2026 an einem konkreten Beispiel deutlich: Das britische Unternehmen Clickout Media hat systematisch renommierte Newsmarken aufgekauft, die Redaktionen aufgelöst, durch KI-generierte Pseudo-Journalisten ersetzt und die Seiten mit Affiliate-Links zu Offshore-Glücksspielanbietern geflutet. Die erworbene Domainautorität der Ursprungsmarken wurde als Ranking-Instrument für Gambling-Traffic genutzt. Was folgte, ist gleichzeitig ein Parasite-SEO-Fall und ein Lehrstück in Reputation-Manipulation: Als Press Gazette darüber investigierte, verschwand der Artikel kurz nach Veröffentlichung per DMCA-Beschwerde aus Googles Index. Mehr dazu im nächsten Abschnitt.

Übermäßige Gastbeitrags-Kampagnen bewegen sich dann in der Grauzone, wenn der Fokus klar auf Linkgenerierung liegt und der redaktionelle Nutzen nachrangig ist. Google hat 2023 erneut betont, dass Links in Gastbeiträgen als werblich zu kennzeichnen sind.

Expired-Domain-Strategien nutzen Domains mit noch bestehender Linkpopularität für Weiterleitungen auf neue Projekte oder als PBN-Basis. Auch das liegt technisch oft in der Grauzone zwischen legitimem Domain-Investment und gezielter Algorithmus-Manipulation.

Meine eigene Haltung dazu: Im normalen Kundengeschäft bleiben die meisten Grey-Hat-Methoden in der Schublade. Die Risiken sind selten gut kalkulierbar, und ein Algorithmus-Update kann eine Strategie, die jahrelang funktioniert hat, über Nacht zerstören. In hochkompetitiven, nachweislich verseuchten Nischen kann das anders aussehen. Aber das ist eine Einzelfallentscheidung, die transparent mit dem Kunden besprochen werden muss, nie eine Standardmethode.


Negative SEO: Wenn der Angriff von außen kommt

Das ist der Teil, der in vielen SEO-Artikeln stiefmütterlich behandelt wird, aber in der Praxis der relevanteste Abschnitt ist. Negative SEO bezeichnet alle Maßnahmen, die darauf abzielen, die Rankings einer fremden Website zu schädigen. Du bist das Ziel, nicht der Angreifer.

Link-basiertes Negative SEO

Der Klassiker: Massenhafte Spam-Links auf die Konkurrenz setzen, bevorzugt mit toxischen Ankertexten aus Nischen wie Glücksspiel, Pharma oder Erotik. Das Ziel ist, das Linkprofil der Zielseite so zu verunreinigen, dass Googles Algorithmus oder das Webspam-Team einschreitet. Seit dem Penguin-Update ist Google laut eigener Aussage resistenter gegen diese Taktik, weil der Algorithmus besser zwischen natürlichen und manipulativen Links unterscheiden soll. In der Praxis gibt es aber immer noch Fälle, in denen massiver Link-Spam nachweisbar Schaden anrichtet.

Dokumentierter Fall: Expedia verlor 2014 erheblich an Sichtbarkeit in den US-Suchergebnissen, nachdem ein unnatürliches Linkprofil mit keyword-reichen Ankertexten identifiziert wurde. Ob das Ergebnis einer Negative-SEO-Kampagne oder eigener Black-Hat-Aktivitäten war, wurde nie abschließend geklärt. Der Fall illustriert, wie schwer es ist, den Ursprung in solchen Situationen eindeutig zu beweisen.

Technisches Negative SEO

Das ist der blinde Fleck vieler SEOs, weil es zunächst nicht wie ein SEO-Angriff aussieht:

  • Crawling-Overload durch Bots, der die Server-Performance und damit Core Web Vitals verschlechtert

  • Einschleusen von Malware oder Spam-Links über Sicherheitslücken in der Website

  • Manipulation von robots.txt oder .htaccess nach einem Hack

  • Einschleusen von Noindex-Tags oder falschen Canonical-Angaben über gehackte Server-Zugänge

Ein gehacktes CMS, das unbemerkt Noindex-Meta-Tags auf alle Seiten schreibt, ist kein reines IT-Problem. Es ist ein existenzielles Sichtbarkeitsproblem. Ich habe solche Fälle bei Kunden gesehen, bei denen es Wochen gedauert hat, bis der Traffic-Einbruch der richtigen Ursache zugeordnet wurde. Regelmäßige Server-Log-Analyse und Sicherheitsmonitoring sind keine Luxus-Disziplin, sondern Pflicht.

Reputations-basiertes Negative SEO

Fake-Bewertungen auf Google Business Profile, Trustpilot oder Branchenportalen sind die sichtbarste Form. Weniger offensichtlich, aber wirksam: koordinierte negative Erwähnungen in Foren und auf Social Media, falsche DMCA-Beschwerden bei gehosteten Inhalten oder – die neue Eskalationsstufe – gezielte Angriffe auf die Indexierung über das DMCA-System von Google.

DMCA-Missbrauch als Negative-SEO-Waffe

Das ist 2026 kein theoretisches Szenario mehr. Der Digital Millennium Copyright Act (DMCA) ist ein US-amerikanisches Urheberrechtsgesetz, das Rechteinhabern ermöglicht, Inhalte bei Google zu melden, die ihre Rechte verletzen. Google muss solche Beschwerden prüfen und betroffene URLs aus dem Index entfernen. Das Problem: Die Hürde für eine DMCA-Beschwerde ist niedrig, die Verifikation der Berechtigung ist unzureichend, und die Entfernung aus dem Index passiert innerhalb von sechs bis 24 Stunden. Eine Wiederherstellung kann Wochen dauern.

Im März 2026 veröffentlichte Press Gazette einen Investigativbericht über Clickout Media – das oben beschriebene Parasite-SEO-System. Innerhalb weniger Tage nach Veröffentlichung verschwand der Artikel aus Googles Index. Gleichzeitig wurde ein Follow-up-Artikel von Search Engine Land über denselben Fall durch identisch aufgebaute DMCA-Beschwerden entfernt. Als Beschwerdeführer war eine Entität ohne verifizierbaren öffentlichen Hintergrund eingetragen. Beide Artikel wurden nach öffentlichem Druck in der SEO-Community relativ schnell wieder aufgenommen, eine Ausnahme vom üblichen langen Wiederherstellungsprozess.

Was das strukturell bedeutet: Wer eine DMCA-Beschwerde einreicht, muss keine Identität belegen, keinen Eigentumsnachweis erbringen und hat keinen unmittelbaren Nachteil, wenn die Beschwerde sich als unbegründet erweist. Das Ziel ist im Zeitfenster erreichbar: Für den Zeitraum, in dem ein Artikel nicht indexiert ist, verschwindet er aus dem öffentlichen Diskurs. Für Affiliate-Sites, bei denen 70 bis 90 Prozent des Umsatzes über organischen Traffic läuft, kann selbst eine kurze Entfernung erhebliche finanzielle Folgen haben. Für einen kritischen Investigativbericht kann es bedeuten, dass die öffentliche Aufmerksamkeit vor der Wiederherstellung verpufft.

Schutzmaßnahmen gegen Negative SEO

  • Backlinkprofil regelmäßig monitoren (Search Console + Ahrefs oder vergleichbares Tool)

  • Google Alerts für Markennamen und wichtige Keywords einrichten

  • Proaktive Disavow-Maßnahmen bei erkennbar toxischen Link-Mustern

  • Server-Logs auswerten, Malware-Scanner einsetzen, regelmäßige Backups mit versionierten Snapshots wichtiger Seiten

  • Bewertungsprofile auf relevanten Plattformen beobachten

  • Veröffentlichungsdaten dokumentieren und Inhalte archivieren (relevant für DMCA-Gegendarstellungen)

  • Search Console täglich auf Benachrichtigungen zu manuellen Aktionen und DMCA-Entfernungen prüfen


Googles Gegenmaßnahmen

Google kämpft auf mehreren Ebenen gegen SEO-Manipulation.

Algorithmus-Updates bilden das Rückgrat. Panda (2011) hat Websites mit dünnen oder duplizierten Inhalten abgestraft. Penguin (2012) hat unnatürliche Linkprofile ins Visier genommen. Hummingbird (2013) und BERT (2019) haben das Sprachverständnis erheblich verbessert und Keyword-Tricks damit weniger wirksam gemacht. Diese Updates sind nicht abgeschlossen, sondern laufen seither als kontinuierliche Systeme weiter.

Manuelle Aktionen ergänzen die algorithmischen Maßnahmen. Googles Webspam-Team untersucht verdächtige Websites, wenn Beschwerden eingehen oder automatische Systeme Anomalien melden. Betroffene Website-Betreiber erhalten eine Benachrichtigung in der Search Console, mit Hinweis auf die Art des Verstoßes. Manuelle Aktionen können seitenübergreifend oder auf einzelne Bereiche begrenzt sein.

KI-basierte Erkennung läuft kontinuierlich: Machine-Learning-Modelle analysieren Textmuster, Linkstrukturen und Nutzerverhalten. Das macht es schwieriger, neue Black-Hat-Methoden unentdeckt zu skalieren. Googles internes Rater-System und die daraus resultierenden Trainingsdaten fließen in die Erkennungssysteme ein.

Trotz allem: Google ist kein perfekter Filter. False Positives kommen vor – Websites, die ohne eigenes Verschulden in Sippenhaft geraten. Und neue Methoden haben in der Regel ein Zeitfenster, bevor die Erkennung nachzieht. Das ist strukturell unvermeidlich in einem System, das im laufenden Betrieb lernen muss. Die Branche hat den Algorithmus immer nur einen Schritt hinter sich, nie zwei.


Rechtliche Konsequenzen

In Deutschland und der EU gibt es mehrere Rechtsgebiete, die bei Black-Hat-Methoden relevant werden können.

Urheberrecht: Content Scraping – das Kopieren fremder Texte und Bilder – ist eine Urheberrechtsverletzung. Abmahnungen und Schadensersatzforderungen sind die typischen zivilrechtlichen Folgen. Die Gegenseite muss aktiv werden, Google schützt nicht automatisch.

Wettbewerbsrecht: Negative SEO durch gezielte Schädigung eines Wettbewerbers kann als unlauterer Wettbewerb nach UWG gewertet werden und zivilrechtliche Unterlassungsansprüche auslösen. Cloaking und Fake-Bewertungen können als irreführende Werbung eingestuft werden. Gekaufte Links, die nicht als Werbung gekennzeichnet sind, gelten als Schleichwerbung (§ 4 UWG in Verbindung mit § 6 Abs. 1 Nr. 1 TMG). Abgemahnt werden kann der Auftraggeber der SEO-Maßnahme, nicht der ausführende Dienstleister, der Auftraggeber kann aber seinerseits beim Dienstleister Regress nehmen, wenn die Maßnahmen nicht vereinbart waren.

Strafrecht: Das Hacken von Websites zur Einschleusung von Spam-Links oder zur Manipulation von Dateien ist nach § 202c StGB strafbar. Falsche DMCA-Beschwerden können in den USA als Meineid gewertet werden. In Deutschland wäre das Einreichen falscher Tatsachenbehauptungen zur gezielten Schädigung eines Wettbewerbers nach UWG verfolgbar.

Datenschutz (DSGVO): Aggressive Tracking-Methoden, die ohne Einwilligung personenbezogene Daten sammeln, verstoßen gegen die DSGVO. Das betrifft bestimmte Click-Farming-Setups, bei denen Nutzerdaten ohne Rechtsgrundlage verarbeitet werden.

Die rechtliche Verfolgung ist im Einzelfall schwierig, weil Angreifer oft über anonymisierte Strukturen agieren und der Nachweis der Urheberschaft für Negative-SEO-Kampagnen aufwendig ist. Das bedeutet nicht, dass Klagen unmöglich sind, sondern dass der präventive Schutz im Regelfall relevanter ist als der reaktive Rechtsweg.


FAQ

  • Was ist Black Hat SEO?

    Black Hat SEO bezeichnet Optimierungsmaßnahmen, die gegen die Richtlinien von Suchmaschinen verstoßen, um Rankings künstlich zu verbessern. Dazu gehören Techniken wie Cloaking, Keyword Stuffing, Linkfarmen, versteckter Text und der Missbrauch strukturierter Daten. Entdeckte Verstöße führen zu algorithmischen oder manuellen Abstrafungen bis hin zur vollständigen Deindexierung.

  • Was ist der Unterschied zwischen Black Hat und White Hat SEO?

    White Hat SEO hält sich an die Richtlinien der Suchmaschinen und optimiert durch hochwertige Inhalte, nachvollziehbare Linkstruktur und gute Nutzererfahrung. Black Hat SEO versucht, Algorithmen durch Täuschung auszutricksen, ohne echten Mehrwert für Nutzer zu schaffen. Dazwischen liegt die Grauzone des Grey Hat SEO, die Methoden umfasst, die nicht eindeutig verboten, aber auch nicht sauber konform sind.

  • Was ist Negative SEO?

    Negative SEO bezeichnet Maßnahmen, die darauf abzielen, die Rankings einer fremden Website zu schädigen. Das kann durch massenhafte Spam-Links auf die Zielseite, Fake-Bewertungen, technische Angriffe nach einem Hack oder zuletzt auch durch den Missbrauch des DMCA-Beschwerdeverfahrens geschehen, um Seiten gezielt aus Googles Index zu drängen.

  • Was ist Grey Hat SEO?

    Grey Hat SEO umfasst Methoden, die nicht eindeutig gegen Googles Richtlinien verstoßen, aber auch kein sauberes White-Hat-Vorgehen darstellen. Typische Beispiele sind übermäßige Gastbeitrags-Kampagnen mit primärem Linkbuilding-Fokus, Parasite SEO auf fremden Domains und der Einsatz von abgelaufenen Domains mit noch vorhandener Linkpopularität. Was als Grey Hat gilt, kann sich mit neuen Algorithmus-Updates verschieben.

  • Wie erkenne ich einen Negative-SEO-Angriff?

    Warnsignale sind ein plötzlicher Traffic- oder Ranking-Einbruch ohne erkennbares Algorithmus-Update, ein ungewöhnlicher Anstieg an externen Links mit toxischen Ankertexten im Backlinkprofil, gehäufte negative Bewertungen in kurzer Zeit, unbekannte Malware oder verdächtige Skripte auf dem Server sowie DMCA-Benachrichtigungen in der Search Console. Regelmäßiges Monitoring des Backlinkprofils und der Search Console ist die wichtigste Prävention.

  • Was ist Cloaking bei SEO?

    Beim Cloaking wird Suchmaschinen-Crawlern ein anderer Seiteninhalt angezeigt als menschlichen Besuchern. Das kann über IP-Erkennung, User-Agent-Erkennung oder JavaScript-basierte Weiterleitungen funktionieren. Google erkennt Cloaking durch automatisierte Vergleiche und manuelle Überprüfungen. Entdecktes Cloaking führt in der Regel zur sofortigen Deindexierung der betroffenen Seite.


Du erkennst in deiner Nische Anzeichen, dass jemand nicht sauber spielt?

Du brauchst einen SEO-Berater, der das Spielfeld kennt. Ich schau mir das an. Kein Agenturapparat, kein Verkaufsgespräch - direkter Austausch über das, was wirklich los ist.

SEO mit System: Mehr Sichtbarkeit bei Google und in KI-Antworten

feller.systems - Technisch präzise. Strategisch durchdacht.
Auf Wirkung und Nachhaltigkeit optimiert.

© Carsten Feller | feller.systems