Skip to main content

Onpage-SEO: Der praxisnahe Leitfaden für bessere Rankings

Onpage-SEO ist der Teil der Suchmaschinenoptimierung, den du vollständig selbst kontrollierst. Dieser Leitfaden zeigt dir, wie die einzelnen Elemente zusammenwirken – und wo du tatsächlich anfangen solltest.


Onpage-SEO ist der Teil der Suchmaschinenoptimierung, den du vollständig selbst kontrollierst. Keine Abhängigkeit von fremden Websites, keine Bittstellerei bei Journalisten wegen Backlinks. Was auf deinen eigenen Seiten passiert, liegt bei dir. Das ist die gute Nachricht. Die weniger gute: Die meisten Websites lassen genau hier die größten Potenziale liegen, weil Onpage-Optimierung unterschätzt wird, halbherzig umgesetzt wird oder weil man beim letzten Relaunch einfach nie damit angefangen hat.

Dieser Leitfaden zeigt dir, wie Onpage-SEO strukturiert funktioniert – von den technischen Grundlagen über Content-Qualität bis zu den Elementen, die 2025 auch für AI Search und Google-Funktionen wie AI Overviews relevant sind.


tl;dr

Onpage-SEO umfasst alle Optimierungen direkt auf deiner Website – Content-Qualität, technische Faktoren, Meta-Tags und Nutzerführung. Es ist die kontrollierbares Grundlage für bessere Rankings und qualifizierten Traffic.

Kernfakten:

  • Title-Tags: 50–60 Zeichen, Hauptkeyword möglichst früh, jede Seite individuell.

  • Meta Descriptions: bis 155 Zeichen, klarer Nutzen erkennbar – sie sind kein Rankingfaktor, beeinflussen aber die Klickrate.

  • Interne Verlinkung verteilt Crawling-Ressourcen und stärkt thematische Cluster. Wichtige Seiten sollten maximal 3 Klicks von der Startseite entfernt sein.

  • Core Web Vitals: Seit März 2024 ist INP (Interaction to Next Paint) der relevante Interaktionswert, FID ist abgelöst.

  • Strukturierte Daten (Schema.org) helfen nicht nur Google – sie sind auch für AI-Systeme wie AI Overviews und Perplexity relevant.


Was ist Onpage-SEO?

Onpage-SEO umfasst alle Maßnahmen zur Suchmaschinenoptimierung, die du direkt auf deiner Website umsetzt. Dazu gehören inhaltliche Entscheidungen, technische Konfigurationen und strukturelle Aspekte – alles, was innerhalb deiner eigenen Domain liegt und damit von dir direkt steuerbar ist.

Im Kern geht es darum, Suchmaschinen dabei zu helfen, den Inhalt und die Relevanz einer Seite zu verstehen – und gleichzeitig dafür zu sorgen, dass Besucher finden, was sie suchen. Beides ist untrennbar miteinander verbunden. Eine Seite, die gut für Suchmaschinen optimiert ist, aber die Nutzerfrage nicht wirklich beantwortet, wird langfristig nicht gut ranken. Eine inhaltlich starke Seite mit schwacher technischer Basis wird möglicherweise gar nicht erst richtig gecrawlt.

Die drei Säulen der Onpage-Optimierung:

  • Inhaltliche Optimierung: Relevanz, Tiefe, Suchintention und Content-Struktur

  • Technische Optimierung: Ladezeit, Indexierung, URL-Struktur, strukturierte Daten

  • Strukturelle Optimierung: Interne Verlinkung, Seitenhierarchie, Navigation

Warum Onpage SEO wichtig ist

Onpage-SEO ist der Bereich, der am direktesten deinen Einfluss widerspiegelt. Du kannst innerhalb von Stunden Dinge verändern, die sich messbar auf dein Ranking auswirken. Backlinks von fremden Seiten bekommst du nicht auf Abruf. Ein schwacher Title-Tag lässt sich dagegen heute Nachmittag korrigieren.

Konkrete Effekte guter Onpage-Optimierung:

  • Höhere Sichtbarkeit in den Suchergebnissen durch klar strukturierten, relevanten Content

  • Bessere Klickraten durch aussagekräftige Titel und Meta Descriptions

  • Mehr Konversionen, weil Besucher schnell finden, was sie gesucht haben

  • Bessere Crawl-Effizienz: Suchmaschinen-Bots haben ein Budget – sie crawlen nicht jede Seite beliebig oft. Eine sauber strukturierte Website sorgt dafür, dass die wichtigen Seiten tatsächlich häufig gecrawlt werden.

Onpage-SEO ist kein einmaliges Projekt. Algorithmen ändern sich, Wettbewerber optimieren kontinuierlich, und die eigene Website wächst. Regelmäßige Überprüfung gehört dazu.


Abgrenzung zu anderen SEO-Bereichen

Damit klar ist, worüber wir reden:

  • Onpage- vs. Offpage-SEO: Offpage-SEO betrifft alles, was außerhalb deiner Website passiert – vor allem Backlinks und Erwähnungen auf anderen Seiten. Das liegt außerhalb deiner direkten Kontrolle.

  • Onpage- vs. technisches SEO: Technisches SEO ist ein Teilbereich des Onpage-SEO, fokussiert aber speziell auf Indexierbarkeit, Ladezeiten und technische Infrastruktur. Die Grenze ist fließend. In diesem Leitfaden behandle ich beides unter Onpage-SEO.

  • Onpage-SEO vs. Content-Marketing: Content-Marketing umfasst die gesamte Strategie hinter der Content-Erstellung und -Verbreitung. Onpage-SEO ist die technische und strukturelle Optimierung dieses Contents.


Grundlegende Elemente der Onpage-Optimierung

Keyword-Optimierung

Keyword-Optimierung bedeutet 2025 nicht mehr, einen Begriff so oft wie möglich in einen Text zu stopfen. Google versteht semantische Zusammenhänge inzwischen deutlich besser als noch vor fünf Jahren. Was zählt:

  • Keyword-Recherche: Welche Suchbegriffe verwendet deine Zielgruppe tatsächlich? Was ist die dahinterliegende Suchabsicht?

  • Natürliche Integration: Keywords gehören in Title, H1, erste 100 Wörter, Alt-Texte und Anchor-Texte – aber nicht auf Kosten der Lesbarkeit.

  • Semantische Tiefe: Thematisch verwandte Begriffe, die den Kontext für Suchmaschinen klarer machen, gehören in jeden gut geschriebenen Text automatisch rein. Du musst sie nicht erzwingen.

  • Long-Tail-Keywords: Spezifische, längere Suchanfragen konvertieren oft besser als breite Begriffe und haben weniger Wettbewerb.

Content-Qualität und Struktur

Hochwertige Inhalte sind das, was Google mit EEAT (Experience, Expertise, Authoritativeness, Trustworthiness) meint. Für dich in der Praxis:

  • Originalität: Eigene Perspektiven, Beispiele aus der eigenen Erfahrung, konkrete Zahlen statt vager Allgemeinaussagen

  • Aktualität: Veraltete Inhalte kosten Sichtbarkeit – nicht weil Google sie bestraft, sondern weil neuere Inhalte sie schlicht verdrängen

  • Klare Überschriftenstruktur (H1, H2, H3) für Lesbarkeit und Crawler-Verständnis

  • Scanbarkeit: Absätze, Listen, Zwischenüberschriften. Die meisten Leser überfliegen zuerst.

Technische On-Page-Elemente

  • Meta-Tags (Title, Description) für Sichtbarkeit in den SERPs

  • URL-Struktur: kurz, aussagekräftig, Keyword enthalten

  • Interne Verlinkung für Seitenautorität und Navigation

  • Bildoptimierung für Ladezeit und visuelle Suche

Mobile Optimierung

Google indexiert deine Website primär nach der mobilen Version. Das ist seit Jahren Standard und kein optionales Extra. Responsive Design ist Pflicht, keine Kür. Besonders auf kleinen Bildschirmen wichtig: Schriftgrößen, Button-Abstände, Ladezeiten.

User Experience

UX und SEO sind keine konkurrierenden Disziplinen. Lange Verweildauer, niedrige Absprungrate, Wiederkehrende Besucher – diese Signale wertet Google aus. Eine Website, die Benutzer schnell wegklicken lässt, signalisiert Google, dass die Suchintention nicht erfüllt wird. Intuitive Navigation, schnelle Ladezeiten und erreichbare Inhalte sind keine Schönheitsmaßnahmen, sondern Rankingfaktoren.

Strukturierte Daten

Schema.org-Markup hilft Suchmaschinen, den Kontext deiner Inhalte zu verstehen. Rich Snippets in den SERPs (Sternebewertungen, FAQ-Blöcke, Ereignisdaten) erhöhen die Klickrate. Dazu kommt ein Aspekt, der 2024 und 2025 zunehmend relevant wird: Strukturierte Daten helfen nicht nur Google, sondern auch AI-Systemen wie AI Overviews, Perplexity oder ChatGPT dabei, deine Inhalte sauber zuzuordnen und zu zitieren.


Content-Optimierung: Das Herzstück des Onpage SEO

Was hochwertigen Content ausmacht

Qualitativ hochwertiger Content erfüllt die Suchintention des Nutzers vollständig, gelegentlich auch die Anschlussfragen, die danach kommen. Das bedeutet nicht automatisch, dass jeder Beitrag 3.000 Wörter haben muss. Es bedeutet, dass der Nutzer nach dem Lesen keine weiteren Suchanfragen zu demselben Thema benötigt.

Konkrete Merkmale:

  • Suchintention trifft: Informationeller, transaktionaler oder navigationaler Intent – der Content passt zum, was der Nutzer in diesem Moment braucht.

  • Tiefe: Oberflächliche „Was ist X?" Artikel ranken 2025 schwerer als noch 2019. Google bevorzugt Inhalte, die ein Thema wirklich durchdringen.

  • Aktualität: Veraltete Fakten oder überholt wirkende Beispiele schaden der Glaubwürdigkeit. Regelmäßige Aktualisierung lohnt sich.

  • Einzigartigkeit: Nicht das Zehnte Inhaltsverzeichnis zu demselben Thema, das du 1:1 von der Konkurrenz abgeschrieben hast. Eigene Perspektive, eigene Beispiele.

Content-Formate und ihre Stärken

  • Longreads (1.500+ Wörter): Starke Abdeckung für informationelle Suchanfragen, hohe Chance auf Featured Snippets, gut für Themenautorität. Aber: Länge allein ist kein Qualitätsmerkmal.

  • Listicles: Passt zum Scan-Verhalten vieler Nutzer. Kann Featured Snippets begünstigen, wenn gut strukturiert.

  • How-To-Guides: Bedienen spezifische, handlungsorientierte Suchabsichten. Gut für HowTo-Schema.

  • Infografiken und Tabellen: Erhöhen Verweildauer, fördern Backlinks und werden in AI Overviews gelegentlich direkt eingebunden.

Direktantworten, Featured Snippets und AI Overviews

Wer in Featured Snippets erscheinen will, muss Fragen direkt beantworten. Nicht mit einem langen Einleitungsabsatz, der erst erklärt, dass man jetzt eine Frage beantworten wird – sondern mit der Antwort selbst, in den ersten zwei bis drei Sätzen nach der Frageüberschrift.

Dasselbe gilt für AI Overviews. Google extrahiert für seine KI-Zusammenfassungen häufig exakt jene Passagen, die klar, direkt und faktisch sind. Komplizierte Schachtelsätze und ausschweifende Einleitungen werden übersprungen. Knapp, klar, präzise – das ist der Stil, der für AI Search funktioniert.

Ein Frage-Antwort-Format, strukturierte Listen und eindeutige Definitionen erhöhen die Chance, in AI Overviews aufzutauchen, messbar.

Content-Cluster und Themenautorität

Das Pillar-Cluster-Modell ist keine neue Erfindung, aber nach wie vor eine der stärksten inhaltlichen Strategien. Die Logik: Ein umfassender Leitartikel (Pillar) deckt ein Hauptthema ab. Darum gruppieren sich thematisch enger gefasste Cluster-Beiträge, die über interne Links mit dem Pillar verknüpft sind.

Ergebnis: Google erkennt die thematische Tiefe einer Domain schneller. Du wirst in deinem Bereich als Autorität wahrgenommen – nicht nur für ein einzelnes Keyword, sondern für das gesamte Themenfeld.

User-Generated Content

Kommentare, Bewertungen, Forenbeiträge – nutzergenerierte Inhalte können Long-Tail-Keywords generieren und frischen Content liefern, ohne dass du selbst schreibst. Der Haken: Du brauchst eine aktive Community, und Qualitätskontrolle kostet Zeit. Für die meisten KMU ist UGC kein realistischer erster Schritt.

Content-Performance messen

Kennzahlen, die relevant sind:

  • Organischer Traffic (Google Search Console, Pirsch, Matomo)

  • Durchschnittliche Position je Keyword

  • Klickrate in den SERPs

  • Verweildauer und Absprungrate (mit Vorsicht interpretieren – nicht jede kurze Session ist eine schlechte)

  • Conversion-Rate der jeweiligen Seite

A/B-Tests für Überschriften und Meta Descriptions sind möglich, erfordern aber ausreichend Traffic für valide Ergebnisse. Regelmäßige Content-Audits alle sechs Monate helfen dabei, veraltete oder schwache Seiten zu identifizieren.


Technische Aspekte der Onpage-Optimierung

Technisches SEO ist der Teil, den Besucher nicht sehen – aber der darüber entscheidet, ob Suchmaschinen deinen Content überhaupt sehen. Ein detaillierter Blick auf alle technischen SEO-Aspekte findet sich im Leitfaden Technisches SEO.

Website-Architektur und URL-Struktur

Eine flache Seitenstruktur – bei der wichtige Inhalte mit maximal drei Klicks von der Startseite aus erreichbar sind – macht es Crawlern leichter, alle Seiten zu erfassen. Tiefe Verzeichnisstrukturen mit sechs oder sieben Ebenen können dazu führen, dass Google tiefer liegende Seiten seltener oder gar nicht crawlt.

URLs sollten kurz, lesbar und keyword-haltig sein. Sonderzeichen, Session-IDs oder automatisch generierte Parameter in URLs sind ein regelmäßiger Problemherd. Eine ausführliche Behandlung von URL-Strukturen und Seitenhierarchien findest du im Leitfaden zur Website-Struktur.

Breadcrumb-Navigation dient sowohl der Nutzerführung als auch der Signalisierung der Seitenarchitektur an Suchmaschinen. BreadcrumbList-Schema macht die Hierarchie für AI-Systeme zusätzlich auswertbar.

Mobile-First-Indexierung

Google indexiert die mobile Version deiner Website. Was auf dem Smartphone nicht sichtbar oder erreichbar ist, kann das Ranking beeinträchtigen. Responsive Design ist Standard. Darüber hinaus: Schriftgrößen, die auf kleinen Bildschirmen noch lesbar sind, ausreichend Abstand zwischen klickbaren Elementen, keine horizontalen Scrollbars.

Ladegeschwindigkeit und Core Web Vitals

Ladegeschwindigkeit ist seit 2021 offiziell ein Rankingfaktor. Google misst dazu die Core Web Vitals:

  • LCP (Largest Contentful Paint): Zeit bis das größte sichtbare Element geladen ist. Zielwert: unter 2,5 Sekunden.

  • INP (Interaction to Next Paint): Zeit von einer Nutzerinteraktion (Klick, Tastendruck) bis zur visuellen Antwort der Seite. Zielwert: unter 200 Millisekunden. Hinweis: FID (First Input Delay) wurde von Google im März 2024 durch INP ersetzt. Viele ältere SEO-Leitfäden nennen noch FID – das ist überholt.

  • CLS (Cumulative Layout Shift): Unerwartete Layoutverschiebungen während des Ladens. Zielwert: unter 0,1.

Die PageSpeed Insights von Google und die Core-Web-Vitals-Berichte in der Google Search Console sind die direkten Messinstrumente.

HTTPS und Sicherheit

Ein SSL-Zertifikat ist seit Jahren Standard und kein Differenzierungsmerkmal mehr. Was aber nach wie vor schiefgeht: gemischte Inhalte (HTTP-Ressourcen auf HTTPS-Seiten), abgelaufene Zertifikate, oder Weiterleitungsketten, die Performance und Link-Juice kosten. Regelmäßige Audits mit einem Crawler wie Screaming Frog decken diese Probleme auf.

Strukturierte Daten und Schema Markup

Schema.org-Markup ist die Sprache, in der du Suchmaschinen den Kontext deiner Inhalte explizit mitteilst. Produkt, Bewertung, FAQ, Artikel, lokales Unternehmen – für die meisten Inhaltstypen gibt es passende Schemas. JSON-LD ist das bevorzugte Format (Google empfiehlt es ausdrücklich), weil es unabhängig vom HTML sitzt und leichter zu pflegen ist.

Rich Snippets, die aus strukturierten Daten entstehen, erhöhen die Klickrate in den SERPs messbar. Und wie bereits erwähnt: AI-Systeme nutzen strukturierte Daten als Kontext für ihre Antworten. Wer also auch in AI Overviews oder durch ChatGPT-Plugins gefunden werden will, sollte Schema.org nicht als optionales Extra behandeln.

XML-Sitemap und robots.txt

Eine aktuelle XML-Sitemap ist kein Ranking-Geheimnis, aber sie hilft Google dabei, neue und aktualisierte Inhalte schneller zu finden. Sie sollte ausschließlich Seiten enthalten, die du auch indexiert haben möchtest – keine noindexed Seiten, keine 404er, keine Duplikate.

Die robots.txt steuert, was gecrawlt werden darf. Sie verhindert keine Indexierung – das erledigt das noindex-Meta-Tag. Eine häufige Fehlannahme: Ein Disallow in der robots.txt schützt Staging-Systeme vor der Indexierung. Tut es nicht. Die sichere Methode ist Passwortschutz.

Internationales SEO und Hreflang

Für Websites mit mehrsprachigen oder länderspezifischen Versionen: Hreflang-Tags teilen Google mit, welche Sprachversion für welche Nutzer gedacht ist. Falsch implementiert – und das passiert erstaunlich häufig – führen Hreflang-Tags zu mehr Verwirrung als Nutzen. Wer eine einsprachige Website für den DACH-Markt betreibt, muss sich damit nicht beschäftigen.

JavaScript-Rendering

JavaScript-lastige Websites stellen Crawler vor Herausforderungen. Suchmaschinen können JavaScript zwar grundsätzlich verarbeiten, aber das Rendering erfolgt verzögert und mit geringerer Priorität als statisches HTML. Kritische Inhalte – Überschriften, Body-Text, Links – sollten im initialen HTML-Response vorhanden sein. Server-Side Rendering oder statisches Rendering löst dieses Problem zuverlässig.


Meta-Tags und HTML-Elemente optimieren

Title-Tag: Der erste Eindruck

Das Title-Tag ist eines der stärksten Ranking-Signale. Gleichzeitig ist es das, was Nutzer in den Suchergebnissen zuerst sehen. Optimierungsregeln:

  • Länge: 50–60 Zeichen, sonst wird der Titel abgeschnitten. Google kann Titel umschreiben, wenn sie zu lang oder irrelevant wirken.

  • Keyword-Position: Das Hauptkeyword möglichst weit vorne. Google gewichtet früh erscheinende Begriffe stärker.

  • Einzigartigkeit: Jede Seite bekommt ihren eigenen Titel. Doppelte Title-Tags sind ein häufiger technischer Fehler.

  • Marke: Der Markenname am Ende ist ein gängiges und sinnvolles Muster, z. B. „Onpage SEO Leitfaden | feller.systems".

Meta Description: Klickrate statt Ranking

Meta Descriptions beeinflussen das Ranking nicht direkt. Sie sind aber dein Werbeplatz im SERP. Eine präzise, nutzenorientierte Description erhöht die Klickrate. Empfehlungen:

  • Maximal 155 Zeichen – sonst wird sie abgeschnitten

  • Klarer Nutzwert erkennbar: Was bekommt der Nutzer, wenn er klickt?

  • Keywords hinein, weil Google sie fett markiert, wenn sie mit der Suchanfrage übereinstimmen

  • Keine Versprechen, die die Seite nicht einlöst

Google überschreibt Meta Descriptions gerne selbst – besonders dann, wenn es der Meinung ist, dass eine andere Passage der Seite besser zur Suchanfrage passt. Das passiert. Du kannst es nicht vollständig verhindern, aber mit einer gut geschriebenen Description die Wahrscheinlichkeit reduzieren, dass Google etwas Schlechteres wählt.

Header-Tags: Struktur für Mensch und Maschine

  • H1: Genau eine pro Seite. Sie sollte das Hauptthema benennen und das Hauptkeyword enthalten.

  • H2, H3: Logische Gliederung des Inhalts. Nicht jede Überschrift muss ein Keyword enthalten – Lesbarkeit geht vor.

  • Konsistenz: Die Überschriftenstruktur sollte einer sinnvollen Hierarchie folgen. H3 unter H2, nicht H3 direkt nach H1.

Meta-Robots-Tag

Steuert, ob Suchmaschinen eine Seite indexieren und Links folgen sollen. Praxisrelevante Optionen:

  • noindex: Seite wird nicht in den Index aufgenommen

  • nofollow: Links auf der Seite werden nicht verfolgt

  • noarchive: Verhindert die Anzeige einer gecachten Version

Wichtig: Wird eine Seite in der robots.txt geblockt und gleichzeitig mit einem noindex-Tag versehen, kann der Crawler das noindex-Tag nicht lesen. Das blockierte Crawling hat Vorrang – mit dem Ergebnis, dass Google die Seite möglicherweise weiterhin im Index behält, ohne den Inhalt zu kennen.

Canonical-Tag: Duplicate Content vermeiden

Das Canonical-Tag teilt Google mit, welche URL die „offizielle" Version einer Seite ist. Das wird relevant bei:

  • URL-Parametern, die denselben Inhalt unter verschiedenen Adressen ausgeben (z. B. Filter in Shops)

  • Inhalten, die auf mehreren Seiten identisch erscheinen

  • HTTP- vs. HTTPS-Versionen

Die Selbstreferenz – jede Seite verweist im Canonical auf sich selbst – ist eine saubere Praxis, die viele technische Probleme präventiv verhindert.

Strukturierte Daten: HTML-Semantik erweitern

Bereits im Abschnitt zur Website-Architektur angesprochen. Die wichtigsten Schema-Typen für Content-Seiten:

  • Article: Für Blogbeiträge und Leitartikel

  • FAQPage: Erhöht die Chance auf FAQ-Rich-Snippets direkt in den SERPs und ist gut für AI Overviews

  • HowTo: Für Anleitungen mit klar definierten Schritten

  • BreadcrumbList: Für Navigationsstruktur

Open Graph und Social Tags

Open Graph Tags (og:title, og:description, og:image) kontrollieren, wie deine Seiten aussehen, wenn sie auf Facebook, LinkedIn oder WhatsApp geteilt werden. Twitter/X verwendet eigene twitter:card-Tags. Wer diese nicht pflegt, überlässt dem Browser oder der Plattform die Entscheidung – und das Ergebnis ist meistens suboptimal.

Alt-Attribute für Bilder

Alt-Texte beschreiben den Bildinhalt für Screenreader und für Suchmaschinen, die Bilder nicht sehen können. Gute Alt-Texte sind kurz, beschreibend und passen zum Kontext des umgebenden Texts. Keyword-Stuffing in Alt-Texten wird von Google erkannt und hilft nichts. Maximale sinnvolle Länge: ca. 125 Zeichen.


Interne und externe Verlinkung

Bedeutung der internen Verlinkung

Interne Links erfüllen drei Funktionen gleichzeitig: Sie helfen Nutzern, mehr relevante Inhalte zu finden. Sie verteilen Autorität (Link Equity) von starken auf schwächere Seiten. Und sie zeigen Suchmaschinen-Crawlern, welche Seiten existieren und wie sie zusammenhängen.

Ohne interne Verlinkung entstehen sogenannte Waisen-Seiten: Seiten, auf die kein anderer interner Link zeigt. Google crawlt sie seltener, weil sie nicht erreichbar sind, und gibt ihnen entsprechend weniger Gewicht.

Strategien für effektive interne Verlinkung

  • Natürliche Platzierung: Links gehören in den Fließtext, wo sie für den Leser tatsächlich weiterführend sind. Seitenbars und Footer-Links zählen weniger.

  • Anchor-Text: Beschreibend, keyword-nah, aber nicht überoptimiert. „Hier klicken" ist wertlos. „Leitfaden zur Website-Struktur" ist gut.

  • Tiefe Verlinkung: Nicht nur auf die Startseite oder Hauptkategorien verlinken, sondern auf spezifische Unterseiten.

  • Neue Inhalte verlinken: Wenn du einen neuen Beitrag veröffentlichst, sorge dafür, dass ältere relevante Seiten auf ihn zeigen. Sonst bleibt er eine Waisen-Seite.

Externe Verlinkung: Qualität vor Angst

Ausgehende Links auf relevante, vertrauenswürdige Quellen schaden nicht. Sie helfen Nutzern und zeigen Google, dass du inhaltlich einordnen kannst, wovon du redest. Die Idee, niemals extern zu verlinken, um „Link Juice zu behalten", ist ein Irrtum aus früheren SEO-Zeiten. Relevanter Kontext schlägt inhaltslose Verlinkungsangst.

Was du vermeiden solltest: Links auf Seiten mit schlechter Reputation, Links auf konkurrierende Seiten ohne Grund, tote Links (404).

Verlinkungsstruktur messen

Screaming Frog und Sitebulb visualisieren deine interne Verlinkung und zeigen, welche Seiten gut verlinkt sind und welche nicht. Die Google Search Console zeigt externe Backlinks. Regelmäßige Crawls alle drei bis sechs Monate reichen für die meisten kleineren Websites.


Bild- und Multimedia-Optimierung

Warum das mehr als Fleißarbeit ist

Bilder sind oft der größte Bremsklotz für Ladezeiten. Gleichzeitig ist die Google-Bildersuche ein eigenständiger Traffic-Kanal, der von vielen komplett ignoriert wird. Gut optimierte Bilder können in der Bildersuche ranken, in AI Overviews auftauchen und Backlinks anziehen.

Bildoptimierung

  • Dateiformat: WebP ist der aktuelle Standard und bietet bei vergleichbarer Qualität deutlich kleinere Dateigrößen als JPEG oder PNG. AVIF ist noch effizienter, aber die Browserunterstützung war 2024 noch nicht universell.

  • Komprimierung: Tools wie Squoosh, TinyPNG oder direkte CMS-Plugins reduzieren die Dateigröße ohne sichtbaren Qualitätsverlust.

  • Responsive Images: Das srcset-Attribut liefert je nach Bildschirmauflösung die passende Bildgröße. Kein mobiler Nutzer sollte ein 2.000px-Bild herunterladen müssen.

  • Lazy Loading: Bilder unterhalb des sichtbaren Bereichs (below the fold) werden erst geladen, wenn der Nutzer dorthin scrollt. Das verbessert LCP und initiale Ladezeit. Seit Chrome 76 per loading="lazy" nativ unterstützt.

Alt-Text und Dateiname

Sinnvolle Dateinamen statt IMG_12345.jpg: Der Dateiname ist ein schwaches Signal, das aber zusammen mit Alt-Text und umgebendem Kontext für die Bildersuche relevant ist. Ein Bild eines SEO-Dashboards sollte seo-dashboard-google-search-console.jpg heißen, nicht screenshot003.jpg.

Alt-Texte: kurz, präzise, kontextuell passend. Kein Keyword-Stuffing.

Video-SEO

Videos selbst hosten oder auf YouTube: Beide Optionen haben Vorteile. Eigenes Hosting: du behältst die Kontrolle und den Traffic. YouTube: zusätzliche Sichtbarkeit auf einer der meistbesuchten Plattformen der Welt, plus die Chance auf Video-Rich-Snippets in Google.

Für selbst gehostete Videos empfiehlt sich ein VideoObject-Schema und eine Video-Sitemap. Transkripte verbessern die Zugänglichkeit und geben Suchmaschinen Text zum Indexieren.

Infografiken

Infografiken funktionieren als Backlink-Magnet, wenn sie echte Daten visualisieren oder komplexe Zusammenhänge vereinfachen. Ergänze sie immer mit Fließtext – Suchmaschinen können das Bild nicht lesen, aber den Text darunter.

Performance-Monitoring

Die Google Search Console zeigt, welche Bilder in der Bildersuche Traffic generieren. PageSpeed Insights zeigt, welche Bilder die größten Ladezeit-Probleme verursachen. Beides sind Startpunkte für priorisierte Optimierung.


Onpage SEO Tools und ihre Anwendung

Kein Tool ersetzt das Verständnis dafür, was du eigentlich messen willst. Mit diesem Vorbehalt: Hier sind die Kategorien und die relevantesten Werkzeuge.

Technische Analyse

  • Google Search Console: Unverzichtbar. Zeigt Indexierungsstatus, Crawl-Fehler, Core Web Vitals aus echten Nutzerdaten, Suchperformance und mehr. Kostenlos.

  • Screaming Frog SEO Spider: Der De-facto-Standard für technische Crawls. Findet defekte Links, analysiert Meta-Tags, Überschriften, Canonical-Tags und visualisiert die Seitenstruktur. Kostenlos bis 500 URLs.

  • PageSpeed Insights: Liefert Lab- und Field-Daten zur Seitengeschwindigkeit inklusive Core Web Vitals. Direkt von Google.

Analytics

  • Matomo und Pirsch: Datenschutzkonforme Alternativen zu Google Analytics, die für den deutschen Markt besonders relevant sind. Kein Cookie-Consent für anonymisierte Daten erforderlich.

  • Google Analytics 4: Nach wie vor die breiteste Verbreitung, umfangreiche Funktionen. Für Behörden und stark regulierte Branchen in Deutschland nach dem Schrems-II-Urteil problematisch.

Keyword-Recherche und Ranking

  • Ahrefs und Sistrix: Umfangreiche Datenbanken für Keyword-Recherche, Wettbewerbsanalyse, Ranking-Tracking und Backlink-Analyse. Ahrefs hat eine der größten gecrawlten Datenbanken, Sistrix ist besonders stark im DACH-Raum.

  • SE Ranking: Günstigere Alternative mit solider Keyword-Datenbank und brauchbarem SERP-Tracking.

Content-Analyse

Content-Tools, die KI nutzen, um Texte auf semantische Tiefe oder Keyword-Dichte zu optimieren (Surfer SEO, Frase, etc.), können als Orientierung dienen. Sie sollten aber nicht die inhaltliche Entscheidung ersetzen. Ein Text, der 15 von 18 empfohlenen Keywords enthält, aber keine Suchintention trifft, rankt trotzdem nicht.

AI-gestützte Analyse

KI-Tools helfen bei Content-Gap-Analysen, automatisierten Audits und Massenupdates von Meta-Tags. Der Einsatz ist sinnvoll für große Websites mit hunderten oder tausenden Seiten, bei denen manuelle Überprüfung nicht skaliert. Für kleinere Websites übersteigt der Einrichtungsaufwand oft den Nutzen.


Fortgeschrittene Onpage SEO-Techniken

Semantische SEO und Entity-basierte Optimierung

Google versteht Entitäten – Personen, Orte, Unternehmen, Konzepte. Texte, die Entitäten klar benennen und in Relation setzen, helfen Google, den Kontext präziser einzuordnen. Das bedeutet in der Praxis: präzise Sprache, klare Definitionen, eindeutige Verweise. Nicht „das Unternehmen", sondern der Name. Nicht „der Gründer", sondern der Vorname.

Knowledge Graph-Präsenz entsteht nicht durch Wikidata-Einträge, die du selbst erstellst, sondern durch externe Erwähnungen, strukturierte Daten und eine konsistente Online-Präsenz, die Google aus verschiedenen Quellen verifi zieren kann. Selbst erstellte Wikidata-Einträge für normale Unternehmen werden regelmäßig gelöscht.

Technisches SEO auf Expertenebene

  • Progressive Web Apps (PWAs): Können die Nutzererfahrung verbessern, sind aber kein eigenständiger Ranking-Faktor. Relevant für web-basierte Anwendungen, weniger für klassische Unternehmenswebsites.

  • JavaScript-Rendering: Bereits oben behandelt. Kritische Inhalte gehören in den initialen HTML-Response.

  • Log-File-Analyse: Zeigt, welche Seiten Googlebot tatsächlich crawlt, wie oft und mit welchem Budget. Geht über das hinaus, was die Search Console zeigt. Für größere Websites ein unterschätztes Werkzeug.

Erweiterte Content-Optimierung

  • Search Intent auf zweiter Ebene: Nicht nur die offensichtliche Frage beantworten, sondern die Anschlussfragen antizipieren, die danach kommen. Das ist der Unterschied zwischen einem Artikel, der einen Besucher hält, und einem, der ihn zurück zur Google-Suche schickt.

  • Content-Updates mit Datum: Frische signalisieren. Wann immer du einen Beitrag inhaltlich aktualisierst, lohnt es sich, das Aktualisierungsdatum zu setzen und eine kurze Notiz hinzuzufügen, was geändert wurde.

Datenanalyse und Priorisierung

Das größte Optimierungspotenzial liegt fast immer nicht bei den Seiten auf Platz 1, sondern bei denen auf Platz 4 bis 15. In diesem Ranking-Bereich bringen kleine Verbesserungen – besser Title Tag, bessere interne Verlinkung, aktualisierter Content – die größten messbaren Traffic-Zuwächse. Ein einfacher Export aus der Google Search Console nach Impressionen bei niedrigen Klickraten zeigt dir dieses Potenzial schwarz auf weiß.

UX-Metriken als SEO-Signal

Google nutzt Nutzersignale. Scroll-Tiefe, Klickpfade, Wiederkehrrate – all das fließt in die Bewertung ein, auch wenn Google die genaue Gewichtung nie offenlegt. Eine Seite, auf der Besucher schnell abspringen, weil der Inhalt nicht hält, was der Title verspricht, wird langfristig zurückfallen. UX und SEO optimieren für dasselbe Ziel: Menschen, die finden, was sie suchen.


Onpage SEO-Checkliste und Best Practices

Technische SEO-Checkliste

  • Ladezeiten optimiert (LCP unter 2,5 s, INP unter 200 ms, CLS unter 0,1)

  • HTTPS aktiv, keine gemischten Inhalte, kein abgelaufenes Zertifikat

  • XML-Sitemap aktuell und in der Search Console eingereicht

  • robots.txt korrekt konfiguriert

  • Defekte Links (404) identifiziert und behoben

  • Canonical Tags korrekt gesetzt, Selbstreferenzen vorhanden

  • Strukturierte Daten implementiert und im Rich Results Test validiert

  • Mobile-Darstellung auf verschiedenen Geräten geprüft

  • Core Web Vitals aus der Search Console ausgewertet

Content-Optimierungs-Checkliste

  • Keyword-Recherche und Suchintentions-Analyse abgeschlossen

  • H1 enthält Hauptkeyword, ist klar und eindeutig

  • Title-Tag: 50–60 Zeichen, Keyword früh, eindeutig je Seite

  • Meta Description: bis 155 Zeichen, Nutzwert erkennbar

  • Alt-Texte für alle relevanten Bilder vorhanden

  • Interne Links auf thematisch passende Seiten gesetzt

  • Keine Duplicate-Content-Probleme (Canonical gesetzt oder Duplikate bereinigt)

  • Content auf Aktualität geprüft (Zahlen, Tool-Funktionen, Referenzen)

  • Lesbarkeit: Absätze, Zwischenüberschriften, Listen vorhanden

UX Best Practices

  • Navigation intuitiv und auf allen Geräten nutzbar

  • Call-to-Actions vorhanden und sinnvoll platziert

  • Responsive Design auf Mobilgeräten verifiziert

  • Schriftgrößen auf kleinen Bildschirmen lesbar (mindestens 16px Fließtext)

  • Barrierefreiheit: semantisches HTML, ARIA-Labels wo nötig

Fortgeschrittene Taktiken

  • Topic Cluster entwickelt und intern konsistent verlinkt

  • FAQPage-Schema für relevante Fragen implementiert

  • Content für Featured Snippets optimiert (direkte Antworten, Listen, Tabellen)

  • A/B-Tests für Titel und Meta Descriptions durchgeführt (nur bei ausreichend Traffic sinnvoll)

  • Log-File-Analyse: Crawl-Verhalten von Googlebot analysiert

Regelmäßige Audits

  • Monatlich: Wichtigste SEO-KPIs in Search Console und Analytics prüfen

  • Vierteljährlich: Technisches SEO-Audit (Screaming Frog oder ähnliches)

  • Halbjährlich: Content-Audit, schwache oder veraltete Seiten identifizieren

  • Jährlich: Gesamtstrategie und Keyword-Ausrichtung überprüfen

Tools im Überblick

  • Google Search Console: technische Probleme, Suchperformance

  • Screaming Frog: technische Audits, Seitenstruktur

  • Google Analytics 4 / Matomo / Pirsch: Nutzerverhalten und Traffic

  • Ahrefs oder Sistrix: Keyword-Recherche, Wettbewerbsanalyse

  • PageSpeed Insights: Core Web Vitals


Häufige Fragen zum Onpage-SEO

  • Was ist Onpage-SEO und was gehört dazu?

    Onpage-SEO umfasst alle Maßnahmen zur Suchmaschinenoptimierung, die direkt auf der eigenen Website durchgeführt werden. Dazu gehören inhaltliche Optimierungen (Content-Qualität, Keyword-Einsatz, Suchintention), technische Maßnahmen (Ladezeiten, Indexierung, URL-Struktur, strukturierte Daten) und strukturelle Aspekte wie interne Verlinkung und Seitenhierarchie. Alles, was innerhalb der eigenen Domain liegt und direkt steuerbar ist, fällt unter Onpage-SEO.

  • Was ist der Unterschied zwischen Onpage-SEO und Offpage-SEO?

    Onpage-SEO betrifft alles, was du auf der eigenen Website optimieren kannst: Content, Technik, Meta-Tags, Struktur. Offpage-SEO umfasst externe Faktoren, auf die du keinen direkten Einfluss hast, vor allem Backlinks und Erwähnungen auf anderen Websites. Beide Bereiche sind wichtig, aber Onpage-SEO bildet die Grundlage: Ohne solide Onpage-Basis hilft auch ein starkes Backlinkprofil langfristig wenig.

  • Welche Core Web Vitals sind 2026 relevant?

    Google misst drei Core Web Vitals: LCP (Largest Contentful Paint) für die Ladezeit des Hauptinhalts, INP (Interaction to Next Paint) für die Reaktionszeit auf Nutzerinteraktionen, und CLS (Cumulative Layout Shift) für unerwartete Layoutverschiebungen. FID (First Input Delay) wurde von Google im März 2024 durch INP ersetzt. Zielwerte: LCP unter 2,5 Sekunden, INP unter 200 Millisekunden, CLS unter 0,1.

  • Wie lange sollte ein Title-Tag für SEO sein?

    Ein Title-Tag sollte idealerweise 50 bis 60 Zeichen lang sein. Längere Titel werden in den Suchergebnissen abgeschnitten. Das Hauptkeyword gehört möglichst weit nach vorne, weil Google früher erscheinenden Begriffen mehr Gewicht gibt. Jede Seite benötigt einen individuellen Titel, doppelte Title-Tags sind ein häufiger technischer Fehler.

  • Was sind strukturierte Daten und sind sie für AI Search relevant?

    Strukturierte Daten sind Auszeichnungen im Schema.org-Format, die Suchmaschinen den Kontext einer Seite explizit mitteilen: Was ist ein Produkt, was ist eine FAQ, was ist ein Artikel. Sie ermöglichen Rich Snippets in den Suchergebnissen und erhöhen die Klickrate. Für AI Search (AI Overviews, Perplexity, ChatGPT) sind strukturierte Daten zusätzlich indirekt relevant, weil sie AI-Systemen helfen, Inhalte korrekt zuzuordnen und als Quellen zu zitieren.

  • Wie oft sollte Onpage-SEO überprüft werden?

    Eine monatliche Überprüfung der wichtigsten Kennzahlen in der Google Search Console reicht für die meisten Websites aus. Technische SEO-Audits mit einem Crawler (z. B. Screaming Frog) sollten vierteljährlich durchgeführt werden. Content-Audits, bei denen veraltete oder schwache Seiten identifiziert und überarbeitet werden, empfehlen sich halbjährlich. Nach größeren Änderungen an der Website oder an der Seitenstruktur sollte zeitnah gecrawlt werden.


Wo Theorie auf deine Website trifft

Onpage-SEO ist kein Hexenwerk, aber es hat Tiefe. Die Checkliste oben zeigt dir, was zu tun ist. Was sie nicht zeigt: Warum manche Seiten trotz korrekter Optimierung nicht ranken, wo das eigentliche Potenzial deiner Domain liegt, und welche Maßnahmen für dich die größte Wirkung haben.

Das ist der Punkt, an dem externe Perspektive hilft. Nicht weil du das nicht selbst herausfinden könntest, sondern weil ein frischer Blick auf eine Website Dinge sieht, die man nach Jahren des Betreibens schlicht nicht mehr wahrnimmt.

Wenn du wissen willst, wie deine Website in diesen Bereichen aufgestellt ist, schau dir an, wie meine SEO-Beratung abläuft – oder melde dich direkt.

SEO mit System: Mehr Sichtbarkeit bei Google und in KI-Antworten

feller.systems - Technisch präzise. Strategisch durchdacht.
Auf Wirkung und Nachhaltigkeit optimiert.

© Carsten Feller | feller.systems