Technisches Fundament
Technisches SEO: saubere Indexierung, klare Signale
Technisches SEO ist die Grundlage dafür, dass Inhalte überhaupt die Chance haben, sauber zu ranken. Denn selbst gute Texte und eine klare Seitenstruktur helfen nur begrenzt, wenn Google durch falsche Canonicals, inkonsistente Statuscodes, fehlerhafte Sitemaps oder unnötige URL-Varianten ausgebremst wird.
Viele SEO-Probleme entstehen deshalb nicht sichtbar „auf der Seite“, sondern im Unterbau: Routing, Parameter, Pagination, Weiterleitungen, Schema-Ausgaben oder widersprüchliche Signale zwischen HTML, Robots und Sitemap. Das betrifft klassische CMS- und Shopsysteme genauso wie individuelle Websites – etwa Joomla, WordPress, TYPO3, Drupal, Shopify, Shopware oder WooCommerce.
Die gute Nachricht: Viele dieser Punkte lassen sich mit überschaubarem Aufwand bereinigen. Genau das schafft oft die Grundlage für stabilere Rankings, sauberere Zielseitenlogik und weniger technische Reibung im Betrieb.
Zur Übersicht: Weitere kompakte Praxisartikel finden Sie im Bereich SEO-Wissen.
Indexierung: was Google wirklich sieht
Technisches SEO beginnt mit einer einfachen Frage: Welche URL soll ranken – und was sieht Google tatsächlich? Genau hier entstehen in der Praxis viele Probleme: Parameter-URLs, inkonsistente Weiterleitungen, versehentlich indexierbare Such- oder Paginierungsseiten oder widersprüchliche Signale zwischen HTML, Robots und Sitemap.
Deshalb lohnt sich immer ein Blick auf die Grundlagen: Welche Statuscodes werden ausgeliefert? Welche Seiten stehen in der Sitemap? Welche URL ist per Canonical als „Hauptversion“ gesetzt? Und welche Varianten existieren zusätzlich? Erst wenn diese Basis sauber ist, kann Google Seiten zuverlässig crawlen und indexieren.
- Robots.txt und Sitemap-Eintrag prüfen
- Statuscodes (200/301/404/410) konsistent halten
- Parameter-URLs (z. B. Tracking oder Filter) begrenzen oder kanonisieren
Canonical: Duplikate vermeiden
Der Canonical-Tag ist ein zentrales Signal, wenn mehrere URL-Varianten technisch erreichbar sind. Er sagt Google, welche Version als bevorzugte Zielseite behandelt werden soll. Gerade bei CMS, Shops und komplexeren Websites sind hier Fehler schnell passiert – etwa doppelte Slashes, inkonsistente HTTPS-/www-Varianten oder mehrere konkurrierende Canonicals.
Wichtig ist: Pro Seite sollte es genau einen sauberen Canonical geben – und dieser sollte auf die tatsächlich gewünschte, indexierbare URL zeigen. Alles andere verwässert Signale und erschwert Google die Zuordnung.
- Nur ein Canonical pro Seite
- Kein Doppelslash und keine falsche Ziel-URL
- www / https / Trailing-Slash sauber vereinheitlichen
XML-Sitemap: vollständig und sauber
Die XML-Sitemap ist keine „Ranking-Abkürzung“, aber ein wichtiges Crawling-Signal. Sie sollte Suchmaschinen die Seiten zeigen, die wirklich indexiert werden sollen – und zwar ohne Widersprüche. Besonders häufig sind in der Praxis Sitemaps, die noindex-Seiten, Paginierungsreste oder veraltete URLs enthalten.
Deshalb gilt: Nicht nur erzeugen, sondern regelmäßig stichprobenartig prüfen. Vor allem nach Relaunches, Menüanpassungen, Redirect-Runden oder größeren Inhaltsänderungen lohnt sich ein Blick in Sitemap und Search Console.
- Nur indexierbare URLs aufnehmen (kein "noindex")
- Wichtige Hubs und Leistungsseiten vollständig enthalten
- Nach größeren Änderungen neu prüfen
Pagination (?start): richtig behandeln
Wenn Kategorien, Blog-Layouts oder Produktlisten viele Einträge enthalten, entstehen häufig Paginierungsseiten mit Parametern wie "?start=". Diese Seiten sind nicht automatisch falsch – sie können aber schnell zu dünnem, redundantem oder unnötig indexiertem Content werden.
Für kleine Hubs ist es oft die beste Lösung, Pagination zu vermeiden und alle Introtexte auf einer Seite auszugeben. Wenn Pagination nötig ist, sollten Canonicals, Index-Regeln und interne Verlinkung klar gezogen sein, damit der eigentliche Hub zählt – und nicht seine Blätter.
Zur Vertiefung der Zielseitenlogik: Keyword-Mapping & Kannibalisierung.
Redirects: Relaunch & 404-Recovery
Redirects gehören zu den wichtigsten technischen Maßnahmen bei Relaunches, URL-Änderungen oder Content-Bereinigungen. Gute Redirects bewahren Signale und Nutzerwege; schlechte Redirects erzeugen Ketten, Sackgassen oder unnötige Verluste.
Ein sauberer Redirect-Plan beginnt nicht erst nach dem Go-Live. Er sollte bereits vor Umstellungen die wichtigsten Alt-URLs, Backlink-Ziele und besonders sichtbaren Seiten berücksichtigen – und nach dem Launch über 404-Monitoring weiter gepflegt werden.
- Redirect-Plan vor Go-Live für wichtige Alt-URLs
- 404-Monitoring und gezielte Recovery-Redirects
- Keine Redirect-Ketten oder unnötigen Zwischenschritte
Schema/JSON-LD: strukturierte Daten stabil ausspielen
Strukturierte Daten helfen Suchmaschinen, Inhalte besser einzuordnen – etwa als WebPage, Service, FAQ oder Breadcrumb. Die Qualität hängt aber stark davon ab, wie Template, Plugins, Shop-Logik oder individuelle Erweiterungen zusammenspielen.
Wichtig ist hier weniger „möglichst viel Schema“, sondern ein stabiler, valider Kern: passende Typen, saubere IDs, nachvollziehbare Zuordnung zur Seite und keine doppelten oder widersprüchlichen Ausgaben.
- WebPage / Article / Breadcrumb / FAQ dort einsetzen, wo es sichtbar und inhaltlich passend ist
- Custom-Schema sauber konfigurieren – ohne falsche Wrapper oder ungültige Felder
- Schema nach Änderungen validieren
Kurz-Checkliste
- Canonical korrekt und nur 1× vorhanden
- Sitemap sauber – keine noindex- oder Alt-URLs
- Pagination geregelt oder bewusst vermieden
- Redirects und 404-Monitoring im Griff
- Schema validiert und ohne doppelte Ausgaben
Häufige Fragen (FAQ)
Warum ist ein Canonical mit doppeltem Slash problematisch?
Weil er unnötige URL-Varianten erzeugen oder inkonsistente Signale senden kann. Google kommt damit oft zurecht, aber es bleibt ein vermeidbarer technischer Fehler – und vermeidbare Fehler summieren sich.
Sollte man Pagination-Seiten (?start=…) indexieren lassen?
Bei kleinen Hubs meist eher nicht. Besser ist es oft, Pagination zu vermeiden oder die Blätter mit klarer Logik zu behandeln, damit der eigentliche Hub und nicht seine Unterseiten die stärksten Signale bekommen.
Warum darf eine noindex-Seite nicht in der Sitemap stehen?
Weil Sitemap und Robots-Signal sich dann widersprechen. Das kostet unnötig Crawl-Budget, erzeugt Warnungen in der Search Console und macht die Seitenlogik unklar.
Wie finde ich doppelte Canonicals oder doppelte JSON-LD-Ausgaben?
Im Quelltext: nach rel="canonical" suchen und prüfen, ob mehrere Tags vorhanden sind. Bei strukturierten Daten nach application/ld+json suchen und kontrollieren, ob Typen oder IDs doppelt oder widersprüchlich ausgegeben werden.
Was sind typische technische SEO-Fehler in CMS- und Shopsystemen?
Häufig sind es inkonsistente Canonicals, Parameter- oder Paginierungsseiten, noindex-URLs in der Sitemap, fehlerhafte Redirects oder doppelte/ungültige Schema-Ausgaben durch Plugins, Themes oder individuelle Erweiterungen.
Wenn Sie die technische Basis nicht nur verstehen, sondern sauber umsetzen möchten: SEO & Performance aus Dachau/München.
