Technisches SEO: Grundlagen und Best Practices

technisches Seo
Friedrich Siever - Senior Webdesigner und Webentwickler
Chief of Development & Design @ exovia. Meine Mission: Websites, die Kunden begeistern! Perfekte Ästhetik & Funktionalität. Let's create!
Marketing
07.02.2025 14:57

Was ist technisches SEO und warum ist es 2025 so wichtig?

Definition: Was umfasst technisches SEO?

Technisches SEO ist die Grundlage für eine gut auffindbare, schnelle und nutzerfreundliche Website. Es umfasst alle technischen Maßnahmen, die Suchmaschinen helfen, eine Seite besser zu crawlen, indexieren und bewerten.

Anders als On-Page-SEO (Inhalte, Keywords) oder Off-Page-SEO (Backlinks, Social Signals) geht es beim technischen SEO um Dinge wie:

  • Crawling & Indexierung – Sorgt dafür, dass Google deine Inhalte überhaupt lesen kann.
  • Ladegeschwindigkeit & Core Web Vitals – Direkter Einfluss auf dein Ranking & die Nutzererfahrung.
  • Mobile First Optimierung – Google indexiert mittlerweile fast nur noch mobile Versionen.
  • Strukturierte Daten – Erlauben Google, Inhalte besser zu verstehen & als Rich Snippets anzuzeigen.
  • Sicherheit & saubere URLs – HTTPS-Verschlüsselung, Canonical-Tags, robots.txt und mehr.

Kurz gesagt: Ohne technisches SEO kann deine Website nicht ihr volles Potenzial entfalten.

Warum schlechtes technisches SEO das Ranking verschlechtert

Eine technisch schlecht optimierte Website kann dazu führen, dass Inhalte von Google nicht richtig erfasst oder bewertet werden. Typische Probleme sind:

  • Nicht indexierte Seiten – Suchmaschinen können sie nicht finden oder ignorieren sie
  • Langsame Ladezeiten – Hohe Absprungraten verschlechtern das Ranking
  • Fehlende Mobile-Optimierung – Google priorisiert mobile Nutzererfahrung
  • Duplicate Content und falsche Weiterleitungen – Verwirrung bei der Indexierung

Technische SEO-Fehler können dazu führen, dass Seiten in den Suchergebnissen absteigen oder gar nicht erst erscheinen.

Wie du den technischen Zustand deiner Website analysierst

Um herauszufinden, ob eine Website technisch optimiert ist, können verschiedene Tools genutzt werden:

  • Google Search Console – Zeigt Indexierungsprobleme, Ladezeiten und mobile Fehler
  • Screaming Frog SEO Spider – Crawlt die Seite und identifiziert technische Probleme
  • PageSpeed Insights und Lighthouse – Analysieren Ladezeiten und Core Web Vitals
  • GTmetrix – Detaillierte Berichte zur Performance-Optimierung

Schneller SEO-Check: Erste Analyse in vier Schritten

Um den technischen Zustand einer Website zu überprüfen, helfen diese vier schnellen Tests. Jeder dieser Punkte wird später im Detail erläutert, inklusive konkreter Optimierungsmöglichkeiten.

  • Mobile-Friendliness prüfen mit dem Google Mobile-Friendly Test
  • Ladezeiten messen mit PageSpeed Insights (unter 2 Sekunden ist optimal)
  • Indexierung kontrollieren in der Google Search Console
  • Duplicate Content und Weiterleitungen analysieren mit Screaming Frog

Wer hier Probleme findet, hat klare To-Dos für die Optimierung. In den nächsten Kapiteln folgen detaillierte Anleitungen zur Behebung der jeweiligen Schwachstellen.

Crawling verstehen & für Google optimieren

Google kann nur indexieren, was es auch crawlt. Das Crawling bestimmt also, welche Seiten überhaupt eine Chance haben, in den Suchergebnissen zu erscheinen. Dabei gibt es eine entscheidende Einschränkung: Jede Website hat ein begrenztes Crawl-Budget. Wird dieses Budget ineffizient genutzt, kann es passieren, dass unwichtige oder doppelte Seiten bevorzugt gecrawlt werden, während wertvolle Inhalte unentdeckt bleiben.

Wie findest du heraus, ob Google deine Website richtig crawlt?

Um zu überprüfen, ob Google die richtigen Seiten erfasst, gibt es zwei zentrale Tools:

  • Google Search Console
    • Im Bereich „Indexierung“ lässt sich prüfen, welche Seiten indexiert wurden und ob Google Crawling-Probleme meldet.
    • Der URL-Prüftest gibt Auskunft darüber, ob eine bestimmte Seite von Google erfasst wird.
  • Logfile-Analyse
    • Logfiles zeigen, wann und wie oft Googlebot auf einzelne Seiten zugreift.
    • Tools wie Screaming Frog Log File Analyzer oder SEOlyzer helfen, Crawling-Daten auszuwerten.
    • Besonders wichtig: Finden sich darin Crawling-Anfragen für irrelevante Seiten?

Crawl-Budget optimieren: So steuert man Google richtig

Google crawlt nicht unendlich viele Seiten einer Website. Deshalb sollte das Crawl-Budget auf relevante Inhalte konzentriert werden. Die folgenden Maßnahmen helfen dabei.

Unwichtige Seiten von der Indexierung ausschließen

Viele Websites enthalten Seiten, die für die Suche keine Relevanz haben, aber trotzdem gecrawlt werden. Dazu gehören Filter-URLs, Druckversionen, Paginierungen oder Archivseiten.

Lösung:

  • robots.txt nutzen, um Google das Crawlen von nicht relevanten Bereichen zu untersagen.
  • Meta-Tag „noindex“ verwenden, um einzelne Seiten aus der Indexierung auszuschließen.

Doppelte Inhalte vermeiden

Duplicate Content entsteht oft durch:

  • Mehrere URLs mit identischem Inhalt (www vs. non-www, HTTP vs. HTTPS).
  • Session-IDs oder Tracking-Parameter in URLs.
  • Druckversionen von Seiten oder ähnliche Produktbeschreibungen in Online-Shops.

Lösung:

  • Canonical-Tags setzen, um Google die Hauptversion einer Seite zu zeigen.
  • 301-Weiterleitungen nutzen, um doppelte URLs auf die richtige Version umzuleiten.
  • Parametersteuerung in der Google Search Console verwenden, um unnötige URL-Varianten zu blockieren.

Interne Verlinkung gezielt für besseres Crawling nutzen

Google crawlt Seiten bevorzugt, die häufig intern verlinkt sind. Wenn wichtige Seiten nur über viele Klicks erreichbar sind oder gar nicht intern verlinkt werden, haben sie eine schlechtere Chance, indexiert zu werden.

Best Practices für die interne Verlinkung:

  • Flache Website-Struktur: Wichtige Inhalte sollten nicht mehr als drei Klicks von der Startseite entfernt sein.
  • Gezielte interne Verlinkungen: Relevante Seiten durch interne Links stärken.
  • Breadcrumbs nutzen: Sie helfen Google, die Struktur der Seite besser zu verstehen und erleichtern die Navigation für Nutzer.

Zusammenfassung Crawling

Effizientes Crawling ist die Grundlage für eine erfolgreiche Indexierung. Google sollte nur auf relevante Inhalte gelenkt werden, um die Crawling-Ressourcen effizient zu nutzen. Wer Crawling und Seitenarchitektur aktiv steuert, stellt sicher, dass Google den Fokus auf die richtigen Inhalte legt.

SEO-optimierte Seitenarchitektur – So machst du es richtig

Eine gut durchdachte Seitenarchitektur hilft nicht nur Nutzern, sich auf einer Website zurechtzufinden, sondern auch Google, Inhalte effizient zu crawlen und richtig zu indexieren. Eine schlecht strukturierte Website kann dazu führen, dass wichtige Seiten nicht gefunden werden, während unwichtige Inhalte das Crawl-Budget verschwenden.

Wie du eine perfekte Seitenstruktur aufbaust

Eine klare, logische Struktur verbessert das Crawling und die Nutzerfreundlichkeit. Dabei gibt es zwei grundsätzliche Ansätze:

  • Flache Hierarchie – Alle wichtigen Seiten sind mit wenigen Klicks erreichbar.
  • Tiefe Hierarchie – Inhalte sind in viele Unterebenen verschachtelt, wodurch sie schwer erreichbar sind.

Flache Hierarchien sind aus SEO-Sicht fast immer besser, da sie es Google erleichtern, Seiten schnell zu finden. Seiten, die tief in der Website versteckt sind, haben eine geringere Chance, gecrawlt und indexiert zu werden.

Interne Verlinkung strategisch nutzen

Die interne Verlinkung ist eines der wichtigsten Werkzeuge, um die Seitenarchitektur zu stärken und Google gezielt auf wichtige Inhalte zu lenken. Drei bewährte Methoden sind:

  • Silostruktur – Verwandte Inhalte werden durch eine logische Kategorisierung miteinander verknüpft.
  • Pillar Pages – Eine zentrale, umfassende Seite, die zu mehreren tiefergehenden Unterseiten verlinkt.
  • Breadcrumb-Navigation – Eine zusätzliche Verlinkung, die den Pfad zur aktuellen Seite sichtbar macht und sowohl Nutzern als auch Google hilft.

Interne Links sollten zielgerichtet gesetzt werden: Relevante Seiten sollten untereinander verlinkt sein, damit Google sie als wichtig erkennt. Gleichzeitig sollte vermieden werden, dass unwichtige oder irrelevante Seiten zu oft intern verlinkt werden, da dies das Crawling ineffizient macht.

So erstellst du eine perfekte XML-Sitemap & meldest sie bei Google an

Eine XML-Sitemap ist eine Datei, die Google eine strukturierte Übersicht aller wichtigen Seiten liefert. Besonders bei größeren Websites oder solchen mit vielen dynamischen Inhalten ist eine Sitemap essenziell.

Best Practices für XML-Sitemaps:

  • Nur wichtige Seiten in die Sitemap aufnehmen (keine Noindex-Seiten oder Duplicate Content).
  • Sicherstellen, dass die Sitemap aktuell bleibt und neue Inhalte automatisch hinzugefügt werden.
  • Die Sitemap in der Google Search Console unter „Sitemaps“ einreichen, damit Google sie schneller findet und verarbeitet.

Zusätzlich sollte die Sitemap in der robots.txt-Datei verlinkt werden, um Google den Zugriff zu erleichtern.

Zusammenfassung 

Eine gut durchdachte Seitenarchitektur sorgt dafür, dass Google die wichtigsten Inhalte schnell findet und indexiert. Durch eine klare Hierarchie, gezielte interne Verlinkung und eine saubere XML-Sitemap lässt sich das Crawling steuern und die SEO-Performance verbessern.

Indexierung: So bestimmst du, was Google wirklich sehen soll

Nicht jede Seite einer Website sollte in den Suchergebnissen auftauchen. Ohne gezielte Steuerung kann es passieren, dass Google irrelevante oder doppelte Inhalte indexiert, während wichtige Seiten nicht im Index landen. Eine optimierte Indexierung stellt sicher, dass nur die richtigen Seiten von Google erfasst und gerankt werden.

Wie du mit Noindex & Canonical Tags irrelevante Seiten aus dem Index hältst

Manche Seiten bieten für die Suche keinen Mehrwert und sollten von der Indexierung ausgeschlossen werden. Dazu gehören zum Beispiel Druckversionen von Seiten, Tag-Seiten in Blogs, bestimmte Filterseiten in Shops oder interne Suchergebnisseiten.

Noindex-Tag nutzen, um Seiten gezielt auszuschließen

Der Meta-Tag „noindex“ sorgt dafür, dass eine Seite zwar gecrawlt, aber nicht in den Index aufgenommen wird.

Einsatzmöglichkeiten:

  • Seiten mit wenig oder gar keinem Mehrwert für die Google-Suche
  • Interne Suchergebnisseiten, um Duplicate Content zu vermeiden
  • Login-Bereiche oder andere nicht öffentlich relevante Inhalte

Beispiel für einen Noindex-Tag im HTML-Code:

<meta name="robots" content="noindex, follow">

Dieser Code teilt Google mit, dass die Seite nicht indexiert werden soll, aber Links auf der Seite trotzdem verfolgt werden dürfen.

Canonical-Tags richtig einsetzen, um doppelte Inhalte zu vermeiden

Duplicate Content kann zu Ranking-Problemen führen, weil Google nicht weiß, welche Version einer Seite priorisiert werden soll. Besonders häufig tritt das Problem bei Shops, mehrsprachigen Websites oder URL-Parametern auf.

Ein Canonical-Tag gibt Google eine eindeutige Version einer Seite vor:

<link rel="canonical" href="https://www.example.com/hauptseite">

Typische Anwendungsfälle:

  • Mehrere Seiten mit nahezu identischem Inhalt (z. B. Produktvarianten)
  • Gleicher Inhalt unter verschiedenen URLs (z. B. mit und ohne „www“)
  • HTTPS- und HTTP-Versionen einer Seite

Häufige Indexierungsprobleme und wie du sie löst

Selbst wenn eine Website gut strukturiert ist, können technische Probleme dazu führen, dass Google Seiten nicht richtig indexiert oder falsche Seiten bevorzugt.

Soft 404-Fehler

Soft 404 tritt auf, wenn eine Seite für den Nutzer leer oder fehlerhaft erscheint, aber keinen echten 404-Statuscode zurückgibt. Google stuft solche Seiten als minderwertig ein und kann sie aus dem Index entfernen.

Lösung:

  • Sicherstellen, dass nicht vorhandene Seiten den richtigen 404- oder 410-Statuscode zurückgeben.
  • Echte Alternativen oder Weiterleitungen anbieten, falls es thematisch passende Inhalte gibt.

Duplicate Content und falsche Weiterleitungen

Doppelte Inhalte können entstehen, wenn eine Website verschiedene URLs mit identischen oder ähnlichen Inhalten hat. Das kann Google verwirren und die Rankings negativ beeinflussen.

Lösung:

  • Canonical-Tags setzen, um Google die richtige Version zu zeigen.
  • 301-Weiterleitungen nutzen, um doppelte oder veraltete URLs sauber umzuleiten.
  • In der Google Search Console prüfen, ob doppelte Seiten indexiert wurden und dort Probleme beheben.

Blockierte Ressourcen

Google kann bestimmte Seiten oder Dateien nicht crawlen, wenn sie in der robots.txt gesperrt oder durch eine fehlerhafte Einstellung blockiert sind.

Lösung:

  • In der Google Search Console unter „Abdeckung“ prüfen, ob Seiten oder Ressourcen blockiert sind.
  • Sicherstellen, dass wichtige CSS- und JavaScript-Dateien nicht durch robots.txt ausgeschlossen werden.

Zusammengefasst:

Die Indexierung gezielt zu steuern, ist essenziell, um Google genau die Inhalte zu zeigen, die für das Ranking relevant sind. Durch den gezielten Einsatz von Noindex- und Canonical-Tags, die Vermeidung von Duplicate Content und das Lösen technischer Probleme wie Soft 404s lässt sich die Sichtbarkeit in den Suchergebnissen deutlich verbessern.

Technische SEO-Optimierungen, die du sofort umsetzen kannst

Im folgenden zeige ich Dir Bereiche, mit denen du sofort eine Verbesserung deiner SEO Potentiale umsetzen kannst.

  • Page Speed

Page Speed: So machst du deine Seite blitzschnell

Die Ladegeschwindigkeit einer Website ist ein entscheidender SEO-Faktor. Langsame Seiten führen zu einer höheren Absprungrate, verschlechtern die Nutzererfahrung und können sich negativ auf das Ranking auswirken. Google bewertet Page Speed direkt in den Core Web Vitals, die als Ranking-Signal dienen.

Wie du Ladezeiten misst und analysierst

Bevor Optimierungen vorgenommen werden, sollte geprüft werden, wie schnell die Seite aktuell lädt und welche Faktoren die Geschwindigkeit beeinflussen. Dazu gibt es mehrere Analyse-Tools:

  • Google PageSpeed Insights: Bewertet Ladezeiten für Mobil- und Desktop-Version und liefert konkrete Optimierungsvorschläge.
  • Google Lighthouse: Bietet eine tiefgehende Analyse der Performance und zeigt Probleme bei Core Web Vitals.
  • GTmetrix: Zeigt detaillierte Ladezeitdaten und Wasserfalldiagramme für alle Ressourcen einer Seite.

Wichtige Kennzahlen aus den Core Web Vitals:

  • Largest Contentful Paint (LCP): Wie lange dauert es, bis der Hauptinhalt sichtbar ist? (Sollte unter 2,5 Sekunden liegen.)
  • First Input Delay (FID): Wie schnell kann ein Nutzer mit der Seite interagieren? (Wichtig für Buttons und Formulare.)
  • Cumulative Layout Shift (CLS): Wie stark verschiebt sich der Inhalt während des Ladens? (Sollte minimal sein, um ein stabiles Layout zu gewährleisten.)

Techniken zur Beschleunigung der Ladezeiten

Sobald die Schwachstellen identifiziert sind, können gezielte Optimierungen durchgeführt werden.

Bilder optimieren und moderne Formate nutzen

Bilder sind oft die größten Ladezeit-Verursacher. Zu große Dateien verlangsamen die Website erheblich.

Best Practices für Bildoptimierung:

  • Bilder skalieren: Nur die tatsächlich benötigte Auflösung laden.
  • Moderne Formate nutzen: WebP und AVIF bieten eine deutlich bessere Komprimierung als JPG oder PNG.
  • Lazy Loading aktivieren: Bilder erst laden, wenn sie im sichtbaren Bereich erscheinen.

Caching und GZIP-Komprimierung aktivieren

Durch Caching und Komprimierung lassen sich Ladezeiten erheblich verkürzen, da Inhalte nicht jedes Mal neu geladen werden müssen.

Caching-Techniken:

  • Browser-Caching: Statische Ressourcen wie Bilder, CSS und JavaScript werden im Browser gespeichert, um erneute Ladezeiten zu vermeiden.
  • Serverseitiges Caching: Dynamische Inhalte werden als statische Version zwischengespeichert, um wiederholte Berechnungen zu minimieren.

GZIP- oder Brotli-Komprimierung:

  • Reduziert die Größe von HTML-, CSS- und JavaScript-Dateien um bis zu 80 %.
  • In den meisten Webservern wie Apache oder Nginx einfach aktivierbar.

Unnötige JavaScript- und CSS-Dateien minimieren

Viele Webseiten laden unnötige oder zu große Skripte, die das Rendering verzögern.

Optimierungsmöglichkeiten:

  • JavaScript und CSS minimieren: Unnötige Leerzeichen, Kommentare und Zeichen entfernen.
  • Asynchrones Laden aktivieren: Verhindert, dass JavaScript den Seitenaufbau blockiert.
  • Nicht genutzte Skripte entfernen: Nur die für die Seite notwendigen Dateien laden.

Zusammenfassung Speed

Eine schnelle Ladezeit verbessert nicht nur das Ranking, sondern auch die Nutzererfahrung. Durch den gezielten Einsatz von Bildoptimierung, Caching, Komprimierung und effizientem Code-Management lassen sich Ladezeiten deutlich reduzieren. Regelmäßige Tests mit Google PageSpeed Insights und Lighthouse helfen dabei, Performance-Probleme frühzeitig zu erkennen und zu beheben.

Mobile SEO: So optimierst du für Mobile First Indexing

Google verwendet seit mehreren Jahren Mobile-First Indexing, das bedeutet, dass die mobile Version einer Website die Basis für das Ranking bildet. Seiten, die nicht für Mobilgeräte optimiert sind, haben dadurch deutliche Nachteile in den Suchergebnissen. Eine technisch sauber umgesetzte mobile Version ist daher essenziell für SEO.

Ist deine Seite wirklich Mobile First? Checkliste & Tests

Um herauszufinden, ob eine Website tatsächlich mobilfreundlich ist, sollten mehrere Tests durchgeführt werden.

Google-Tools zur Analyse:

  • Google Mobile-Friendly Test: Zeigt an, ob eine Seite für Mobilgeräte optimiert ist.
  • Google Search Console → „Nutzerfreundlichkeit auf Mobilgeräten“: Erkennt Probleme wie zu kleine Schriftgrößen oder klickbare Elemente, die zu nah beieinander liegen.
  • Lighthouse-Analyse in Chrome DevTools: Prüft mobile Performance und Core Web Vitals.

Wichtige Prüfpunkte für Mobile-First-Optimierung:

  • Passt sich das Layout dynamisch an verschiedene Bildschirmgrößen an?
  • Sind Schriftgrößen und Abstände mobil gut lesbar?
  • Lassen sich Buttons und Links problemlos auf Touchscreens bedienen?
  • Werden Inhalte in der mobilen Version vollständig geladen oder gibt es versteckte Elemente?

Responsive Design vs. Separate Mobile-Version – Was ist besser?

Es gibt zwei Hauptansätze für eine mobile Optimierung:

1. Responsive Design (Empfohlene Methode)

Ein flexibles Layout, das sich automatisch an die Bildschirmgröße anpasst. Dabei wird der gleiche HTML-Code verwendet, aber per CSS unterschiedlich dargestellt.

Vorteile:

  • Google bevorzugt diesen Ansatz, da nur eine Version der Seite gecrawlt werden muss.
  • Keine Duplicate-Content-Probleme zwischen Desktop- und Mobilversion.
  • Einfache Pflege und konsistente Inhalte auf allen Geräten.

2. Separate Mobile-Version (m.-Subdomain oder Dynamic Serving)

Hier existiert eine separate Version der Website unter einer anderen URL, z. B. „m.example.com“.

Probleme mit diesem Ansatz:

  • Höherer Pflegeaufwand, da zwei Versionen der Seite verwaltet werden müssen.
  • Potenzielle Duplicate-Content-Probleme, falls keine korrekten Canonical-Tags gesetzt sind.
  • Google crawlt mobile Versionen separat, was das Crawl-Budget belasten kann.

Google empfiehlt klar Responsive Design, da es effizienter und weniger fehleranfällig ist.

So verbesserst du Mobile UX & Ladegeschwindigkeit

Neben einer korrekten mobilen Darstellung sind zwei Faktoren entscheidend: Nutzererfahrung (UX) und Ladegeschwindigkeit.

Mobile UX optimieren:

  • Buttons und klickbare Elemente sollten mindestens 48 x 48 Pixel groß sein, um versehentliche Klicks zu vermeiden.
  • Keine störenden Pop-ups oder Interstitials verwenden, da diese das Google-Ranking negativ beeinflussen können.
  • Wichtige Inhalte sollten „Above the Fold“ sichtbar sein, also ohne Scrollen erreichbar sein.

Ladegeschwindigkeit auf Mobilgeräten verbessern:

  • Bilder in mobilen WebP- oder AVIF-Formaten bereitstellen.
  • Lazy Loading nutzen, um nicht sichtbare Bilder erst bei Bedarf zu laden.
  • AMP (Accelerated Mobile Pages) nur noch gezielt einsetzen, da Google sie nicht mehr zwingend bevorzugt.

Merke

Eine für Mobile-First Indexing optimierte Website muss vollständig responsiv, schnell ladend und benutzerfreundlich sein. Google empfiehlt klar Responsive Design, während separate mobile Versionen veraltet sind. Wer regelmäßig mit Tools wie Google Mobile-Friendly Test und Lighthouse überprüft, ob die eigene Seite für Mobilgeräte optimiert ist, stellt sicher, dass er keine Ranking-Nachteile durch schlechte mobile Usability hat.

Sicherheit & technische SEO-Basics richtig umsetzen

Technische SEO umfasst nicht nur Performance und Indexierung, sondern auch die Sicherheit einer Website. Google bevorzugt sichere Websites, schützt Nutzer vor unsicheren Verbindungen und nutzt strukturierte Daten, um Inhalte besser zu verstehen. Wer hier Schwachstellen hat, riskiert nicht nur ein schlechteres Ranking, sondern auch Vertrauensverlust bei den Nutzern.

HTTPS umstellen & SSL-Probleme vermeiden

Google behandelt HTTPS als Ranking-Faktor und kennzeichnet nicht verschlüsselte HTTP-Seiten als „Nicht sicher“. Eine SSL-Verschlüsselung sorgt dafür, dass Daten sicher übertragen werden und stärkt das Vertrauen der Nutzer.

Umstellung auf HTTPS:

  1. SSL-Zertifikat erwerben und installieren – Kostenlose Zertifikate gibt es bei Let’s Encrypt, kommerzielle Varianten bei Hostern oder Zertifizierungsstellen.
  2. Alle internen Links auf HTTPS umstellen – Mixed Content (unsichere HTTP-Elemente auf HTTPS-Seiten) vermeiden.
  3. 301-Weiterleitungen von HTTP auf HTTPS setzen, damit keine doppelte Indexierung entsteht.
  4. HTTPS-Version in der Google Search Console und bei Google Analytics eintragen.

robots.txt optimieren – So steuerst du den Googlebot

Die robots.txt-Datei legt fest, welche Seiten von Suchmaschinen gecrawlt werden dürfen. Fehler in dieser Datei können dazu führen, dass wichtige Seiten nicht indexiert oder Ressourcen blockiert werden.

Wichtige Regeln für robots.txt:

  • Bestimmte Seiten vom Crawling ausschließen (z. B. Login-Bereiche, interne Suchergebnisse).
  • Wichtige CSS- und JavaScript-Dateien nicht blockieren, da Google diese für das Rendering benötigt.
  • Die XML-Sitemap in robots.txt hinterlegen, um Google die Indexierung zu erleichtern:
    Sitemap: https://www.example.com/sitemap.xml
  • Disallow-Anweisungen mit Bedacht nutzen, um Suchmaschinen nicht versehentlich wichtige Inhalte zu verwehren.

Beispiel für eine saubere robots.txt-Datei:

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Dieser Code blockiert das WordPress-Admin-Verzeichnis, erlaubt aber AJAX-Anfragen.

Strukturierte Daten & Rich Snippets: Wie du deine Klickrate steigerst

Strukturierte Daten helfen Google, Inhalte besser zu verstehen und als Rich Snippets in den Suchergebnissen darzustellen. Dadurch erhöht sich die Klickrate (CTR), da Nutzer direkt zusätzliche Informationen sehen.

Wichtige strukturierte Daten für SEO:

  • Breadcrumbs – Zeigt Google die Seitenstruktur und verbessert die Navigation.
  • Artikel-Markup – Ermöglicht eine bessere Darstellung von Blog- und News-Artikeln.
  • FAQ & How-To Markup – Fügt interaktive Elemente direkt in die Suchergebnisse ein.
  • Produkt-Markup – Zeigt Preis, Verfügbarkeit und Bewertungen in den SERPs.

So setzt du strukturierte Daten um:

  • Google empfiehlt die Verwendung von JSON-LD, das direkt im <head> der Seite eingebunden wird.
  • Beispiel für FAQ-Schema-Markup:
    <script type="application/ld+json">
    {
    "@context": "https://schema.org",
    "@type": "FAQPage",
    "mainEntity": [{
    "@type": "Question",
    "name": "Wie verbessere ich mein technisches SEO?",
    "acceptedAnswer": {
    "@type": "Answer",
    "text": "Optimieren Sie Ihre Seitenstruktur, verbessern Sie die Ladegeschwindigkeit und setzen Sie strukturierte Daten ein."
    }
    }]
    }
    </script>
  • Testen mit dem Google Rich Results Test, um sicherzustellen, dass das Markup korrekt erkannt wird.

Zusammenfassung

Sicherheit und technische Grundlagen spielen eine zentrale Rolle im SEO. Die Umstellung auf HTTPS, eine gut konfigurierte robots.txt-Datei und der gezielte Einsatz strukturierter Daten verbessern nicht nur das Ranking, sondern auch die Nutzererfahrung.

Duplicate Content vermeiden & URLs sauber halten

Duplicate Content kann dazu führen, dass Google nicht eindeutig bestimmen kann, welche Version einer Seite im Index erscheinen soll. Dies kann das Ranking verwässern oder dazu führen, dass irrelevante Versionen in den Suchergebnissen auftauchen. Um das zu verhindern, müssen URLs sauber strukturiert und doppelte Inhalte technisch korrekt behandelt werden.

Nur eine Version der Website nutzen: www vs. non-www, HTTP vs. HTTPS

Websites sind oft über mehrere Varianten erreichbar, zum Beispiel:

  • https://www.example.com
  • https://example.com
  • http://www.example.com
  • http://example.com

Wenn keine eindeutige Variante festgelegt wird, erkennt Google diese als separate Seiten und kann sie als Duplicate Content werten.

Lösung:

  • 301-Weiterleitungen einrichten – Alle nicht gewünschten Versionen sollten dauerhaft per 301 auf die Hauptversion weitergeleitet werden.
  • Google Search Console richtig konfigurieren – In den Einstellungen die bevorzugte Domain angeben.
  • Interne Links einheitlich setzen – Immer die gleiche URL-Version verwenden.

Wie du Canonical-Tags richtig setzt & Duplicate Content verhinderst

Ein Canonical-Tag gibt Google die bevorzugte Version einer Seite vor, falls ähnliche oder doppelte Inhalte existieren. Besonders wichtig ist dies für Shops, Blogs mit Paginierungen oder Seiten mit URL-Parametern.

Canonical-Tag Beispiel:

<link rel="canonical" href="https://www.example.com/hauptseite">

Best Practices:

  • Canonical-Tags immer auf sich selbst verweisen, wenn es keine Alternativversion gibt.
  • Bei mehrfachen Varianten einer Seite immer die wichtigste Version als „canonical“ setzen.
  • Keine Canonical-Tags für unterschiedliche Inhalte verwenden – Google könnte dadurch relevante Seiten ignorieren.

301-Redirects vs. 302: Wann du welchen Redirect nutzen solltest

Redirects sind essenziell, um doppelte Inhalte zu vermeiden und die Autorität einer alten URL auf eine neue zu übertragen.

  • 301-Redirect (permanent) → Dauerhafte Weiterleitung, überträgt Linkjuice und ist SEO-freundlich.
  • 302-Redirect (temporär) → Vorübergehende Weiterleitung, wird von Google nicht als endgültig gewertet.

Wann welcher Redirect genutzt werden sollte:

  • 301: Domain-Umzug, Konsolidierung von Duplicate Content, HTTPS-Umstellung.
  • 302: Temporäre A/B-Tests, Wartungsseiten oder Weiterleitungen zu saisonalen Aktionen.

404-Fehler & Soft 404s erkennen und beheben

Ein 404-Fehler tritt auf, wenn eine Seite nicht gefunden wird. Das ist normal, kann aber problematisch werden, wenn viele wichtige Seiten betroffen sind.

Soft 404s sind problematischer: Das sind Seiten, die keinen richtigen Inhalt haben, aber trotzdem mit einem 200-Statuscode ausgeliefert werden. Google stuft sie als minderwertig ein und kann sie aus dem Index entfernen.

Lösung:

  • Echte 404-Fehler identifizieren → In der Google Search Console unter „Indexierung → Nicht gefunden“.
  • Relevante Inhalte weiterleiten → Falls eine ähnliche Seite existiert, per 301-Redirect umleiten.
  • Soft 404s vermeiden → Sicherstellen, dass nicht vorhandene Seiten einen echten 404- oder 410-Status zurückgeben.

Zusammenfassung

Duplicate Content kann Rankings schwächen und Suchmaschinen verwirren. Eine saubere URL-Struktur, der richtige Einsatz von Canonical-Tags und Redirects sowie ein kontrollierter Umgang mit 404-Fehlern sorgen für eine optimale Indexierung.

Pagination & hreflang – Fortgeschrittene SEO-Techniken

Größere Websites haben oft mehrere Seiten zu einem Thema oder Inhalte in verschiedenen Sprachen. Falsch implementierte Paginierung und hreflang-Tags können dazu führen, dass Google falsche Seiten indexiert oder Rankings verwässert.

Wie du Paginierung SEO-freundlich umsetzt

Paginierung kommt bei Blogs, Foren oder Produktlisten zum Einsatz, wenn Inhalte über mehrere Seiten verteilt werden. Google muss verstehen, dass diese Seiten zusammengehören, um die richtige Version in den Suchergebnissen anzuzeigen.

Früher: rel=prev/next

Google hat früher die Tags rel="prev" und rel="next" zur Erkennung von Paginierungen empfohlen. Diese sahen so aus:

<link rel="prev" href="https://example.com/page-1">
<link rel="next" href="https://example.com/page-3">

Allerdings hat Google diese Signale inzwischen ignoriert. Heute sollte stattdessen eine andere Strategie genutzt werden.

Best Practices für SEO-freundliche Paginierung

  • Jede Seite sollte eine eigenständige URL haben. Google behandelt sie als separate Inhalte.
  • Kein „Noindex“ auf Folgeseiten setzen. Sonst kann es passieren, dass Google den gesamten Inhalt ignoriert.
  • Interne Verlinkung optimieren. Die Hauptseite sollte eine Übersicht bieten, die auf alle relevanten Unterseiten verweist.
  • Kanonische URLs richtig setzen. Falls die einzelnen Seiten eine eigenständige Relevanz haben, jeweils ein self-referencing Canonical nutzen. Falls die erste Seite als Hauptversion dienen soll, dort eine kanonische URL auf sich selbst setzen.

Beispiel für eine selbstreferenzierende Canonical auf einer Folgeseite:

<link rel="canonical" href="https://example.com/page-2">

Mehrsprachige Websites richtig kennzeichnen mit hreflang

Für mehrsprachige Websites ist es essenziell, dass Google die richtige Sprachversion einer Seite erkennt. Der hreflang-Tag hilft dabei, Suchergebnisse passend zur Sprache und Region der Nutzer auszuliefern.

Wie funktioniert hreflang?

Der hreflang-Tag wird im <head>-Bereich oder im HTTP-Header gesetzt und gibt an, welche Sprach- oder Länderversion einer Seite existiert.

Beispiel für eine Seite mit englischer und deutscher Version:

<link rel="alternate" hreflang="en" href="https://example.com/en">
<link rel="alternate" hreflang="de" href="https://example.com/de">

Für eine internationale Website mit mehreren Ländern kann eine gezielte Kennzeichnung erfolgen:

<link rel="alternate" hreflang="de-de" href="https://example.com/de-de">
<link rel="alternate" hreflang="de-at" href="https://example.com/de-at">

Zusätzlich sollte immer eine x-default-Version definiert werden, falls keine spezifische Sprachversion zutrifft:

<link rel="alternate" hreflang="x-default" href="https://example.com/">

Typische Fehler bei hreflang vermeiden

  • Fehlende Gegenseitigkeit: Jede Sprachversion muss auf die anderen verweisen. Fehlt ein Link zurück, ignoriert Google den Tag.
  • Mischen von hreflang und Canonical: Canonical-Tags sollten nur innerhalb derselben Sprachversion gesetzt werden.
  • Falsche Ländercodes: „en-uk“ ist nicht gültig, korrekt wäre „en-gb“.

Merke

Eine saubere Paginierung sorgt dafür, dass Google zusammenhängende Inhalte richtig erkennt, ohne dass wichtige Seiten aus dem Index verschwinden. Gleichzeitig ist hreflang für internationale Websites unverzichtbar, um Nutzern die passende Sprachversion anzuzeigen. Wer hier sauber arbeitet, vermeidet Duplicate Content und verbessert die Sichtbarkeit in verschiedenen Ländern.

4. Fazit & Umsetzung: Dein technisches SEO-Audit

Ein solides technisches SEO ist die Grundlage für gute Rankings. Wer Crawling, Indexierung und Seitenarchitektur optimiert, sorgt dafür, dass Google Inhalte effizient verarbeitet und die richtigen Seiten priorisiert. Gleichzeitig spielen Performance, Sicherheit und Mobile-First-Optimierung eine entscheidende Rolle für Nutzerfreundlichkeit und Sichtbarkeit.

Die wichtigsten To-Dos für deine Website auf einen Blick

Ein technisches SEO-Audit hilft dabei, Schwachstellen zu erkennen und gezielt zu beheben. Diese Punkte sollten regelmäßig überprüft werden:

  1. Crawling & Indexierung:
    • Sind alle wichtigen Seiten indexiert?
    • Werden irrelevante oder doppelte Seiten ausgeschlossen?
    • Ist das Crawl-Budget optimal genutzt?
  2. Seitenarchitektur & interne Verlinkung:
    • Ist die Struktur flach und logisch aufgebaut?
    • Sind interne Links strategisch gesetzt?
    • Sind XML-Sitemap und robots.txt-Datei korrekt konfiguriert?
  3. Performance & Ladezeit:
    • Sind die Core Web Vitals optimiert?
    • Werden moderne Bildformate wie WebP oder AVIF genutzt?
    • Sind Caching und GZIP-Komprimierung aktiviert?
  4. Mobile SEO:
    • Ist die Website vollständig responsive?
    • Ist die mobile Version in Google Search Console fehlerfrei?
    • Sind Inhalte und Interaktionen für Touchscreens optimiert?
  5. Sicherheit & technische Optimierungen:
    • Ist HTTPS vollständig implementiert?
    • Sind strukturierte Daten korrekt integriert?
    • Sind hreflang-Tags für mehrsprachige Websites richtig gesetzt?

Checkliste: Was du heute noch optimieren kannst

Nicht jede Optimierung muss sofort erfolgen, aber einige Maßnahmen haben einen besonders hohen Einfluss auf SEO-Erfolg. Hier sind die wichtigsten Quick-Wins:

Google Search Console prüfen: Indexierungsprobleme und Crawling-Fehler identifizieren.
PageSpeed Insights Analyse: Performance-Optimierungen priorisieren.
robots.txt & XML-Sitemap checken: Sind sie korrekt eingerichtet und auf dem neuesten Stand?
Canonical-Tags prüfen: Gibt es doppelten Content, der bereinigt werden muss?
Interne Verlinkung optimieren: Wichtige Seiten gezielt verlinken, um ihre Sichtbarkeit zu erhöhen.

Blick in die Zukunft: Welche technischen SEO-Trends kommen 2025?

Technisches SEO entwickelt sich ständig weiter. Diese Trends werden in den kommenden Jahren eine noch größere Rolle spielen:

  • KI-gestützte Crawling-Optimierung: Google nutzt zunehmend KI, um Inhalte intelligenter zu bewerten.
  • IndexNow-Protokoll: Neue Möglichkeiten, Google & Bing über Aktualisierungen in Echtzeit zu informieren.
  • Mehr Gewicht auf Core Web Vitals: Ladezeit- und Nutzererfahrungsfaktoren gewinnen weiter an Bedeutung.
  • Voice Search & semantische Suche: Strukturierte Daten werden noch wichtiger für Sprachsuchen und AI-gestützte Suchsysteme.

Technisches SEO ist kein einmaliges Projekt, sondern ein kontinuierlicher Prozess. Wer regelmäßig Crawling, Indexierung, Performance und Sicherheit überprüft, bleibt langfristig wettbewerbsfähig. Doch eine Website, die nicht nur technisch sauber ist, sondern auch strategisch durchdacht, erreicht die besten Ergebnisse.

Eine erfolgreiche Website muss mehr als nur gut aussehen. Sie muss von Grund auf für Nutzer und Suchmaschinen optimiert sein. Genau hier setzen wir an: Als Webdesign-SEO-Agentur entwickeln wir Websites, bei denen technisches SEO nicht nachträglich angepasst, sondern von Anfang an in die DNA des Projekts integriert wird.

Wenn du nicht nur eine schöne, sondern auch eine sichtbare und erfolgreiche Website willst, die von Suchmaschinen geliebt wird, dann lass uns sprechen. Wir sorgen dafür, dass dein Webprojekt nicht nur ästhetisch überzeugt, sondern auch technisch perfekt aufgestellt ist.

 

 

Ein Webdesigner im Weltall

Webdesign in der Nähe

Wir sind für Ihr Webprojekt da - wo auch immer Sie gerade sein mögen. Lassen Sie uns Ihre Website-Vision besprechen und in eine beeindruckende Online-Präsenz umsetzen. Ganz bequem per Zoom und digitaler Kommunikation.