Was ist technisches SEO?
Technisches SEO umfasst alle Maßnahmen, die dafür sorgen, dass Suchmaschinen Ihre Website zuverlässig crawlen, verstehen und indexieren können. Es ist die Basis, damit Inhalte überhaupt die Chance haben, zu ranken.
Wichtig: Technisches SEO ist keine Alternative zu gutem Content. Es ist die Voraussetzung, damit guter Content sichtbar wird.
Warum technisches SEO entscheidend ist
Wenn Technik nicht sauber ist, entstehen typische Probleme:
- wichtige Seiten werden nicht indexiert
- Crawl Budget wird für unwichtige URLs verbraucht
- Rankings schwanken durch Duplicate Content oder falsche Canonicals
- langsame Ladezeiten senken Sichtbarkeit und Conversion
- Fehlerseiten und Weiterleitungen bremsen Nutzer und Bot
Technisches SEO wirkt daher direkt auf SEO und auf die Nutzererfahrung.
Die wichtigsten Bereiche im technischen SEO
1) Crawling und Indexierung steuern
Suchmaschinen müssen Ihre Seiten finden und dürfen sie indexieren.
Wichtige Stellschrauben:
- robots.txt: steuert, was gecrawlt werden darf (Achtung: blockiert Crawling, nicht zwingend Indexierung)
- Meta Robots (index/noindex, follow/nofollow): steuert Indexierung auf Seitenebene
- XML-Sitemap: hilft Suchmaschinen, wichtige URLs schneller zu entdecken
- Canonical Tags: reduzieren Duplicate Content und geben die „Haupt-URL“ vor
Typischer Fehler: noindex auf Templates, die eigentlich ranken sollen (z. B. Kategorie- oder Blogseiten).
2) Informationsarchitektur und interne Verlinkung
Google folgt Links. Wenn wichtige Seiten tief vergraben sind, verlieren sie Sichtbarkeit.
Praktische Ziele:
- wichtige Seiten in maximal 3 Klicks erreichbar
- klare Hierarchie (Startseite -> Kategorien -> Detailseiten)
- Breadcrumbs für Orientierung und saubere interne Links
- sinnvolle Ankertexte statt „hier klicken“
Beispiel-Tabelle für Linktexte:
| Gut | Schlecht |
|---|---|
| „Leistungen“ | „Mehr“ |
| „Kontakt“ | „Hier klicken“ |
| „Preise“ | „Weiter“ |
| „Referenzen“ | „Mehr“ |
3) Statuscodes, Weiterleitungen und Fehlerseiten
Statuscodes sind ein Kernsignal für Crawling und Indexierung.
Wichtig im Alltag:
- 200 für echte, erreichbare Inhalte
- 301 für permanente Weiterleitungen (z. B. nach Relaunch)
- 404 für entfernte Seiten ohne Ersatz
- 410 wenn Inhalte bewusst entfernt wurden und weg bleiben sollen
- 5xx vermeiden (Serverfehler), sie stoppen Crawling und schaden Vertrauen
Typischer Fehler: 302 statt 301 bei dauerhaften Redirects, oder endlose Redirect-Ketten.
4) Performance und Core Web Vitals
Performance ist SEO- und Conversion-Hebel zugleich. Google misst Nutzererfahrung über die Core Web Vitals.
Wichtige Hebel:
- Bildoptimierung (WebP/AVIF, passende Größen, Lazy Loading)
- kritisches CSS und minimierte JS-Bundles
- Caching (Browser, Server, CDN)
- sauberes Hosting und niedrige TTFB (Time to First Byte)
- Layout-Stabilität (verhindert CLS durch reservierte Bildgrößen)
5) Strukturierte Daten (Schema Markup)
Strukturierte Daten helfen Suchmaschinen, Inhalte besser einzuordnen. Sie sind kein Ranking-Shortcut, aber sie verbessern Verständnis und können Rich Results ermöglichen (je nach Typ und Kontext).
Typische Markups:
- Organization, LocalBusiness
- Article/BlogPosting
- Product, Offer, Review (bei Shops)
- BreadcrumbList
- FAQPage (nur wenn echte FAQs auf der Seite stehen)
Beispiel (BreadcrumbList) als JSON-LD:
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "BreadcrumbList",
"itemListElement": [
{
"@type": "ListItem",
"position": 1,
"name": "Start",
"item": "https://example.de/"
},
{
"@type": "ListItem",
"position": 2,
"name": "SEO",
"item": "https://example.de/seo/"
},
{
"@type": "ListItem",
"position": 3,
"name": "Technisches SEO",
"item": "https://example.de/glossar/technisches-seo/"
}
]
}
</script>
6) Duplicate Content und Parameter-URLs
Duplicate Content entsteht oft technisch, nicht redaktionell:
- Filter und Sortierungen im Shop erzeugen viele URL-Varianten
- Tracking-Parameter (utm, gclid) erzeugen Duplikate
- http/https oder www/non-www Varianten sind nicht konsolidiert
- mehrsprachige Seiten ohne hreflang
Maßnahmen:
- Canonicals sauber setzen
- Parameter in Search Console sinnvoll behandeln (je nach Setup)
- klare Indexierungsstrategie für Filterseiten (index oder noindex, aber bewusst)
- hreflang bei Mehrsprachigkeit
7) Mobile, Rendering und JavaScript SEO
Google crawlt primär mobil. Wenn mobile UX schwach ist, wirkt sich das auf SEO aus.
Bei JS-lastigen Websites (z. B. SPAs) ist wichtig:
- sauberes Rendering (SSR/SSG, wenn sinnvoll)
- Inhalte sind ohne Nutzerinteraktion im HTML verfügbar
- keine blockierten Ressourcen (JS/CSS) für Googlebot
- saubere interne Links, nicht nur onclick Navigation
8) Sicherheit und Vertrauen als technische Basis
Technik hat auch einen Vertrauensaspekt:
- HTTPS ist Pflicht
- korrekte Weiterleitungen, keine Mixed Content Fehler
- saubere Consent-Implementierung (DSGVO) ohne Tracking vor Einwilligung
- stabile Verfügbarkeit (kein ständiger 5xx)
Checkliste (einfach)
- XML-Sitemap aktuell und in der Search Console eingereicht
- robots.txt blockiert nichts Wichtiges
- Canonicals sind konsistent und logisch
- keine Redirect-Ketten, keine dauerhaften 302
- 404/410 sind bewusst gesteuert, 5xx werden reduziert
- Core Web Vitals werden regelmäßig gemessen
- interne Verlinkung führt Bot und Nutzer zu den wichtigsten Seiten
- strukturierte Daten sind korrekt und valide
- mobile Darstellung ist stabil und schnell
Fazit
Technisches SEO sorgt dafür, dass Suchmaschinen Ihre Website effizient crawlen, korrekt indexieren und zuverlässig bewerten können. Wenn Statuscodes, Struktur, Performance und technische Signale sauber sind, haben Inhalte deutlich bessere Chancen, stabil zu ranken und gleichzeitig besser zu konvertieren.
