Bevor eine Website in den Suchergebnissen erscheinen kann, muss Google sie erst finden, lesen und speichern. Crawling und Indexierung sind die zwei Grundprozesse dahinter – und wer sie versteht, kann gezielt steuern, welche Seiten in Google auftauchen und welche nicht.
Google betreibt riesige Rechenzentren, die kontinuierlich das Web durchsuchen. Der Ablauf folgt dabei immer demselben Muster – von der Entdeckung einer URL bis zur Darstellung in den Suchergebnissen:
Google findet neue URLs über bestehende Links, eingereichte Sitemaps oder die Google Search Console.
Der Googlebot ruft die Seite ab, liest HTML, CSS und JavaScript und folgt weiteren internen und externen Links.
Google führt JavaScript aus und stellt die Seite so dar, wie sie ein Browser anzeigen würde – wichtig für moderne Frameworks.
Inhalt, Struktur und Signale der Seite werden analysiert und in Googles Suchindex aufgenommen. Erst jetzt ist Ranking möglich.
Google weist jeder Website ein sogenanntes Crawl Budget zu – eine begrenzte Anzahl an Seiten, die der Googlebot in einem bestimmten Zeitraum crawlt. Bei kleinen Websites ist das selten ein Problem. Für große Shops oder Portale mit Tausenden Seiten ist ein effizientes Crawl Budget entscheidend:
Nicht jede Seite soll in den Suchergebnissen auftauchen. Google bietet verschiedene Signale, um zu steuern, was indexiert wird – und was nicht:
| Signal | Wirkung | Einsatzbeispiel |
|---|---|---|
| robots.txt | Crawling blockieren (Seite wird nicht besucht) | Admin-Bereiche, interne Suche |
| noindex | Indexierung verhindern (gecrawlt, aber nicht aufgenommen) | Danke-Seiten, Filterseiten, Duplikate |
| canonical | Bevorzugte URL signalisieren bei Duplikaten | Produktseiten mit URL-Parametern |
| Sitemap | Wichtige URLs aktiv zur Indexierung einreichen | Neue Seiten, tiefe Seitenstrukturen |
| nofollow | Crawler folgt Links auf dieser Seite nicht | Kommentarbereiche, User-generated Content |
Viele SEO-Probleme lassen sich auf fehlerhafte Crawling- oder Indexierungseinstellungen zurückführen. Diese Fehler kommen am häufigsten vor:
Crawling und Indexierung lassen sich mit folgenden Tools direkt überwachen und analysieren:
Das variiert stark – von wenigen Stunden bis zu mehreren Wochen. Einflussfaktoren sind die Domain-Autorität, die Crawl-Frequenz der Website und ob die URL aktiv über die Search Console eingereicht wurde. Neue Domains brauchen in der Regel länger als etablierte.
Eine gecrawlte Seite wurde vom Googlebot besucht und gelesen. Eine indexierte Seite wurde zusätzlich in Googles Datenbank aufgenommen und kann in den Suchergebnissen erscheinen. Nicht jede gecrawlte Seite wird automatisch indexiert – Google entscheidet selbst, ob der Inhalt indexierungswürdig ist.
Nicht erzwingen, aber beschleunigen. Über das URL-Prüftool in der Google Search Console kann eine URL manuell zur Indexierung eingereicht werden. Das verkürzt die Wartezeit deutlich, garantiert aber keine sofortige Aufnahme.
Indexierung bedeutet nur, dass die Seite im Index vorhanden ist – nicht, dass sie für bestimmte Keywords gut rankt. Ursachen für fehlende Sichtbarkeit sind oft zu schwache Autorität, fehlende thematische Relevanz, dünner Inhalt oder starker Wettbewerb im Keyword-Umfeld.
Wir verwenden Cookies, um Ihr Nutzungserlebnis auf unserer Website zu verbessern. Durch die Nutzung unserer Website erklären Sie sich mit der Verwendung von Cookies einverstanden.
Verwalten Sie Ihre Cookie-Einstellungen unten:
Essential cookies enable basic functions and are necessary for the proper function of the website.
Statistics cookies collect information anonymously. This information helps us understand how visitors use our website.
Google Analytics is a powerful tool that tracks and analyzes website traffic for informed marketing decisions.
Service URL: policies.google.com (opens in a new window)
Analyse-Tool von Microsoft, das aufzeichnet, wie Nutzer mit der Website interagieren (z. B. Klicks, Scroll-Bewegungen), um die Benutzerfreundlichkeit zu analysieren und zu verbessern.
Service URL: privacy.microsoft.com (opens in a new window)