Das „Gefunden – zurzeit nicht indexiert“ Problem beheben

Neben „Gecrawlt, zurzeit nicht indexiert“ ist „gefunden, zurzeit nicht indexiert“ das häufigste Problem mit Blick auf die Seitenindexierung bei Google. In diesem Fall kennt Google die betroffenen Adressen, hat sie aber bisher nicht besucht. Folglich konnte nicht entschieden werden, ob die Seiten indexiert werden (dürfen).

Um das Problem zu verstehen, muss der Crawling-Prozess betrachtet werden. Dieser besteht auf diesen Schritten:

  1. Die URL muss bekannt sein („Auffindbarkeit“)
  2. Die URL muss erfolgreich gecrawlt werden können („Crawlbarkeit“)
  3. Die URL muss indexiert werden dürfen und wurde indexiert („Indexierbarkeit“)

Bei Adressen mit dem Fehler „gefunden, zurzeit nicht indexiert“ hat der Prozess bereits bei Schritt 1 geendet. Google kennt die Seiten, hat sie aber bisher nicht besucht.

Der Verlauf der von "Gefunden, zurzeit nicht indexiert" betroffenen Seiten einer Website in der Google Search Console
Auch bei meiner Seite kommt es vor, dass Google Seiten kennt, aber nicht gecrawlt hat (oder crawlen konnte)

In der Google-Hilfe steht zu dem Problem folgendes:

Die Seite wurde von Google gefunden, aber noch nicht gecrawlt. Wird diese Begründung angegeben, hat Google normalerweise versucht, die URL zu crawlen, aber das hätte die Website überlastet. Daher hat Google das Crawling neu geplant. Aus diesem Grund ist das Feld mit dem letzten Crawling-Datum im Bericht leer.

Da Google bisher nur die Adresse kennt, nicht aber deren Inhalt, liegt das Problem für die Nicht-Indexierung im Gegensatz zu „Gecrawlt, zurzeit nicht indexiert“ nicht am Seiteninhalt.

Wie „Gefunden, zurzeit nicht indexiert“ behoben werden kann

Im Hilfe-Text spricht Google von „normalerweise versucht, die URL zu crawlen“. Ob Google es auch tatsächlich versucht , den Crawl dann aber wegen der angegebenen „Lastprobleme“ abgebrochen hat, kann, muss aber nicht der Fall sein.

Tipp 1: Serverperformance in der Google Search Console analysieren

Der erste Blick sollte der Serverperformance beziehungsweise möglichen Serverproblemen beim Crawling dienen. Der passende Bericht dafür ist in der Google Search Console unter „Einstellungen“ => „Crawling-Statistiken“ => „Hoststatus“ zu finden.

Crawlingprobleme mit dem "Hoststatus" der Google Search Console analysieren
Werfe einen Blick in den Hoststatus, um Probleme beim Verbindungsaufbau finden zu können

Sollten hier keine massiven Ausreißer nach oben zu finden sein, kannst du noch einen zusätzlichen Blick auf den Bericht „Core Web Vitals“ in der Google Search Console werfen.

Sollten hier keine massiven Probleme mit langsam ladenden Seiten vorliegen, dann kann eigentlich der Server nicht das Problem sein.

Tipp 2: Erneutes Crawling durch zusätzliche Linksignale erhöhen

Zwischen dem Crawling einer Seite kann schonmal mehrere Wochen oder Monate vergehen. Auch Zeiträume von mehreren Jahren sind (bei großen Seiten) möglich.

Um die Wahrscheinlichkeit eines (erneuten) Crawls zu erhöhen, sollten zusätzliche Signale zu den betroffenen Adressen gesetzt werden. Die Möglichkeiten dafür sind:

  • Eintrag der Seiten in XML-Sitemaps (plus Einreichung der Sitemap in der Google Search Console)
  • Verbesserung der internen Verlinkung
  • Einreichung der Seite über die URL-Prüfung der Google Search Console

Diese drei Methoden erhöhen die Wahrscheinlichkeit eines Crawlings, sind aber nicht die beste Methode. Die erfolgversprechendste Methode ist die Nutzung der Indexing API. Und diese ist der zentrale Baustein von getIndexed.

Wichtig: Keine der Methoden kann zu 100% eine Indexierung versprechen, die Wahrscheinlichkeit aber deutlich steigern. Ob Google eine Seite indexiert, hängt vom festgestellten Mehrwert der Seite ab. Seiten, die (aktuell) diesen Anspruch nicht genügen, können den Status „Gecrawlt, zurzeit nicht indexiert“ in der Search Console erhalten.


Beitrag veröffentlicht am

von