Saturday, April 1, 2023

Seitenindizierungsbericht – Search Console-Hilfe [gg-webmasters-de]

Seitenindizierungsbericht

Sehen Sie, welche Seiten Google auf Ihrer Website finden und indexieren kann, und erfahren Sie mehr über aufgetretene Indexierungsprobleme.

Öffnen Sie den Seitenindizierungsbericht

Indexabdeckungsstatus in der Search Console – Google Search Console-Schulung

Einstieg

Gebrauchsanleitung für Nicht-Experten

Wenn Indexierung oder SEO neu für Sie sind oder Sie eine kleine Website haben, finden Sie hier die ersten Schritte:

  1. Entscheiden Sie, ob Sie diesen Bericht verwenden müssen . Wenn Ihre Website weniger als 500 Seiten hat, müssen Sie diesen Bericht wahrscheinlich nicht verwenden . Verwenden Sie stattdessen die folgenden Google-Suchanfragen, um zu sehen, ob Schlüsselseiten (oder irgendwelche Seiten) auf Ihrer Website indexiert sind. Nur wenn diese Suchen keine Ergebnisse für Ihre Website liefern und Sie bereit sind, die Zeit aufzuwenden, um diesen Bericht vollständig zu verstehen, sollten Sie den Seitenindizierungsbericht verwenden, um festzustellen, warum Ihre Website nicht indiziert ist (siehe Abschnitt zur Fehlerbehebung ).
    • Sehen Sie sich einige Beispiele von Seiten Ihrer Website an, die Google kennt:
      Syntax : site: <<site_root_domain_or_path>>
      Beispiele : site:example.com oder site:example.com/petstore
    • Suchen Sie nach Themen, die von Ihrer Website abgedeckt werden (suchen Sie nach Begriffen aus Ihren wichtigsten Seiten, einschließlich Ihrer Homepage):
      Syntax : site:<< site_root_domain_or_path>> term1 term2
      Beispiel : site:example.com/petstore iguanas zebras .
    • Suchen Sie nach der genauen URL einer Seite auf Ihrer Website, um zu sehen, ob Google sie indexiert hat (suchen Sie nach den wichtigsten Seiten Ihrer Website, einschließlich Ihrer Startseite):
      Syntax : site:<< exact-url >
      Beispiel : site:http://example.com/petstore/gerbil
  2. Lesen Sie diese kurze Bedienungsanleitung für eine schnelle und einfache Erklärung dieses Berichts.
  3. Wenn Sie tiefer eintauchen möchten:
    • Lesen Sie , wie die Google-Suche funktioniert . Wenn Sie die Indizierung nicht verstehen, wird Sie dieser Bericht verwirren oder frustrieren – vertrauen Sie uns.
    • Dieser Bericht wird nicht verwendet, um den Indexstatus bestimmter Seiten zu untersuchen. Um den Indexstatus einer bestimmten Seite zu ermitteln, verwenden Sie das URL-Prüftool .
    • Worauf Sie in diesem Bericht achten sollten:
      • Sind alle wichtigen URLs grün (indiziert)? Die meisten Websites haben mindestens ein paar nicht indizierte Seiten, aber alle wichtigen Seiten sollten indiziert sein. Denken Sie daran, dass doppelte URLs nicht indexiert werden sollten. Überprüfen Sie den Indexstatus Ihrer Startseite und Schlüsselseiten mit dem URL-Inspektionstool . Beachten Sie, dass die Liste der Beispiel-URLs im Bericht auf 1.000 Elemente begrenzt ist und nicht garantiert alle URLs in einem bestimmten Status anzeigt, selbst wenn es weniger als 1.000 Elemente sind.
      • Sind die grauen (nicht indexierten) URLs aus guten Gründen nicht indexiert? Es ist in Ordnung, wenn eine URL aus den richtigen Gründen nicht indexiert wird – zum Beispiel eine erwartete robots.txt- Regel auf Ihrer Website, ein noindex-Tag auf der Seite, eine doppelte URL oder ein 404 für eine Seite, die Sie entfernt haben und haben keinen Ersatz für
      • Wenn die Gesamtzahl der URLs in diesem Bericht viel kleiner ist als die Seitenzahl Ihrer Website , findet Google keine Seiten auf Ihrer Website. Einige mögliche Gründe dafür:
        • Die fehlenden Seiten oder Ihre Website ist neu. Es kann etwa eine Woche dauern, bis Google mit dem Crawlen und Indizieren einer neuen Seite oder Website beginnt. Wenn Ihre Seite oder Website neu ist, warten Sie ein paar Tage, bis Google sie gefunden und gecrawlt hat. In einer dringenden Situation oder wenn das Warten nicht zu funktionieren scheint, können Sie Google explizit bitten, einzelne Seiten zu crawlen .
        • Die fehlenden Seiten können von Google nicht gefunden werden. Google braucht eine Möglichkeit, eine Seite zu finden, um sie zu crawlen. Das bedeutet, dass es von einer bekannten Seite oder von einer Sitemap verlinkt sein muss. Bei einer neuen Website besteht der beste erste Schritt darin, die Indexierung Ihrer Homepage anzufordern, wodurch Google mit dem Crawlen Ihrer Website beginnen sollte. Stellen Sie bei fehlenden Teilen einer Website sicher, dass sie richtig verlinkt sind. Wenn Sie einen Website-Hosting-Service wie Wix oder SquareSpace verwenden, werden diese wahrscheinlich Google über neue Seiten informieren, sobald Sie diese veröffentlicht haben: Überprüfen Sie die Dokumentation Ihres Website-Hosts, um zu erfahren, wie Sie Ihre Seiten veröffentlichen und sie für Suchmaschinen auffindbar machen.
      • Lesen Sie die Dokumentation für Ihr spezifisches Indizierungsproblem, um das Problem zu verstehen und gegebenenfalls zu beheben. Das Überspringen der Dokumentation kostet Sie auf Dauer mehr Aufwand und Zeit als das Lesen der Dokumentation.
    • Worauf man nicht achten sollte:
      • Erwarten Sie nicht, dass jede URL auf Ihrer Website indexiert wird. Einige URLs sind möglicherweise Duplikate oder enthalten keine aussagekräftigen Informationen. Stellen Sie nur sicher, dass die Schlüsselseiten Ihrer Website indexiert sind.
      • Nicht indizierte URLs können in Ordnung sein. Lesen und verstehen Sie den spezifischen Grund für jede nicht indizierte URL, um zu bestätigen, dass die Seite nicht indiziert werden sollte.
      • Erwarten Sie hier nicht, dass die Gesamtsummen genau Ihrer Schätzung der Anzahl der URLs auf Ihrer Website entsprechen. Die Summen indexiert + nicht indexiert über dem Diagramm sind aus Sicht von Google vollständig und korrekt, aber aus verschiedenen Gründen können kleine Abweichungen auftreten.
      • Nur weil eine Seite indexiert ist, garantiert das nicht, dass sie in Ihren Suchergebnissen erscheint. Die Suchergebnisse werden für den Suchverlauf, den Standort und viele andere Variablen jedes Benutzers angepasst. Selbst wenn eine Seite indexiert ist, wird sie nicht bei jeder Suche oder in derselben Rangfolge angezeigt, wenn dies der Fall ist. Wenn die Search Console also sagt, dass eine URL indexiert ist, sie aber nicht in Ihren Suchergebnissen auftaucht, können Sie davon ausgehen, dass sie indexiert und in den Suchergebnissen angezeigt werden kann.

Häufig gestellte Fragen

Was zeigt dieser Bericht?

Der Seitenindizierungsbericht zeigt, wie viele URLs auf Ihrer Website von Google gecrawlt und indexiert wurden. (Wenn Sie nicht genau wissen, was diese Begriffe bedeuten, lesen Sie bitte , wie die Google-Suche funktioniert ). Google findet URLs auf viele Arten und versucht, die meisten von ihnen zu crawlen. Wenn eine URL fehlt oder nicht verfügbar ist, wird Google wahrscheinlich noch eine Weile versuchen, diese URL zu crawlen.

Was ist Indizierung?

Bei der Indexierung findet (crawlt) Google Ihre Seite, verarbeitet dann den Inhalt der Seite und fügt die Seite in den Google-Index ein (indiziert sie), wo die Seite möglicherweise in den Google-Suchergebnissen sowie in anderen Google-Diensten angezeigt werden kann , wie Entdecken. Weitere Informationen zur Indexierung finden Sie unter Funktionsweise der Google-Suche .

Wie kann ich meine Seite oder Website indexieren lassen?

Wenn Sie einen Website-Hostingdienst wie Wix oder SquareSpace verwenden, wird Ihr Hostingdienst Google wahrscheinlich jedes Mal mitteilen, wenn Sie eine Seite veröffentlichen oder aktualisieren. Lesen Sie die Dokumentation Ihres Website-Hosts, um zu erfahren, wie Sie Ihre Seiten veröffentlichen und sie für Suchmaschinen auffindbar machen.

Wenn Sie eine Website oder Seite ohne einen Hosting-Service erstellen, können Sie eine Sitemap oder verschiedene andere Methoden verwenden, um Google über neue Websites oder Seiten zu informieren.

Wir empfehlen dringend sicherzustellen, dass Ihre Homepage indexiert ist. Ausgehend von Ihrer Startseite sollte Google in der Lage sein, alle anderen Seiten Ihrer Website zu indizieren, wenn Ihre Website über eine umfassende und ordnungsgemäß implementierte Website-Navigation für Besucher verfügt.

Ist es in Ordnung, wenn eine Seite nicht indexiert ist?

Absolut. Google indiziert keine Seiten, die durch eine robots.txt-Regel oder ein noindex-Tag blockiert werden, oder Seiten, die Duplikate anderer Seiten auf Ihrer Website sind, oder Seiten, die für die Indexierung ungeeignet sind (z. B. Variationen einer Seite mit unterschiedlichen Filtern angewandt). Verwenden Sie das URL-Prüftool, um festzustellen, warum eine bestimmte Seite nicht indexiert ist. Wenn ein Indexierungsfehler vorliegt oder eine Seite aus einem unsinnig erscheinenden Grund nicht indexiert wurde, folgen Sie der Dokumentation, um das Problem zu verstehen und zu beheben.

Nutzungsleitfaden für SEOs, Entwickler und erfahrene Website-Besitzer

Wenn Sie ein erfahrener SEO-Experte, Entwickler oder Website-Eigentümer sind, aber den Bericht zur Seitenindizierung noch nicht verwendet haben:
  1. Lesen Sie , wie die Google-Suche funktioniert . Wenn Sie die Indizierung nicht verstehen, wird dieser Bericht nur verwirrend oder frustrierend sein: Vertrauen Sie uns.
  2. Befolgen Sie die Richtlinien unter Navigieren im Bericht , einschließlich Worauf Sie achten sollten und Worauf Sie nicht achten sollten .
  3. Lesen Sie den Abschnitt zur Fehlerbehebung , um allgemeine Probleme zu verstehen und zu beheben.
  4. Denken Sie daran, dass Nicht indiziert nicht unbedingt schlecht ist. Untersuchen Sie den angegebenen Grund für die Nichtindizierung einer bestimmten URL.
  5. Lesen Sie die Dokumentation zu Ihrem spezifischen Problem, um das Problem zu verstehen und zu erfahren, wie es behoben werden kann.

Navigieren im Bericht

Der Seitenindizierungsbericht zeigt den Google-Indizierungsstatus aller URLs, die Google in Ihrer Property kennt.

Zusammenfassungsseite

Die Übersichtsseite der obersten Ebene im Bericht zeigt ein Diagramm und die Anzahl Ihrer indexierten und nicht indexierten (aber angeforderten) Seiten sowie Tabellen mit Gründen dafür, dass URLs nicht indexiert werden konnten, oder anderen Indizierungsverbesserungen.

  • Die Tabelle „Warum Seiten nicht indexiert werden" zeigt Probleme, die verhindert haben, dass URLs auf Ihrer Website indexiert werden. Klicken Sie auf eine Zeile, um eine Detailseite anzuzeigen, auf der die von diesem Problem betroffenen URLs und der Verlauf Ihrer Website mit diesem Problem angezeigt werden.
  • Die Tabelle „Erfahrung mit Seiten verbessern" zeigt Probleme, die die Seitenindizierung nicht verhindert haben, aber wir empfehlen, dass Sie diese beheben, damit Google Ihre Seiten besser verstehen kann. Klicken Sie auf eine Zeile, um eine Detailseite anzuzeigen, die sich auf alle URLs mit demselben Problem konzentriert.
  • Der Link „Daten zu indexierten Seiten anzeigen" zeigt historische Informationen über die Anzahl Ihrer indexierten Seiten sowie eine Beispielliste mit bis zu 1.000 indexierten URLs.

Wonach schauen

Im Idealfall sollte die Anzahl der indizierten Seiten allmählich ansteigen, wenn Ihre Website wächst. Wenn Sie Einbrüche oder Spitzen sehen, lesen Sie den Abschnitt zur Fehlerbehebung.

Ihr Ziel ist es, die kanonische Version jeder wichtigen Seite indiziert zu bekommen. Doppelte oder alternative Seiten sollten nicht indiziert werden. Eine als Duplikat oder Alternative markierte Seite ist normalerweise eine gute Sache; es bedeutet, dass wir die kanonische Seite gefunden und indiziert haben. Sie können den Canonical für jede URL finden, indem Sie das URL-Inspektionstool ausführen .

Sehen Sie sich weitere Gründe für das Fehlen von Seiten an.

Was man nicht suchen sollte

  • 100 % Abdeckung: Sie sollten nicht erwarten, dass alle URLs Ihrer Website indexiert werden, sondern nur die kanonischen Seiten, wie oben beschrieben.
  • Sofortige Indexierung: Wenn Sie neue Inhalte hinzufügen, kann es einige Tage dauern, bis Google sie indexiert hat. Sie können die Indizierungsverzögerung reduzieren, indem Sie die Indizierung anfordern .

Primärer Crawler

Der Wert Primärer Crawler auf der Übersichtsseite zeigt den Standard- User-Agent-Typ , den Google zum Crawlen Ihrer Website verwendet. Verfügbare Werte sind: Smartphone oder Desktop; Diese Crawler simulieren einen Besucher, der ein mobiles Gerät bzw. einen Desktop-Computer verwendet.

Google crawlt alle Seiten Ihrer Website mit diesem primären Crawler-Typ. Google kann zusätzlich eine Teilmenge Ihrer Seiten mit einem sekundären Crawler (manchmal auch als alternativer Crawler bezeichnet) crawlen, bei dem es sich um den anderen User-Agent-Typ handelt. Wenn der primäre Crawler für Ihre Website beispielsweise Smartphone ist, ist der sekundäre Crawler Desktop; Wenn der primäre Crawler Desktop ist, ist Ihr sekundärer Crawler Smartphone. Der Zweck eines sekundären Crawls besteht darin, zu versuchen, mehr Informationen darüber zu erhalten, wie sich Ihre Website verhält, wenn sie von Benutzern auf einem anderen Gerätetyp besucht wird.

Status

Eine URL kann einen der folgenden Status haben:

  • Nicht indexiert : Die URL ist nicht indexiert, entweder aufgrund eines Indexierungsfehlers oder aus einem berechtigten Grund (z. B. wenn die Seite durch Ihre robots.txt-Datei für die Indexierung blockiert wird oder eine doppelte Seite ist ). Die Gründe, warum URLs nicht indexiert wurden, sind in der Tabelle „Warum Seiten nicht indexiert werden" aufgeführt. Lesen Sie die Dokumentation für jeden Grund, um festzustellen, ob es etwas ist, das Sie beheben sollten. Der Source- Wert gibt an, ob dies wahrscheinlich etwas ist, das Sie beheben können.
  • Indiziert : Diese URLs wurden erfolgreich indexiert. Sehen Sie sich ein Beispiel indexierter URLs an, indem Sie auf der Zusammenfassungsseite für den Bericht unter dem Diagramm auf Daten zu indexierten Seiten anzeigen klicken.

Grund

Der Grund, warum eine URL nicht indexiert werden konnte. In den folgenden Ursachenbeschreibungen finden Sie eine Beschreibung der einzelnen Probleme und gegebenenfalls deren Handhabung.

Quelle

Der Wert Quelle in der Tabelle zeigt an, ob die Quelle des Problems Google oder die Website ist. Im Allgemeinen können Sie nur Probleme beheben, bei denen die Quelle als „Website" aufgeführt ist.

Validierung

Ob Sie die Validierung eines Fixes für dieses Problem angefordert haben, und wenn ja, welchen Status der Validierungsversuch hat. Sie sollten die Behebung von Problemen priorisieren, die sich im Validierungsstatus „fehlgeschlagen" oder „nicht gestartet" befinden, und „Website" als Quelle angeben.

Validieren Sie Ihre Korrekturen

Nachdem Sie alle Instanzen eines bestimmten Problems auf Ihrer Website behoben haben, können Sie Google bitten, Ihre Korrekturen zu bestätigen. Wenn alle bekannten Instanzen behoben sind, geht die Problemanzahl in der Problemtabelle auf Null und wird an das Ende der Tabelle verschoben.

Warum validieren

Wenn Sie Google mitteilen, dass Sie alle Probleme in einem bestimmten Problemstatus oder einer bestimmten Kategorie behoben haben, hat das folgende Vorteile:

  • Sie erhalten eine E-Mail, wenn Google Ihre Korrektur für alle URLs bestätigt hat oder umgekehrt, wenn Google verbleibende Instanzen dieses Problems gefunden hat.
  • Sie können den Fortschritt von Google bei der Bestätigung Ihrer Korrekturen verfolgen und ein Protokoll aller Seiten anzeigen, die zur Überprüfung in die Warteschlange gestellt wurden, sowie den Korrekturstatus jeder URL.

Es ist möglicherweise nicht immer sinnvoll, ein bestimmtes Problem auf Ihrer Website zu beheben und zu validieren: Zum Beispiel werden URLs, die von robots.txt blockiert werden, wahrscheinlich absichtlich blockiert. Verwenden Sie Ihr Urteilsvermögen, wenn Sie entscheiden, ob Sie ein bestimmtes Problem ansprechen.

Sie können Probleme auch ohne Validierung beheben; Google aktualisiert Ihre Instanzenzahl immer dann, wenn eine Seite mit bekannten Problemen gecrawlt wird, unabhängig davon, ob Sie die Fixvalidierung explizit angefordert haben oder nicht.

Profi-Tipp: Validieren Sie Ihre Korrekturen anhand der Sitemap
Um eine Fehlerbehebungsanfrage zu beschleunigen, erstellen und übermitteln Sie eine Sitemap, die nur Ihre wichtigsten Seiten enthält, und filtern Sie dann den Bericht nach dieser Sitemap, bevor Sie eine Fehlerbehebungsvalidierung anfordern. Eine Validierungsanfrage für eine Teilmenge Ihrer betroffenen URLs kann schneller abgeschlossen werden als eine Anfrage, die alle betroffenen URLs auf Ihrer Website umfasst.

Validierung starten

So teilen Sie der Search Console mit, dass Sie ein Problem behoben haben:

  1. Beheben Sie alle Instanzen des Problems auf Ihrer Website. Wenn Sie eine Lösung verpasst haben, wird die Validierung beendet, wenn Google eine einzige verbleibende Instanz dieses Problems findet.
  2. Öffnen Sie die Problemdetailseite des Problems, das Sie behoben haben. Klicken Sie auf das Problem in der Problemliste in Ihrem Bericht.
    • ⚠️ Wenn Sie in Ihrem Bericht auf eine bestimmte Sitemap gefiltert werden, gilt die Validierung nur für Elemente in der Sitemap zu dem Zeitpunkt, an dem Sie die Validierung angefordert haben. Dies kann das sein, was Sie wollen, oder auch nicht. Seien Sie sich dessen bewusst.
  3. Klicken Sie auf Fix validieren . Klicken Sie nicht erneut auf Fix validieren, bis die Validierung erfolgreich war oder fehlgeschlagen ist. Weitere Einzelheiten darüber, wie Google Ihre Korrekturen prüft .
  4. Sie können den Validierungsfortschritt überwachen . Die Validierung dauert in der Regel bis zu zwei Wochen, kann aber in einigen Fällen viel länger dauern , also haben Sie bitte etwas Geduld. Sie erhalten eine Benachrichtigung, wenn die Validierung erfolgreich ist oder fehlschlägt.
  5. Wenn die Validierung fehlschlägt , können Sie sehen, welche URL das Fehlschlagen der Validierung verursacht hat, indem Sie auf der Seite mit den Problemdetails auf Details anzeigen klicken. Korrigieren Sie diese Seite, bestätigen Sie Ihre Korrektur für alle URLs im Status „Ausstehend" und starten Sie die Validierung neu .

Wann gilt ein Problem für eine URL oder einen Artikel als „behoben"?

Ein Problem wird für eine URL oder ein Element als behoben markiert, wenn eine der folgenden Bedingungen erfüllt ist:

  • Wenn die URL gecrawlt wird und das Problem nicht mehr auf der Seite gefunden wird. Bei einem AMP-Tag-Fehler kann dies bedeuten, dass Sie das Tag entweder repariert haben oder dass das Tag entfernt wurde (wenn das Tag nicht erforderlich ist). Während eines Validierungsversuchs wird es mit Passed gekennzeichnet.
  • Wenn die Seite aus irgendeinem Grund für Google nicht verfügbar ist (Seite entfernt, als noindex gekennzeichnet, Authentifizierung erforderlich usw.), gilt das Problem für diese URL als behoben. Während eines Validierungsversuchs wird es in den anderen Validierungszustand kategorisiert.

Lebensdauer ausgeben

Die Lebensdauer eines Problems erstreckt sich vom ersten Auftreten dieses Problems auf Ihrer Website bis zu 90 Tagen, nachdem das letzte Vorkommen von Ihrer Website als verschwunden markiert wurde. Wenn neunzig Tage ohne Wiederholungen vergehen, wird das Problem aus der Problemtabelle entfernt.

Das Datum der ersten Erkennung eines Problems ist das erste Mal, dass das Problem während der Lebensdauer des Problems erkannt wurde, und ändert sich nicht. Deshalb:

  • Wenn alle Instanzen eines Problems behoben wurden, aber 15 Tage später eine neue Instanz des Problems auftritt, wird das Problem als offen markiert und das Datum der ersten Erkennung bleibt das ursprüngliche Datum.
  • Wenn das gleiche Problem 91 Tage nach der Behebung der letzten Instanz auftritt, wurde das vorherige Problem geschlossen, und dieses Problem wird als neues Problem aufgezeichnet, wobei das erste Erkennungsdatum auf das neue Erkennungsdatum gesetzt wird.
Validierungsfluss

Hier ist eine Übersicht über den Validierungsprozess, nachdem Sie auf „Fix überprüfen" für ein Problem geklickt haben. Dieser Vorgang kann mehrere Tage oder sogar länger dauern und Sie erhalten Fortschrittsbenachrichtigungen per E-Mail.

  1. Wenn Sie auf Fehlerbehebung validieren klicken, überprüft die Search Console sofort einige Seiten.
    • Wenn die aktuelle Instanz auf einer dieser Seiten vorhanden ist, endet die Validierung und der Validierungsstatus bleibt unverändert.
    • Wenn die Beispielseiten den aktuellen Fehler nicht aufweisen, wird die Validierung mit dem Status Started fortgesetzt. Wenn bei der Validierung andere nicht verwandte Probleme gefunden werden, werden diese Probleme mit diesem anderen Problemtyp gezählt und die Validierung wird fortgesetzt.
  2. Die Search Console arbeitet die Liste bekannter URLs ab, die von diesem Problem betroffen sind. Nur URLs mit bekannten Instanzen dieses Problems werden zum erneuten Crawlen in die Warteschlange gestellt, nicht die gesamte Website. Search Console zeichnet alle überprüften URLs im Validierungsverlauf auf, der über die Seite mit den Problemdetails aufgerufen werden kann.
  3. Wenn eine URL geprüft wird:
    1. Wenn das Problem nicht gefunden wird, ändert sich der Validierungsstatus der Instanz in Passing . Wenn dies die erste Instanz ist, die nach dem Start der Validierung überprüft wird, ändert sich der Status der Problemvalidierung in Looking good .
    2. Wenn die URL nicht mehr erreichbar ist, ändert sich der Status der Instanzvalidierung in „Andere" (was kein Fehlerstatus ist).
    3. Wenn die Instanz noch vorhanden ist, ändern Sie den Status in Failed und die Validierung wird beendet. Wenn dies eine neue Seite ist, die durch normales Crawlen entdeckt wurde, wird dies als eine weitere Instanz dieses bestehenden Problems angesehen.
  4. Wenn URLs in der Warteschlange auf dieses Problem überprüft und als behoben befunden wurden, ändert sich der Problemstatus in Passed . Aber selbst wenn alle Instanzen behoben wurden, ändert sich der Schweregrad des Problems nicht ( Fehler oder Warnung ), sondern nur die Anzahl der betroffenen Elemente (0).

Selbst wenn Sie nie auf Validierung starten klicken, kann Google behobene Instanzen eines Problems erkennen. Wenn Google feststellt, dass alle Instanzen eines Problems während des regulären Crawls behoben wurden, ändert es die Anzahl der Probleme im Bericht auf 0.

Revalidierung

⚠️ Warten Sie, bis ein Validierungszyklus abgeschlossen ist, bevor Sie einen weiteren Zyklus anfordern, auch wenn Sie während des aktuellen Zyklus einige Probleme behoben haben.

So starten Sie eine fehlgeschlagene Validierung neu:

  1. Navigieren Sie zum Validierungsprotokoll für die fehlgeschlagene Validierung: Öffnen Sie die Problemdetailseite des Problems, bei dem die Validierung fehlgeschlagen ist, und klicken Sie auf Details anzeigen .
  2. Klicken Sie auf Neue Validierung starten .
  3. Die Validierung wird für alle URLs, die als Ausstehend oder Fehlgeschlagen gekennzeichnet sind, neu gestartet, sowie für alle neuen Instanzen dieses Problems, die seit dem letzten Validierungsversuch durch normales Crawling entdeckt wurden. URLs, die als Passed oder Other gekennzeichnet sind, werden nicht erneut überprüft.
  4. Die Validierung dauert in der Regel bis zu zwei Wochen , kann aber in einigen Fällen viel länger dauern, also haben Sie bitte etwas Geduld.

Siehe Validierungsfortschritt

So sehen Sie den Fortschritt einer aktuellen Validierungsanfrage oder den Verlauf der letzten Anfrage, wenn keine Validierung läuft:

  1. Öffnen Sie die Problemdetailseite für das Problem. Klicken Sie auf der Hauptseite des Berichts auf die Problemzeile, um die Seite mit den Problemdetails zu öffnen.
  2. Klicken Sie auf Details anzeigen, um die Seite mit den Validierungsdetails für diese Anfrage zu öffnen.
    • Der Instanzstatus für jede in der Anforderung enthaltene URL wird in der Tabelle angezeigt.
    • Der Instanzstatus gilt für das spezifische Problem, das Sie untersuchen. Sie können ein Problem auf einer Seite mit der Bezeichnung Bestanden haben, aber andere Probleme mit der Bezeichnung Fehlgeschlagen , Ausstehend oder Sonstiges auf derselben Seite.
    • Im AMP-Bericht und Seitenindizierungsbericht werden Einträge auf der Validierungsverlaufsseite nach URL gruppiert.
    • In den Berichten "Mobile Usability" und "Rich-Ergebnisse" werden Elemente nach der Kombination aus URL und strukturiertem Datenelement gruppiert (wie durch den Wert "Name" des Elements bestimmt).
Status der Validierungsanforderung

Die folgenden Validierungsstatus gelten für die Validierung für ein bestimmtes Problem:

  • Nicht gestartet: Eine oder mehrere Instanzen dieses Problems waren noch nie in einer Validierungsanforderung für dieses Problem.
    Nächste Schritte:
    1. Klicken Sie auf das Problem, um die Details des Fehlers zu erfahren. Überprüfen Sie die einzelnen Seiten, um Beispiele für den Fehler auf der Live-Seite mithilfe des AMP-Tests zu sehen. (Wenn der AMP-Test den Fehler auf der Seite nicht anzeigt, liegt das daran, dass Sie den Fehler auf der Live-Seite behoben haben, nachdem Google den Fehler gefunden und diesen Problembericht erstellt hat.)
    2. Klicken Sie auf der Detailseite auf Weitere Informationen , um die Details des Problems anzuzeigen.
    3. Klicken Sie auf eine Beispiel-URL-Zeile in der Tabelle, um Details zu diesem bestimmten Fehler zu erhalten.
    4. Korrigieren Sie Ihre Seiten und klicken Sie dann auf Korrektur validieren , um die Validierung zu starten . Die Validierung dauert in der Regel bis zu zwei Wochen, kann aber in einigen Fällen viel länger dauern, also haben Sie bitte etwas Geduld.
  • Begonnen: Sie haben einen Validierungsversuch gestartet und es wurden noch keine verbleibenden Instanzen des Problems gefunden.
    Nächster Schritt: Google sendet Benachrichtigungen, wenn die Validierung fortschreitet, und teilt Ihnen gegebenenfalls mit, was zu tun ist.
  • Sieht gut aus: Sie haben einen Validierungsversuch gestartet und alle bisher überprüften Probleminstanzen wurden behoben.
    Nächster Schritt: Nichts zu tun, aber Google sendet Benachrichtigungen, während die Validierung fortschreitet, und teilt Ihnen mit, was zu tun ist.
  • Bestanden: Alle bekannten Instanzen des Problems sind verschwunden (oder die betroffene URL ist nicht mehr verfügbar). Sie müssen auf Fix validieren geklickt haben, um zu diesem Status zu gelangen (wenn Instanzen verschwanden, ohne dass Sie eine Validierung angefordert haben, würde sich der Status zu N/A ändern).
    Nächster Schritt: Nichts mehr zu tun.
  • N/A: Google hat festgestellt, dass das Problem bei allen URLs behoben wurde, obwohl Sie nie einen Validierungsversuch gestartet haben.
    Nächster Schritt: Nichts mehr zu tun.
  • Fehlgeschlagen: Eine bestimmte Schwelle von Seiten weist dieses Problem immer noch auf, nachdem Sie auf Validieren geklickt haben.
    Nächste Schritte: Beheben Sie das Problem und starten Sie die Validierung neu .
Instanzvalidierungsstatus

Nachdem die Validierung angefordert wurde, wird jeder Instanz des Problems einer der folgenden Validierungsstatus zugewiesen:

  • Ausstehend: Zur Validierung in die Warteschlange gestellt. Bei der letzten Suche durch Google war diese Probleminstanz vorhanden.
  • Bestanden: [ Nicht in allen Berichten verfügbar ] Google hat nach der Probleminstanz gesucht und sie existiert nicht mehr. Dieser Status kann nur erreicht werden, wenn Sie für diese Probleminstanz explizit auf „Validieren" geklickt haben.
  • Fehlgeschlagen: Google hat nach der Probleminstanz gesucht und sie ist immer noch vorhanden. Dieser Status kann nur erreicht werden, wenn Sie für diese Probleminstanz explizit auf „Validieren" geklickt haben.
  • Sonstiges : [ Nicht in allen Berichten verfügbar ] Google konnte die URL, die die Instanz hostet, nicht erreichen oder (bei strukturierten Daten) konnte das Element nicht mehr auf der Seite finden. Wird als gleichwertig mit Bestanden betrachtet.

Beachten Sie, dass dieselbe URL für verschiedene Probleme unterschiedliche Zustände haben kann; Wenn beispielsweise eine einzelne Seite sowohl Ausgabe X als auch Ausgabe Y enthält, kann Ausgabe X den Validierungsstatus Passed und Ausgabe Y auf derselben Seite den Validierungsstatus Pending aufweisen.

Sitemap -Filter

Sie können den Dropdown-Filter über dem Diagramm verwenden, um Indexergebnisse danach zu filtern, ob sie in einer Sitemap enthalten sind oder nicht. Folgende Optionen stehen zur Verfügung:

  • Alle bekannten Seiten [ Standard ] - Zeigt alle URLs an, die Google bekannt sind, unabhängig davon, ob sie in einer Sitemap aufgeführt sind oder nicht.
  • Alle eingereichten Seiten – Zeigen Sie nur URLs an, die in einer Sitemap oder einem Sitemap-Index aufgeführt sind, der entweder mithilfe des Sitemaps-Berichts oder einer robots.txt-Datei auf Ihrer Website eingereicht wurde.
  • Nur nicht übermittelte Seiten – Zeigen Sie nur URLs an, die nicht in einer Sitemap aufgeführt waren, die entweder mithilfe des Sitemaps-Berichts oder einer robots.txt-Datei auf Ihrer Website übermittelt wurde.
  • Spezifische Sitemap-URL – Zeigen Sie nur URLs an, die in einer bestimmten Sitemap oder einem Sitemap-Index aufgeführt sind, der entweder mithilfe des Sitemaps-Berichts oder einer robots.txt-Datei auf Ihrer Website übermittelt wurde.

Eine URL gilt auch dann als von einer Sitemap übermittelt, wenn sie auch durch einen anderen Mechanismus entdeckt wurde (z. B. durch organisches Crawling von einer anderen Seite).

Detailseite

Klicken Sie auf eine Zeile auf der Zusammenfassungsseite, um eine Detailseite für URLs auf dieser Website mit demselben Problem oder Status zu öffnen. Sie können Details zum ausgewählten Problem anzeigen, indem Sie oben auf der Seite auf Mehr erfahren klicken.

Das Diagramm auf dieser Seite zeigt die Anzahl der betroffenen Seiten im Laufe der Zeit.

Die Beispieltabelle zeigt eine beispielhafte Liste von Seiten, die von diesem Problem betroffen sind. Die Liste zeigt nicht unbedingt alle URLs mit diesem Problem und ist auf 1.000 Zeilen begrenzt. Jede Beispielzeile hat die folgende Funktionalität:

  • Klicken Sie auf die Zeile, um weitere Details zu dieser URL anzuzeigen.
  • öffnet die URL in einem neuen Tab.
  • öffnet die URL-Prüfung für diese URL.
  • kopiert die URL

Wenn Sie alle Instanzen eines Fehlers oder einer Warnung behoben haben, klicken Sie auf Fehlerbehebung validieren , um Google mitzuteilen, dass Sie das Problem behoben haben.

Sehen Sie eine URL, die mit einem Problem gekennzeichnet ist, das Sie bereits behoben haben? Vielleicht haben Sie das Problem NACH dem letzten Google-Crawl behoben. Wenn Sie also eine URL mit einem Problem sehen, das Sie behoben haben, überprüfen Sie unbedingt das Crawling-Datum für diese URL. Überprüfen und bestätigen Sie Ihren Fix und fordern Sie dann eine Neuindizierung an

Teilen des Berichts

Sie können Problemdetails in den Abdeckungs- oder Verbesserungsberichten teilen, indem Sie auf „Teilen" klicken Schaltfläche auf der Seite. Dieser Link gewährt jedem, der über den Link verfügt, nur Zugriff auf die Detailseite des aktuellen Problems sowie alle Validierungsverlaufsseiten für dieses Problem. Es gewährt keinen Zugriff auf andere Seiten für Ihre Ressource oder ermöglicht es dem freigegebenen Benutzer, Aktionen für Ihre Property oder Ihr Konto durchzuführen. Sie können die Verlinkung jederzeit aufheben, indem Sie das Teilen für diese Seite deaktivieren.

Berichtsdaten exportieren

Viele Berichte bieten eine Exportschaltfläche um die Berichtsdaten zu exportieren. Sowohl Diagramm- als auch Tabellendaten werden exportiert. Werte, die im Bericht entweder als ~ oder - angezeigt werden (nicht verfügbar/keine Zahl), sind in den heruntergeladenen Daten Nullen.

Fehlerbehebung

Die Tabelle ist nach den Themen sortiert, die unserer Meinung nach am wichtigsten sind. So untersuchen Sie einen bestimmten Grund in der Indizierungsfehlertabelle:

  1. Klicken Sie auf eine Zeile in der Tabelle Warum Seiten nicht indiziert werden . Entscheiden Sie basierend auf dem Grund „nicht indexiert" und Ihrem Indexierungsziel , ob ein Problem vorliegt und ob Sie dieses Problem basierend auf dem Quellwert beheben können.
  2. Lesen Sie die spezifischen Informationen zu dem Problem .
  3. Sehen Sie sich eine Beispiel-URL an , die von dem Problem betroffen ist:
    1. Klicken Sie auf das Symbol „Inspizieren". neben der URL in der Beispieltabelle, um die URL-Prüfung für diese URL zu öffnen.
    2. Siehe Crawling- und Index-Details für diese URL in den Abschnitten Coverage > Crawl und Coverage > Indexing des URL-Inspektionsberichts.
    3. Um die Live-Version der Seite zu testen, klicken Sie auf Live-URL testen .

Allgemeine Indizierungsprobleme verstehen und beheben

Hier sind einige der häufigsten Indizierungsprobleme, die Sie in diesem Bericht sehen könnten:

Rückgang der gesamten indizierten Seiten ohne entsprechende Fehler

Wenn Sie einen Rückgang der insgesamt indexierten Seiten ohne einen entsprechenden Anstieg der Fehler feststellen, blockieren Sie möglicherweise den Zugriff auf Ihre vorhandenen Seiten über robots.txt, „noindex" oder eine erforderliche Anmeldung. Suchen Sie nach einem Anstieg bei nicht indizierten URLs, der Ihrem Rückgang bei indizierten Seiten entspricht.

Mehr nicht indizierte als indizierte Seiten

Wenn Sie mehr nicht indizierte Seiten als indizierte Seiten sehen, sehen Sie sich den im Bericht angegebenen Grund an. Häufige Gründe für große Gruppen nicht indizierter Seiten sind:

  • Sie haben eine robots.txt-Regel , die Google daran hindert, große Teile Ihrer Website zu crawlen. Wenn Sie die falschen Seiten blockieren, entsperren Sie sie.
  • Ihre Website weist eine große Anzahl doppelter Seiten auf, wahrscheinlich weil sie Parameter verwendet, um eine allgemeine Sammlung zu filtern oder zu sortieren (z. B.: type=dress oder color=green oder sort=price ). Diese Seiten sollten wahrscheinlich nicht indiziert werden, wenn sie nur denselben Inhalt zeigen, der sortiert, gefiltert oder auf unterschiedliche Weise erreicht wird.
Fehlerspitzen

Fehlerspitzen können durch eine Änderung in Ihrer Vorlage verursacht werden, die einen neuen Fehler einführt, oder Sie haben möglicherweise eine Sitemap eingereicht, die URLs enthält, die für das Crawlen durch robots.txt, noindex oder eine Anmeldeanforderung blockiert sind.

Wenn Sie eine Fehlerspitze sehen:

  1. Sehen Sie nach, ob Sie eine Entsprechung zwischen der Gesamtzahl der Indexierungsfehler oder der Gesamtzahl der Indexierungen und der Sparkline finden können neben einer bestimmten Fehlerzeile auf der Zusammenfassungsseite als Anhaltspunkt dafür, welches Problem sich möglicherweise auf Ihre Gesamtfehlerzahl oder die Gesamtzahl der indexierten Seiten auswirkt.
  2. Klicken Sie auf die Detailseiten für alle Fehler, die zu Ihrer Fehlerspitze beizutragen scheinen. Lesen Sie die Beschreibung zum jeweiligen Fehlertyp, um zu erfahren, wie Sie am besten damit umgehen.
  3. Klicken Sie auf ein Problem und sehen Sie sich bei Bedarf eine Beispielseite an , um den Fehler zu finden.
  4. Beheben Sie alle Instanzen für den Fehler und fordern Sie eine Validierung an, indem Sie aus diesem Grund auf der Detailseite auf Fehlerbehebung validieren klicken. Lesen Sie mehr über Validierung .
  5. Sie erhalten Benachrichtigungen, während Ihre Validierung fortschreitet, aber Sie können nach ein paar Tagen erneut nachsehen, ob Ihre Fehleranzahl zurückgegangen ist.
Serverfehler
Ein Serverfehler bedeutet, dass der Googlebot nicht auf Ihre URL zugreifen konnte, die Anfrage abgelaufen ist oder Ihre Website ausgelastet war. Infolgedessen war der Googlebot gezwungen, die Anfrage abzubrechen.
Prüfen Sie den Host-Status für Ihre Website im Crawling-Statistikbericht , um festzustellen, ob Google Probleme mit der Website-Verfügbarkeit meldet, die Sie bestätigen und beheben können.

Testen der Serverkonnektivität

Sie können das URL-Inspektionstool verwenden, um zu sehen, ob Sie einen Serverfehler reproduzieren können, der vom Seitenindizierungsbericht gemeldet wird. Beachten Sie, dass Serverfehler vorübergehend sein können, sodass Ihr Live-Test möglicherweise erfolgreich ist, wenn das Crawlen durch Google aufgrund eines Serverfehlers fehlgeschlagen ist.

Beheben von Serververbindungsfehlern

  • Sehen Sie sich Ihre aktuelle Host-Verfügbarkeit im Crawling-Statistikbericht an, um zu sehen, ob es ein anhaltendes oder umfangreiches Problem mit Ihrer Website gibt.
  • Reduzieren Sie das übermäßige Laden von Seiten für dynamische Seitenanforderungen .
    Eine Website, die dieselben Inhalte für mehrere URLs bereitstellt, wird als dynamisch bereitgestellt (z. B. liefert www.example.com/shoes.php?color=red&size=7 dieselben Inhalte wie www.example.com/shoes.php?size=7&color=red ). Es kann zu lange dauern, bis dynamische Seiten reagieren, was zu Zeitüberschreitungsproblemen führt. Oder der Server gibt einen Überlastungsstatus zurück, um den Googlebot zu bitten, die Website langsamer zu crawlen. Generell empfehlen wir, Parameterlisten kurz zu halten und sparsam damit umzugehen.
  • Stellen Sie sicher, dass der Hosting-Server Ihrer Website nicht heruntergefahren, überlastet oder falsch konfiguriert ist.
    Wenn Verbindungs-, Zeitüberschreitungs- oder Antwortprobleme bestehen bleiben, wenden Sie sich an Ihren Webhoster und ziehen Sie in Betracht, die Fähigkeit Ihrer Website zur Verarbeitung von Datenverkehr zu erhöhen.
  • Stellen Sie sicher, dass Sie Google nicht versehentlich blockieren .
    Möglicherweise blockieren Sie Google aufgrund eines Problems auf Systemebene, z. B. eines Problems mit der DNS-Konfiguration , einer falsch konfigurierten Firewall oder eines DoS-Schutzsystems oder einer Konfiguration eines Content-Management-Systems. Schutzsysteme sind ein wichtiger Bestandteil eines guten Hostings und oft so konfiguriert, dass sie automatisch ungewöhnlich viele Serveranfragen blockieren. Da der Googlebot jedoch häufig mehr Anfragen stellt als ein menschlicher Benutzer, kann er diese Schutzsysteme auslösen, wodurch sie den Googlebot blockieren und ihn daran hindern, Ihre Website zu crawlen. Um solche Probleme zu beheben, ermitteln Sie, welcher Teil der Infrastruktur Ihrer Website den Googlebot blockiert, und entfernen Sie die Blockierung. Die Firewall steht möglicherweise nicht unter Ihrer Kontrolle, daher müssen Sie dies möglicherweise mit Ihrem Hosting-Provider besprechen.
  • Kontrollieren Sie das Crawlen und Indizieren von Suchmaschinen-Websites mit Bedacht .
    Einige Webmaster verhindern absichtlich, dass der Googlebot auf ihre Websites zugreift, möglicherweise mithilfe einer Firewall, wie oben beschrieben. In diesen Fällen besteht die Absicht normalerweise nicht darin, den Googlebot vollständig zu blockieren, sondern zu kontrollieren, wie die Website gecrawlt und indexiert wird. Wenn dies auf Sie zutrifft, überprüfen Sie Folgendes:
404-Fehler

Generell empfehlen wir, nur 404-Fehler zu beheben, die Sie selbst verlinken oder in einer Sitemap auflisten. Wenn eine Seite verschoben wurde, sollten Sie eine 3XX-Umleitung auf die neue Seite zurückgeben. Erfahren Sie mehr über das Auswerten und Beheben von 404-Fehlern.

Fehlende Seiten oder Websites

Wenn Ihre Seite überhaupt nicht im Bericht enthalten ist, trifft wahrscheinlich einer der folgenden Punkte zu:

  • Google kennt die Seite nicht. Einige Hinweise zur Auffindbarkeit von Seiten:
    • If this is a new site or page, remember that it can take some time for Google to find and crawl new sites or pages.
    • In order for Google to learn about a page, you must either submit a sitemap or page crawl request , or else Google must find a link to your page somewhere.
    • After a page URL is known, it can take some time (up to a few weeks) before Google crawls some or all of your site.
    • Indexing is never instant, even when you submit a crawl request directly.
    • Google doesn't guarantee that all pages everywhere will make it into the Google index.
  • Google can't reach your page (it requires a login, or is otherwise not available to all users on the internet).
  • The page has a noindex tag , which prevents Google from indexing it.
  • The page was dropped from the index for some reason.

To fix:

Use the URL Inspection tool to test the problem on your page. If the page is not in the Page Indexing report but it is listed as indexed in the URL Inspection report, it was probably indexed recently, and will appear in the Page Indexing report soon. If the page is listed as not indexed in the URL Inspection tool (which is what you'd expect), test the live page. The live page test results should indicate what the issue is: use the information from the test and the test documentation to learn how to fix the issue.

FAQs

Why is my page in the index? I don't want it indexed.

Google can index any URL that it finds unless you include a noindex directive on the page (or it has been temporarily blocked ), and Google can find a page in many different ways, including someone linking to your page from another site.

  • If you want your page to be blocked from Google Search results, you can either require some kind of login for the page, or you can use a noindex directive on the page. Using a robots.txt rule is not recommended for blocking a page, and will actually prevent noindex from being seen by Google.
  • If you want your page to be removed from Google Search results after it has already been found, you'll need to follow these steps .

Why hasn't my site been reindexed lately?

Google reindexes pages based on a number of criteria, including how often it thinks the page changes. If your site doesn't change often, it might be on a slower refresh rate, which is fine, if your pages haven't changed. If your page has changed substantially since the last recrawl, you can ask Google to recrawl it . Remember, though, that Google automatically recrawls your pages, so don't bother asking for a recrawl unless there is an important change, and Google doesn't seem to have noticed it for a while (a week or more).

Can you please recrawl my page/site?

Ask Google to recrawl it .

Why are so many of my pages not indexed?

Look at the reasons detailed by the Page Indexing report. Here are the most common reasons for not indexing large quantities of URLs on a site:

  • You have a robots.txt rule that is blocking Google from crawling large sections of your site. These pages should be marked in the Page Indexing report as blocked by robots.txt. Track down and remove the blocking rule in your robots.txt file.
  • Your site has a large number of duplicate pages, typically because it uses parameters to filter or sort a common collection (for example: type=dress or color=green or sort=price ). These pages will be labeled as "duplicate" or "alternate" in the Page Indexing report. Google doesn't index duplicate copies of a page.
  • The URL redirects to another URL. Redirect URLs are not indexed, only the redirect target.

Google can't access my sitemap

Be sure that your sitemap is not blocked by robots.txt, is valid, and that you're using the proper URL in your robots.txt entry or Sitemaps report submission. Test your sitemap URL using a publicly available sitemap testing tool .

Why does Google keep crawling a page that was removed?

Google continues to crawl all known URLs even after they return 4XX errors for a while, in case it's a temporary error. The only case when a URL won't be crawled is when it returns a noindex directive .

To avoid showing you an eternally growing list of 404 errors, the Page Indexing report shows only URLs that have shown 404 errors in the past month.

I can see my page, why can't Google?

Use the URL Inspection tool to see whether Google can see the live page. If it can't, it should explain why. If it can, the problem is likely that the access error has been fixed since the last crawl. Run a live crawl using the URL Inspection tool and request indexing .

The URL Inspection tool shows no problems, but the Page Indexing report shows an error; Warum?

You might have fixed the error after the URL was last crawled by Google. Look at the crawl date for your URL (which should be visible in either the URL details page in the Page Indexing report or in the indexed version view in the URL Inspection tool ). Determine if you made any fixes since the page was crawled.

Also, the live URL Inspection doesn't test all the issues covered by the Page Indexing report . Most notably, duplicate or canonical conditions are not tested in the live test.

How do I find the index state of a specific URL?

To learn the index status of a specific URL, use the URL Inspection tool . You can't search or filter by URL in the Page Indexing report.

Indexing reasons

The following reasons can be shown for non-indexing, or for problematic indexing, in the Page indexing report:


Not indexed

These pages have not been indexed, but not necessarily because of an error. Read the specific description to see if this is an error that you should address.

Server error (5xx)

Your server returned a 500-level error when the page was requested. See Fixing server errors .

Redirect error

Google experienced one of the following redirect errors:

  • A redirect chain that was too long
  • A redirect loop
  • A redirect URL that eventually exceeded the max URL length
  • A bad or empty URL in the redirect chain

Use a web debugging tool such as Lighthouse to get more details about the redirect.

URL blocked by robots.txt

This page was blocked by your site's robots.txt file . You can verify this using the robots.txt tester . Note that this does not guarantee that the page won't be indexed through some other means. If Google can find other information about this page without loading it, there is a very small chance that the page might still be indexed. To ensure that a page is not indexed by Google, remove the robots.txt block and use a 'noindex' directive .

URL marked 'noindex'

When Google tried to index the page it encountered a 'noindex' directive and therefore did not index it. If you do not want this page indexed, congratulations! If you do want this page to be indexed, you should remove the 'noindex' directive.

To confirm the problem:

  1. Click the inspection icon next to the URL in the table.
  2. Under Coverage > Indexing > Indexing allowed? the report should show that noindex is preventing indexing. You can search the page source or response headers for the word "noindex".
  3. Confirm that the noindex tag still exists in the live version:
    1. Clicking Test live URL
    2. Under Availability > Indexing > Indexing allowed? see if the noindex directive is still detected. If noindex is no longer present, you can click Request Indexing to ask Google to try again to index the page. If noindex is still present, you must remove it in order for the page to be indexed.
  4. If you want this page to be indexed, you must remove the tag or HTTP header.

Soft 404

The page request returns what we think is a soft 404 response . This means that it returns a user-friendly "not found" message but not a 404 HTTP response code. We recommend returning a 404 response code for truly "not found" pages and adding more information on the page to let us know that it is not a soft 404. To see how Google sees the page, run a live URL inspection test against the page and click View tested page to see a screenshot showing how Google renders the page. Learn how to fix a soft 404 .

Blocked due to unauthorized request (401)

The page was blocked to Googlebot by a request for authorization ( 401 response ). If you do want Googlebot to be able to index this page, either remove authorization requirements for this page, or else allow Googlebot to access your pages by verifying its identity . You can verify this error by visiting the page in incognito mode .

Not found (404)

This page returned a 404 error when requested. Google discovered this URL without any explicit request or sitemap. Google might have discovered the URL as a link from another page, or possibly the page existed before and was deleted. Googlebot will probably continue to try this URL for some period of time; there is no way to tell Googlebot to permanently forget a URL, although it will crawl it less and less often. 404 responses are not necessarily a problem, if the page has been removed without any replacement. If your page has moved, use a 301 redirect to the new location. See Fixing 404 errors

Blocked due to access forbidden (403)

HTTP 403 means that the user agent provided credentials, but was not granted access. However, Googlebot never provides credentials, so your server is returning this error incorrectly. The page will not be indexed.

If you do want Googlebot to index this page, you should either admitting non-signed-in users or explicitly allow Googlebot requests without authentication (though you should verify its identity ).

URL blocked due to other 4xx issue

The server encountered a 4xx error not covered by any other issue type described here. Try debugging your page using the URL Inspection tool .

Blocked by page removal tool

The page is currently blocked by a URL removal request , either by someone who manages this property in Search Console or by an approved request from a site visitor .

Use the URL removals tool to see who submitted a URL removal request. Removal requests are only good for about 90 days after the removal date. After that period, Googlebot may go back and index the page even if you do not submit another index request. If you don't want the page indexed , use 'noindex' , require authorization for the page, or remove the page.

Crawled - currently not indexed

The page was crawled by Google but not indexed. It may or may not be indexed in the future; no need to resubmit this URL for crawling.

Discovered - currently not indexed

The page was found by Google, but not crawled yet. Typically, Google wanted to crawl the URL but this was expected to overload the site; therefore Google rescheduled the crawl. This is why the last crawl date is empty on the report.

Alternate page with proper canonical tag

This page is marked as an alternate of another page (that is, an AMP page with a desktop canonical, or a mobile version of a desktop canonical , or the desktop version of a mobile canonical). This page correctly points to the canonical page, which is indexed, so there is nothing you need to do. Alternate language pages are not detected by Search Console.

Duplicate without user-selected canonical

This page is a duplicate of another page, although it doesn't indicate a preferred canonical page . Google has chosen the other page as the canonical for this page, and so will not serve this page in Search. You can Inspect this URL to see which URL Google considers canonical for this page.

This is not an error, but is working as intended, because Google does not serve duplicate pages . However, if you think that Google has chosen the wrong URL as canonical, you can explicitly mark the canonical for this page . Alternately, if you think that this page is not a duplicate of the Google-chosen canonical, you should ensure that the content differs substantially between the two pages.

Duplicate, Google chose different canonical than user

This page is marked as canonical for a set of pages, but Google thinks another URL makes a better canonical. Google has indexed the page that we consider canonical rather than this one.

  1. Inspect this URL to see the Google-selected canonical URL under Page indexing > Google-selected canonical .
  2. Look at the canonical you chose under Page indexing > User-declared canonical .
  3. In your browser, look at the current page, the user-declared canonical, and the Google-selected canonical.
  4. This error means that Google thinks that the tested page isn't a duplicate of the user-declared canonical. Instead, Google thinks that the tested page is a duplicate of the Google-selected canonical.
    • If the Google-selected canonical is the tested page, then Google thinks that the tested page isn't similar to any other pages.
    • If the user-declared canonical is not similar to the current page, then Google won't ever choose that URL as canonical. A duplicate page must be similar to the canonical. (That's what duplicate means.)

Page with redirect

This is a non-canonical URL that redirects to another page. As such, this URL will not be indexed. The target URL of the redirect might or might not be indexed, depending on what Google thinks about that target URL.

A canonical URL with a redirect can be indexed.

If you view this URL in the URL Inspection report, the indexed information applies to the tested URL (ignoring any redirects). To see the index status of the canonical URL associated with this URL (the URL that is in the Google Index ), click the INSPECT button in the Page indexing > Indexing section of the report.

The live URL Inspection test follows redirects and then tests the final URL, although the live test doesn't indicate that it is following a redirect.


Warning

Warnings are listed in the Improve page experience table on the summary page of the Page indexing report. These issues don't prevent a page from being indexed, but they do reduce Google's ability to understand and index your pages.

Indexed , though blocked by robots.txt

The page was indexed despite being blocked by your website's robots.txt file . Google always respects robots.txt, but this doesn't necessarily prevent indexing if someone else links to your page . Google won't request and crawl the page, but we can still index it, using the information from the page that links to your blocked page. Because of the robots.txt rule, any snippet shown in Google Search results for the page will probably be very limited.

Next steps:

Page indexed without content

This page appears in the Google index, but for some reason Google could not read the content. Possible reasons are that the page might be cloaked to Google or the page might be in a format that Google can't index. This is not a case of robots.txt blocking. Inspect the page , and look at the Coverage section for details.


Indexed

You can see your indexed URL count in the graph on the summary page. You can see an example list of URLs and more information about them by clicking View data about indexed pages below the graph.

Page is indexed

The page has been indexed successfully. However, it might have other issues that should be addressed, such as mobile usability or structured data issues. Any other issues will be described in the appropriate section in the URL Inspection report.

No comments:

Post a Comment