Saturday, January 1, 2022

Bericht zur Indexabdeckung - Search Console-Hilfe [gg-webmasters-de]

Bericht zur Indexabdeckung

Sehen Sie, welche Seiten Google auf Ihrer Website gefunden hat, welche Seiten indexiert wurden und welche Indexierungsprobleme aufgetreten sind.

INDEX-ABDECKUNGSBERICHT

Status der Indexabdeckung in der Search Console - Google Search Console-Schulung

Einstieg

Nicht-Experten

Wenn Sie neu in der Indexierung oder SEO sind, lesen Sie bitte diese Richtlinien , andernfalls werden Sie diesen Bericht wahrscheinlich nicht verstehen.

  1. Lesen Sie, wie die Google-Suche funktioniert . Wenn Sie die Indexierung nicht verstehen, wird Sie dieser Bericht verwirren oder frustrieren – vertrauen Sie uns.
  2. Entscheiden Sie, ob Sie diesen Bericht verwenden müssen . Wenn Ihre Website weniger als 500 Seiten umfasst, müssen Sie diesen Bericht wahrscheinlich nicht verwenden. Verwenden Sie stattdessen eine der folgenden Google-Suchen, um zu sehen, ob Ihre Website indiziert ist:

    • site: <<site_root_domain_or_path>> – Sehen Sie sich eine Teilmenge der Seiten an, die Google auf Ihrer Site kennt. Beispiele: site:example.com oder site:example.com/petstore
    • site:<< your_site>> term1 term2 - Suchen Sie nach indizierten Seiten mit bestimmten Begriffen auf Ihrer Site. Beispiel: site:example.com/petstore iguanas zebras .
    • site:<< exact-url >> - Suchen Sie nach der genauen URL einer Seite auf Ihrer Website, um zu sehen, ob sie von Google indexiert wurde. Beispiel: site:http://example.com/petstore/gerbil
    Wenn Sie keine Suchergebnisse erhalten, sehen Sie sich diesen Bericht an, um zu überprüfen, ob Ihre Website wirklich keine indizierten Seiten enthält. Wenn in diesem Bericht null gültige Seiten (oder null Seiten mit beliebigem Status) angegeben sind, lesen Sie den Abschnitt zur Fehlerbehebung .
  3. Verwenden Sie diesen Bericht, um den allgemeinen Indexstatus Ihrer Site zu ermitteln . Der Bericht ist nicht nützlich, um den Indexstatus bestimmter Seiten zu untersuchen. Um den Indexstatus einer bestimmten Seite zu ermitteln, verwenden Sie das URL-Inspektionstool .
  4. Worauf Sie in diesem Bericht achten sollten:
    • Sind die meisten URLs grün (gültig) und/oder grau (ausgeschlossen)? Ihre Site sollte hauptsächlich gültige und ausgeschlossene Seiten sein: Valid , weil diese Seiten im Index enthalten sind; Ausgeschlossen , weil die Search Console der Ansicht ist, dass diese URLs aus einem Grund, dem Sie zustimmen können, aus dem Index ausgeschlossen sind.
    • Sind wenige URLs (falls vorhanden) rot (Fehler)? Fehler-URLs sind fast immer ein Problem. Wie viel Zeit Sie jedoch aufwenden möchten, um Indexfehler zu beheben, hängt davon ab, wie wichtig die Seite für Ihre Website ist.
    • Entsprechen die grauen (ausgeschlossenen) URL-Gründe Ihren Erwartungen? Ausgeschlossene URLs werden nicht indexiert, aber wir denken, dass dies wahrscheinlich kein Fehler ist. Ausschlussgründe bedeuten, dass die Indexierung der Seite ausdrücklich gesperrt ist (z. B. eine robots.txt-Regel auf Ihrer Website oder ein noindex-Tag auf der Seite). Auch doppelte Seiten werden ausgeschlossen (Google indexiert nur eine Version einer Reihe von doppelten Seiten ). Stellen Sie sicher, dass die Gründe für den Ausschluss Ihrer Seiten akzeptabel sind. Wenn nicht, korrigieren Sie sie gemäß der Dokumentation für den jeweiligen Ausschlussstatus.
    • Indexiert Google die wichtigsten URLs auf Ihrer Website? Der Index Berichterstattung Bericht ist nicht zu prüfen , einzelne URLs verwendet, aber Sie können die Ergebnisse filtern , um nur die gültige URLs zu zeigen, dann sehen , ob Ihre wichtigen URLs aufgeführt sind. (Beachten Sie, dass die Liste der Beispiel-URLs im Bericht auf 1.000 Elemente beschränkt ist und nicht garantiert werden kann, dass alle URLs in einem bestimmten Status angezeigt werden, selbst wenn weniger als 1.000 Elemente vorhanden sind.) Überprüfen Sie den Indexstatus Ihrer Startseite und wichtiger Seiten mithilfe von das URL-Inspektion-Tool .
    • Findet Google die meisten Ihrer URLs? Der Bericht zeigt alle URLs an, die Google auf Ihrer Website kennt , unabhängig davon, ob sie indiziert sind oder nicht. Wenn die Gesamtzahl der URLs in diesem Bericht viel kleiner ist als die Seitenzahl Ihrer Website, findet Google keine Seiten auf Ihrer Website. Einige mögliche Gründe dafür:
      • Die Seiten oder Ihre Site ist neu. Es kann etwa eine Woche dauern, bis Google mit dem Crawlen und Indexieren einer neuen Seite oder Website beginnt. Wenn Ihre Website oder Seite neu ist, warten Sie einige Tage, bis Google sie gefunden und gecrawlt hat. In einer dringenden Situation oder wenn das Warten nicht zu funktionieren scheint, können Sie Google explizit bitten, einzelne Seiten zu crawlen .
      • Die Seiten sind von Google nicht auffindbar. Die Seiten sollten von einer Stelle verlinkt werden, die Google bekannt ist: von anderen bekannten Seiten: von Ihrer Homepage, von anderen bekannten Seiten Ihrer Site, von anderen Sites oder von einer Sitemap. Für eine neue Website ist der beste erste Schritt, die Indexierung Ihrer Homepage anzufordern, die Google mit dem Crawlen Ihrer Website beginnen sollte. Stellen Sie bei fehlenden Teilen einer Site sicher, dass sie richtig verlinkt sind. Wenn Sie einen Site-Hosting-Dienst wie Wix oder SquareSpace verwenden, lesen Sie die Dokumentation Ihres Site-Hosts, um zu erfahren, wie Sie Ihre Seiten veröffentlichen und für Suchmaschinen auffindbar machen.
    • Lesen Sie die Dokumentation für Ihren spezifischen Statustyp , um den Grund und mögliche Korrekturempfehlungen für einen bestimmten Status zu verstehen. Das Überspringen der Dokumentation verursacht auf lange Sicht mehr Aufwand und Zeit als das Lesen der Dokumentation.
  5. Worauf Sie nicht achten sollten:
    • Erwarten Sie nicht, dass jede URL auf Ihrer Website indexiert wird. Einige URLs können Duplikate sein oder keine aussagekräftigen Informationen enthalten.
    • Ausgeschlossene URLs sind normalerweise in Ordnung. Lesen und verstehen Sie den spezifischen Grund für jede ausgeschlossene URL, um zu bestätigen, dass die Seite ordnungsgemäß ausgeschlossen wurde.
    • Fehler-URLs sollten wahrscheinlich behoben werden. Lesen Sie die Fehlerursache, um das Problem zu verstehen und Fehler zu beheben.
    • Die Gesamtabdeckungszahlen über der Tabelle sind aus Sicht von Google vollständig und korrekt , aber erwarten Sie nicht, dass sie genau Ihrer Schätzung der Anzahl der URLs auf Ihrer Website entsprechen. Kleine Abweichungen können aus verschiedenen Gründen auftreten.
    • Nur weil eine Seite indiziert ist, ist nicht garantiert, dass sie in Ihren Suchergebnissen angezeigt wird. Die Suchergebnisse werden für den Suchverlauf, den Standort und viele andere Variablen jedes Benutzers angepasst. Selbst wenn eine Seite indiziert ist, wird sie nicht bei jeder Suche oder in derselben Rangfolge angezeigt, wenn dies der Fall ist. Wenn also die Search Console angibt, dass eine URL indexiert ist, sie aber nicht in Ihren Suchergebnissen auftaucht, können Sie davon ausgehen, dass sie indexiert ist und in den Suchergebnissen erscheinen kann.

Häufig gestellte Fragen

Was zeigt dieser Bericht?

Der Bericht zur Indexabdeckung zeigt, ob bestimmte URLs von Google gecrawlt und indexiert wurden. (Wenn Sie nicht genau wissen, was diese Begriffe bedeuten, lesen Sie bitte die Funktionsweise der Google-Suche ). Google findet URLs auf viele Arten und versucht, die meisten davon zu crawlen. Wenn eine URL fehlt oder nicht verfügbar ist, wird Google wahrscheinlich noch eine Weile versuchen, diese URL zu crawlen.

Eine URL in diesem Bericht kann einen der folgenden Status haben:

  • Gültig: Google hat die Seite gefunden und indiziert. Nichts weiter zu tun.
  • Warnung: Google hat die Seite gefunden und wahrscheinlich indiziert, aber wir glauben, dass es ein Problem gibt. Lesen Sie die Warnungsbeschreibung unten, um Ihre nächsten Schritte zu verstehen.
  • Fehler: Die URL ist nicht indexiert und wir glauben, dass es sich um einen Fehler handelt, den Sie korrigieren können. Lesen Sie die folgende Fehlerbeschreibung, um Ihre nächsten Schritte zu verstehen.
  • Ausgeschlossen: Die URL ist nicht indiziert, aber das ist wahrscheinlich das Richtige. Entweder hindern Sie Google daran, die Seite zu crawlen und zu indexieren, oder die Seite wurde als Duplikat einer anderen gecrawlten Seite auf Ihrer Website klassifiziert.

Was ist Indizierung?

Indexierung ist, wenn Google Ihre Seite findet (crawlt), dann den Inhalt der Seite verarbeitet und die Seite in den Google-Index einfügt (indiziert), wo die Seite berechtigt ist, in den Google-Suchergebnissen sowie in anderen Google-Diensten angezeigt zu werden. wie Entdecken. Weitere Informationen zur Indexierung finden Sie unter Funktionsweise der Google-Suche .

Wie kann ich meine Seite oder Website indizieren lassen?

Wenn Sie einen Site-Hosting-Dienst wie Wix oder SquareSpace verwenden, wird Ihr Hosting-Dienst Googe wahrscheinlich jedes Mal mitteilen, wenn Sie eine Seite veröffentlichen oder aktualisieren. Lesen Sie die Dokumentation Ihres Site-Hosts, um zu erfahren, wie Sie Ihre Seiten veröffentlichen und für Suchmaschinen auffindbar machen.

Wenn Sie eine Site oder Seite ohne Hosting-Dienst erstellen, können Sie eine Sitemap oder verschiedene andere Methoden verwenden , um Google über neue Sites oder Seiten zu informieren.

Wir empfehlen dringend, sicherzustellen, dass Ihre Homepage indiziert ist. Ausgehend von Ihrer Startseite sollte Google in der Lage sein, alle anderen Seiten Ihrer Site zu indizieren, wenn Ihre Site über eine umfassende und richtig implementierte Site-Navigation für Besucher verfügt.

Ist es in Ordnung, wenn eine Seite nicht indiziert ist?

Absolut. Google indexiert keine Seiten, die durch eine robots.txt-Regel oder ein noindex-Tag blockiert sind, oder Seiten, die Duplikate anderer Seiten Ihrer Website sind, oder Seiten, die für deren Indexierung ungeeignet sind (z. B. Variationen einer Seite mit anderen Filtern angewandt). Verwenden Sie das URL-Inspektionstool, um festzustellen , warum eine bestimmte Seite nicht indiziert ist. Wenn ein Indexierungsfehler auftritt oder eine Seite aus einem nicht nachvollziehbaren Grund ausgeschlossen wurde, befolgen Sie die Dokumentation, um das Problem zu verstehen und zu beheben.

SEOs, Entwickler und erfahrene Website-Besitzer

Wenn Sie ein erfahrener SEO, Entwickler oder Websitebesitzer sind, den Indexabdeckungsbericht jedoch noch nicht verwendet haben:
  1. Lesen Sie, wie die Google-Suche funktioniert . Wenn Sie die Indexierung nicht verstehen, wird dieser Bericht nur verwirrend oder frustrierend sein, vertrauen Sie uns.
  2. Befolgen Sie die Richtlinien unter Navigieren im Bericht , einschließlich Was Sie suchen und wonach Sie nicht suchen sollten .
  3. Lesen Sie den Abschnitt zur Fehlerbehebung, um allgemeine Probleme zu verstehen und zu beheben.
  4. Denken Sie daran, dass Ausgeschlossen nicht unbedingt ein schlechter Status für eine URL ist. Diese URLs sind ausgeschlossen und wir gehen davon aus, dass Sie dies wahrscheinlich beabsichtigt haben. Im Fall einer doppelten URL , verstehen Sie, warum die URL eine doppelte ist und warum Google diese Entscheidung getroffen hat. Wenn Sie der Meinung sind, dass die falsche Seite als kanonisch ausgewählt wurde, können Sie Google Hinweise zu Ihrer bevorzugten kanonischen URL geben.
  5. Lesen Sie die Dokumentation für Ihren spezifischen Status und Grund, um das Problem zu verstehen, und sehen Sie sich Tipps zur Behebung an.

Navigieren im Bericht

Der Bericht zur Indexabdeckung zeigt den Google-Indexierungsstatus aller URLs an, die Google in Ihrer Property bekannt sind.

  • Die Übersichtsseite der obersten Ebene zeigt die Ergebnisse für alle URLs in Ihrer Property gruppiert nach Status (Fehler, Warnung oder gültig) und spezifischem Grund für diesen Status (z. B. Eingesendete URL nicht gefunden (404) ).
  • Klicken Sie auf eine Tabellenzeile auf der Übersichtsseite, um eine Detailseite anzuzeigen , die sich auf alle URLs mit demselben Status/Grund konzentriert.

Zusammenfassungsseite

Die oberste Seite des Berichts zeigt den Indexstatus aller Seiten, die Google auf Ihrer Website zu crawlen versucht hat, gruppiert nach Status und Grund.

Primärer Crawler

Der Wert des primären Crawlers auf der Zusammenfassungsseite zeigt den standardmäßigen User-Agent-Typ an , den Google zum Crawlen Ihrer Website verwendet. Verfügbare Werte sind: Smartphone oder Desktop; Diese Crawler simulieren einen Besucher, der ein mobiles Gerät bzw. einen Desktop-Computer verwendet.

Google crawlt alle Seiten Ihrer Website mit diesem primären Crawler-Typ. Google kann zusätzlich eine Teilmenge Ihrer Seiten mit einem sekundären Crawler (manchmal auch als alternativer Crawler bezeichnet ) crawlen , bei dem es sich um den anderen User-Agent-Typ handelt. Wenn der primäre Crawler für Ihre Site beispielsweise Smartphone ist, ist der sekundäre Crawler Desktop; Wenn der primäre Crawler Desktop ist, ist Ihr sekundärer Crawler Smartphone. Der Zweck eines sekundären Crawls besteht darin, zu versuchen, weitere Informationen darüber zu erhalten, wie sich Ihre Website verhält, wenn sie von Benutzern auf einem anderen Gerätetyp besucht wird.

Wonach schauen

Im Idealfall sollten Sie mit dem Wachstum Ihrer Website eine allmählich steigende Anzahl gültiger indizierter Seiten sehen . Wenn Sie Tropfen oder Spitzen sehen, lesen Sie den Abschnitt zur Fehlerbehebung. Die Statustabelle auf der Übersichtsseite ist gruppiert und nach "Status + Grund" sortiert.

Ihr Ziel ist es, die kanonische Version jeder wichtigen Seite indiziert zu bekommen. Alle doppelten oder alternativen Seiten sollten in diesem Bericht als "Ausgeschlossen" gekennzeichnet sein. Doppelte oder alternative Seiten haben im Wesentlichen denselben Inhalt wie die kanonische Seite. Es ist normalerweise eine gute Sache, eine Seite als doppelt oder alternativ gekennzeichnet zu haben. es bedeutet, dass wir die kanonische Seite gefunden und indiziert haben. Sie können den Canonical für jede URL finden, indem Sie das URL-Inspection-Tool ausführen . Sehen Sie sich weitere Gründe für das Fehlen von Seiten an.

Worauf man nicht achten sollte

  • 100 % Abdeckung: Sie sollten nicht erwarten, dass alle URLs auf Ihrer Site indexiert werden, sondern nur die kanonischen Seiten, wie oben beschrieben.
  • Sofortige Indizierung: Wenn Sie neue Inhalte hinzufügen, kann es einige Tage dauern, bis Google diese indexiert. Sie können die Indexierungsverzögerung reduzieren, indem Sie die Indexierung anfordern .

Status

Jede Seite kann einen der folgenden Statuswerte haben:

  • Fehler : Die Seite ist nicht indiziert. Lesen Sie die spezifische Fehlertypbeschreibung , um mehr über den Fehler und seine Behebung zu erfahren. Sie sollten sich zuerst auf diese Themen konzentrieren.
  • Warnung : Die Seite ist indiziert, weist jedoch ein Problem auf, das Sie beachten sollten.
  • Ausgeschlossen : Die Seite ist nicht indiziert, aber wir denken, dass dies Ihre Absicht war. (Sie könnten sie beispielsweise absichtlich durch eine noindex-Anweisung ausgeschlossen haben oder es könnte sich um ein Duplikat einer kanonischen Seite handeln, die wir bereits auf Ihrer Website indiziert haben.)
  • Gültig : Die Seite ist indiziert.

Grund

Jeder Status (Fehler, Warnung gültig, ausgeschlossen) hat einen bestimmten Grund für diesen Status. Unter Statustypbeschreibungen unten finden Sie eine Beschreibung der einzelnen Statustypen und deren Handhabung.

Validierung

Der Validierungsstatus für dieses Problem. Sie sollten dem Beheben von Problemen Priorität einräumen, die sich im Validierungsstatus „fehlgeschlagen" oder „nicht gestartet" befinden.

Über die Validierung

Nachdem Sie alle Instanzen eines bestimmten Problems auf Ihrer Website behoben haben, können Sie Google bitten, Ihre Änderungen zu bestätigen. Wenn alle bekannten Instanzen verschwunden sind, wird das Problem in der Statustabelle als behoben markiert und an das Ende der Tabelle verschoben. Die Search Console verfolgt den Validierungsstatus des gesamten Problems sowie den Status jeder Instanz des Problems. Wenn alle Instanzen des Problems verschwunden sind, gilt das Problem als behoben. (Informationen zu den aufgezeichneten tatsächlichen Zuständen finden Sie unter Ausgabevalidierungsstatus und Instanzvalidierungsstatus .)

Mehr zum Thema Lebensdauer...

Die Lebensdauer eines Problems erstreckt sich vom erstmaligen Erkennen einer Instanz dieses Problems auf Ihrer Website bis zu 90 Tagen, nachdem die letzte Instanz als von Ihrer Website verschwunden markiert wurde. Wenn neunzig Tage ohne Wiederholung vergehen, wird das Problem aus dem Berichtsverlauf entfernt.

Das Datum der ersten Erkennung des Problems ist das erste Mal, an dem das Problem während der Lebensdauer des Problems erkannt wurde, und ändert sich nicht. Deswegen:

  • Wenn alle Instanzen eines Problems behoben sind, aber 15 Tage später eine neue Instanz des Problems auftritt, wird das Problem als offen markiert und das Datum "Erste Erkennung" bleibt das ursprüngliche Datum.
  • Wenn das gleiche Problem 91 Tage nach Behebung der letzten Instanz auftritt, wurde das vorherige Problem geschlossen und wird daher als neues Problem aufgezeichnet, wobei das erste erkannte Datum auf "heute" gesetzt wird.

Grundlegender Validierungsablauf

Hier ist eine Übersicht über den Validierungsprozess, nachdem Sie für ein Problem auf Fix validieren geklickt haben . Dieser Vorgang kann mehrere Tage dauern und Sie erhalten Fortschrittsbenachrichtigungen per E-Mail.

  1. Wenn Sie auf Fix validieren klicken, überprüft die Search Console sofort einige Seiten.
    • Wenn die aktuelle Instanz auf einer dieser Seiten vorhanden ist, endet die Validierung und der Validierungsstatus bleibt unverändert.
    • Wenn die Beispielseiten den aktuellen Fehler nicht aufweisen, wird die Validierung mit dem Status Gestartet fortgesetzt. Wenn die Validierung andere nicht verwandte Probleme findet, werden diese Probleme mit diesem anderen Problemtyp gezählt und die Validierung wird fortgesetzt.
  2. Die Search Console durchläuft die Liste der bekannten URLs, die von diesem Problem betroffen sind. Nur URLs mit bekannten Fällen dieses Problems werden zum erneuten Crawlen in die Warteschlange gestellt, nicht die gesamte Site. Die Search Console speichert alle überprüften URLs im Validierungsverlauf, der über die Seite mit den Problemdetails erreicht werden kann.
  3. Wenn eine URL überprüft wird:
    1. Wenn das Problem nicht gefunden wird, ändert sich der Instanzvalidierungsstatus in Bestanden . Wenn dies die erste Instanz ist, die nach dem Start der Überprüfung überprüft wird, ändert sich der Überprüfungsstatus des Problems in Gut aussehend .
    2. Wenn die URL nicht mehr erreichbar ist, ändert sich der Instanzvalidierungsstatus in Other (was kein Fehlerstatus ist).
    3. Wenn die Instanz noch vorhanden ist, ändert sich der Ausgabestatus in Fehlgeschlagen und die Validierung endet. Wenn dies eine neue Seite ist, die durch normales Crawlen entdeckt wird, wird sie als eine weitere Instanz dieses bestehenden Problems betrachtet.
  4. Wenn alle Fehler- und Warnungs-URLs überprüft wurden und der Fehlerzähler 0 ist, ändert sich der Fehlerstatus in Bestanden . Wichtig: Auch wenn die Anzahl der betroffenen Seiten auf 0 sinkt und sich der Ausgabestatus in Bestanden ändert, wird die ursprüngliche Schweregradbezeichnung weiterhin angezeigt ( Fehler oder Warnung ).

Selbst wenn Sie nie auf "Validierung starten" klicken, kann Google behobene Instanzen eines Problems erkennen. Wenn Google während des regulären Crawlings erkennt, dass alle Instanzen eines Problems behoben wurden, ändert es den Problemstatus im Bericht in "N/A".

Wann gilt ein Problem für eine URL oder ein Element als "behoben"?

Ein Problem wird für eine URL oder ein Element als behoben markiert, wenn eine der folgenden Bedingungen erfüllt ist:

  • Wenn die URL gecrawlt wird und das Problem auf der Seite nicht mehr gefunden wird. Bei einem AMP-Tag-Fehler kann dies bedeuten, dass Sie entweder das Tag behoben haben oder das Tag entfernt wurde (falls das Tag nicht benötigt wird). Bei einem Validierungsversuch gilt dieser als "bestanden".
  • Wenn die Seite für Google aus irgendeinem Grund nicht verfügbar ist (Seite wurde entfernt, als noindex markiert, erfordert Authentifizierung usw.), wird das Problem für diese URL als behoben betrachtet. Bei einem Validierungsversuch wird er im Validierungszustand "andere" gezählt.

Revalidierung

Wenn Sie für eine fehlgeschlagene Validierung auf Revalidieren klicken, wird die Validierung für alle fehlgeschlagenen Instanzen sowie alle neuen Instanzen dieses Problems, die durch normales Crawling entdeckt wurden, neu gestartet .

Sie sollten warten, bis ein Validierungszyklus abgeschlossen ist, bevor Sie einen weiteren Zyklus anfordern, auch wenn Sie während des aktuellen Zyklus einige Probleme behoben haben.

Instanzen, die die Validierung bestanden (markiert mit Bestanden ) oder nicht mehr erreichbar sind (markiert mit Other ), werden nicht erneut geprüft und aus dem Verlauf entfernt, wenn Sie auf Revalidieren klicken.

Validierungshistorie

Sie können den Fortschritt einer Validierungsanfrage sehen, indem Sie auf der Seite mit den Problemdetails auf den Link für die Validierungsdetails klicken.

Einträge auf der Seite mit dem Validierungsverlauf sind nach URL für den AMP-Bericht und den Indexstatusbericht gruppiert. In den Berichten zur mobilen Benutzerfreundlichkeit und den Rich-Suchergebnissen werden Elemente nach der Kombination aus URL und strukturiertem Datenelement (wie durch den Namenswert des Elements bestimmt) gruppiert. Der Validierungsstatus gilt für das spezifische Problem, das Sie untersuchen. Auf einer Seite kann ein Problem mit "Bestanden" gekennzeichnet sein, aber andere Probleme mit der Bezeichnung "Fehlgeschlagen", "Ausstehend" oder "Sonstiges".

Validierungsstatus ausgeben

Die folgenden Validierungsstatus gelten für ein bestimmtes Problem:

  • Nicht gestartet: Es gibt eine oder mehrere Seiten mit einer Instanz dieses Problems, für die Sie noch nie einen Validierungsversuch gestartet haben. Nächste Schritte:
    1. Klicken Sie auf das Problem, um die Details des Fehlers zu erfahren. Untersuchen Sie die einzelnen Seiten, um Beispiele für den Fehler auf der Live-Seite mit dem AMP-Test zu sehen. (Wenn der AMP-Test den Fehler nicht auf der Seite anzeigt, liegt dies daran, dass Sie den Fehler auf der Live-Seite behoben haben, nachdem Google den Fehler gefunden und diesen Problembericht erstellt hat.)
    2. Klicken Sie auf der Detailseite auf "Weitere Informationen", um die Details der Regel, gegen die verstoßen wurde, anzuzeigen.
    3. Klicken Sie in der Tabelle auf eine Beispiel-URL-Zeile, um Details zu diesem bestimmten Fehler zu erhalten.
    4. Korrigieren Sie Ihre Seiten und klicken Sie dann auf Fix validieren , damit Google Ihre Seiten erneut crawlt. Google benachrichtigt Sie über den Fortschritt der Validierung. Die Validierung dauert in der Regel bis zu zwei Wochen, kann jedoch in einigen Fällen viel länger dauern. Bitte haben Sie etwas Geduld.
  • Gestartet: Sie haben einen Validierungsversuch gestartet und es wurden noch keine verbleibenden Instanzen des Problems gefunden. Nächster Schritt: Google sendet im Verlauf der Validierung Benachrichtigungen und teilt Ihnen gegebenenfalls mit, was zu tun ist.
  • Sieht gut aus: Sie haben einen Validierungsversuch gestartet und alle bisher überprüften Fehlerinstanzen wurden behoben. Nächster Schritt: Es ist nichts zu tun, aber Google sendet im Verlauf der Validierung Benachrichtigungen, die Ihnen mitteilen, was zu tun ist.
  • Bestanden: Alle bekannten Instanzen des Problems sind verschwunden (oder die betroffene URL ist nicht mehr verfügbar). Sie müssen auf "Fix überprüfen" geklickt haben, um zu diesem Status zu gelangen (wenn Instanzen ohne Anforderung der Validierung verschwanden, änderte sich der Status in N/A). Nächster Schritt: Nichts mehr zu tun.
  • N/A: Google hat festgestellt, dass das Problem bei allen URLs behoben wurde, obwohl Sie nie einen Validierungsversuch gestartet haben. Nächster Schritt: Nichts mehr zu tun.
  • Fehlgeschlagen: Bei einer bestimmten Schwelle von Seiten tritt dieses Problem immer noch auf, nachdem Sie auf "Bestätigen" geklickt haben. Nächste Schritte: Beheben Sie das Problem und führen Sie eine erneute Validierung durch.

Instanzvalidierungsstatus

Nachdem die Validierung angefordert wurde, wird jeder Instanz des Problems einer der folgenden Validierungsstatus zugewiesen:

  • Ausstehende Validierung: Zur Validierung in die Warteschlange gestellt. Als Google das letzte Mal nachgesehen hat, existierte diese Probleminstanz.
  • Bestanden: [ Nicht in allen Berichten verfügbar ] Google hat nach der Probleminstanz gesucht und sie existiert nicht mehr. Dieser Status kann nur erreicht werden, wenn Sie für diese Probleminstanz explizit auf Validieren geklickt haben.
  • Fehlgeschlagen: Google hat nach der Probleminstanz gesucht und sie ist immer noch vorhanden. Dieser Status kann nur erreicht werden, wenn Sie für diese Probleminstanz explizit auf Validieren geklickt haben.
  • Sonstiges : [ Nicht in allen Berichten verfügbar ] Google konnte die URL, die die Instanz hostet, nicht erreichen oder (bei strukturierten Daten) das Element auf der Seite nicht mehr finden. Wird als gleichwertig mit Bestanden angesehen .

Beachten Sie, dass dieselbe URL für verschiedene Probleme unterschiedliche Status haben kann. Wenn beispielsweise eine einzelne Seite sowohl Problem X als auch Problem Y aufweist, kann Problem X den Validierungsstatus Bestanden haben und Problem Y auf derselben Seite kann den Validierungsstatus Pending haben .

Dropdown-Filter zur URL-Erkennung

Sie können den Dropdown-Filter über dem Diagramm verwenden, um die Indexergebnisse danach zu filtern, wie Google die URL gefunden hat. Folgende Werte stehen zur Verfügung:

  • Alle bekannten Seiten [ Standard ] - Zeigen Sie alle URLs an, die von Google auf irgendeine Weise entdeckt wurden.
  • Alle eingereichten Seiten – Zeigen Sie nur Seiten an, die in einer Sitemap an diesen Bericht oder per Sitemap-Ping gesendet wurden .
  • Spezifische Sitemap-URL – Zeigen Sie nur URLs an, die in einer bestimmten Sitemap aufgeführt sind, die mit diesem Bericht übermittelt wurde. Dies schließt alle URLs in verschachtelten Sitemaps ein.

Eine URL gilt als von einer Sitemap übermittelt, auch wenn sie auch durch einen anderen Mechanismus entdeckt wurde (z. B. durch organisches Crawlen von einer anderen Seite).

Detailseite

Klicken Sie auf eine Zeile auf der Zusammenfassungsseite, um eine Detailseite für diese Kombination aus Status und Grund zu öffnen. Sie können Details zum ausgewählten Problem anzeigen, indem Sie oben auf der Seite auf Weitere Informationen klicken.

Das Diagramm auf dieser Seite zeigt die Anzahl der betroffenen Seiten im Zeitverlauf.

Die Tabelle zeigt eine Beispielliste der Seiten, die von diesem Status + Grund betroffen sind. Sie können auf die folgenden Zeilenelemente klicken:

  • Klicken Sie auf die Zeile, um weitere Details zu dieser URL anzuzeigen.
  • öffnet die URL in einem neuen Tab.
  • öffnet die URL-Überprüfung für diese URL.
  • kopiert die URL

Der Quellwert auf der Detailseite zeigt an, welcher User-Agent-Typ (Smartphone oder Desktop) zum Crawlen der aufgelisteten URLs verwendet wurde.

Wenn Sie alle Instanzen eines Fehlers oder einer Warnung behoben haben, klicken Sie auf Fix validieren , um Google mitzuteilen, dass Sie das Problem behoben haben.

Sehen Sie eine URL, die mit einem Problem gekennzeichnet ist, das Sie bereits behoben haben? Vielleicht haben Sie das Problem NACH dem letzten Google-Crawl behoben. Wenn Sie eine URL mit einem von Ihnen behobenen Problem sehen, überprüfen Sie daher unbedingt das Crawling-Datum für diese URL. Überprüfen und bestätigen Sie Ihren Fix und fordern Sie dann eine Neuindizierung an

Teilen des Berichts

Sie können Problemdetails in den Berichterstattungs- oder Verbesserungsberichten teilen , indem Sie auf Teilen . klicken Schaltfläche auf der Seite. Dieser Link gewährt jedem, der über den Link verfügt, nur Zugriff auf die Detailseite des aktuellen Problems sowie auf alle Seiten mit dem Validierungsverlauf für dieses Problem. Es gewährt weder Zugriff auf andere Seiten für Ihre Ressource noch ermöglicht es dem freigegebenen Benutzer, Aktionen auf Ihrer Property oder Ihrem Konto auszuführen. Sie können den Link jederzeit widerrufen, indem Sie die Freigabe für diese Seite deaktivieren.

Berichtsdaten exportieren

Viele Berichte bieten eine Exportschaltfläche um die Berichtsdaten zu exportieren. Sowohl Diagramm- als auch Tabellendaten werden exportiert. Werte, die entweder als ~ oder - im Bericht (nicht verfügbar/keine Zahl) angezeigt werden, sind in den heruntergeladenen Daten Nullen.

Fehlerbehebung

Sie können den Indexierungsstatus für jede in diesem Bericht angezeigte URL überprüfen, indem Sie die URL wie folgt überprüfen:

  1. Entscheiden Sie anhand des Statustyps , des Indexierungsziels und des spezifischen Fehlers, ob der Indexstatus wirklich ein Problem ist.
  2. Lesen Sie die spezifischen Informationen zu diesem Problem .
  3. Überprüfen Sie die URL mit dem URL-Inspektionstool:
    1. Klicken Sie auf das Prüfsymbol neben der URL in der Beispieltabelle, um die URL-Überprüfung für diese URL zu öffnen.
    2. Siehe Crawling- und Indexdetails für diese URL in den Abschnitten Abdeckung > Crawl und Abdeckung > Indexierung des URL-Überprüfungsberichts.
    3. Um die Live-Version der Seite zu testen, klicken Sie auf Live-URL testen .

Häufige Probleme

Im Folgenden sind einige der häufigsten Indexierungsprobleme aufgeführt, die in diesem Bericht möglicherweise auftreten:

Rückgang der gesamten indexierten Seiten ohne entsprechende Fehler

Wenn Sie einen Rückgang der insgesamt indexierten Seiten ohne entsprechende Zunahme der Fehler feststellen, blockieren Sie möglicherweise den Zugriff auf Ihre bestehenden Seiten über robots.txt, 'noindex' oder eine erforderliche Anmeldung. Suchen Sie in den ausgeschlossenen URLs nach einer Spitze, die Ihrem Rückgang der gültigen Seiten entspricht. Beachten Sie, dass diese URLs, wenn sie in einer Sitemap eingereicht wurden, als Fehler markiert und nicht ausgeschlossen werden.

Mehr ausgeschlossene als gültige Seiten

Wenn mehr ausgeschlossene als gültige Seiten angezeigt werden, sehen Sie sich die Ausschlussgründe an. Häufige Ausschlussgründe sind:

  • Sie haben eine robots.txt-Regel , die Google daran hindert, große Abschnitte Ihrer Website zu crawlen. Wenn Sie die falschen Seiten blockieren, entsperren Sie sie.
  • Ihre Website enthält viele doppelte Seiten, wahrscheinlich weil sie Parameter verwendet, um eine gemeinsame Sammlung zu filtern oder zu sortieren (zum Beispiel: type=dress oder color=green oder sort=price ). Diese Seiten sollten wahrscheinlich ausgeschlossen werden, wenn sie nur denselben Inhalt anzeigen, der sortiert, gefiltert oder auf unterschiedliche Weise erreicht wird. Wenn Sie ein fortgeschrittener Nutzer sind und der Meinung sind, dass Google die Parameter Ihrer Website falsch versteht, können Sie die Handhabung der Parameter Ihrer Website mit dem URL-Parameter-Tool anpassen.
Fehlerspitzen

Fehlerspitzen können durch eine Änderung in Ihrer Vorlage verursacht werden, die einen neuen Fehler einführt, oder Sie haben möglicherweise eine Sitemap eingereicht, die URLs enthält, die durch robots.txt, noindex oder eine Anmeldeanforderung für das Crawlen gesperrt sind.

Wenn Sie eine Fehlerspitze sehen:

  1. Sehen Sie nach, ob Sie eine Übereinstimmung zwischen der Gesamtzahl der Indizierungsfehler oder der gesamten indizierten Anzahl und der Sparkline finden können neben einer bestimmten Fehlerzeile auf der Zusammenfassungsseite als Hinweis darauf, welches Problem sich möglicherweise auf Ihren Gesamtfehler oder die Gesamtzahl der indizierten Seiten auswirkt.
  2. Klicken Sie auf die Detailseiten für alle Fehler, die zu Ihrer Fehlerspitze beitragen. Lesen Sie die Beschreibung zum jeweiligen Fehlertyp, um zu erfahren, wie Sie am besten damit umgehen.
  3. Klicken Sie auf ein Problem und überprüfen Sie ggf. eine Beispielseite , um den Fehler zu ermitteln.
  4. Beheben Sie alle Instanzen für den Fehler und fordern Sie eine Validierung an, indem Sie aus diesem Grund auf der Detailseite auf Fix validieren klicken. Lesen Sie mehr über die Validierung .
  5. Sie erhalten Benachrichtigungen, während Ihre Validierung fortschreitet, aber Sie können nach einigen Tagen noch einmal überprüfen, ob Ihre Fehleranzahl gesunken ist.
Serverfehler
Ein Serverfehler bedeutet, dass der Googlebot nicht auf Ihre URL zugreifen konnte, die Anfrage abgelaufen ist oder Ihre Website ausgelastet war. Infolgedessen war der Googlebot gezwungen, die Anfrage abzubrechen.
Überprüfen Sie das Hoststatusurteil für Ihre Site im Crawling-Statistikbericht, um zu sehen, ob Google Probleme mit der Site-Verfügbarkeit meldet, die Sie bestätigen und beheben können.

Testen der Serverkonnektivität

Sie können das URL-Inspektionstool verwenden, um festzustellen, ob Sie einen Serverfehler reproduzieren können, der vom Indexabdeckungsbericht gemeldet wird.
Sie können die Verfügbarkeit Ihres Hosts auch im Crawl-Statistikbericht überprüfen.

Beheben von Serververbindungsfehlern

  • Reduzieren Sie das übermäßige Laden von Seiten für dynamische Seitenanforderungen .
    Eine Website, die denselben Inhalt für mehrere URLs bereitstellt, wird als dynamisch bereitgestellt (z. B. www.example.com/shoes.php?color=red&size=7 denselben Inhalt www.example.com/shoes.php?size=7&color=red wie www.example.com/shoes.php?size=7&color=red ). Die Reaktion dynamischer Seiten kann zu lange dauern, was zu Zeitüberschreitungsproblemen führt. Oder der Server gibt möglicherweise einen überlasteten Status zurück, um den Googlebot aufzufordern, die Website langsamer zu crawlen. Generell empfehlen wir, Parameterlisten kurz zu halten und sparsam zu verwenden. Wenn Sie sich sicher sind, wie Parameter für Ihre Website funktionieren, können Sie Google mitteilen, wie wir mit diesen Parametern umgehen sollen .
  • Stellen Sie sicher, dass der Hosting-Server Ihrer Site nicht ausgefallen, überlastet oder falsch konfiguriert ist.
    Wenn Verbindungs-, Zeitüberschreitungs- oder Antwortprobleme bestehen bleiben, wenden Sie sich an Ihren Webhoster und erwägen Sie, die Fähigkeit Ihrer Site zur Verarbeitung des Datenverkehrs zu erhöhen.
  • Vergewissern Sie sich, dass Sie Google nicht versehentlich blockieren .
    Möglicherweise blockieren Sie Google aufgrund eines Problems auf Systemebene, z. B. eines DNS-Konfigurationsproblems , einer falsch konfigurierten Firewall oder eines falsch konfigurierten DoS-Schutzsystems oder einer Content-Management-Systemkonfiguration. Schutzsysteme sind ein wichtiger Bestandteil eines guten Hostings und werden oft so konfiguriert, dass sie ungewöhnlich hohe Serveranforderungen automatisch blockieren. Da der Googlebot jedoch oft mehr Anfragen stellt als ein menschlicher Benutzer, kann er diese Schutzsysteme auslösen, wodurch sie den Googlebot blockieren und ihn am Crawlen Ihrer Website hindern. Um solche Probleme zu beheben, ermitteln Sie, welcher Teil der Infrastruktur Ihrer Website den Googlebot blockiert, und entfernen Sie die Blockierung. Die Firewall steht möglicherweise nicht unter Ihrer Kontrolle, daher müssen Sie dies möglicherweise mit Ihrem Hosting-Provider besprechen.
  • Kontrollieren Sie das Crawlen und Indexieren von Suchmaschinen-Sites mit Bedacht .
    Einige Webmaster verhindern absichtlich, dass der Googlebot ihre Websites erreicht, indem sie möglicherweise eine Firewall wie oben beschrieben verwenden. In diesen Fällen besteht die Absicht normalerweise nicht darin, den Googlebot vollständig zu blockieren, sondern zu kontrollieren, wie die Website gecrawlt und indiziert wird. Wenn dies auf Sie zutrifft, überprüfen Sie Folgendes:
404 Fehler

Im Allgemeinen empfehlen wir, nur 404- Fehlerseiten zu beheben, nicht 404 ausgeschlossene Seiten. 404-Fehlerseiten sind Seiten, deren Indexierung Sie ausdrücklich von Google angefordert haben, die jedoch nicht gefunden wurden, was offensichtlich ein Fehler ist. Von 404 ausgeschlossene Seiten sind Seiten, die Google durch einen anderen Mechanismus entdeckt hat, beispielsweise einen Link von einer anderen Seite. Wenn die Seite verschoben wurde, sollten Sie eine 3XX-Weiterleitung auf die neue Seite zurücksenden . Erfahren Sie mehr über das Bewerten und Beheben von 404-Fehlern.

Fehlende Seiten oder Websites

Wenn Ihre Seite überhaupt nicht im Bericht enthalten ist, trifft wahrscheinlich eine der folgenden Bedingungen zu:

  • Google kennt die Seite nicht. Einige Hinweise zur Auffindbarkeit von Seiten:
    • Wenn es sich um eine neue Website oder Seite handelt, denken Sie daran, dass es einige Zeit dauern kann, bis Google neue Websites oder Seiten findet und crawlt.
    • Damit Google etwas über eine Seite erfahren kann, müssen Sie entweder eine Sitemap oder eine Seiten-Crawling-Anfrage senden oder Google muss irgendwo einen Link zu Ihrer Seite finden.
    • Nachdem eine Seiten-URL bekannt ist, kann es einige Zeit (bis zu einigen Wochen) dauern, bis Google einen Teil oder Ihre gesamte Website crawlt.
    • Die Indexierung erfolgt nie sofort, selbst wenn Sie eine Crawling-Anfrage direkt senden.
    • Google garantiert nicht, dass alle Seiten überall in den Google-Index aufgenommen werden.
  • Google kann Ihre Seite nicht erreichen (Sie erfordert eine Anmeldung oder ist aus anderen Gründen nicht für alle Nutzer im Internet verfügbar)
  • Die Seite hat ein noindex-Tag , das Google daran hindert, sie zu indizieren
  • Die Seite wurde aus irgendeinem Grund aus dem Index entfernt .

Reparieren:

Verwenden Sie das URL-Inspektionstool , um das Problem auf Ihrer Seite zu testen. Wenn die Seite nicht im Bericht zur Indexabdeckung enthalten ist, aber im Bericht zur URL-Überprüfung als indexiert aufgeführt ist, wurde sie wahrscheinlich vor kurzem indiziert und wird in Kürze im Bericht zur Indexabdeckung angezeigt. Wenn die Seite im URL-Inspektionstool als nicht indiziert aufgeführt ist (was Sie erwarten würden), testen Sie die Live-Seite. Die Testergebnisse der Live-Seite sollten das Problem anzeigen: Verwenden Sie die Informationen aus dem Test und der Testdokumentation, um zu erfahren, wie Sie das Problem beheben können.

" Eingereichte " Fehler und Ausschlüsse
Any indexing reason that uses the word "Submitted" in the title (for example, "Submitted URL returned 403") means that the URL is listed in a sitemap that is either referenced by your robots.txt file or submitted using the Sitemaps report.
To fix a "Submitted" issue:
  • Fix the issue that prevents the page from being crawled
    or
  • Remove the URL from your sitemap and resubmit the sitemap in the Sitemaps report (for fastest service)
    or
  • Using the Sitemaps report, delete any sitemaps that contain the URL (and ensure that no sitemaps listed in your robots.txt file include this URL).

Häufig gestellte Fragen

Why is my page in the index? I don't want it indexed.

Google can index any URL that it finds unless you include a noindex directive on the page (or it has been temporarily blocked ), and Google can find a page in many different ways, including someone linking to your page from another site.

  • If you want your page to be blocked from Google Search results, you can either require some kind of login for the page, or you can use a noindex directive on the page.
  • If you want your page to be removed from Google Search results after it has already been found, you'll need to follow these steps .

Why hasn't my site been reindexed lately?

Google reindexes pages based on a number of criteria, including how often it thinks the page changes. If your site doesn't change often, it might be on a slower refresh rate, which is fine, if your pages haven't changed. If you think your site is in need of a refresh, ask Google to recrawl it .

Can you please recrawl my page/site?

Ask Google to recrawl it .

Why are so many of my pages excluded?

Look at the exclusion reasons detailed by the Index Coverage report. Most exclusions are due to one of the following reasons:

  • You have a robots.txt rule that is blocking us from crawling large sections of your site. Use the URL Inspection tool to confirm the problem.
  • Your site has a large number of duplicate pages, typically because it uses parameters to filter or sort a common collection (for example: type=dress or color=green or sort=price ). These pages will be labeled as "duplicate" or "alternate" in the Index Coverage report.
  • The URL redirects to another URL. Redirect URLs are not indexed; the redirect target is.

Google can't access my sitemap

Be sure that your sitemap is not blocked by robots.txt, is valid, and that you're using the proper URL in your robots.txt entry or Sitemaps report submission. Test your sitemap URL using a publicly available sitemap testing tool .

Why does Google keep crawling a page that was removed?

Google continues to crawl all known URLs even after they return 4XX errors for a while, in case it's a temporary error. The only case when a URL won't be crawled is when it returns a noindex directive .

To avoid showing you an eternally growing list of 404 errors, the Index Coverage report shows only URLs that have shown 404 errors in the past month.

I can see my page, why can't Google?

Use the URL Inspection tool to see whether Google can see the live page. If it can't, it should explain why. If it can, the problem is likely that the access error has been fixed since the last crawl. Run a live crawl using the URL Inspection tool and request indexing .

The URL Inspection tool shows no problems, but the Index Coverage report shows an error; Warum?

You might have fixed the error after the URL was last crawled by Google. Look at the crawl date for your URL (which should be visible in either the URL details page in the Index Coverage report or in the indexed version view in the URL Inspection tool ). Determine if you made any fixes since the page was crawled.

How do I find the index state of a specific URL?

To learn the index status of a specific URL, use the URL Inspection tool . You can't search or filter by URL in the Index Coverage report.

Status reasons

The following status types are exposed by the Index Coverage report:

Error

Pages with errors have not been indexed

Server error (5xx): Your server returned a 500-level error when the page was requested. See Fixing server errors .

Redirect error: Google experienced one of the following redirect errors:

  • A redirect chain that was too long
  • A redirect loop
  • A redirect URL that eventually exceeded the max URL length
  • A bad or empty URL in the redirect chain

Use a web debugging tool, such as Lighthouse , to get more details about the redirect.

Submitted URL blocked by robots.txt: You submitted this page for indexing , but the page is blocked by your site's robots.txt file .

  1. Click the page in the Examples table to expand the tools side panel.
  2. Click Test robots.txt blocking to run the robots.txt tester for that URL. The tool should highlight the rule that is blocking that URL.
  3. Update your robots.txt file to remove or alter the rule, as appropriate. You can find the location of this file by clicking See live robots.txt on the robots.txt test tool. If you are using a web hosting service and do not have permission to modify this file, search your service's documentation or contact their help center to tell them about the problem.

Submitted URL marked 'noindex': You submitted this page for indexing , but the page has a 'noindex' directive either in a meta tag or HTTP header. If you want this page to be indexed, you must remove the tag or HTTP header. Use the URL Inspection tool to confirm the error:

  1. Click the inspection icon next to the URL in the table.
  2. Under Coverage > Indexing > Indexing allowed? the report should show that noindex is preventing indexing.
  3. Confirm that the noindex tag still exists in the live version:
    1. Clicking Test live URL
    2. Under Availability > Indexing > Indexing allowed? see if the noindex directive is still detected. If noindex is no longer present, you can click Request Indexing to ask Google to try again to index the page. If noindex is still present, you must remove it in order for the page to be indexed.

Submitted URL seems to be a Soft 404: You submitted this page for indexing , but the server returned what seems to be a soft 404. Learn how to fix this .

Submitted URL returns unauthorized request (401): You submitted this page for indexing , but Google got a 401 (not authorized) response. Either remove authorization requirements for this page, or else allow Googlebot to access your pages by verifying its identity . You can verify this error by visiting the page in incognito mode .

Submitted URL not found (404): You submitted a non-existent URL for indexing. See Fixing 404 errors .

Submitted URL returned 403: The server recognized Googlebot as logged in, but denied Google access to the content. If this page should be indexed, please grant access to anonymous visitors; otherwise, do not submit this page for indexing.

Submitted URL blocked due to other 4xx issue: The server returned a 4xx response code not covered by any other issue type described here for the submitted URL. You should either fix this error, or not submit this URL for indexing. Try debugging your page using the URL Inspection tool .

Warning

Pages with a warning status might require your attention, and may or may not have been indexed, according to the specific result.

Indexed , though blocked by robots.txt: The page was indexed, despite being blocked by your website's robots.txt file . Google always respects robots.txt, but this doesn't necessarily prevent indexing if someone else links to your page . Google won't request and crawl the page, but we can still index it, using the information from the page that links to your blocked page. Because of the robots.txt rule, any snippet shown in Google Search results for the page will probably be very limited.

Next steps:

Page indexed without content : This page appears in the Google index, but for some reason Google could not read the content. Possible reasons are that the page might be cloaked to Google or the page might be in a format that Google can't index. This is not a case of robots.txt blocking. Inspect the page , and look at the Coverage section for details.

Valid

Pages with a valid status have been indexed.

Submitted and indexed: You submitted the URL for indexing, and it was indexed.

Indexed, not submitted in sitemap: The URL was discovered by Google and indexed. We recommend submitting all important URLs using a sitemap .

Excluded

These pages are typically not indexed, and we think that is appropriate. These pages are either duplicates of indexed pages, or blocked from indexing by some mechanism on your site, or otherwise not indexed for a reason that we think is not an error.

Excluded by 'noindex' tag: When Google tried to index the page it encountered a 'noindex' directive and therefore did not index it. If you do not want this page indexed, congratulations! If you do want this page to be indexed, you should remove that 'noindex' directive. To confirm the presence of this tag or directive, request the page in a browser and search the response body and response headers for "noindex".

Blocked by page removal tool: The page is currently blocked by a URL removal request . If you are a verified site owner, you can use the URL removals tool to see who submitted a URL removal request. Removal requests are only good for about 90 days after the removal date. After that period, Googlebot may go back and index the page even if you do not submit another index request. If you don't want the page indexed , use 'noindex' , require authorization for the page, or remove the page.

Blocked by robots.txt: This page was blocked to Googlebot with a robots.txt file. You can verify this using the robots.txt tester . Note that this does not mean that the page won't be indexed through some other means. If Google can find other information about this page without loading it, the page could still be indexed (though this is less common). To ensure that a page is not indexed by Google, remove the robots.txt block and use a 'noindex' directive .

Blocked due to unauthorized request (401): The page was blocked to Googlebot by a request for authorization ( 401 response ). If you do want Googlebot to be able to crawl this page, either remove authorization requirements, or allow Googlebot to access your page .

Crawled - currently not indexed: The page was crawled by Google, but not indexed. It may or may not be indexed in the future; no need to resubmit this URL for crawling.

Discovered - currently not indexed: The page was found by Google, but not crawled yet. Typically, Google wanted to crawl the URL but this was expected to overload the site; therefore Google rescheduled the crawl. This is why the last crawl date is empty on the report.

Alternate page with proper canonical tag: This page is a duplicate of a page that Google recognizes as canonical . This page correctly points to the canonical page, so there is nothing for you to do.

Duplicate without user-selected canonical: This page has duplicates, none of which is marked canonical. We think this page is not the canonical one. You should explicitly mark the canonical for this page . Inspecting this URL should show the Google-selected canonical URL.

Duplicate, Google chose different canonical than user: This page is marked as canonical for a set of pages, but Google thinks another URL makes a better canonical. Google has indexed the page that we consider canonical rather than this one. We recommend that you explicitly mark this page as a duplicate of the canonical URL . This page was discovered without an explicit crawl request. Inspecting this URL should show the Google-selected canonical URL.

Not found (404): This page returned a 404 error when requested. Google discovered this URL without any explicit request or sitemap. Google might have discovered the URL as a link from another site, or possibly the page existed before and was deleted. Googlebot will probably continue to try this URL for some period of time; there is no way to tell Googlebot to permanently forget a URL, although it will crawl it less and less often. 404 responses are not a problem, if intentional. If your page has moved, use a 301 redirect to the new location. Read Fixing 404 errors

Page with redirect: The URL is a redirect, and therefore was not added to the index.

Soft 404: The page request returns what we think is a soft 404 response . This means that it returns a user-friendly "not found" message without a corresponding 404 response code. We recommend returning a 404 response code for truly "not found" pages, or adding more information to the page to let us know that it is not a soft 404. Learn more

Duplicate, submitted URL not selected as canonical: The URL is one of a set of duplicate URLs without an explicitly marked canonical page . You explicitly asked this URL to be indexed, but because it is a duplicate, and Google thinks that another URL is a better candidate for canonical, Google did not index this URL. Instead, we indexed the canonical that we selected. (Google only indexes the canonical in a set of duplicates.) The difference between this status and "Google chose different canonical than user" is that here you have explicitly requested indexing. Inspecting this URL should show the Google-selected canonical URL.

Blocked due to access forbidden (403): The user agent provided credentials, but was not granted access. However, Googlebot never provides credentials, so your server is returning this error incorrectly. This error should either be fixed, or the page should be blocked by robots.txt or noindex.

Blocked due to other 4xx issue: The server encountered a 4xx error not covered by any other issue type described here.

No comments:

Post a Comment