Fehlerbehebung bei nicht crawlbaren Zielseiten
Befolgen Sie diese Schritte, um Probleme mit Landingpages zu beheben, die von Google-Bots nicht gecrawlt werden können.
Schritt 1: Finden Sie die Quelle der nicht crawlbaren URL
- Öffnen Sie das Creative.
- Klicken Sie auf Creative-Status.
- Wenn es nicht maximiert ist, klicken Sie auf Display & Video 360-Überprüfung , um das detaillierte Feedback anzuzeigen. Kopieren Sie die URL der nicht zu crawlenden Zielseite.
- Sehen Sie sich das Creative in der Vorschau an und klicken Sie darauf, um die Zielseite zu öffnen. Vergleichen Sie diese URL mit der nicht crawlbaren URL, die Sie oben kopiert haben.
- Wenn die URLs übereinstimmen, klicken Sie auf Creative-Details , um die Zielseiten-URL des Creatives zu überprüfen . Sie können dies entweder in eine andere crawlbare URL ändern oder direkt zu Stellen Sie sicher, dass der Google AdsBot die Zielseite crawlen kann übergehen .
- Wenn die URLs nicht übereinstimmen, fahren Sie mit Schritt 4 fort, um herauszufinden, wo sich die nicht crawlbare Zielseite befindet.
- Überprüfen Sie Folgendes, um den Ursprung der nicht crawlbaren Zielseite zu finden:
- Öffnen Sie die HTML- und JavaScript-Dateien des Creatives und suchen Sie nach der von Display & Video 360 als nicht crawlbar gemeldeten URL .
- Wenn das Creative von Campaign Manager 360 synchronisiert wird, wenden Sie sich an den Campaign Manager 360-Trafficker des Werbetreibenden, um die nicht crawlbare URL in der entsprechenden Campaign Manager 360-Platzierung zu entfernen oder zu ersetzen.
- Wenn Display & Video 360 keine Zielseite für das Creative erkennen kann, wird stattdessen die URL verwendet, die in Ihren Display & Video 360-Werbetreibendendetails festgelegt ist. Um diese URL zu finden, öffnen Sie Ihren Werbetreibenden und klicken Sie dann auf Einstellungen Grundlegende Details . Überprüfen Sie die URL, die auf der Website des Werbetreibenden festgelegt ist.
Schritt 2: Suchen Sie nach robots.txt-Dateien
Wenn Sie ein Website-Administrator mit Zugriff auf die Google Search Console für die Website des Werbetreibenden sind, können Sie den robots.txt-Tester zur Fehlerbehebung verwenden. Wenn nicht, können Sie die folgenden Schritte ausführen.
- Kopieren Sie die URL und fügen Sie sie in die Adressleiste eines Webbrowsers ein.
- Fügen Sie
/robots.txt
am Ende des Domänennamens hinzu und drücken Sie dann die Eingabetaste. (Wenn Ihre Zielseite beispielsweisehttp://www.example.com/folder1/folder2/
lautet, prüfen Sie, welche Robots die Domain crawlen dürfen, indem Sie die URL aufrufen:http://www.example.com/robots.txt
.) - Suchen Sie nach den Zeilen:
User-agent: AdsBot-Google
User-agent: Googlebot
User-agent: Googlebot-Image
- Wenn diese Zeilen nicht vorhanden sind, wenden Sie sich an den Website-Administrator, um sie hinzuzufügen.
- Wenn die Seite leer ist, arbeiten Sie mit dem Website-Administrator zusammen, um der Domain eine
robots.txt
Datei hinzuzufügen. - Wenn
User-agent: AdsBot-Google
vorhanden ist, vergewissern Sie sich, dass darauf keine Zeile mit der AufschriftDisallow: /
folgt. Stellen Sie außerdem sicher, dass AdsBot-Google nicht durch eine andere Zeile in der Datei eingeschränkt ist. - Wenn
User-agent: Googlebot
vorhanden ist, vergewissern Sie sich, dass darauf keine Zeile mit der AufschriftDisallow: /
folgt. Stellen Sie außerdem sicher, dass AdsBot-Google nicht durch eine andere Zeile in der Datei eingeschränkt ist. - Wenn
User-agent: Googlebot-Image
vorhanden ist, vergewissern Sie sich, dass darauf keine Zeile mit der AufschriftDisallow: /
folgt. Stellen Sie außerdem sicher, dass AdsBot-Google nicht durch eine andere Zeile in der Datei eingeschränkt ist.
Erfahren Sie mehr überrobots.txt
Dateien und Google-Crawler
- Wenn die Zielseite eine Subdomain ist, überprüfen Sie, ob die Subdomain eine separate
robots.txt
Datei hat. Beispiel:https://subdomain.domain.com/robots.txt
. Stellen Sie sicher, dass diese robots.txt-Datei auchUser-agent: AdsBot-Google
undUser-agent: Googlebot.
Schritt 3: Testen Sie Ihre Zielseite, um zu sehen, ob sie gecrawlt werden kann
- Laden Sie die Seite in Google Chrome.
- Wählen Sie das Chrome-Menü und klicken Sie auf Weitere Tools > Entwicklertools .
- Wählen Sie im Bereich „Entwicklertools" die aus und klicken Sie auf Weitere Tools > Netzwerkbedingungen.
- Deaktivieren Sie im Abschnitt „Netzwerkbedingungen" das Kontrollkästchen „Browserstandard verwenden" in der Zelle „Benutzeragent".
- Wählen Sie im Dropdown-Menü der Benutzeragenten „Googlebot" aus.
- Lade die Seite neu. Dies zeigt Ihnen, wie der Googlebot (Google-Crawler) die Seite „sieht".
- Wählen Sie im Dropdown-Menü der Benutzeragenten „Benutzerdefiniert" aus.
- Aktualisieren Sie im Feld unter dem Dropdown-Menü den User-Agent-Pfad zu
AdsBot-Google (+http://www.google.com/adsbot.html)
und aktualisieren Sie die Seite.
Andere Gründe, warum eine Zielseite nicht gecrawlt werden kann
Wenn der Google AdsBot die Zielseite crawlen darf ( User-agent: AdsBot-Google
und User-agent: Googlebot
sind bereits in der robots.txt
Datei der Website enthalten )
, kann es einen anderen Grund geben, warum die Seite nicht gecrawlt werden kann:
- Die Zielseite wird nicht geladen. Wenn Sie die Seite mit einem Webbrowser öffnen und einen Fehler sehen (z. B. 404 nicht gefunden, Website nicht erreichbar, Ihre Sitzung ist abgelaufen), wenden Sie sich an den Website-Administrator der Website, um sicherzustellen, dass die Zielseite an jedem Ort und in jeder Umgebung (mobile und Desktop) oder Browser.
- Die Zielseite erfordert eine Anmeldung. Alle Anzeigenzielseiten müssen öffentlich zugänglich sein. Verwenden Sie eine andere Zielseite oder arbeiten Sie mit dem Website-Administrator zusammen, um die Anmeldeanforderung von der Seite zu entfernen.
- Die Zielseite hat zu viele Weiterleitungen oder Weiterleitungen. Zielseiten müssen weniger als 10 Weiterleitungen haben. Arbeiten Sie mit dem Website-Administrator zusammen, um die Anzahl der Weiterleitungen zu reduzieren. Erfahren Sie mehr über die Webweiterleitung
- Die Zielseite enthält eine Suchmaschine, die beim Laden der Seite keine Ergebnisse zurückgibt. Wenn die Zielseite eine Site-Suche startet, vergewissern Sie sich, dass die Suchmaschine der Site ein Ergebnis zurückgibt, da der Crawler die Seite sonst als ungültig ansehen kann. Arbeiten Sie mit dem Website-Administrator der Website zusammen, um einige Standardsuchergebnisse zurückzugeben, anstatt eine Fehlerseite oder eine Meldung wie „Keine Ergebnisse" anzuzeigen.
- Die Zielseiten-URL enthält ein Nummernzeichen (#). Display & Video 360 kann keine URLs mit Nummernzeichen verarbeiten. Entfernen Sie entweder das Nummernzeichen aus der URL oder verwenden Sie eine andere Zielseite.
- Die Zielseite kann aufgrund einer Zeitüberschreitung nicht gecrawlt werden. Google versucht, die Zielseite zu crawlen, aber die Anfrage dauert zu lange. Dies kann sporadisch und aus unterschiedlichen Gründen geschehen. Wenn dies häufig vorkommt, wenden Sie sich an den Website-Administrator der Website, um das Problem zu beheben.
Finden Sie nicht crawlbare URLs im Creative-Code
Zielseiten-URLs können an mehreren Stellen in einem Display & Video 360-Creative festgelegt werden. Manchmal werden sie direkt im Creative-Code anstatt in Display & Video 360 festgelegt. Verwenden Sie die folgenden Schritte, um nicht crawlbare URLs zu finden, die direkt im Creative-Code festgelegt sind:
Display-Creatives
- Öffnen Sie Display & Video 360 in Chrome.
- Suchen und öffnen Sie das Motiv und klicken Sie dann auf Vorschau oder .
- Klicken Sie mit der rechten Maustaste auf das Motiv und dann auf Prüfen .
- Suche nach der Zielseite Display & Video 360 konnte nicht gecrawlt werden. Klicken Sie auf eine beliebige Stelle im Bereich „Entwicklertools" und drücken Sie dann Strg + f (oder Befehlstaste ⌘ + f auf einem Mac), um eine Suchleiste in den Entwicklertools zu öffnen.
- Geben Sie einige Wörter aus der nicht crawlbaren URL ein, die von Display & Video 360 erkannt wurde. Verwenden Sie bei Ihrer Suche keine Symbole. Wenn die Zielseite beispielsweise
http://www. example .com/folder?var=1234&othervar=5678
, suchen Sie nur nach dem Domänennamen, in diesem Fallexample
. Wenn Sie
Clicktag = "http://www.example.com",
dann wird diese URL direkt im Creative-Code gesetzt.Entfernen oder ersetzen Sie die nicht crawlbare URL und laden Sie dann die aktualisierte Creative-Datei hoch.
Video-Creatives
- Wenn Ihr Creative direkt in Display & Video 360 hochgeladen wurde ( Neues Creative > Videodatei ), überprüfen Sie die Landingpage-URL auf dem Tab Creative-Details des Creatives.
- Wenn das Creative von einem Ad-Server eines Drittanbieters gehostet wird ( Neues Creative > VAST-Tag ), kopieren Sie die VAST-Tag-URL, die Sie auf dem Tab "Creative-Details" des Creatives finden.
- Wenn Ihr Creative von Campaign Manager 360 gehostet und synchronisiert wird, wenden Sie sich an den Campaign Manager 360-Trafficker Ihres Werbetreibenden, um die nicht crawlbare Zielseiten-URL in der Campaign Manager 360-Platzierung zu entfernen oder zu ersetzen.
Überprüfen Sie ein VAST-Tag für Zielseiten
- Öffnen Sie Display & Video 360 in Chrome.
- Fügen Sie die VAST-Tag-URL ein, die Sie kopiert haben (oben).
- Suchen Sie nach dem
<ClickThrough>
-Tag. Klicken Sie auf eine beliebige Stelle im Bereich „Entwicklertools" und drücken Sie dann Strg + f (oder Befehlstaste ⌘ + f auf einem Mac), um eine Suchleiste in den Entwicklertools zu öffnen. Wenn das
<ClickThrough>
-Tag die nicht crawlbare URL enthält, wird diese URL direkt in der VAST-Datei festgelegt.Entfernen oder ersetzen Sie die nicht crawlbare URL und laden Sie dann die aktualisierte Creative-Datei hoch.
No comments:
Post a Comment