Tuesday, April 4, 2023

Fehlerbehebung bei nicht crawlbaren Landingpages - Display & Video 360-Hilfe [gg-displayvideo-de]

Fehlerbehebung bei nicht crawlbaren Zielseiten

Befolgen Sie diese Schritte, um Probleme mit Landingpages zu beheben, die von Google-Bots nicht gecrawlt werden können.

Schritt 1: Finden Sie die Quelle der nicht crawlbaren URL

  1. Öffnen Sie das Creative.
  2. Klicken Sie auf Creative-Status.
  3. Wenn es nicht maximiert ist, klicken Sie auf Display & Video 360-Überprüfung , um das detaillierte Feedback anzuzeigen. Kopieren Sie die URL der nicht zu crawlenden Zielseite.
  4. Sehen Sie sich das Creative in der Vorschau an und klicken Sie darauf, um die Zielseite zu öffnen. Vergleichen Sie diese URL mit der nicht crawlbaren URL, die Sie oben kopiert haben.
    1. Wenn die URLs übereinstimmen, klicken Sie auf Creative-Details , um die Zielseiten-URL des Creatives zu überprüfen . Sie können dies entweder in eine andere crawlbare URL ändern oder direkt zu Stellen Sie sicher, dass der Google AdsBot die Zielseite crawlen kann übergehen .
    2. Wenn die URLs nicht übereinstimmen, fahren Sie mit Schritt 4 fort, um herauszufinden, wo sich die nicht crawlbare Zielseite befindet.
  5. Überprüfen Sie Folgendes, um den Ursprung der nicht crawlbaren Zielseite zu finden:
    • Öffnen Sie die HTML- und JavaScript-Dateien des Creatives und suchen Sie nach der von Display & Video 360 als nicht crawlbar gemeldeten URL .
    • Wenn das Creative von Campaign Manager 360 synchronisiert wird, wenden Sie sich an den Campaign Manager 360-Trafficker des Werbetreibenden, um die nicht crawlbare URL in der entsprechenden Campaign Manager 360-Platzierung zu entfernen oder zu ersetzen.
    • Wenn Display & Video 360 keine Zielseite für das Creative erkennen kann, wird stattdessen die URL verwendet, die in Ihren Display & Video 360-Werbetreibendendetails festgelegt ist. Um diese URL zu finden, öffnen Sie Ihren Werbetreibenden und klicken Sie dann auf Einstellungen und dann Grundlegende Details . Überprüfen Sie die URL, die auf der Website des Werbetreibenden festgelegt ist.

Schritt 2: Suchen Sie nach robots.txt-Dateien

Wenn Sie ein Website-Administrator mit Zugriff auf die Google Search Console für die Website des Werbetreibenden sind, können Sie den robots.txt-Tester zur Fehlerbehebung verwenden. Wenn nicht, können Sie die folgenden Schritte ausführen.

  1. Kopieren Sie die URL und fügen Sie sie in die Adressleiste eines Webbrowsers ein.
  2. Fügen Sie /robots.txt am Ende des Domänennamens hinzu und drücken Sie dann die Eingabetaste. (Wenn Ihre Zielseite beispielsweise http://www.example.com/folder1/folder2/ lautet, prüfen Sie, welche Robots die Domain crawlen dürfen, indem Sie die URL aufrufen: http://www.example.com/robots.txt .)
  3. Suchen Sie nach den Zeilen:
    User-agent: AdsBot-Google
    User-agent: Googlebot
    User-agent: Googlebot-Image
    1. Wenn diese Zeilen nicht vorhanden sind, wenden Sie sich an den Website-Administrator, um sie hinzuzufügen.
    2. Wenn die Seite leer ist, arbeiten Sie mit dem Website-Administrator zusammen, um der Domain eine robots.txt Datei hinzuzufügen.
    3. Wenn User-agent: AdsBot-Google vorhanden ist, vergewissern Sie sich, dass darauf keine Zeile mit der Aufschrift Disallow: / folgt. Stellen Sie außerdem sicher, dass AdsBot-Google nicht durch eine andere Zeile in der Datei eingeschränkt ist.
    4. Wenn User-agent: Googlebot vorhanden ist, vergewissern Sie sich, dass darauf keine Zeile mit der Aufschrift Disallow: / folgt. Stellen Sie außerdem sicher, dass AdsBot-Google nicht durch eine andere Zeile in der Datei eingeschränkt ist.
    5. Wenn User-agent: Googlebot-Image vorhanden ist, vergewissern Sie sich, dass darauf keine Zeile mit der Aufschrift Disallow: / folgt. Stellen Sie außerdem sicher, dass AdsBot-Google nicht durch eine andere Zeile in der Datei eingeschränkt ist.

      Erfahren Sie mehr über robots.txt Dateien und Google-Crawler
  4. Wenn die Zielseite eine Subdomain ist, überprüfen Sie, ob die Subdomain eine separate robots.txt Datei hat. Beispiel: https://subdomain.domain.com/robots.txt . Stellen Sie sicher, dass diese robots.txt-Datei auch User-agent: AdsBot-Google und User-agent: Googlebot.

Schritt 3: Testen Sie Ihre Zielseite, um zu sehen, ob sie gecrawlt werden kann

  1. Laden Sie die Seite in Google Chrome.
  2. Wählen Sie das Chrome-Menü und klicken Sie auf Weitere Tools > Entwicklertools .
  3. Wählen Sie im Bereich „Entwicklertools" die aus und klicken Sie auf Weitere Tools > Netzwerkbedingungen.
  4. Deaktivieren Sie im Abschnitt „Netzwerkbedingungen" das Kontrollkästchen „Browserstandard verwenden" in der Zelle „Benutzeragent".
  5. Wählen Sie im Dropdown-Menü der Benutzeragenten „Googlebot" aus.
  6. Lade die Seite neu. Dies zeigt Ihnen, wie der Googlebot (Google-Crawler) die Seite „sieht".
  7. Wählen Sie im Dropdown-Menü der Benutzeragenten „Benutzerdefiniert" aus.
  8. Aktualisieren Sie im Feld unter dem Dropdown-Menü den User-Agent-Pfad zu AdsBot-Google (+http://www.google.com/adsbot.html) und aktualisieren Sie die Seite.

Andere Gründe, warum eine Zielseite nicht gecrawlt werden kann

Wenn der Google AdsBot die Zielseite crawlen darf ( User-agent: AdsBot-Google und User-agent: Googlebot sind bereits in der robots.txt Datei der Website enthalten ) , kann es einen anderen Grund geben, warum die Seite nicht gecrawlt werden kann:

  • Die Zielseite wird nicht geladen. Wenn Sie die Seite mit einem Webbrowser öffnen und einen Fehler sehen (z. B. 404 nicht gefunden, Website nicht erreichbar, Ihre Sitzung ist abgelaufen), wenden Sie sich an den Website-Administrator der Website, um sicherzustellen, dass die Zielseite an jedem Ort und in jeder Umgebung (mobile und Desktop) oder Browser.
  • Die Zielseite erfordert eine Anmeldung. Alle Anzeigenzielseiten müssen öffentlich zugänglich sein. Verwenden Sie eine andere Zielseite oder arbeiten Sie mit dem Website-Administrator zusammen, um die Anmeldeanforderung von der Seite zu entfernen.
  • Die Zielseite hat zu viele Weiterleitungen oder Weiterleitungen. Zielseiten müssen weniger als 10 Weiterleitungen haben. Arbeiten Sie mit dem Website-Administrator zusammen, um die Anzahl der Weiterleitungen zu reduzieren. Erfahren Sie mehr über die Webweiterleitung
  • Die Zielseite enthält eine Suchmaschine, die beim Laden der Seite keine Ergebnisse zurückgibt. Wenn die Zielseite eine Site-Suche startet, vergewissern Sie sich, dass die Suchmaschine der Site ein Ergebnis zurückgibt, da der Crawler die Seite sonst als ungültig ansehen kann. Arbeiten Sie mit dem Website-Administrator der Website zusammen, um einige Standardsuchergebnisse zurückzugeben, anstatt eine Fehlerseite oder eine Meldung wie „Keine Ergebnisse" anzuzeigen.
  • Die Zielseiten-URL enthält ein Nummernzeichen (#). Display & Video 360 kann keine URLs mit Nummernzeichen verarbeiten. Entfernen Sie entweder das Nummernzeichen aus der URL oder verwenden Sie eine andere Zielseite.
  • Die Zielseite kann aufgrund einer Zeitüberschreitung nicht gecrawlt werden. Google versucht, die Zielseite zu crawlen, aber die Anfrage dauert zu lange. Dies kann sporadisch und aus unterschiedlichen Gründen geschehen. Wenn dies häufig vorkommt, wenden Sie sich an den Website-Administrator der Website, um das Problem zu beheben.

Finden Sie nicht crawlbare URLs im Creative-Code

Zielseiten-URLs können an mehreren Stellen in einem Display & Video 360-Creative festgelegt werden. Manchmal werden sie direkt im Creative-Code anstatt in Display & Video 360 festgelegt. Verwenden Sie die folgenden Schritte, um nicht crawlbare URLs zu finden, die direkt im Creative-Code festgelegt sind:

Display-Creatives

  1. Öffnen Sie Display & Video 360 in Chrome.
  2. Suchen und öffnen Sie das Motiv und klicken Sie dann auf Vorschau oder Vorschau .
  3. Klicken Sie mit der rechten Maustaste auf das Motiv und dann auf Prüfen .
  4. Suche nach der Zielseite Display & Video 360 konnte nicht gecrawlt werden. Klicken Sie auf eine beliebige Stelle im Bereich „Entwicklertools" und drücken Sie dann Strg + f (oder Befehlstaste ⌘ + f auf einem Mac), um eine Suchleiste in den Entwicklertools zu öffnen.
  5. Geben Sie einige Wörter aus der nicht crawlbaren URL ein, die von Display & Video 360 erkannt wurde. Verwenden Sie bei Ihrer Suche keine Symbole. Wenn die Zielseite beispielsweise http://www. example .com/folder?var=1234&othervar=5678 , suchen Sie nur nach dem Domänennamen, in diesem Fall example .
  6. Wenn Sie Clicktag = "http://www.example.com", dann wird diese URL direkt im Creative-Code gesetzt.

  7. Entfernen oder ersetzen Sie die nicht crawlbare URL und laden Sie dann die aktualisierte Creative-Datei hoch.

Video-Creatives

Bei Video-Creatives müssen Sie in der VAST-Datei nach der URL suchen.
  • Wenn Ihr Creative direkt in Display & Video 360 hochgeladen wurde ( Neues Creative > Videodatei ), überprüfen Sie die Landingpage-URL auf dem Tab Creative-Details des Creatives.
  • Wenn das Creative von einem Ad-Server eines Drittanbieters gehostet wird ( Neues Creative > VAST-Tag ), kopieren Sie die VAST-Tag-URL, die Sie auf dem Tab "Creative-Details" des Creatives finden.
  • Wenn Ihr Creative von Campaign Manager 360 gehostet und synchronisiert wird, wenden Sie sich an den Campaign Manager 360-Trafficker Ihres Werbetreibenden, um die nicht crawlbare Zielseiten-URL in der Campaign Manager 360-Platzierung zu entfernen oder zu ersetzen.

Überprüfen Sie ein VAST-Tag für Zielseiten

  1. Öffnen Sie Display & Video 360 in Chrome.
  2. Fügen Sie die VAST-Tag-URL ein, die Sie kopiert haben (oben).
  3. Suchen Sie nach dem <ClickThrough> -Tag. Klicken Sie auf eine beliebige Stelle im Bereich „Entwicklertools" und drücken Sie dann Strg + f (oder Befehlstaste ⌘ + f auf einem Mac), um eine Suchleiste in den Entwicklertools zu öffnen.
  4. Wenn das <ClickThrough> -Tag die nicht crawlbare URL enthält, wird diese URL direkt in der VAST-Datei festgelegt.

  5. Entfernen oder ersetzen Sie die nicht crawlbare URL und laden Sie dann die aktualisierte Creative-Datei hoch.

No comments:

Post a Comment