Sunday, July 30, 2023

Fehlerbehebung für nicht crawlbare Zielseiten in einer dynamischen Anzeigengruppe – Google Ads-Hilfe [gg-google-ads-en]

Beheben Sie Probleme mit nicht crawlbaren Zielseiten in einer dynamischen Anzeigengruppe

Schritt 1: Suchen Sie die nicht crawlbare URL

Nicht crawlbare Seiten können sich auf drei Arten auf Ihre dynamischen Suchanzeigen auswirken:

  • Wenn Sie URL-Equals als Targeting-Typ auswählen und Ihre URL nicht crawlbar ist, wird auf Ihrem dynamischen Anzeigenziel der Status „Abgelehnt: Seite kann nicht gecrawlt werden" angezeigt.
  • Wenn Sie Seiten-Feeds verwenden und eine URL in Ihrem Feed nicht gecrawlt werden kann, wird in der Zeile für diese URL in der gemeinsam genutzten Bibliothek der Status „Abgelehnt: Seite kann nicht gecrawlt werden" angezeigt.
  • Wenn Sie einen anderen Targeting-Mechanismus verwenden und eine URL nicht gecrawlt wird oder nicht gecrawlt werden kann, erfährt Google Ads nichts davon und es wird daher keine Fehlermeldung angezeigt. Wenn eine URL, die Sie ansprechen möchten, keinen Traffic erhält, können Sie das Problem beheben, indem Sie sie zunächst über URL-Equals oder Seiten-Feeds gezielt ansprechen. Die URL erhält entweder Traffic oder Sie erhalten eine Fehlermeldung, die erklärt, warum sie keinen Traffic erhält.

Schritt 2: Stellen Sie sicher, dass Google AdsBot die Zielseite crawlen kann

  1. Kopieren Sie die URL und fügen Sie sie in die Adressleiste eines Webbrowsers ein.
  2. Fügen Sie /robots.txt am Ende des Domänennamens hinzu und drücken Sie dann die Eingabetaste. Wenn Ihre Zielseite beispielsweise http://www.example.com/folder1/folder2/ lautet, prüfen Sie, welche Robots die Domain crawlen dürfen, indem Sie die URL besuchen: http://www.example.com/robots.txt .
  3. Suchen Sie nach der Zeile User-agent: AdsBot-Google .
    • Wenn es nicht vorhanden ist, arbeiten Sie mit dem Webmaster zusammen, um es hinzuzufügen.
    • Wenn die Seite leer ist, arbeiten Sie mit dem Webmaster zusammen, um der Domain eine robots.txt Datei hinzuzufügen.
    • Wenn User-agent: AdsBot-Google vorhanden ist, stellen Sie sicher, dass darauf keine Zeile mit der Aufschrift Disallow: / folgt. Stellen Sie außerdem sicher, dass AdsBot-Google nicht durch eine andere Zeile in der Datei eingeschränkt wird. Über robots.txt Dateien und Google-Crawler
  4. Wenn es sich bei der Zielseite um eine Subdomain handelt, prüfen Sie, ob die Subdomain über eine separate robots.txt Datei verfügt. Zum Beispiel https://subdomain.domain.com/robots.txt . Stellen Sie sicher, dass diese robots.txt auch User-agent: AdsBot-Google zulässt.
  5. Öffnen Sie die Quelle der URL. In Chrome können Sie dies tun, indem Sie view-source:THE_URL öffnen. Wenn Ihre Zielseite beispielsweise http://www.example.com/folder1/folder2/ lautet, können Sie überprüfen, welche Robots die Domain crawlen dürfen, indem Sie zu view-source:http://www.example.com/folder1/folder2/ navigieren view-source:http://www.example.com/folder1/folder2/ .
  6. Suchen Sie nach der Zeichenfolge „ AdsBot-Google ".
    • Wenn es nicht vorhanden ist, ist dies nicht die Ursache des Problems.
    • Wenn sich die Zeichenfolge in einem Tag wie <meta name="AdsBot-Google" content="noindex" /> befindet, arbeiten Sie mit Ihrem Webmaster zusammen, um sie zu entfernen. Erfahren Sie mehr über Meta-Tags, die Google versteht

Andere Gründe dafür, dass eine Zielseite nicht gecrawlt werden kann

Wenn der Google AdsBot die Zielseite crawlen darf ( User-agent: AdsBot-Google ist bereits in der robots.txt Datei der Website enthalten), kann es einen anderen Grund geben, warum die Seite nicht gecrawlt werden kann:

  • Die Zielseite wird nicht geladen. Wenn Sie die Seite mit einem Webbrowser öffnen und einen Fehler sehen (z. B. 404 Nicht gefunden, Website nicht erreichbar, Ihre Sitzung ist abgelaufen), wenden Sie sich an den Webmaster der Website, um sicherzustellen, dass die Zielseite an jedem Ort und in jeder Umgebung (mobil und überall) geladen wird Desktop) oder Browser.
  • Für die Zielseite ist eine Anmeldung erforderlich. Alle Zielseiten der Anzeige müssen öffentlich zugänglich sein. Verwenden Sie eine andere Zielseite oder arbeiten Sie mit dem Webmaster zusammen, um die Anmeldepflicht von der Seite zu entfernen.
  • Die Zielseite enthält zu viele Weiterleitungen oder Weiterleitungen. Zielseiten dürfen weniger als 10 Weiterleitungen aufweisen. Arbeiten Sie mit dem Webmaster zusammen, um die Anzahl der Weiterleitungen zu reduzieren. Erfahren Sie mehr über die Webweiterleitung

No comments:

Post a Comment