Support » Allgemeine Fragen » robots.txt verhindert Google- Seitenbeschreibung

  • Hallo Zusammen!

    Habe heute mit YOAST SEO meine Seitenbeschreibung bei Google bearbeiten wollen. Leider kommt bei Google aber immer die gleiche Meldung :“ Die Datei „robots.txt“ auf dieser Website lässt nicht zu, dass eine Beschreibung für das Suchergebnis angezeigt wird.

    In der robots.txt steht:

    User-agent: *

    Disallow: /wp-admin/
    Disallow: /wp-includes/

    Habe hier schon einige Befehle versucht, hatte aber leider keinen Erfolg damit.

    Hatte jemand schon mal das selbe Problem und kann mir dabei weiterhelfen?

    Vielen Dank im Voraus!

Ansicht von 2 Antworten - 1 bis 2 (von insgesamt 2)
  • Hast du mal geprüft, ob unter Einstellungen > Lesen das Häkchen bei „Suchmaschinen verbieten, diese Domain zu indexieren“ gesetzt ist?

    wenn deine Domain lange Zeit auf noindex stand, also unter Dashboard => Einstellungen => Lesen => das Häkchen bei „Suchmaschinen verbieten, diese Domain zu indexieren“ und nun die Domain freigegeben wurde, dauert es lange bis sie korrekt im Index ist.

    Beschleunigen kannst du den Prozess indem du dich bei der Google Search Console/Webmastertools anmeldest und dort deine Site direkt in den Index aufnehmen läßt.

Ansicht von 2 Antworten - 1 bis 2 (von insgesamt 2)
  • Das Thema „robots.txt verhindert Google- Seitenbeschreibung“ ist für neue Antworten geschlossen.