Website konnte nicht gecrawlt werden, da kein Zugriff auf die robots.txt – Date
-
Hallo zusammen.
Ich bitte euch um Hilfe. Drei screenshots, die ich in dieses Nachrichtenfeld nicht unterbringen kann, dokumentieren das Problem. Ich hab es abgeschrieben:Ihre website konnte nicht gecrawlt werden, da wir nicht auf die robots.txt – Datei zugreifen konnten.
Unter Google Search console steht:
Eine wichtige Seite wird durch robots.txt blockiert.Search Console – Hilfe:
Robots-Abruffehler
Bevor der Google bot Ihre Website crawlt, greift er auf ihre robots Datei zu, um herauszufinden, ob ihre Website verhindert, dass Google Seiten oder URLs crawlt. Wenn Ihre robots Datei vorhanden ist, aber nicht erreichbar ist, d.h. wenn kein HTTP-Statuscode 200 oder 404 zurückgegeben wird, verschieben wir unser Crawling, da wir keine nicht zugelassene URLs crawlen. Sobald der Zugriff auf robots.txt – Datei möglich ist, wird ihre Website erneut von Google besucht und gecrawlt.
Vergewissern Sie sich, dass Google auf robots.txt zugreifen kann. Es ist jedoch möglich, dass wir beim Versuch, robots.txt – Datei abzurufen, eine 5xx-Fehlermeldung (unerreichbar) erhalten.
Vergewissern Sie sich, dass Ihr Hostanbieter Google bot nicht blockiert. Wenn Sie eine Firewall verwenden, sollten Sie sicherstellen, dass diese Google nicht blockiert.Die robots.txt – Datei ist vorhanden.
Host Europe teilte auf Anfrage mit, Google nicht zu blockieren.Was bedeutet das, wenn nicht gecrawlt wird?
Was muss ich machen, um das Problem zu beheben?Vielen Dank im Voraus für eure Mithilfe.
Gruß Rainer
- Das Thema „Website konnte nicht gecrawlt werden, da kein Zugriff auf die robots.txt – Date“ ist für neue Antworten geschlossen.