Sicherstellen, dass Änderungen an der robots.txt zum gewünschten Erfolg führen und kein Traffic/Umsatz verloren geht.
Sicherstellen, dass Änderungen an der robots.txt zum gewünschten Erfolg führen und kein Traffic/Umsatz verloren geht.
Sicherstellen, dass Änderungen an der robots.txt zum gewünschten Erfolg führen und kein Traffic/Umsatz verloren geht.
Gerade bei großen Webseiten oder Webseiten, die viele dynamisch Inhalte haben, gibt es häufig eine extrem hohe Anzahl an URLs. Das führt dazu, dass Google nicht mehr alle URLs crawlt und so ggf. wichtige Unterseiten nicht indexiert werden können. Um das „Crawl-Buget“ optimal auszunutzen macht es in solchen Fällen häufig Sinn, Seiten per robots.txt auszuschliessen.
Dabei sollte sichergestellt werden, dass keine relevanten Seiten ausgeschlossen werden.
Wir crawlen vor der eigentlichen Änderung der robots.txt die Webseite mit der neuen, bei uns hinterlegten Version und vergleichen den Crawl mit dem letzten Live-Crawl der Webseite. So lassen sich u.a. folgende strukturelle Faktoren prüfen: