Crawl-Delay – Suchmaschinen-Crawler steuern

Crawl-Delay ist eine Erweiterung des Robots Exclusion Protocol, die von Yahoo und Microsoft eingeführt wurde.

Über einen Befehl der Art Crawl-delay: N wird der jeweilige Crawler angewiesen, die Website nur alle N Sekunden zu besuchen. Sollte also der Yahoo-Crawler („Slurp“) maximal alle 60 Sekunden eine Seite von Ihrer Website abrufen dürfen, dann würde die Anweisung in Ihrer robots.txt so aussehen:

User-agent: Slurp
Crawl-delay: 60

Sie sollten dabei aber beachten, dass Sie damit auch die Anzahl der Seiten, die die Suchmaschinen indexieren oder aktualisieren können, begrenzen. Ein Crawl-Delay von 60 Sekunden etwa führt dazu, dass pro Tag lediglich 1440 Seiten gecrawlt werden können; für eine Website mit mehreren zehn- oder gar hunderttausend Unterseiten ist das zu wenig, um die Inhalte im Suchmaschinenindex aktuell zu halten.

Noch wichtiger aber ist: Google beachtet diese Anweisung nicht! Um Google zu einem langsameren Crawlen zu bewegen, muss man dies über die Search-Console beantragen oder dem Googlebot beim Crawling einen Statuscode 429 Too Many Requests zurückgeben.

Dieser Artikel ist Teil von Stefans technischem SEO-Tutorial (im Aufbau):

Lassen Sie mich helfen

In einem unverbindlichen Gespräch klären wir, wie ich Ihnen helfen kann.

Kostenloses Erstgespräch