Weiterleitungen verwalten: Weiterleitungsmanagement für SEOs

Weiterleitungen zu verwalten, ist für SEOs alltäglich. Schließlich gibt es im Alltag unzählige Gründe dafür, dass sich URLs ändern. Auch wenn der Web-Erfinder Tim Berners-Lee bereits 1998 gefordert hatte, dass sich Coole URLs nicht ändern sollen. Doch die Umstellung auf eine neue Domain, die Umstrukturierung der Website oder die Einführung eines neuen CMS erfordern in der Praxis …

HTTP/2: Verbreitung noch gering und kaum Provider-Unterstützung

(Aktualisiert am 8. August 2016 – siehe den Absatz am Ende des Beitrags) HTTP/2 ist die neue Version des allgegenwärtigen HTTP-Protokolls und löst die 1999 eingeführte und seither gebräuchliche Version des Webprotokolls ab. Einer Aufstellung der Website caniuse.com zufolge sind bereits 70 Prozent aller weltweit eingesetzten Browser in der Lage, mittels HTTP/2 zu kommunizieren. In Deutschland sind …

Google: AJAX-Crawling wird eines Tages eingestellt

Vor fünf Jahren hat Google mit dem AJAX-Crawling-Protokoll eine Möglichkeit geschaffen, Seiten mit AJAX-Inhalten durch den Googlebot crawlen zu lassen. Die Umsetzung dieses Protokolls ist zwar technisch einfach, aber konzeptionell durchaus kompliziert; insbesondere im Zusammenspiel mit Flash-Browserweichen und solchen Spielereien lässt sich eine Website damit erfolgreich abschießen. Allerdings ist es seit längerem recht ruhig geworden um das AJAX-Crawling, ich …

Zwanzig Jahre robots.txt

Heute vor genau zwanzig Jahren einigten sich die Teilnehmer der damaligen Robots-Mailinglist darauf, über eine Datei mit dem Namen robots.txt im Stammverzeichnis eines Webhosts den Zugriff auf diesen Host zu steuern. Treibende Kraft hinter diesem Pseudo-Standard war Martijn Koster, der mit Aliweb die wohl erste Suchmaschine des damals noch jungen World Wide Webs programmierte. Koster koordinierte nicht nur den …

robots.txt vs. noindex

Es ist eigentlich ein alter Hut, aber regelmäßig stolpere ich über Fälle, wo Webmaster oder SEOs Probleme mit dem korrekten Einsatz von robots.txt und dem noindex-Metatag haben. Das größte Problem dabei ist der Glaube, dass eine in der robots.txt ausgesperrte URL nicht indexiert werden könne. Das ist falsch! Die robots.txt ermöglicht lediglich eine Steuerung des Crawlers; der …

Gestatten: Die Google Cloaking-API

Seit mehr als einem Jahr bietet Google eine offizielle Cloaking-API an. Überraschenderweise hat das bisher kaum jemand bemerkt. Das könnte auch daran liegen, dass die API den komischen Namen Ajax-Crawling-Protokoll trägt und das klingt nun so gar nicht nach Cloaking. Vermutlich hat Google das so genannt, weil der Webmaster damit seine Ajax-Seiten dem Googlebot zugänglich machen kann. Wie …

Experimente mit dem Canonical Meta-Tag

Bereits im Februar hat Google den Canonical Meta-Tag eingeführt. Zweck der Anweisung soll sein, das Duplicate Content-Problem zu lösen. Dazu fügt man im HEAD-Bereich der HTML-Seite eine Anweisung ein, die den Suchmaschinen (Google, Yahoo und Microsoft) mitteilt, dass die Originalversion dieser Seite womöglich unter eine anderen URL zu finden ist. Diese andere URL wird dabei natürlich ebenfalls …