Technisches SEO und digitale Strategie

Archiv 05 / 2007

Suchmaschinenoptimierung: Die Rolle von H1-Überschriften.

2007-05-28

Johannes Beus hat in seinem famosen Artikel über Google-Ranking-Faktoren mittels statistischer Methoden zu ergründen versucht, welche Faktoren fürs Google-Ranking entscheidend sind. Dabei stellte er fest, dass die Überschriften H2 bis H6 einen deutlichen Einfluss aufs Ranking haben, der Einsatz von H1 aber überhaupt keine Rolle zu spielen scheint. Das ist natürlich starker Tobak, denn die herausragende Bedeutung von H1 unter den Onpage-Faktoren schien eine seit Jahren von den SEO-Experten anerkannte Tatsache zu sein.

Da natürlich auch ich stets erzählt habe, wie wichtig H1 ist – zuletzt etwa noch auf meiner Suchmaschinen-Trainings-DVD, wollte ich mich nicht so einfach mit einer statistischen Analyse zufrieden geben und habe sofort selbst eine Art Laborexperiment begonnen. Dazu stellte ich auf einer seit Jahren vorhandenen Testdomain einige Seiten mit unterschiedlichem Einsatz von H1-, H2- und H3-Überschriften online. Die Seiten sind so gestaltet, dass das benutzte Keyword auf jeder Seite zweimal vorkommt, einmal in einer Überschrift, einmal im Fließtext. Der Fließtext sowie der TITLE wurden zur Vermeidung von Duplicate Content mit vollkommen belanglosen, aber jeweils unterschiedlichen Sätzen bzw. Wörtern gefüllt. Hier das Ergebnis meines Tests:

Position benutzte Überschriften
1. H1: nicht vohanden
H2: Blindtext
H3: Keyword
2. H1: nicht vohanden
H2: Keyword
H3: nicht vohanden
3. H1: Blindtext
H2: Keyword
H3: nicht vohanden
4. H1: Keyword
H2: nicht vohanden
H3: nicht vohanden

Der neugierige Suchmaschinenoptimierer sieht daran, dass tatsächlich auch im Laborexperiment H1-Überschriften schlechter abschneiden als ihre H2- oder H3-Kollegen. Ob nun wirklich H3 besser funktioniert als H2, das möchte ich daraus noch nicht endgültig ableiten. Vielleicht kann Johannes dazu ja seine Daten nochmals aufschlüsseln.

Bleibt die Frage, was sich Google dabei eigentlich denkt? Eine mögliche Erklärung könnte sein, dass inzwischen etliche Blog- und Redaktionssysteme in den Standard-Templates den Blognamen in H1 setzen, die für die jeweilige Seite weitaus genaueren Texte aber in den laut W3C „unwichtigeren“ Überschriften zu finden sind. Jedenfalls zeigt sich an diesem Beispiel wieder einmal, wie gut es ist, auch allgemein anerkannte Weisheiten regelmäßig zu hinterfragen.

Permalink

Zusätzliches Ergebnis – Google erklärt warum

2007-05-01

Einen Artikel auf der Forbes.com-Website mit dem schicken Titel In die Google-Hölle verdammt nimmt Matt Cutts von Google als Anlass, nochmals auf die Problematik „Zusätzliches Ergebnis“ einzugehen. Cutts verdeutlicht darin, dass es für Websites ganz normal sei, dass Seiten im sogenannten Zusatzindex landeten; insbesondere sei dies kein Anzeichen für eine Abstrafung der Website wegen Spam oder Duplicate Content. Der entscheidende Faktor, ob eine Seite in den Zusatzindex rutscht, ist der PageRank-Wert dieser Seite.

Soweit Matt Cutts. Doch müssen seine Ausführungen ergänzt werden, oder zumindest sollte der geneigte Suchmaschinenoptimierer genau lesen, was da steht. Wenn Cutts schreibt, dass das „Zusätzliche Ergebnis“ kein Anzeichen für eine Abstrafung ist, dann heißt das eben auch: Natürlich können Seiten zur „Strafe“ für Spam oder Duplicate Content in den Zusatzindex wandern.

Und zum guten alten PageRank. Anders als oftmals zu lesen ist, hat er natürlich noch einen erheblichen Einfluss aufs Google-Ranking. Natürlich nicht im engeren Sinne, dass Seiten mit hohem PageRank besonders weit vorne stehen. (Aber dafür war der PageRank meines Erachtens eh schon immer überbewertet.) Der PageRank ist heute für andere Dinge wichtig, etwa dafür, wie viele Seiten von Google aufgenommen werden und ob diese Seiten im Haupt- oder im Zusatzindex landen.

Doch auch hier ist Matt Cutts etwas halbherzig. Ich habe Seiten gesehen, die intern bestens verlinkt waren, auf einer seit vielen Jahren etablierten deutschen Website mit PageRank 7 lagen und trotzdem im Zusatzindex landeten. Der Grund war wohl eine Mischung aus Duplicate Content und fehlenden externen Deep-Links. Das heißt, dass selbst ein guter PageRank für eine Seite nicht ausreicht, im Hauptindex zu landen, wenn andere Faktoren dagegen sprechen.

Wie fast immer bei der Google-Optimierung in letzter Zeit gibt es ein Wundermittel gegen das „Zusätzliches Ergebnis“-Problem: Eine möglichst natürliche Verlinkung. Doch genau darauf legen im Übrigen regelmäßig Suchmaschinen-Optimierer zu wenig Gewicht. Ich hatte in letzter Zeit mehrmals mit Aufräumarbeiten zu tun, wo Optimierer die Unternehmens-Website klassisch gut optimiert hatten, aber die natürliche Verlinkung sträflich vernachlässigten. Wer Kunden-Websites optimieren möchte, sollte halt zumindest ab und zu dann doch Matt Cutts lesen.

Permalink