Für jeden, der sich mit Suchmaschinen-Optimierung beschäftigt, ist Duplicate Content ein Ärgernis. Denn oft genug kommt man nicht daran vorbei, Duplicate Content zu vermeiden. Als Stichworte mögen hier Syndication durch Feeds oder das übliche Tagging von Blogs in diversen Kategorien ausreichen, von Scrapern, die die eigenen Inhalte stehlen, soll erst gar nicht geredet werden.
In einem heute auf deutsch erschienenen Artikel nimmt Vanessa Fox vom Google Webmaster Central Blog anlässlich einer Diskussion auf einer Suchmaschinenkonferenz nochmals dazu Stellung. Neben einigen interessanten Ansätzen, was Google denn tun könnte, um Duplicate Content-Probleme für legitime Webseiten zu verhindern, veröffentlicht Google hier wieder einige Aussagen, die zumindest missverständlich sein könnten; ich würde sie eher als falsch bezeichnen.
Duplicate Content führt nicht dazu, dass eure Site in die Supplemental Results rutscht. Allerdings kann dies indirekt ausgelöst werden, falls verschiedene Links auf die unterschiedlichen Versionen eurer Seite zeigen und so einen niedrigeren PageRank verursachen.
In dieser Aussage kommt es auf die feine Unterscheidung zwischen Site und Seite an. Sicherlich rutscht eine komplette Website nicht als ganzes in den Zusatzindex ab, nur weil viel Duplicate Content auf dieser Site zu finden ist. Das Problem ist ja vielmehr, dass Google Seiten als Duplikate qualifiziert und in den Zusatzindex schiebt, die keine Duplikate sind oder zumindest keine sein sollten. Gleichzeitig bestätigt diese Aussage, dass ein niedriger PageRank ein wichtiges Kriterium dafür ist, ob eine Seite in den Haupt- oder den Zusatzindex gesteckt wird.
Duplicate Content auf eurer Site führt nicht zu Penalties. Wenn doppelte Seiten erkannt werden, taucht im Interesse der Ergebnisvielfalt nur eine Version in den Suchergebnissen auf.
Klingt gut, allein mir fehlt der Glaube. Denn ich habe Websites gesehen, die in der Tat nicht als ganzes im Zusatzindex landeten, von denen aber zu einzelnen Artikeln keine einzige Version in Googles Index zu finden war. (Eines dieser Beispiele habe ich auf meiner Suchmaschinen-Trainings-DVD vorgestellt.)
Google will einmalige Ergebnisse liefern und wählt deswegen automatisch eine Version aus, falls eure Websites Duplicate Content aufweisen. Falls ihr euch also nicht die Mühe machen wollt, eure Duplikate auszusieben, könnt ihr einfach uns dafür Sorge tragen lassen.
Angesichts der vielen Probleme, die ich auf diversen Seiten dank Duplicate Content sehe, ist dieser Rat mit Sicherheit vollkommen unsinnig, ja schon fast zynisch. Vor allem wenn ich mir anschaue, welch ausgiebige Hilfestellungen Google gibt, um Duplicate Content zu vermeiden.
Duplicate Content ist also nach wie vor ein richtiges Problem für jeden Webmaster, auch wenn Google derzeit versucht, uns das Gegenteil einzureden.