Der Umgang mit – oder besser: Die Vermeidung von – Duplicate Content gehört seit längerer Zeit zu den wichtigsten Aufgaben der Suchmaschinen-Optimierung. Vermeidet ein Webmaster doppelte Inhalte, so landet er keinen einzigen Platz weiter oben in den Ergebnislisten, aber er kann einen eventuellen Absturz seiner Listings vermeiden. Ich habe in den vergangenen Monaten etliche Websites gesehen, bei denen Duplicate Content zugeschlagen hatte und oftmals waren die vorhandenen Doppelungen erst nach längerer Analyse zu erkennen.
Dass Duplicate Content in der Tat ein erhebliches Problem darstellt, macht allein die Ansetzung eines eigenen Panels im Rahmen der New Yorker Search Engines Strategies Conference (SES) zu diesem Thema deutlich. Zwei Vertreter von großen Suchmaschinen – Rajat Mukherjee von Yahoo und Matt Cutts von Google – gestanden denn auch ein, dass Suchmaschinen hier ein Problem haben. „Wir wollen keine Inhalte abwerten, sondern die richtigen Inhalte nach vorne bringen,“ erklärte Mukherjee. Da dies aber schwierig sei, empfehle er Doppelungen „wo immer möglich zu vermeiden“.
Cutts stellte anschließend klar, dass die etwa durch zwei Top-Level-Domains entstandene Spiegelung „keine Abstrafung durch Google“ mit sich bringe und auch eine (zusätzliche) Druckversion einer Seite kein Problem darstellt. Meiner Erfahrung nach ist das aber nur die halbe Wahrheit. Denn oft genug sind das nicht die einzigen Vervielfältigungen, denen ein Seiteninhalt unterliegt: Zwei Top-Level-Domains und zu jeder normalen Seite eine (ebenfalls crawlbare) Druckversion ergibt bereits eine Vervierfachung – ein und der selbe Inhalt ist unter vier verschiedenen URLs zu erreichen. Für gewöhnlich ist dann jede Domain auch noch sowohl mit als auch ohne vorangestelltes www erreichbar, und schon sind wir bei acht Kopien angelangt.
Damit sind aber noch längst nicht alle Möglichkeiten moderner Webtechnologien erschöpft. Stellen Sie sich einen Online-Shop vor: Der Kopfbereich, die Navigation, Einkaufshinweise und der ganze Rattenschwanz an Kontakt-, Impressums- und Sonstwasangaben im Fuß der Seite machen oftmals 90 Prozent des Seiteninhalts aus. Ein anderer Fall, aber ähnlich problematisch sind Sites mit einem hohen Anteil an reinen Fotoseiten. Das kann etwa eine Ferienhausvermietung sein; für jedes Objekt eine eigene Seite, auf der nur das Foto und ein Standardtext erscheint – auch hier droht die Abstrafung wegen Duplicate Content.
Allein die Tatsache, dass das Thema Duplicate Content im Rahmen einer SES diskutiert wurde, erweckt die Hoffnung, dass die großen Suchmaschinen hier bessere Algorithmen finden, die oftmals sehr sinnvolle Wiederverwendungen von Inhalten auf einer Website gegenüber missbräuchlichem Duplicate Content abzugrenzen.