Technisches SEO und digitale Strategie

Archiv 06 / 2007

Patent für lokale Suche zugesprochen

2007-06-26

Die amerikanische lokale Suchmaschine Local.com hat nun vom US-Patentamt ein Patent zugesprochen bekommen, das ein Verfahren beschreibt, um Webseiten anhand der darauf enthaltenen Adressinformationen lokal zuordnen zu können. Local.com zufolge umfasst das Patent auch das Ranking anhand geographischer Daten.

Dieses Patent stellt eine Bedrohung für alle lokalen Suchen dar. Zwar wurde es erst im Januar 2005 eingereicht, was die Frage aufwirft, ob die Patentfähigkeit wegen Prior Art überhaupt gegeben ist. Doch zunächst einmal ist das Patent gültig und wird von Local.com als Waffe gegen die Konkurrenz benutzt. So fordert denn auch Local.com „andere lokale Suchmaschinen auf, Lizenzverhandlungen aufzunehmen“.

Mit diesem Patent zeigt sich wieder einmal, wie unsinnig die so genannten Softwarepatente, die in Wahrheit nichts anderes als Patente auf Ideen sind, sich in der Realität darstellen. Im besten Falle droht lokalen Suchmaschinen nun eine langwierige Auseinandersetzung mit Local.com; im schlimmsten Fall kauft Google Local.com auf, und den lokalen Suchmaschinen droht eine Auseinandersetzung mit Google.

via Basic Thinking bzw. Golem

Permalink

Googles gewagte Tipps zu Duplicate Content

2007-06-22

Für jeden, der sich mit Suchmaschinen-Optimierung beschäftigt, ist Duplicate Content ein Ärgernis. Denn oft genug kommt man nicht daran vorbei, Duplicate Content zu vermeiden. Als Stichworte mögen hier Syndication durch Feeds oder das übliche Tagging von Blogs in diversen Kategorien ausreichen, von Scrapern, die die eigenen Inhalte stehlen, soll erst gar nicht geredet werden.

In einem heute auf deutsch erschienenen Artikel nimmt Vanessa Fox vom Google Webmaster Central Blog anlässlich einer Diskussion auf einer Suchmaschinenkonferenz nochmals dazu Stellung. Neben einigen interessanten Ansätzen, was Google denn tun könnte, um Duplicate Content-Probleme für legitime Webseiten zu verhindern, veröffentlicht Google hier wieder einige Aussagen, die zumindest missverständlich sein könnten; ich würde sie eher als falsch bezeichnen.

Duplicate Content führt nicht dazu, dass eure Site in die Supplemental Results rutscht. Allerdings kann dies indirekt ausgelöst werden, falls verschiedene Links auf die unterschiedlichen Versionen eurer Seite zeigen und so einen niedrigeren PageRank verursachen.

In dieser Aussage kommt es auf die feine Unterscheidung zwischen Site und Seite an. Sicherlich rutscht eine komplette Website nicht als ganzes in den Zusatzindex ab, nur weil viel Duplicate Content auf dieser Site zu finden ist. Das Problem ist ja vielmehr, dass Google Seiten als Duplikate qualifiziert und in den Zusatzindex schiebt, die keine Duplikate sind oder zumindest keine sein sollten. Gleichzeitig bestätigt diese Aussage, dass ein niedriger PageRank ein wichtiges Kriterium dafür ist, ob eine Seite in den Haupt- oder den Zusatzindex gesteckt wird.

Duplicate Content auf eurer Site führt nicht zu Penalties. Wenn doppelte Seiten erkannt werden, taucht im Interesse der Ergebnisvielfalt nur eine Version in den Suchergebnissen auf.

Klingt gut, allein mir fehlt der Glaube. Denn ich habe Websites gesehen, die in der Tat nicht als ganzes im Zusatzindex landeten, von denen aber zu einzelnen Artikeln keine einzige Version in Googles Index zu finden war. (Eines dieser Beispiele habe ich auf meiner Suchmaschinen-Trainings-DVD vorgestellt.)

Google will einmalige Ergebnisse liefern und wählt deswegen automatisch eine Version aus, falls eure Websites Duplicate Content aufweisen. Falls ihr euch also nicht die Mühe machen wollt, eure Duplikate auszusieben, könnt ihr einfach uns dafür Sorge tragen lassen.

Angesichts der vielen Probleme, die ich auf diversen Seiten dank Duplicate Content sehe, ist dieser Rat mit Sicherheit vollkommen unsinnig, ja schon fast zynisch. Vor allem wenn ich mir anschaue, welch ausgiebige Hilfestellungen Google gibt, um Duplicate Content zu vermeiden.

Duplicate Content ist also nach wie vor ein richtiges Problem für jeden Webmaster, auch wenn Google derzeit versucht, uns das Gegenteil einzureden.

Permalink

Mein Auftritt bei Webmasters on the Roof

2007-06-04

Morgen abend, also am 5. Juni, um 19 Uhr bin ich zumindest telefonisch bei Mediadonis und FridayNite und deren SEO-Radio Webmasters on the Roof zugast. Neben vielen SEO-Themen und -Anekdoten werd ich sicherlich mal erwähnen, dass ich eine Suchmaschinen-Optimierungs-Schulungs-DVD gemacht habe. Ach ja, und verlost wird wohl auch etwas …

Also bitte reinhören und viel Spaß haben!

Permalink

Seltene Einblicke in Googles Search-Quality Team

2007-06-04

Die Lektüre der New York Times trägt gewöhnlich nicht viel hilfreiches zur Suchmaschinen-Optimierung bei. Nun aber erlaubte Google einen Reporter der New York Times, einen Tag lang die Arbeit seines Search-Quality Teams zu beobachten und an internen Qualitätssicherungs-Meetings teilzunehmen. Für gewöhnlich ist Google bei diesen Fragen äußerst zugeknöpft, mehr als das, was Matt Cutts über sein Blog verlautbart, ist kaum schwarz auf weiß herauszufinden.

Herausgekommen ist ein äußerst interessanter Artikel, der manch spannenden Hinweis enthält, etwa dass Google sogar für einzelne Suchanfragen wie „French Revolution“ den Ranking-Algorithmus individuell anpasst. Und schon 2005, so lässt sich herauslesen, bewertete Google den Kontext der verlinkenden Seiten. Auch auf die milliardenfach gestellten Suchanfragen greift Google zurück; so werden die Queries beispielsweise benutzt, um festzustellen, ob bestimmte Dinge derzeit aktuell sind – etwa ein Stromausfall in New York – und dafür werden dann aktuelle Seiten höher bewertet. Die alte SEO-Debatte also, ob alte oder neue Seiten besser seien, ist damit mit einem klaren „kommt drauf an“ entschieden …

Permalink