Das Google Disavow Links Tool

Googles Anti-Spam-Guru Matt Cutts hat auf der Pubcon in den USA ein neues Tool vorgestellt: Das Google Disavow Links Tool, das inzwischen auch in einem offiziellen Blogbeitrag erklärt wird. Damit können Links, die nicht (mehr) den Google-Richtlinien entsprechen, quasi für ungültig erklärt werden. Dazu ruft der Webmaster (natürlich eingeloggt in den Google-Account) die Seite www.google.com/webmasters/tools/disavow-links-main auf. Dann wählen wir …

Linkbuilding aus der Dose

Linkbaits müssen auffallen, um in der Zielgruppe wahrgenommen zu werden. Einerseits. Andererseits habe ich vor einiger Zeit geschrieben, dass der beste Linkbait derjenige sei, der nicht als solcher wahrgenommen wird. Das kleine Päckchen, das heute morgen mit der Post kam, erfüllt ganz eindeutig nur das erste Kriterium. Muss aber nicht heißen, dass die Aktion deshalb schlecht …

Warum Google neuerdings seine Nutzer liebt

Ich versuche stets, Google-Updates in einem größeren und längerfristigen Zusammenhang zu sehen. Dadurch ergeben sich meiner Erfahrung nach Einblicke in die Strategie von Google, was wiederum hilft zu verstehen, was aktuell im Index passiert. Die Updates der letzten gut zwölf Monate, beginnend mit Panda, halte ich in dieser langfristigen Betrachtung für eine Zäsur. Diese Zäsur …

Relaunch kills Rankings: Ein unfreiwilliges SEO-Experiment

Es war einmal ein Onlineshop, der in seinem umkämpften Thema richtig gut platziert war. Dieser Shop war mutig genug, just zu Beginn seiner Hauptsaison einen umfassenden Relaunch anzustreben. Dieser Relaunch wurde nun Mitte März tatsächlich durchgeführt. Besonders interessant daran aber war ein vermutlich unfreiwilliges SEO-Experiment, das die Betreiber damit verbanden. Denn auf dem alten Shop …

Reverse Link-Engineering: Crawler-based Market Research

Unsere Campixx-Session zur Marktanalyse mit (mehr oder weniger komplizierten) Crawlern hat ja zu spannenden Diskussionen geführt und den vielfachen Wunsch, die Slides zu veröffentlichen. Thomas Mindnich und ich waren uns von vornherein einig, dass wir nicht alles, was wir in der Session zeigen würden, hinterher veröffentlichen möchten. Aus unserer Sicht ist die Campixx ein Ort, auch mal etwas offener …

Der Campixx-Recap-2012 / Late Night Edition

Eben ist das Gipfelstolz-Team wohlbehalten von der SEO-Campixx 2012 aus Berlin zurückgekehrt. Die vierte Ausgabe der Campixx war wieder eine großartige Veranstaltung, vielen Dank an Marco für die tolle Organisation! Wir waren dieses Mal zu viert in Berlin, ich durfte meine geschätzten Gipfelstolz-KollegInnen Marcus, Daniel und Andreea auf der langen Reise in die Bundeshauptstadt begleiten. Mit unseren schicken und …

Onpage-Optimierung völlig bedeutungslos?

Einige Aussagen im Artikel „Websites in the Small — Wie man KMU-Webseiten erfolgreich macht!“ in der aktuellen Ausgabe der Zeitschrift Website Boosting haben für Aufregung in der SEO-Szene gesorgt. Darüber braucht sich auch niemand zu wundern, der Onpage-Optimierung als „Pseudo-Argument“ im „Eigeninteresse von Dienstleistern“ bezeichnet. Und weiter: Die Google-Updates der letzten Zeit hätten gezeigt, dass „die …

robots.txt vs. noindex

Es ist eigentlich ein alter Hut, aber regelmäßig stolpere ich über Fälle, wo Webmaster oder SEOs Probleme mit dem korrekten Einsatz von robots.txt und dem noindex-Metatag haben. Das größte Problem dabei ist der Glaube, dass eine in der robots.txt ausgesperrte URL nicht indexiert werden könne. Das ist falsch! Die robots.txt ermöglicht lediglich eine Steuerung des Crawlers; der …

Täglicher Sichtbarkeitsindex auf eigenen Keywords

Der große Wettbewerb der verschiedenen SEO-Tools in Deutschland bringt uns SEOs immer bessere Features. Allgemeine Sichtbarkeitsindizes, die Johannes eingeführt hatte, waren ein großer Schritt vorwärts in der SEO-Analyse. Seine kundenspezifischen Sichtbarkeitsindizes nutze ich ebenfalls gerne, da ich damit die aggregierte Entwicklung der Money-Keywords eines Kunden sehr gut überwachen kann. Seolytics geht nun noch einen Schritt weiter und …