Das Blog der takevalue Consulting GmbH

Suchmaschinen & SEO – August 2009

So, ein weiterer und auch recht warmer Monats liegt hinter uns und es hat sich auch so einiges getan. Und auch wenn ich dieses Jahr wegen der Geburt meines Sohnes nicht zur SES San Jose gekommen bin, so habe ich doch noch einiges mitbekommen.

Google Universal Search

Die GUS scheint ja das Experimentierfeld überhaupt für Google zu sein. Und so gibt es hier einige interessante Beobachtungen:

Ausbau der  Google Produktsuche: Hier gibt es bei Sistrix mal wieder eine wirklich sehr gute Untersuchung zur Einbindung der Oneboxen der Google-Produktsuche. Gleichzeitig zeigt Johannes, dass Google offensichtlich verstärkt von der Onebox auf die eigene Produktsuche verlinkt. Wäre interessant die Einführung und Ausbau dieser Integration mit den Trafficzahlen der Preisvergleichsseiten zu vergleichen.

Googles Video-Onebox scheint sich offenbar recht einfach manipulieren zu lassen. Scheinbar gewichtet Google das Erstellungsdatum eines Videos bei der Erkennung von Duplicate Content (oder Duplicate Videos) sehr hoch und verlässt sich dabei auf die Angaben des Publisher. So zumindest die Ergebnisse einer Ad-Hoc Untersuchung von Martin hinsichtlich der Gewichtung des Einstelldatum in Video-Sitemaps.

Google SERP

Auch hier arbeitet Google ja kontinuierlich an Verbesserungen. Jetzt hat man sich wohl dazu entschieden, die Anzeigen der rechten Spalte weiter an die organische Ergebnisliste anzunähern. Wie weit sich dieses auf den SEO-Traffic auswirkt muss man sehen. Bisher kann ich hier zumindest keine Änderung feststellen.

Google Caffeine

Da sind die Kollegen von msn mit Bing mal in die Nähe von Google gekommen, da stellt Google mit Caffeine die neue Suchplattform vor. Ziel ist es, noch mehr Websites zu erfassen, bessere Ergebnisse zu liefern und vor allem im Bereich der Real-Time-Search zu punkten. Mehr dazu in der Google-Webmasterzentrale. Seitens Sistrix gibt es auch schon erste Untersuchungen zu Caffeine, die doch recht positiv ausfallen. Vor allem wenn Google Caffeine wirklich schneller werden sollte. IMHO ist die Geschwindigkeit von Google schon immer einer der wichtigsten Punkte um Google zu nutzen. Die Auslieferungsgeschwindigkeit ist sicher einer der unterschätztesten Kriterien die hinsichtlich der Usability gibt. Martins Artikel über die Unart Zählpixel an den Beginn der Seite zu setzen spricht mir hier aus dem Herzen.

Für Suchmaschinen, die von Nutzern in einer Problemsituation genutzt werden, ist die Geschwindigkeit aber essentiell. Die Nutzer sind nämlich meist schon mit ihrem Problem beschäftigt, und wenn man als Nutzer weiß, dass die Suchmaschine sehr schnell ist, kann man eine Trial and Error Strategie fahren. Und diese ist wesentlich einfacher als wenn man sich vorher lange überlegt, was man jetzt eintippt, da man nicht drei Sekunden auf ein wenig hilfreiches Ergebnis warten will.

Hier liegt meiner Meinung auch das größte Problem von Yahoo! Search. Die Kollegen haben durch Einsatz aller möglichen interaktiven Hilfen die Ladezeit der Seiten zu stark verlangsamt. Es ist eben ein riesen unterschied, ob man 2-3 Sekunden oder 0,5 – 1 Sekunde benötigt.

Keywordrecherche

Die Keywordrecherche gehört sicher zu den Basics in der SEO-Arbeit. Allerdings gibt es hier unterschiedliche Situationen und Arten von Keywordrecherche.

Die klassische Keywordrecherche wird idR vor dem Launch eines neuen Projekts durchgeführt um eine optimale Navigationsstruktur sicherzustellen und/oder bei größeren Projekten Suchmuster zu erkennen und diese in der Informationsarchitektur zu berücksichtigen (als Beispiel haben wir vor dem Start von wetter.info gesehen, das es zwischen Bundesländer und Städten auch sehr stark angefragte Regionen gibt. Diese Erkenntnis ist dann direkt in das Navigationskonzept eingeflossen).

Welche Tools man für eine Keywordrecherche einsetzen kann und sollte, hat Markus in seinem Artikel 13 Tools zur Keywordrecherche sehr gut beschrieben. Und es wird auch ersichtlich, was sich in den letzten Jahren geändert hat. Die meisten Tools werden mittlerweile von Google selbst angeboten. Ok, wir nutzen natürlich noch unsere interne Keyword-Datenbank, da wir noch mehr Informationen wie das Klickverhalten etc. mit in die Analyse mit einfließen lassen können. Wenn ich diese Quelle aber nicht hätte, würde ich wohl ausschließlich mit den Daten von Google arbeiten, da keine andere Quelle hier eine qualitative Verbesserung herbeiführen kann, die den Mehraufwand rechtfertigt.

Und bei Astrid ist auch gleich noch ergänzend nachzulesen, wie man das Long-Tail Potential eines Keywords ermittelt. Praktisch, einfach und gut! Außerdem kritisiert Sie hier auch gleich noch den KEI – eine Kennzahl die IMHO schon längst in die Geschichtsbücher des SEOs gehört. Eine nichtssagender Kennzahl ist mir selten über den Weg gelaufen.

Wenn man aber keinen Neu- oder Relaunch eines Projekts plant, ist eine Keywordrecherche meist erst mal eine Recherche um Opportunitäten zu erkennen. Also Keywords, die schon halbwegs gut ranken und durch deren Verbesserung im Ranking man Ad-Hoc oder zumindest in überschaubarer Zeit eine signifikante Trafficsteigerung erreichen kann. Wenn man jetzt noch vorab prüft, ob die Nutzer die jetzt schon über dieses Keyword auf die Website kommen auch konvertieren, kann man noch effektiver Low-Hanging-Fruits identifizieren.

Für diese opportunitätsbezogene Keywordanalyse kann man auf seine eigenen Serverlogs zurückgreifen. Allerdings bieten hier auch einige der kostenpflichtigen SEO-Suiten Lösungen. Hierzu hat Marco einen Artikel mit dem Titel  Auswertung SEO-Tools und Keywordrecherche geschrieben. Hierbei stellt er fest, dass drei untersuchten SEO-Suiten sich für eine klassische Keywordanalyse nicht eignen. Seine Kritik kann ich hier allerdings nicht teilen, da IMHO kein ökonomischer Sinn darin besteht, etwas als kostenpflichtiges Produkt anzubieten, was Google offensichtlich schon kostenlos und in guter Qualität anbietet.

Allerdings können die Tools sehr gut für die Ad-Hoc Recherche nach Low-Hanging-Fruits genutzt werden. Zumindest die Sistrix-Toolbox sind hier sehr hilfreich, da sie einem eine Liste von Keywords mit schon guten Rankings ausgeben können und zu jedem Keyword wird in einer Ordinalskala die Konkurrenzsituation sowie die Suchfrequenz des Keywords angegeben. Für eine Ad-Hoc Analyse absolut ausrechend und sehr hilfreich.

Fazit: Google ist die erste und fast auch einzige Wahl, wenn es um eine Keywordanalyse für ein neues Projekt bzw, den Relaunch eines bestehenden Projekts geht. Und wie der Launch der deutschen und erweiterten Insight for Search Applikation zeigt, wird Google auch immer besser. Und JoJo hat hierzu auch noch das passende Video

Für die tägliche Optimierungsarbeit an einem bestehendem Projekt aber sind andere Tools hilfreich, allem voran die eigenen Serverlogs.

Der Sichtbarkeitsindex als KPI

Mit dem Sichtbarkeitsindex hat Sistrix eine KPI definiert, die einen schnellen Überblick über die allgemeine Sichtbarkeit einer Domain gibt. Der Vorteil dieser KPI ist, dass man nicht vorher Keywords definieren muss sondern dass man den Wert sofort verwenden kann. Und er ist absolut Managementtauglich, da er schnell verstanden und einfach kommuniziert werden kann.

Im Blog von Hitmeister kann man jetzt auch nachlesen, dass es eine signifikante Kopplung vom Sichtbarkeitsindex zum Traffic aus Suchmaschinen gibt. Nun ist Hitmeister ein recht breites Angebot. Bei thematisch fokussierten Websites habe hier auch schon eine Entkopplung der Entwicklung von Suchmaschinentraffic und Sichtbarkeitsindex gesehen. Dies passiert vor allem dann, wenn man aus versehen zu einem sehr populären Keyword rankt, das aber in keinem Zusammenhang zum Angebot steht. Wenn man dann dieses Ranking verliert, verliert man natürlich Sichtbarkeit aber kaum Besucher aus Google, da man als irrelevanter Treffer auch kaum Klicks generiert hat.

Dennoch kann ich aber von unseren Beobachtungen her bestätigen, dass idR ein steigender Sichtbarkeitsindex auch mit steigenden Zugriffen über Google einhergeht.

Strukturiertes Markup – Die Zukunft für SEO?

HTML ist ja bekanntlich eine Auszeichnungssprache. Leider aber eine recht schwach strukturierte, zumindest dann, wenn man die Daten semantisch interpretieren will.

Die Ideen des zentral definierten semantischen Netzes können mangels einer verbindlichen und anerkannten Ontologie sicher als gescheitert betrachtet werden. Und wie immer, wenn eine Aufgabe nicht einfach umfassend zu lösen ist, entwickeln sich eben Teillösungen die unter Umständen in der Zukunft zu einer Lösung der ursprünglichen Problems führen.

In unserem Fall sind es Microformats und RDFa die hier für bestimmte klar definierte Use-Cases Lösungen anbieten und mehr und mehr auch von Suchmaschinen interpretiert werden,. Und wer, wenn nicht die Suchmaschinen, haben die ökonomische Macht solche Standards flächendeckend einzuführen. Wenn Google & Co. diese Daten interpretieren und für Rich-Snippets nutzen, werden wir SEOs diese in die Konzerne tragen. Bleibt nur noch die Frage, wer jetzt eigentlich Webstandards durchsetzen kann ;-)

Auf SEOgadget hat man sich zumindest mit der Frage nach strukturiertem Markup und SEO intensiver beschäftigt. Und auf SEObytheSea fragt man gleich mal nach der Möglichkeit die eigenen Sitelinks mithilfe von Metatags zu definieren. Sicherlich eine große Arbeitsentlastung, entfällt doch das ständige Sperren von Sitelinks in den GWT bis man endlich die Sitelinks angezeigt bekommt, die man haben will. Und dann muss man auch noch ständig prüfe, dass Google nicht wieder irgendeinen quatsch ausgräbt und das Spiel wieder von vorne beginnt.

Einziges Problem dabei ist, dass Google eigentlich den Publishern erst mal nicht vertraut. Wenn jetzt also Microformats etc. interpretiert werden, muss Google vorher definieren, ob es der Quelle vertraut. Wenn aber das Problem des Vertrauens geklärt ist, kann man sich auch als Suchmaschine auf die Interpretation von Metadaten einlassen. IMHO der einzige Weg um mittelfristig mehr Informationen aus den gecrawlten Daten zu holen.

Google News

Google News aktualisiert jetzt wohl auch bereits indexierte Artikel. Das zumindest geht aus der kleinen Diskussion im Google News Help Forum hervor. Danke an dieser Stelle auch an David, der die Diskussion am leben gehalten hat.

Und Google News ist immerhin auch einer der Suchräume, die zum Ranking der Ergebnisse massiv auf die Bewertung der Quellen und nicht auf die Inhalte der Artikel setzt. Sicherlich bekannt, aber auch hierzu gibt es bei SEObytheSea mehr.

SEO-Dogmen oder der Kontext mach den Unterschied

SEO-Dogmen sind meiner Meinung nach ein großes Problem, vor allem für Neulinge. Viel Content hilft viel, mehr Links sind immer gut und wenn der Linktext stimmt, stimmt auch das Ranking. Ach ja und mit einem Long-Tail hat man einfach mehr Spaß ;-)

Aber im Ernst, was wann wie wichtig ist hängt immer vom Kontext ab. Ist die Website alt oder neu, ist es ein großes Angebot oder ein kleines, mit oder ohne Community, News oder Produktgetrieben? Und innerhalb der Website dann, handelt es sich um die Startseite, eine Rubrik oder Kategorie, eine Tag-Seite oder einen Artikel / eine Produktdetailseiten?

Im SEJ gibt es hierzu einen sehr schönen Artikel bezüglich des Menge an benötigtem Content, der sehr schön aufzeigt, dass es eben auf das Thema und vor allem das Ziel ankommt. Content nur um des Contents willen nutzt halt sehr wenig.

Und der Artikel Content May Be The SEO King But Check The Palace Architecture zeigt sehr schön, dass die Informationsarchitektur ab einer gewissen Größe einer Website essentiell ist.

Und deshalb sei an dieser Stelle auch darauf hingewiesen, dass die Search Engine Ranking Factors zwar eine sehr gute Aufstellung und Gewichtung der Rankingkriterien darstellen. Dennoch sollte man auf dieser Basis nicht entscheiden, welche SEO-Task man in welcher Reihenfolge angeht, da diese Rankingfaktoren eben allgemein sind und mit nicht sagen, wo die Stärken und Schwächen meines eigenen Angebots liegen. Gerade viele Corporate Sites größerer Firmen verfügen über mehr Backlinks als sie wissen. Hier kann die Optimierung der Informationsarchitektur meist wesentlich mehr bringen als das Linkbuilding auf eine schon stark verlinkte Startseite. Aber auch dies ist natürlich kein Dogma und kann im Einzelfall auch anders sein.

Dogmen nehmen einem das Denken ab, und wie immer im Leben so führt auch beim SEO der gebrauch des eigenen Hirns zu wesentlich besseren Ergebnissen.

Sonstiges

Was SEO Firmen als gute Leistung verkaufen – Nun ja, da sage ich doch einfach: Inhouse-SEO rockt! Aber im Ernst, es gibt  sehr gute SEO-Dienstleister, man muss aber schon die richtigen finden.

Der SEO-Song der Kappaz – und vielen Dank für die Erwähnung. Fühle mich geehrt und erlaube es mir leicht rot zu werden ;-)

Du bist kein SMO-Guru – Mist und ich wollte mich doch so schön feiern lassen…

Site Review Session mit Matt Cutts – Nichts neues aber dennoch gut vorgetragen.

Branded Search – Ich erzähle es in meinen Workshop simmer wieder. Man sollte immer zuerst prüfen, ob man zu seinem eigenem Brand rankt. Jetzt habe ich endlich mal ein negatives Beispiel und auch gleich die Erweiterung: Bitte prüft Eure Brand-Rankings auch in allen relevanten Länderversionen von Google.

Backlinks mithilfe von Adwords finden – Marcus mal wieder mit einer einfachen aber effizienten Idee zum Linkbuilding.

SEO Competitive Intelligence – Auch wenn man selten Zeit hat ständig alle Konkurrenten im Auge zu behalten sollte man sich doch regelmäßig intensiver mit ihnen auseinandersetzen. Hilft auch gegen Betriebsblindheit…

Creating an SEO Content Inventory – Guter Tipp und machen wir auch bei jeder Analyse unserer Seiten. Zumindest für alle Kategorien und Subkategorien die wir haben.

Let’s Get Down and Technical with SEO – So einfach und dennoch unglaublich wie viel Zeit man damit verbringt diese Themen auf die Reihe zu bringen. Vor allem die HTTP-Statuscode sind ein ewiges Ärgernis…

Was kommt…

Im September startet der Linkbaid des Jahres – bin ja mal gespannt was da auf uns zukommt

Im März 2010 geht es dann zurück nach Frankfurt Oder ähhh nach Berlin an den Müggelsee zur SEO-Campixx 2k10. Wer die Campixx 2009 verpasst hat, hat jetzt also die Chance zum interaktivsten SEO-Event den ich bisher erlebt habe zu kommen!

VN:F [1.9.22_1171]
Artikel bewerten:
Rating: 0.0/5 (0 votes cast)

348 Responses to Suchmaschinen & SEO – August 2009

  1. Hallo Jens !

    Danke für die Erwähnung. Zu deiner Kritik ein paar kurze Sätze. Du hast sicherlich Recht, wenn du sagt, dass Google eine Menge Tools zur Keyword-Recherche selbst liefert. Doch es geht mir dabei auch nicht so sehr um die Keywordfindung selber, sondern zu 80 % darum, wie man diese gefundenen Keywords und verwandten Begriffe sinnvoll ordnen und daraus ein Entscheidungsmuster für eine sinnvolle Informationsarchitektur entwickeln kann. Ich glaube, dass auch Google dies nicht passend anbietet. Darum ist die Annahme auch vielleicht falsch, dass es wirtschaftlich keinen Nutzen bringen kann ein solches Tool anzubieten.

    Sicherlich würde es nicht das Schlachtschiff sein, aber darum geht es in einer abgerundeten Toolsammlung auch nicht. Kann ja nicht der Ansatz sein, dass Google alles perfekt macht und darum alle sitzen bleiben und Däumchen drehen ;-)

    grützi

  2. Da hast Du sicher recht. Aber dafür gibt es ein sehr gutes Tool: Excel. Hilf ungemein beim Ordnen. Und dann noch Mindmanager um eine gute IA im Team zu entwickeln. Und natürlich der eigene Kopf ;-)

  3. Sind die Kommentare irgendwie kaputt?! :-)

    Würde es dir was ausmachen die Links im Text farblich abzuheben? Finde es enormst schwierig hier auf meinem Bildschirm (Eizo) etwas zu erkennen (Links im Text).

    Ansonsten wie immer ein super Bericht!

    Gruß Markus

  4. Hi Markus,

    nein, war das Plugin Tweetback. Macht aber irgendwie keinen Sinn und ist jetzt auch wieder rausgeflogen… #fail

    Bei meinen Monitoren kann ich die Links recht gut erkennen. Bin mehr für dezente farben ;-)

    Freut mich aber, dass Dir der Post gefallen hat. Danke für die Blumen.

    lg, Jens

  5. Guten Morgen Jens,

    Hast du ein Cache-Plugin im Einsatz? Denn ich sehe immer noch eine Wust an Tweets.

    Wenn die Links fett sind, erkennt man sie gut. Normal ist es eher schlecht – aber kann ja auch nur bei meinem Bildschirm so sein.

    Gruß Markus

  6. Hi Markus,

    nein, aber das Plugin hat die Tweets in die Kommentare geschrieben. Müsste jetzt die Kommentare alle löschen, bei Zeit, Lust und Gelegeheit werde ich das dann mal machen…

    lg, Jens

  7. Tweetback hab ich vor einer Weile auch schon rausgeworfen als es bei SEO Scene denselben Effekt produziert hat. Weiß schon nicht mehr, wo ich drüber gebloggt (oder doch getwittert – Twitter ist der Tod des Bloggers) habe.

Leave a reply