Das Blog der takevalue Consulting GmbH

Suchmaschinen & SEO – Juni 2009

Was gab es denn im Juni so neues von Google und auch für und SEOs mit etwas größeren Websites?

Eine recht dominantes Thema, zumindest in der ersten Monatshälfte, war wohl die Bekanntgabe der schon länger gültigen Änderungen in der Auswertung des Link-Nofollows durch Google. Meine Meinung hierzu habe ich in meinem Posting “ Nofollow ist nicht gleich PageRank Sculpting” hinreichend dargelegt, ich überspringe deswegen dieses Thema jetzt.

Google und Javascript-Links

Hierzu gibt es einen Artikel bei blogstorm der darauf eingeht, dass Google seine Fähigkeiten Javascript-Links zu interpretieren weiter ausbaut. Hierbei wird Bezug genommen auf den Artikel Google I/O: New Advances In The Searchability of JavaScript and Flash, But Is It Enough? von Vanessa Fox.

Wichtig ist, dass man sich auch der Nebenwirkungen im klaren ist. Wer jetzt beispielsweise versucht, seine nutzlos gewordenen Link-Nofollows durch Javascript-Links zu ersetzen, sollte prüfen, ob Google diese wirklich nicht interpretieren kann. Und dieser Job wird wohl immer wieder anfallen. Ein weiterer Grund warum ich kein Freund von solchen Techniken bin.

Man sollte das Thema dringend beobachten und prüfen, ob nach solchen Änderungen nicht plötzlich sehr viele neue Seiten der eigenen Websites im Googleindex auftauchen. Google ist teilweise sehr schnell dabei plötzlich sehr viele “neue” Seiten zu finden nur weil jetzt auf einmal Sortierfunktionen von Kategorien als zu folgende Links interpretiert haben. Und schwubs bekommt man über die Webmasterzentrale eine kleine aber deutliche Warnung, dass man eine sehr große Anzahl neuer und sehr ähnlicher URLs gefunden hat. Google, mal im ernst. Natürlich hast Du diese gefunden. Wenn man aber anfängt wild Javascript zu interpretieren sollte man sich danach nicht vorwurfsvoll an den Webmaster wenden. Aber wir haben ja mittlerweile Routine hinter Deinen Innovationen wieder aufzuräumen ;-)

Ach ja, und wenn wir schon mal dabei sind. Die URL zu einem IVW-Pixel muss man wirklich nicht indexieren, da ist einfach nichts zu finden. Auch nicht, wenn man Google ist.

Google Webmasterzentrale

Hier gab es ein kleinen Facelift. Leider ist die Webmasterzentrale aber immer noch recht unübersichtlich, wenn man viele Seiten hat. Und das Umschalten zwischen den eigenen Seiten ist mit dem neuem Drop-Down echt nervig. Dafür gibt es jetzt mehr Daten. Insgesamt ein Schritt in die richtige Richtung. Allerdings wünsche ich mir doch gerade für große Websites Features wie Mandantenfähigkeit (man will ja nicht gleich jedem Zugriff auf alles geben), Zeitreihen und vergleiche (Top-Listen sehen ja schön aus, aber was hat sich denn verändert?) und auch die Fehlerreports wäre schöner, wenn man eine Entwicklung sehen könnte.

Weitere Anregungen finden sich auch im Artikel Love & Hate with Google Webmaster Tools.

Google Rankingfaktoren

Rand hat mal wieder SEO-Experten um Ihre Meinung hinsichtlich der Gewichtung von Rankingkriterien gebeten und jetzt die Ergebnisse veröffentlicht und mit seinen Daten verglichen. Ich habe das Ganze bei Julian und Astrid gefunden.

Die Auswertung ist wie immer interessant, man muss aber bei der Interpretation der Ergebnisse extrem aufpassen. Wie wichtig die einzelnen Kriterien für einen selbst sind, hängt extrem davon ab wie die Website aktuell dasteht.

Ich versuche hier immer den Vergleich mit der Formel 1 zu ziehen. Wenn man Linkpower und Motor gleichsetzen will, wird niemand bestreiten dass die Leistung des Motors extrem wichtig ist.

Ist diese aber erst mal gegeben, wird es auch sehr wichtig, diese Leistung auf den Boden zu bekommen. Sprich, mir nutzen alle Links nichts, wenn meine Informationsarchitektur im Eimer ist. Oder, ohne genug Abtrieb (auch Andruck) der durch die Flügel erzeugt wird, ist ein Formel 1 wagen recht lahm. Wenn ich mir jetzt aber ein mein Auto lustige Flügel baue bringt mir das nicht viel.

Und so ist es eben auch hier. Wenn man eine sehr gute Seite mit gutem Content, einer nutzerzentrierten Informationsarchitektur und guter Usability hat, wird man ohne externe Links nicht gefunden. Hat man aber eine alte Seite mit vielen tausend eingehenden Links aber gewachsener, sprich chaotischer, Struktur dann kann man die Linkpower nur bedingt in gute Rankings überführen. Und deswegen muss jeder selbst wissen, wo die eigenen Stärken und Schwächen liegen. Sprich, auch eine sehr gute Analyse von Rand kann einem leider nicht ersparen über die Ergebnisse nachzudenken und diese mit der eigenen Situation abzugleichen.

Effizienz von SEO

Und das oben beschriebene Problem wird auch schon länger betrachtet. Also die Frage, wie gut Websites mit ihren Inhalten haushalten. Wir nutzen hierfür schon länger den Page Efficiency Index, eine Methode die Hanns (von mir auch gerne Hannes genannt) unter dem Namen SEO-Effizienz vorgestellt hat.

Nun hat diese Methode noch einige Mängel und so hat Stefan das Trust-Efficiency-Diagramm als eine Weiterentwicklung der ursprünglichen Idee vorgestellt. Aber auch Hanns hat weiter an seiner SEO-Effizienz gearbeitet und das SE-Diagramm vorgestellt. Ich bin hinreichend beeindruckt von beiden. Und vor allem freut mich der Tiefgang und der Versuch ein komplexes Thema sozusagen live zu erschließen. Und es ist eine wohltat nicht immer nur die 5764 geheime Tricks zur schnellen und einfachen Linkakquise zu lesen.

Termfrequenz doch noch relevant für das Ranking?

Und wenn wir gerade von gehaltvollen Untersuchungen sprechen, darf Sistrix natürlich nicht fehlen. Mit Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit? hat Johannes mal wieder den unterschied zwischen glauben und messen deutlich gemacht.

Offensichtlich spielt die Termfrequenz (unter SEOs auch Keyworddichte genannt – ich bevorzuge aber die Terminologie aus meinem Studium) immer noch eine größere Rolle als man ihr landläufig zugesteht. Mir selbst ist es auch immer wichtiger, dass ein eine konsequente Verwendung der Keywords in den relevanten Feldern gibt (also URL, Titel, Description, Überschriften, Text, alt-Text (wenn es mit dem Bild korrespondiert!). Und für Nachrichtenseiten bleibe ich auch bei dieser Ansicht was den eigentlichen Text betrifft.

Wichtig ist, dass man sich Gedanken über die systematische Wiederholung von Keywords im Template macht (Überschrift des Artikels als letzter Punkt im Breadcrumb, Wiederholung der Breadcrumbs am Ende der Seite, etc.) da man in den Templates auch eine Menge Informationsrauschen systematisch eingebaut hat (Navigation, Tagclouds, Teaser zu anderen Artikeln, lustige Footer etc.).

Eine weitere Betrachtung zum Thema findet sich auch bei h1h2h3 sowie bei Science for SEO.

PageRank-Update

Es gab schon wieder eines, siehe Sistrix.

Google SERP und Keyword-URLs

Google bevorzug ja gerne eine KWIC-Darstellung (Keyword in Context) der Seitenbeschreibungen in den Suchergebnisseiten. Dadurch wirken die Ergebnisse schon mal optisch relevanter (so viele Fundstellen, sprich Fettung hier. Man ist Google heute wieder relevant).

Ob nur aber der Seitenanfang oder KWIC besser geeignet ist um die Relevanz eines Dokument hinsichtlich des eigenen Informationsbedürfnisses zu bewerten ist reichlich umstritten. Generell gilt, dass bei Faktenrecherchen KWIC als vorteilhaft gilt wohingegen weiche Recherchen zu einem Thema von einer Darstellung des Dokumentenanfangs bzw. der Description profitieren. Wer sich mit dem Problem beschäftigen will findet mit Information und Selektion. Gebrauchstauglichkeit der Ergebnisseiten von Suchmaschinen eine wirklich gute Diplomarbeit zu diesem Thema.

Nun zumindest scheint Google die KWIC-Darstellung auch für URLs zu verwenden, einen entsprechenden Hinweis habe ich bei SearchLabs gefunden.

Bing

Bing gab es ja auch noch, habe ich schon fast wieder vergessen. Ist in Deutschland ja auch nur ein live.com mit neuem CSS und Funktionen ohne Sinn. So liefert die Suche nach Wetter Darmstadt doch sehr kreative ´verwandte Suchvorgänge:wetter-darmstadt

Hubert. Burda, Internet, Google und die neue Welt

Das war dann doch mal wieder Comedy zum Wochenausklang. Man, man hat doch den Eindruck, dass sich Herr Burda eMails ausdrucken lässt. Kurzum, Burda denkt, dass er von Google enteignet wird. Weil die Googles der Welt verdienen ja mit seinen Inhalten Geld und vor allem versteht ja keiner wie Google da so den Traffic verteilt.

Schlimmer aber noch, Herr Burda glaubt den Mist von “4. Macht im Staat” doch wirklich und fordert, dass die Politik sicherstellen soll, dass es auch zukünftig Qualitätsjournalismus gibt.

Eine demokratisch nicht legitimierte Kraft kann es in einem demokratischem Staat schon mal nicht geben. Und wer seine Geschäftsmodelle nicht den Gegebenheiten anpassen kann, hat halt ein Problem. In diesem Sinn, einfach mal bei der obsoleten Musikbranche anfragen. Die kennen sich bestens damit aus, dass man nicht mehr gebraucht wird,

Und es wird sicher auch in der Zukunft guten Journalismus geben. Ich persönlich zahle dafür auch gerne Gelt. Hunderte von DPA-Abschreibern benötigt aber halt keiner mehr, dafür gibt es Datenaustauschformate.

Mehr dazu bei JoJo und Sistrix. Das Original linke ich mal nicht an, Nicht dass der Herr Burda noch lernt, was ein Linkbait ist.

Und, ja ich bin hier dann auch mal polemisch. Bei so einem Mist, geht es aber einfach nicht besser.

Sonstiges

Schweizer SEO-Betrüger entlarvt, oder was es so alles gibt. Einfach unglaublich.

Google Local und die Qualität. Manchmal sollte man lieber das Haus verlasse anstatt sich auf Google zu verlassen…

Reblossoming Content: Transforming Events Pages from Transitory to Evergreen, oder wie man aus Eventbeschreibungen nachhaltig relevanten Content macht.

und gleich noch Google’s New Review Search Option and Sentiment Analysis, auch wieder ein Artikel den man nicht so nebenher lesen kann.

Und für die Spreadsheetfreunde und der Linkbuildern:  Link Building Worksheets – Organize Your Campaign BTW – wenn man was in Sheets packen kann, kann man die Datenerhebung auch automatisieren ;-)


Interesse an SEO-Schulungen? Dann werfen Sie einen Blick auf mein Schulungsangebot: SEO Schulungen: Suchmaschinenoptimierung erfolgreich im Unternehmen etablieren SEO Workshop
VN:F [1.9.22_1171]
Artikel bewerten:
Rating: 0.0/5 (0 votes cast)

9 Responses to Suchmaschinen & SEO – Juni 2009

  1. SEMatze sagt:

    Servus Jungs, hallo nach Darmstadt!

    Da habt ihr mal wieder die besten Themen aus der SEO Szene für den Juni zusammengefasst. Klasse, dann hab ich ja heut Morgen auch noch was zu lesen beim ersten Kaffee.

    Schönes WE Männer!
    Matthias

  2. vollblutseo sagt:

    Beu euch bekommt man wirklich alle Nachrichten auf einen Blick. Etwas über die Ranking Verschiebungen seit dem 04.06. hätte mich noch interessiert.

    vg
    vollblutseo

  3. Loewenherz sagt:

    Jens, super Zusammenfassung! Danke.

  4. jens sagt:

    thx, freut mich wenn es gefällt.
    @vollblutseo: ich habe dazu nichts geschrieben, da ich dazu leider nichts sagen kann. Unsere negativen Änderungen habe ich teilweise erwartet und die unerwarteten hatten einen recht einfachen und dämliche Grund. Diesen habe ich behoben und diese Positionen auch wieder zurück. Unerklärliche Änderungen in größerem Umfang habe ich allerdings nicht.

  5. vollblutseo sagt:

    @jens
    merci für die antwort. der dämliche grund war wahrscheinlich douplicate content schätze ich.

  6. jens sagt:

    nein, war es zur Abwechslung mal nicht

  7. [...] Was gab es eigentlicht von Google neues im Juni ? Das beantwortet euch inhouse-seo in einem Artikel [...]

  8. [...] internet4you.ch, internetagentur-overberg.de, tegget.de, tobiaskoelligan.de, inhouse-seo.de, seo-experte.at, Diesen Artikel [...]

  9. [...] 2009Kategorie bing (msn live) Oder Bing und Wetter Darmstadt die Zweite. Hatte ich doch in meinem Monatsrückblick vom Juni auf die etwas sehr eigenen Suchvorschläge von Bing zur Suchanfrage “Wetter Darmstadt” [...]

Hinterlasse eine Antwort