Kategorie: SEO Tests

  • Experiment: Massive Verlinkung auf alte Seiten

    Ausgangslage:
    Eine alte Seite aus 2001 die schon über reichlich eingehende Links verfügte, aber lange keine oder nur wenig neue Links dazubekam wurde Mitte April massiv mit neuen Links versorgt. Einige PR7, Footerlinks, 6er, 5er usw. (insgesamt um die 60Links in ein bis zwei Wochen) und eigentlich so wie man es nicht machen sollte, immer mit dem gleichen Linktext. Linktext/Keyword ist ein schon sehr hartes Keyword (20 Mio Ergebnisse) und hoch kommerziell, also ein absoluter Kandidat eine längere Zeit in der Sandbox.

    Ergebnis:
    Ich denke hier sagen Bilder mehr als Worte.

    Diagramm

    Gleicher Versuch läuft gerade mit einer neueren Seite, da sieht das ganze deutlich anders aus, dazu aber in den nächsten Wochen mehr.

  • Experiment – Wertet Google keine Links mehr aus Blogkommentaren?

    Eigentlich wollte ich eine neue Kategorie „SEO Märchen“ eröffnen, aber ich belasse es mal bei der klassischen „SEO Tests“. Was man in letzter zeit in Foren liest ist teilweise echt haaresträubend, Diskussionen bringen da meist wenig bis gar nichts. Deshalb werde ich jetzt mal wieder so weitermachen wie ich mal angefangen habe und einige Experimente und deren Ergebnisse hier in der Kategorie „SEO Tests“ veröffentlichen.

    Hier mal der erste Test. Immer öfter lese ich in Foren die Behauptung, das Google Links aus Kommentaren in Blogs – ob mit oder ohne nofollow – nicht mehr wertet, dass ist falsch.

    Hier schreibe ich einen Kommentar zu einem meiner Beiträge und benutze den Namen „Töllstein“ und verlinke mit dem Namen auf Google, hier das Ergebniss, also Google wird bei der Suche nach Töllstein gefunden, Link zählt … keine wirkliche Überraschung aber Märchen Nr. 1 kann ad akter gelegt werden. 🙂

    Weitere folgen, Vorschläge für Versuche gerne als Kommentar.

  • Die Wiederauferstehung abgeschmierter Blogs

    Vor kurzem erst hab ich über das schnelle Sterben von Blogs berichtet und vermutet, dass die Wiederauferstehung stark mit dem fleißigen weiterschreiben von Beiträgen zusammenhängt. Dem ist nach neusten Erkenntnissen nicht so, auch Blogs die nach dem Absturz keinen einzigen Beitrag mehr bekommen, tauchen auch wieder aus der Versenkung auf.

    Was das nun für einen Sinn macht kann ich mir nicht erklären, ich vermute das ganze ist nicht gezielt sondern nur ein Abfallprodukt aus dem Google Algo.

  • Das schnelle Sterben der Blogs

    Google hat im Moment die Eigenart neue Seiten und speziell Blogs mit einem extrem heftigen Newbiebonus zu versehen und die Beiträge sehr gut im Googleindex zu ranken. Selbst bei harten Keywords sieht man funkelnagelneue Blogs häufig vor Seiten wie Spiegel, Golem etc.

    Bei vielen Bloggern bricht auf Grund des massiven Traffics eine wahre Euphorie aus, „findige“ Blogger wittern hier das schnelle Geld und spicken Ihre Beiträge mit allem womit man Geld machen kann, bishin zu schicken Layern, dass nur mal nebenbei.

    Dann urplötzlich nach Wochen oder Monaten, kaum noch Traffic, Blog nicht mehr oder kaum noch zu finden bei Google, ab ins Nirvana. Es scheint so dass Google die Blogs erstmal eine zeitlang gut listet um die Qualität des Traffics – nach welchen Kriterien auch immer – zu analysieren und sie dann auf die hinteren Ränge schickt. Einige rutschen von Top Positionen bis auf Plätze hinter 500 ab, andere verlieren weit aus nicht soviel, dass scheint an der vorher analysierten Qualität des Traffics festgemacht zu werden und evtl. noch wie kommerziell ein Blog betrieben wird oder nicht.

    Nun kommt Phase 2, wenn der Blog abgeschmiert ist scheint Google zu checken ob der Blog sich weiterhin regelmäßig über neue Beiträge freuen darf oder ob Funkstille ist. Schreibt man weiterhin seine Beiträge darf man sich bald wieder über gute Positionierungen freuen, stellt man das schreiben gänzlich ein wird man ewig auf eine Neusortierung warten.

    Dieses relisting kann von einigen Wochen bishin zu mehreren Monaten dauern, ausschlaggebend ist hier meiner Meinung nach die Anzahl der Beiträge die man nach dem abschmieren postet, bzw. ob diese dem Verhalten bei noch guten Positionen gleichkommt oder ähnelt.

    Letzte Nacht ist sogar eine ältere Seite hinter die seit kurzem ein Blog geschaltet wurde abgerauscht, schaun wir mal.

    Update: hier das ganze mal Live zu beobachten: Video Voting, gerade ein paar Tage alt, traumhafte Positionen, z.B.: Windows Fehlermeldung von Null in die Top Ten eingetaucht, Traffic von Null auf knapp 1K am Tag. Mal sehen wie lange es dauert bis der stirbt.

  • nofollow Attribut ist böse – Experiment

    Folgender Versuch:

    3 unterschiedliche/unabhängige Site’s (Unterseiten) mit eigenem Content wurden jeweils mit 20 extern ausgehenden Links besückt und über 3 Monate beobachtet. Die ausgehenden Links wurden ein Monat mit dem Attribut rel=nofollow versehen, einen Monat ohne, und dann wieder einen Monat mit nofollow. Beobachtet wurde das Ranking bei Google, ansonsten wurde an den Seite nicht verändert und auch keine weiteren Links gestetzt.

    Die 3 Unterseiten befanden sich im ersten Monat, also mit nofollow durchschnittlich auf Platz 75, 107, 39
    Im zweiten Monat ohne nofollow, tat sich anfänglich an den Positionen eher wenig, Mitte des Monats gings dann deutlich nach oben, so ca. Platz 41, 47, 11
    Im dritten Monat also wieder mit nofollow, das gleiche Bild erstmal keine Veränderung, wieder gegen Mitte des Monats gings wieder ab nach hinten, Platz 71, 84, 42

    Tja ist nofollow nun auch böse zur eigenen Seite, dem Ergebnis nach eindeutig ja, kann aber auch an den ganzen Updates der besagten Rockröhre gelegen haben, wobei es aktuell in dem Test ohne nofollow wieder nach vorne geht. Werds einfach mal weiterführen und mal berichten.

  • Rankingfaktor Domainalter – Google Seniorbonus

    Da die Vorteile alter Domains und dem damit verbundenen deutlich besseren Ranking bei Google ja immer wieder diskutiert werden und in dieser hinsicht auch immer viel vermutet wird, an dieser Stelle mal ein paar Gedanken zum Umgang mit alten Domains.

    Nicht das Alter der Domain selbst ist der ausschlaggebende Faktor um den Google Seniorbonus, also das teilweise doch unnatürlich gute Ranking zu erhalten, sondern der wesentliche Faktor ist das Alter der Backlinks die auf diese Domain zeigen, wozu natürlich in den meisten Fällen eine alte Doman benötigt wird.

    Nimmt man z.B. eine Domain von 1998 auf die z.B. 5 fast genauso alte Links gesetzt sind, so wird man mit dieser Domain schon sehr gute Ergebnisse erzielen, fallen z.B. 4 von den alten Links weg und man ersetzt diese durch 4 neue meinetwegen auch stärkere Links, so wird diese Domain mit ziemlicher Sicherheit Ihren Seniorbonus verlieren. Der gleiche Fall tritt ein wenn man auf diese Domain in nur kurzer Zeit z.B. 10 neue Links setzt, auch dann wars das mit ziemlicher Sicherheit mit dem Seniorbonus, da das Verhältnis alte Links und neue Links nicht mehr stimmt, selbiges passiert natürlich wenn die alten Links einfach massiv wegbrechen.

    Also deshalb immer vor dem Kauf eines alten Projektes abklären was mit den alten Links passiert die auf diese Seite zeigen und auch fragen wie die Verlinkung zustande gekommen ist, denn ohne die alten Links ist eine alte Domain aus dieser Sichtweise nicht mehr Wert als eine neue. Getestet haben wir das mit einigen alten Domains aus den 90ern und das Ergebnis war eindeutig.

    Um das alter einer Domain rauszufinden verweise ich nochmal auf diesen Beitrag

  • Adwords positiv fürs Ranking?

    Häufig wird ja behauptet, dass wenn man Google Adwords Werbung schaltet, sich dieses negativ aufs eigentliche Ranking bei Google auswirkt. Grund zur Annahme ist, dass Google bei schlecht platzierten Seiten ja mehr Werbung verkaufen kann als bei gut platzierten Seiten, naja soweit so gut.

    Was mir aber in Bezug Adwords und Ranking aufgefallen ist, ist genau das Gegenteil. Öfter nutze ich mal Adwords um festzustellen welche Keywords am meisten gesucht werden oder halt um neue Seiten erstmal in Schwung zu bringen. Ich habe zwei neue Seiten per Adwords beworben und durch entsprechende Keywordwahl massiv Traffic über Adwords Anzeigen auf diese beiden neuen Seiten gebracht. Die Seiten waren beide neu, nach nur wenigen Tagen waren beide Seiten mit allen Unterseiten komplett im Index und waren sofort sehr gut gelistet, auch bei nicht „ganz einfachen“ Keys, also keine Sandbox oder ähnliche Erscheinungen. Naja anfänglich dachte ich an Newbiebonus, allerdings wären die dann mittlerweile Ihre guten Postionen längst wieder los.

    Es könnte also sein, dass sich Adwordswerbung entgegen aller Vermutungen nicht negativ, sondern positiv aufs Ranking auswirken kann. Interessant ist nämlich, dass die Seiten mit Keys sehr gut gelistet sind die bei Adwords die beste Klickrate erzielen und/oder den meisten Traffic bringen obwohl Sie da eigentlich keine guten Positionen genießen dürften.

    Könnte ja sogar durchaus Sinn machen das Google die Informationen die Sie über Adwords Werbung erhalten nutzt um damit die Serps zu beeinflussen also deren Qualität zu verbessern. Werde das ganze mal weiter beobachten und wenn die Serps sich mal beruhigt haben nochmal mit weiteren Seiten testen. Das wären dann ja schon fast bezahlte Suchergebnisse, vielleicht aber auch alles nur Zufall.

    Hat vielleicht jemand wenn er mal drüber nachdenkt, ähnliche Erfahrungen gemacht?

  • Google und die robots.txt – Experiment-

    Viele Webmaster – zu denen auch ich gehöre – beklagen immer wieder das Google sich nicht an die robots.txt hält. Dazu habe ich mal ein paar kleine Versuche gemacht.

    Will man das ein Verzeichnis namens „test“ nicht von Google gespidert wird, sollte man ja annehmen das eine robots.txt mit:

    User-Agent: *
    Disallow: /test

    ausreicht umd den Googlebot am spidern zu hindern, dieses funktioniert aber irgendwie nur in ca. 70% aller Fälle. Hingegen hält sich Google zu 100% an die robots.txt wenn man den Googlebot genau spezifiziert, also:

    User-Agent: Googlebot
    Disallow: /test

    Ich hab das ganze mehrfach hin und her probiert, mit alten Seiten und mit neuen Seiten, es scheint wirklich so, dass Google sich nicht immer an

    User-Agent: *

    hält, sondern nur dann zu 100% wenn er auch direkt angesprochen wird. Finde ich schon krass, denn Google selbst sagt was anderes und auch die robots.txt von Google beginnt mit: User-Agent: *

    Das sicherste ist also wenn man die Einträge in der robots.txt doppelt, also einmal mit * und einmal mit Googlebot

  • site: Abfrage bei Google – Nutzen oder Schaden?

    Man nehme eine große csv Datei mit mehreren tausend Produkten eines Onlinshops, wie sie tausende verwenden … „puste“ sie in eine Datenbank und wartet das Google sich an den neuen tausenden Seiten im Index erfreut. Tja die Zeiten liegen wohl lange zurück. Mit genügend Linkpower und einigen weiteren „Verfeinerungen“ ist es aller Duplicate Content Theorien zum trotze, bekanntlich ja immer noch möglich hier gute Positionen in den Serps zu erreichen.

    Interessant ist allerdings, dass Domains mit o.g. Inhalt bei denen man häufig (täglich bis mehrmals täglich) per site: Abfrage die Anzahl der Seiten im Google Index kontrolliert meist nicht lange (gut) leben. Domains die man hingegen nicht nach dieser Methode abfragt geht es meist sehr lange, wenn nicht sogar ewig sehr gut. So zumindest unsere Erfahrungen.

    Das ganze einfach mal so völlig wertfrei in den Raum gestellt, aber wer benutzt eigentlich die site: Abfrage, größtenteils doch eigentlich nur SEOs oder?

  • Experiment – Masseneintrag in Webkataloge schädlich

    Wir haben vier unterscheidlich alte Domains von uns händisch in 90 Webaktaloge eintragen lassen. Die Webakatloge in die die Domains eingetragen wurden verfügen alle über statische Links und haben unterschiedlichen PR. Die eingetragenen Domains waren 2, 6, 12 und 17 Monate alt und waren mit den entsprechenden Keywords alle über längere Zeit in den Top 20 zu finden. Nach dem Eintrag wurde an den Inhalten der Seiten selbst nichts mehr geändert. Der Linktext wurde in den Katalogen varriert, es wurden immer mind. 70 Einträge freigeschaltet.

    Ergebniss: Zu Anfang, als die ersten Einträge freigeschaltet wurden ging es bei allen Seiten leicht nach vorne, die Backlinks haben wir jeden Tag über Linkvendor geprüft. Je mehr Links dort auftauchten je stärker kamen die Seiten, bzw. deren Positionen in den SERPs ins wackeln. nach ca. 30 hinzugewonnenen Backlinks gings dann langsam deutlicher abwärts, nach 50 gab es schon Verschiebungen um bis zu 70 Positionen nach hinten, gerade bei den beiden jungen Seiten. Die beiden älteren haben das Experiment aber auch nicht durchstehen können, am Ende nach knapp 70 sichtbaren neuen Links, gaben auch die beiden auf und verabschiedeten sich auf die hinteren Plätze bei Google.

    Am stärksten betroffen waren aber die Keywords die am häufigsten, wenn auch in Kombination, als Linktext in den Katalogen benutzt wurden. Über die alten Statistiken stellte man aber schnell fest, dass es Positionsverluste auf ganzer Linie gab, mal mehr mal weniger aber alles in allem ist es den Domains nicht gut bekommen.

    Da sieht man mal wie schlecht Googles Algo doch in Wirklichkeit noch ist, und das Google Bowling durchaus ernstzunehmen ist. Unser Experiment lässt sich ja noch wesentlich krasser fort/ausführen.

    Naja egal … bald kommt ja der TrustRank und alles wird gut … 😉