Kategorie: SEO Tests

  • 1.000 Besucher am Tag nach 60 Tagen

    Am 26. Januar habe ich meinen persönlichen Blog mein persönliches Blog (sagt man doch so oder?) gestartet. Zum einem wusste ich nicht so genau was ich mit der Domain anfangen sollte, zum anderen fiel mir auf das oft nach meinem Namen gesucht wird, also musste ein Mario Göttsche Blog her.

    Ich habe den Blog dann natürlich gleich mal wieder zu einem kleinem Experiment missbraucht 🙂

    Ziel war es nach 60 Tagen ohne große Anstrengung 1000 unique Besucher am Tag zu bekommen. Die Domain hab ich mir brandneu reserviert, Verlinkung erfolgte lediglich über Kommentare in diversen Blogs, sowie freiwillige Links von anderen Seiten und Blogs. Der Zeitaufwand bis heute war für den Blog max. 10 Stunden insgesamt inkl. Installation.

    Nach Installation und den ersten Beiträgen betrug die Besucherzahl nach den ersten Tagen so um die 40-60 am Tag, viele Leser haben den Blog in deren Feedreader gelegt.

    Der Office 2007 Beitrag brachte dann die ersten wirklichen Besucher über Google, der erste richtige Peak kam dann über den Beitrag zur Impressumspflicht in Emails welcher bei Google recht prominent gelistet wurde Einen weiteren großen Peak und vor allem eine Menge neuer Feedabonennten, brachte dann der Yigg Beitrag, welcher auch einige Stammleser mit sich brachte. Die tausender Marke zu sprengen hat mir dann letztendlich die K&M Möbel AG sowie die MB Software AG ermöglicht, bzw. die Aktienspammer.

    Schon interessant wie einfach es doch eigentlich ist ohne große (SEO) Mühen sich innerhalb kürzester Zeit 1.000 User am Tag auf die Seite zu holen und auch ein gutes Ranking bei Google zu bekommen.

    Fassen wir zusammen was man braucht:

    • WordPress Blog
    • Permalinks on
    • in vielen Blogs (sinnvoll) kommentieren
    • Hypes erkennen und drüber berichten

    That’s SEO ? … naja zumindest wenn man sich im Bereich unkommerzieller Themen bewegt und die Besucher über die Hypes werden sicher auch keine Stammbesucher werden.

  • Strategien zur Verlinkung

    Hier mal ein paar Erkenntnisse zur Verlinkung von neuen Unterseiten, also Unterseiten die brandneu sind und noch noch nicht im Google Index befinden. Alles völlig wertfrei und nur mal so dahingeschrieben, Platzierungen wahrlos und nur zur Veranschaulichung. Versuchseite 2 Jahre alt PR6, ziemlich stark.

    1. Neue Unterseite erstellt intern und extern (extern PR 6) verlinkt.
    Nach einem Tag im Index Platz 10, zweiter Tag Platz 7, dritter, vierter und fünfter Tag nicht mehr im Index, sechster Tag Rückkehr in den Index mit Platz 15. Nach 10 Tagen Platz 11 und stagnierend.

    2. Neue Unterseite erstellt und nur intern von allen Seiten verlinkt.
    Nach einem Tag im Index Platz 20, zweiter Tag Platz 20. Nach 10 Tagen dann auf Platz 18 eingependelt.

    3. Neue Unterseite erstellt und nur extern (extern PR 6) verlinkt.
    exakt gleiches Verhalten wie bei 1.

    4. Neue Unterseite erstellt und nur intern von der Startseite verlinkt.
    gleiches Verhalten wie bei 2.

    5. Neue Unterseite und von nirgends verlinkt, nur Adsense Block platziert
    Nach 5 Tagen im Index Platz 30, danach wieder einige Tage raus aus dem Index, dann kurz Platz 25, dann wieder raus und weg.

    6. Neue Unterseite und von fünf exteren Seiten verlinkt, Intern nicht
    Verhalten wie bei 1.

    usw.

    Sprich Google wird mißtrauisch wenn neue Unterseiten direkt von externen Seiten verlinkt werden, bestraft dieses aber nicht, auch nicht bei Spamseiten, die Seiten setzen einfach nur mal für ein paar Tage aus, ranken danach aber besser.

  • Mehrfach linken

    Eine Frage die sich immer wieder stellt ist, ob es etwas bringt wenn man mehrfach von einer Domain auf die gleiche externe Domain linkt. Im aktuellen Versuch hab ich mal einen Blog als Linkspender genommen.

    Nehmen wir mal folgendes Beispiel:
    Ein Blog verlinkt aus seiner Blogroll heraus permanent einen anderen Blog zum Thema Hamster mit dem Linktext „Hamster“. Jetzt stellt sich die Frage ob es Sinn macht, bzw. ob es etwas bringt wenn dieser Blog hin und wieder mal Unterseiten derselben Hamster Seite aus einzelnen Beiträgen heraus verlinkt, also z.B.: aus einem Beitrag heraus auf eine Unterseite zum Thema Hamsterkäfige.

    Testen lässt sich das ganze ja zum Beispiel relativ gut mit irgendwelchen Phantasie oder Vertipper Keywords.

    Ergebnis:
    Kurz gesagt: Ja es bringt was. Jeder erneute Link zu einer anderen Seite, trotz permanenten Link in der Sidebar, zählt als Link und erzielt auch seine Wirkung. Was ich mir nicht genauer angeschaut habe, ist wie stark die Wirkung ist, gefühlsmäßig würde ich aber sagen je mehr je schwächer die Wirkung.

    Vom Grundsatz her auch logisch, von den Möglichkeiten des Mißbrauchs mal abgesehen (das regelt Google anders), denn wenn der Mäuseblog andauernd über den Hamsterblog berichtet und dessen Beiträge verlinkt, dann wird der Hamsterblog schon gute Sachen schreiben und sollte auch für Google wichtig sein … theoretisch

  • PR Vererbung

    „Man“ sagt … zuviele ausgehende Links auf externe schwächen Seiten den PR, also den PageRank der weitergegeben wird. Volks(SEO)mund sagt, bitte nicht mehr als 10 ausgehende Links.

    Dazu drei Versuche:

    Es wurden 3 sonst von nirgends verlinkte Testdomains verlinkt (seit Septmeber 2006)

    PR 5 Domain: 400 ausgehende Links – Testdomain PR4
    PR 5 Domain 600 ausgehende Link – Testdomain PR4
    PR 5 Domian 5 ausgehende Links – Testdomain PR4

    Ja ich weiß PR … wollt ja nur mal was sagen 😉

  • Google wertet „Translate Links“

    Verlinkt man eine Seite über einen Google Translate Link, also z.B:

    http://translate.google.com/translate?u=http%3A%2F%2Fwww.seo-radio.de

    so scheint Google diesen Link zu werten und die Zielseite darüber zu indexieren. Scheint aber nicht immer zu klappen, einfach mal ausprobieren, neue Seite (Unterseite) basteln, und nur mit: http://translate.google.com/translate?u=http%3A%2F%2Fwww.neue-seite.de anlinken.

    Sind, wenn sie denn funktionieren, garnicht mal so schwach die Links …

  • Der Verlauf einer neuen Domain

    Ganz interessant, hier mal der Verlauf einer neuen Domain bei Google, MSN und Yahoo. Es handelt sich um ein „mittelhartes Keyword“ gemessen über 7 Monate.

    Google:
    Zu Anfang gibt es einen „Newbie Bonus der dann aber so langsam schwindet, zwischendrin noch mal ein kleines hüsteln von Google und dann festigt sich die Domain langsam und geht ihren Weg.

    Google

    MSN:
    Keine großen Zuckungen während der Laufzeit, alles in allem ein Kinderspiel.
    (mehr …)

  • Mario Linktextfilter usw.

    Es wird ja immer wieder vermutet, behauptet, gemunkelt, dass die Nutzung des immer wieder gleichem Linktext bei Links auf die Seite, man mit diesem Text irgendwann einen Filter rauscht und da auch bleibt. Eine weitere Annahme ist, dass dieses besonders bei kommerziellen und teuren Keywords so sein soll. Ich selber mach mir da immer wenig Gedanken drüber, ich denke wenn eine Seite den Inhalt bietet mit dem ich sie verlinke passt das schon. Auch wird gerne behauptet, dass der Linktext an sich lange nicht mehr die Relevanz wie früher hat, oder Links aus Kommentaren in Blogs kaum noch zählen.

    Hier mal in Beispiel:
    Wenn ich in anderen Blogs kommentiere, nutze ich fast immer meinen Namen Mario, und auch andere Blogs verlinken oft auch mich mit dem Linktext Mario, hier nun das Ergebniss zur Google Suche nach Mario, derzeit Platz 10 von 178 Mio (eigentlich Platz 5 wenn nicht diese Ergebnisse anzeigen für: Sache dazwischen wäre). Interessant ist dabei auch das Google Teile des Quelltextes in den Snippets anzeigt. Ansonsten werde ich oft mit Seo Radio oder Suchmaschinen News verlinkt. Auch hier kein Anzeichen im Filter zu verstauben, sicher auch nicht gerade die schwierigsten Keys, aber veranschaulichen das ganze schon ein bisschen.

    Ganz interessant ist allerdings das Google seit Samstag nicht mehr unter Töllstein gefunden wird, siehe das Töllstein Experiment, ich vermute das liegt daran das ich mehrfach auch direkt auf die Töllstein Suche bei Google verlinkt habe, diese deshalb relevanter ist als die Google Startseite, aber nicht in den Serps aufgeführt werden.

  • Linktext mit Beigabe

    Google hat scheinbar mal wieder was bzgl. der Wertung eingehender Links ver-/geändert, so war es bis vor kurzem noch fast egal ob man einen Textlink als einfachen Link oder mit zusätzlicher Beschreibung auf seine Seiten gesetzt hat. Jetzt wird das ganze scheinbar doch langsam wichtig(er). Viele Webmaster bestehen ja schon lange darauf Links am besten aus dem Text und natürlich Themenrelevant zu bekommen, was bis dato keine Rolle spielte scheint nun wichtig(er) zu werden.

    Google erkennt hier zwar keine Themenrelevanz, allerdings bringt es nun doch schon eine teilweise deutlich positive Wirkung mit sich, wenn der Linktext als „normales Wort oder Phrase“ im Text noch öfter auf der Seite gefunden wird. Die beste Wirkung erzielt man mit einem Link von einer Seite, bei dem der Linktext im normalen Text als Einzahl und Mehrzahl gefunden wird. Also wenn man mit „Billigflug“ verlinkt wird, ist es von Vorteil wenn auf der Seite ein paar mal „Billigflug“ sowie „Billigflüge“ zu finden ist, Worte wie Reise und Reisen bringen hingegen keine merkliche Veränderung. Ausprobieren kann man das ganze sehr gut mit kleinen Testseiten bei schwachen Keys.

  • Adsense Bot deckt Cloaking Seiten auf

    Na das ja mal pfiffig, vor einigen Wochen kündigte Google ja den sog. Crawl Caching Proxy an, mitunter um Webseiten schneller und häufiger indexieren zu können und um die ja bekanntlich überlasteten Server zu schonen. Kurz darauf wurde auch bekannt das der Adsense Bot auf einmal Webseiten in den Index bringt, angeblich um die anderen Bots zu entlasten.

    Interessanter Nebeneffekt ist allerding, dass es für Google jetzt ein leichtes ist Webseiten miteinander zu vergleichen, da die Seiten ja meist nur für den normalen Googlebot cloaked werden und es in den meisten Fällen kaum sinvoll ist die Seiten auch für den Adsense Bot zu cloaken. Erste Versuche zeigen deutlich das Seiten die Adsense enthalten bzw. den Adsense Bot zu Besuch hatten und nur für den normalen Googlebot frisiert wurden relativ schnell das zeitliche segnen, andere beleiben nach wie vor noch unerkannt.

  • Experiment – Ausgehende Links gut fürs Ranking

    Mal wieder was neues aus dem Labor, es wird ja immer wieder darüber diskutiert ob und vor allem wie sich ausgehende Links auf das Ranking auswirken, der Großteil ist wohl eher der Meinung ausgehende Links schaden mehr als das sie nutzen, immer öfter wird mit Links gegeizt oder diese mit nofollow versehen.

    Baut man zwei gleiche Seiten zu einem Keyword welche sich lediglich darin unterscheiden das eine von beiden einen ausgehenden Link mit dem entsprechenden Keyword hat, wird immer die Seite mit dem ausgehendem Link besser gerankt.

    Nächster Versuch: Ich habe ich eine Seite zu einem schwachen Keyword gebastelt, diese mit 10 mal dem gleichen Keyword versehen, diese aber zu Anfang nicht verlinkt. Einstiegsposition bei Google Platz 17, dann wurden nach und nach, in einer Zeitspanne von ca. 6 Wochen, die 10 Keywords in ausgehende Links (jeweils auf dmoz.org) umgewandelt.

    Ergebniss:
    1. Link – Platz 14
    2. Link – Platz 12
    3. Link – Platz 12
    4. Link – Platz 7
    5. Link – Platz 6
    weitere Links brachten keine Veränderung.

    Auch interessant ist, selbiger Versuch mit nofollow Links brachten keine bzw. kaum Veränderung.

    Ein gutes Beispiel ist auch das Töllstein Experiment. Auch hier wird innerhalb einer Seite die Seite mit dem ausgehenden Link am besten gerankt.

    Im allgemeinen dürfte das ganze keine großen Auswirkungen auf das Ranking haben, aber zumindest ein kleiner Effekt lässt sich belegen.