Kategorie: SEO Tests

  • target=_blank nicht von Vorteil ?

    Bei meinem letzten Versuch ging es darum, festzustellen ob es für Google einen Unterschied macht ob man einen Link „ganz normal“ setzt, oder ob man ihn im neuen Fenster, also z.B. mit target=_blank öffnen lässt. Zu der Überlegung kam ich eigentlich weil Google die Links aus den Suchergebnissen nie in einem neuen Fenster öffnet sondern hier immer auf den Zurück Button baut, dessen einwandfreie Funktion ja auch bei den verlinkten Seiten bei Adwords Pflicht ist.

    Das Ergebnis ist recht eindeutig, ohne mal ins Detail zu gehen, scheint es so das Links ohne target=_blank deutlich besser gewertet werden. Zugrunde gelegt habe ich jeweils ca. 50 Verlinkungen mit und ohne target=_blank, hierbei habe ich auch Themengleiche oder sogar identische Seiten mit gleichem Linktext verlinkt. Bei MSN und Yahoo macht dieses übrigens absolut keinen Unterschied.

  • .net Domains besser als .de Domains ?

    Ich habe mir mal einige Domains mit der Endung .de sowie auch mit der Endung .net reserviert, beide hab ich mit identischen Inhalt gefüllt und auch von den identischen Seiten verlinkt. Alle .net Domains wurden von Anfang wesentlich besser gelistet bei Google, auch wanderte keine der .net Domains bis jetzt (nach 3 Monaten) in die Sandbox, wobei fast alle .de Domains nun den Weg in die Sandkiste gefunden haben.

    Was noch interessant an der Sache ist, Google hat keine der Domains als Duplicate Content erkannt, also nicht gekickt. Wenn überhaupt eine Domain bestraft wurde, dann die .de Domains. Daraufhin habe ich den Inhalt einer bereits einige Jahre existenten .de Domain mal auf eine neue .net Domain gelegt und diese kräftigt verlinkt. Das Resultat nach einigen Wochen war, dass die alte .de Domain mächtig an Boden verloren hat, also stetig in den Suchergebnissen fällt und die .net Domain der .de Domain entgegen krabbelt. Zwar hat die .net Domain noch lange nicht ursprünglichen Positionen der .de Domain, allerdings scheint es so das sie stärker gewertet wird und der .de Domain scheinbar „weh tut“.

  • Rechtschreibfehler Traffic

    Ich beschäftige mich nun schon seit eingen Jahren mit Entwicklung eines Content Generators, sprich einem Tool das aus einigen Stichworten einen einigermaßen umfangreichen lesbaren Text erzeugt, oder eben aus einem vorhandenen Textdokument einen völlig neuen, mit dem Ursprungstext nicht mehr vergleichbaren Text generiert. Durch einen Fehler im Programmcode meinerseits, generierte ich sehr viele Seiten Text in denen sehr viele Rechtschreibfehler steckten, da mir diese vom Programm generierten Fehler allerdings sehr „menschlich“ erschienen, habe ich mir mal den Spaß gemacht und 60 Seiten von dem fehlerhaften Text ins Netz hochgeladen.

    Das Ergebniss war mehr als verblüffend, nach nur kurzer Zeit zählte diese Rechtschreibfehlerseite an die 600 – 800 Besucher täglich und Adsense lieferte hierzu brav die passenden (richtigen) Ergebnisse 🙂

    Auch nicht schlecht, da entwickelt man durch einen blöden Fehler eine ganz brauchbaren Programmcode, naja vielleicht die neue Art von Content .. ein Nischenprodukt.

    Ihn disem Sinne, schauhen wier mahl was das so brinkt. 🙂

  • Verlinkungen

    Heute gabs ja mal wieder ein neues Index Update bei Google, mir kam dieses gerade Recht, da ich vor kurzem einige Test bzgl. Verlinkungen gemacht habe.

    Ganz klar stellte sich hier heraus das z.B. 50 Backlinks von unterschiedlichen Domains nicht annähernd soviel Wert sind wie nur ein einziger Link einer Authority Site. Ausgegangen bin ich hierbei von nahezu gleichen Alters der zu verlinkenden Domain sowie vom gleichen Thema (kommerziell) der Seite und von ungefähr gleichen Zeitpunkt des setzens der Links.

    Es ist ganz klar zu erkennen das viele bis sehr viele Links von „unwichtigen“ Seiten (Thema unwichtig) eher dazu führen das es in den Serps nach hinten geht, also Richtung“Sandbox“. Nur wenige Links von hochwertigen Seiten hingegen spülen einen massiv nach oben, Mischungen beider Verlinkungen, also sowohl von hochwertigen Seiten, sowie einige bis viele Links von minderwertigen Seiten bringen meist schlechtere Ergebnisse als reine Links von hochwertigen Seiten.

  • Onlineshops in Froogle und Google

    In den letzten Tagen sind mir 3 meiner Onlineshops, basierend auf xt-commerce massiv abgeschmiert im Google Index. Für diesen Absturz gibt es an sich keinen Grund, gute und viele natürliche Backlinks, DMOZ Eintrag, gute Produkte, keine Tricks, nicht viele ausgehende Links … Nur eins haben alle 3 Onlineshops gemeinsam, die Produkte sind bei Googles neuer Produktsuchmaschine Froogle gelistet. Ein vierter Onlineshop von mir ist nicht in Froogle gelistet und nach wie vor in Google auf seiner gewohneten Position.

    Nicht das ich behaupte das da ein Zusammenhang besteht … auszuschließen ist das aber sicher nicht, weil ich nicht wüsste was Google sonst an den xt-commerce Shops stören sollte, egal ob mit, ohne oder auch welchem mod_rewrite, die Shops schmieren alle nach und nach ab, auch von anderen hört man dieses.

  • Authority Sites – Sinn oder Unsinn

    Das eine Seite eine gewisse Zeit Bestand haben muss, bis sie einigermaßen gut gelistet wird bei Google, ist ja schön und gut und vielleicht auch noch nachvollziehbar. Hat man sich aber erstmal eine Seite zu Authority Site rangezüchtet, kann man mit dieser fast machen was man will, die Microsites /Unterseiten zu dieser Seite landen meist sehr gut und oftmals in den Top Ten. Das erzielt man sogar ohne große, bis gar keine Anstrengungen. Hat man z.B. eine Authority Site zum Thema Garten und baut eine Unterseite zum Thema Webmaster, so landet diese Unterseite gleich in den Top Ten. Baut man eine neue Seite die sich ausschließlich mit dem Thema Webmaster beschäftigt, viel guten eigenen Content hat, so landet diese Seite häufig für Monate gerade mal in den Top 500.

    Siehe z.B Heise mit seinem Preisvergleich: http://www.google.de/search?q=preisvergleich&hl=de&lr=&c2coff=1&start=10&sa=N mit dem schwer umkämpften „Preisvergleich“ von Null in die Top 20.

    Auch ich bin glücklicherweise im Besitz einiger Authority Sites mit den ich viele auch gut umkämpfte Begriffe mit so gut wie keiner Mühe in den Top Ten packe. Das interessante an der ganzen Geschichte ist eigentlich, dass es scheinbar immer einen Eintrag in DMOZ, bzw. Google Verzeichnis bedarf um diesen Status zu erhalten.

    Aber ob das Thema mit en Authority sites der richtige Weg ist, wage ich mal zu bezweifeln, bei MSN scheint das übrigens keine Rolle zu spielen. Ich galube auch das es nicht so gewollt ist von Google und sich sogar vielleicht um einen Fehler handelt.

  • Weblog gegen Slow Death?

    Slow Death, oder wie auch immer man es nennen mag betrifft derzeit viele Seiten und keiner weiß so genau warum die Seite vom Slow Death betroffen ist. Auch eine meiner Seiten ist seit längerem davon betroffen. Tja wie bekommt man die da nun wieder raus, ich machte einfach mal den Versuch einen Blog hinter die Seite zu hängen und täglich meine Erlebnisse beim Einkaufen oder beim Autofahren in diesem Blog niederzuschreiben. Meine Geschichten muss Google einfach mögen, naja und Blogs werden derzeit ja eh extrem gut gerankt.

    Und tatsächlich nach ca. 2 Wochen kam die Seite langsam ins „Leben“ zurück und steht heute wieder da wo sie immer war, an der Seite selber habe ich nichts geändert. Zufall?

    Wer eine vom Slow Death betroffene Seite hat, kanns ja einfach mal ausprobieren und bitte seine Erfahrungen/Ergebnisse hier posten.

  • Google Sandbox und Google Filter

    Das wohl größte Problem aller SEOs ist derzeit die Google Sandbox und/oder die Google Filter, ob Sinn oder Unsinn ärgern tun Sie alle. Wie und wann kommt man in die Sandbox und in den Filter und wie kommt man wieder raus. Ich habe mal einige Versuche dazu gemacht:

    Wie kommt man rein?
    Man registriere sich eine neue Domain und versorgt Sie in kurzer Zeit mit sehr vielen externen Links, Linktext jeweils die relevanten Keywords für die Seite. Will man auch noch in einen Filter, so nimmt man am besten immer das gleiche Keyword auch hier wieder in kurzer Zeit viele externe Links. Ein Garant für die Sandbox ist ein Keyword-Footerlink auf z.B. 10.000 Seiten auf eine neue Seite, in den Linktextfilter führt dieser erstmal nicht.

    Um aus der Sandbox sowie aus dem Filter zu entfliehen benötigt man als erstes sehr viel Zeit und Geduld. Dann scheint es wirklich was zu bringen wenn man die externe Verlinkung etwas natürlicher gestaltet, also weniger Keywordlinks und öfter mit dem eigentlichen Domainnamen oder einem Button/Banner zu verlinken, Verhältnis ca. 70/30. Ein „Ottonormalwebmaster“ verlinkt ja freiwillig selten mit dem Keyword sondern meistens mit dem Domainnamen oder einem Button/Banner auf fremde Seiten.

    Auch Versuche neue Seiten mit nur 1-2 Links pro Woche zu versorgen führten letztendlich in die Sandbox, verlinkte ich aber zum großen Teil mit dem Domainnamen oder Bannern führte dieses zwar nicht gleich zu Toppositionen aber zumindest auch nicht in die Sandbox, sprich die Seite krabbelte langsam aber stetig nach oben im Gegensatz zu anderen Seiten die Monate auf einer Position festhingen.

    Eine neue Seite bei einigermaßen umkämpften Keywords nach oben zu bringen ist legal scheinbar im moment nicht möglich, es scheint so das eine Seite eine gewisse Anzahl an Durchläufen den Googlebots benötigt um „ernst genommen“ zu werden. Fakt ist je öffter, tiefer und regelmäßiger eine Seite gespidert wird um so besser gehts nach oben. Wobei hier ein Link von einer Authority Site sehr sehr hilfreich ist, ein normaler PR7 Link bringt hier auch am Anfang wenig bis garnichts, ein Link von einer Unterseite bei z.B. Heise schon wesentlich mehr.

  • Links von gleicher IP

    Ich wollte mal testen ob Links von gleicher IP zählen bzw. gewertet werden, also hab ich von zwei Domains auf einer IP die gleiche Seite mit zwei Phantasiewörtern (die auf der verlinkten Seite nicht vorkommen) verlinkt.
    Ergebniss: Die verlinkte Seite wurde später unter beiden Phantasiewörtern gefunden, also beide Links scheinen zu zählen.

    Wiederhole ich den o.g Versuch mit Domains auf den Adsense Werbung ist/war oder die per Adwords beworben werden/wurden, so zählt auf einmal nur ein Link, bzw. die Seite wird nur unter einem der Phantasiewörter gefunden?

    Zufall?

    War es nicht auch so, dass die meisten der am 16. Dez. verbannten Shoppingseiten u.a. entweder per Adwords beworben wurden, oder Adsense Webung geschaltet hatten.

    Keine Behauptung in irgendeine Richtung einfach nur eine Beoabchtung!

  • Footerlink zählt nur einmal ?

    Vor einigen Tagen hatte ich noch folgendes berichtet, doch wie es im Zeitalter der Technik nunmal so ist, ist alles genauso schnell veraltet wie geschrieben:

    Es wird ja immer wieder behauptet, dass nur noch ein Link von Domain A auf Domain B zählt, also einigen Meinungen nach es nichts bringt von verschiedenen Unterseiten einer Domain A auf dieselbe Domian B zu verlinken. Hierzu habe ich mal folgenden Versuch gemacht:

    Ich habe auf der Startseite einer PR5 Domain und auf einer dazugehörigen PR 4 Unterseite in erster Ebene, die gleiche Domain verlinkt. Als Linktext habe ich zwei unterschiedliche Phantasiewörter gewählt für die es bei Google keine Suchergebnisse gibt.
    Ergebniss: Die verlinkte Domain wurde unter beiden Phantasiewörtern gefunden, beide Phanatsiewörter kamen auf der Zieldomain natürlich nicht vor. Also zählen tun die Links schonmal, ist jetzt nur die Frage wie stark sie zählen, aber dazu vielleicht in kürze mehr. Zu beobachten war noch, dass der Link von der Unterseite wesentlich länger brauchte und das Resultat in den Suchergebnissen auch zweimal wieder für einen Tag verschwand.

    Kaum geschrieben und schon wieder veraltet ? Am nächsten Tag wurde die verlinkte Domain mit dem Phantasiewort von der Unterseite plötzlich nicht mehr gefunden. Daraufhin habe ich sofort den Versuch auf einer anderen Seite zu einer anderen Seite verlinkt nochmal wiederholt, … siehe da auch hier das gleiche Ergebniss, über den Link von der PR stärksten Seite wird die verlinkte Seite mit dem Phantasiewort gefunden, von der schwächeren Fehlanzeige. Schalte ich beide Links von der Startseite zählt auch nur einer, scheinbar der Link der lesbar am weitesten vorne steht. Das würde bestätigen das ein Footer Link ist nicht mehr Wert ist als ein normaler Link und geht in die Richtung mit z.b. mehreren Footern pro Seite zu arbeiten.

    Verlinke ich zwei unterschiedliche Domains auf diese Art, werden beide unter den Phantasiewörtern gefunden.

    Ich weite den Test jetzt mal daraufhin aus, das ich von einer Seite einmal die Hauptseite anlinke und einmal die index.htm, bzw. einmal eine Unterseite. Den gleichen Test mache ich gerade mit zwei Domains die auf einer IP liegen, schaun mer mal.