Google erkennt kein duplicate Content

Hier mal ein anschauliches Beispiel dafür das Google kein Duplicate Content an sich erkennt, zumindest nicht durch den direkten Vergleich zweier oder mehrerer Seiten.

Siehe hier 🙂

Kommentare

7 Antworten zu „Google erkennt kein duplicate Content“

  1. Man erkennt schon etwas. 37 von 2.140.000 scheint mir schon akzeptabel. Wäre ja auch keine Qualitätsverbesserung nur eine Seite auszuwählen und anzuzeigen.

  2. Naja ich denke diese Zusammenfassung basiert eher auf gleichen Description in den Metas, siehe z.B.: hier kein DC aber immer gleiche Description und title

  3. gsyi

    Imho tritt der Duplicated Content Filter erst ab einer gewissen Anzahl an Wörtern oder Zeichens ein, bei großen Authoritys macht Google auch gern mal eine Ausnahme…

  4. Frank

    … scheint wie immer bei Google zu sein – mal so, mal so oder einfach zur Abwechslung auch mal ganz anders 😉

    Wirklich erkennen kann Google aber duplicate content nach meinen bisherigen Erfahrungen nach wie vor nur „manchmal“, da könnte man sicher auch eindeutigere Beispiele ergoogeln.

    Habe selber noch einen guten Uralt-Kunden, der sich aufgrund der hervorragenden Google-Resultate seiner Hauptsite partout (trotz meiner Warnungen) nicht von 3-fach pubplizierten, seit Jahren im Netz befindlichen Contents trennen will und lieber darauf baut/hofft, daß Google möglichst lange so doof/unentschlossen wie bisher bleibt … 😉

    @gysi
    Contentmenge & Filter scheint mir eher auch eine Episode zum Thema „mal so, mal so oder anders“ zu sein und nicht ganz so pauschal einzustufbar?

    Bei obigem Kunden-Beispiel ist z.B. sehr viel Textinhalt 3-mal komplett auf verschiedenen URL´s vorhanden (4000+ Zeichen pro Unterseite, bei je ca. 60-70 Unterseiten) und bestenfalls zu 10-20% um jeweils unterschiedliche zusätzliche Texte ergänzt.

    Authorities sind die 3 reinen Backlink-Projekte sicher auch nicht – eher dezente Google-Schattenparker & Underground-Linkschleudern – noch mal auf sicher: ich habe nix damit zu tun, die hatte er schon… 😉

    Gleiches übrigens auch bei weit verbreiteten XML-Reise-Content (auch immer gleiche riesige Textmengen!), der auf zig URL´s im Google-Index erfasst & angezeit wird – und da sind auch nur wenige Authority-Sites, einige sogar bis auf den prima erfassten duplicate content beinahe inhaltsleere Affiliate-Konstrukte, die zusätzlich mit Adsense zugeknallt sind und auch auf allen Unterseiten Google PR & Platzierungen haben … 😉

  5. >>Wirklich erkennen kann Google aber duplicate content nach meinen bisherigen Erfahrungen nach wie vor nur “manchmal”, da könnte man sicher auch eindeutigere Beispiele ergoogeln.

    Ja sehe ich auch so, Amazon, DMOZ und wikipedia Content wird z.B. sehr gut erkannt, allerdings auch nicht immer.

    Erkannt und geputzt wird das ganze händisch, cloake ich z.B. einen Wikiclone, also zeige dem Googlebot den Wikipedia Inhalt, dem Besucher aber ganz was anderes (somit auch den Quality Ratern) passiert im Normalfall nichts, zeige ich dem User auch den Wiki Inhalt, ist meist recht schnell Feierabend.

  6. Frank

    … na das ist ja auch mal ne interessante Info, die ich, aufgrund null vorhandener Cloaking-Erfahrung, auch noch nicht kannte – Danke 😉

  7. Johannes

    Die erkennung is auch nicht wirklich gut bei google, wie siehts den mit yahoo aus?