Hier mal ein anschauliches Beispiel dafür das Google kein Duplicate Content an sich erkennt, zumindest nicht durch den direkten Vergleich zweier oder mehrerer Seiten.
Siehe hier 🙂
Verwandte Beiträge
Kein Google Cache mehrDas gabs ja schonmal, aktuell gibt es mal wieder keinen Google Cache, wieder bringen Abfragen…
Kein Google Cache mehrZur Zeit gibt es keinen Google Cache mehr. Abfragen wie z.B.: cache:www.google.de cache:www.ebay.de bringen keine…
Google BugAuch interessant: code Jerome’s Keywords funktioniert, Jerome’s Keywords code funktioniert nicht.
Simply GoogleMal ne nette Übersicht aller Google Dienste auf einer Seite, bei durchsuchbaren Diensten gleich mit…
Google MobileGoogle Mobile ist mal wieder gut unterwegs in den Serps, wer sich fürs Schwimmen interessiert…
Google downVielleicht lesen hier ja noch einige bevor sie mich per ICQ oder Skype fragen (das…
Kommentare
7 Antworten zu „Google erkennt kein duplicate Content“
Man erkennt schon etwas. 37 von 2.140.000 scheint mir schon akzeptabel. Wäre ja auch keine Qualitätsverbesserung nur eine Seite auszuwählen und anzuzeigen.
Naja ich denke diese Zusammenfassung basiert eher auf gleichen Description in den Metas, siehe z.B.: hier kein DC aber immer gleiche Description und title
Imho tritt der Duplicated Content Filter erst ab einer gewissen Anzahl an Wörtern oder Zeichens ein, bei großen Authoritys macht Google auch gern mal eine Ausnahme…
… scheint wie immer bei Google zu sein – mal so, mal so oder einfach zur Abwechslung auch mal ganz anders 😉
Wirklich erkennen kann Google aber duplicate content nach meinen bisherigen Erfahrungen nach wie vor nur „manchmal“, da könnte man sicher auch eindeutigere Beispiele ergoogeln.
Habe selber noch einen guten Uralt-Kunden, der sich aufgrund der hervorragenden Google-Resultate seiner Hauptsite partout (trotz meiner Warnungen) nicht von 3-fach pubplizierten, seit Jahren im Netz befindlichen Contents trennen will und lieber darauf baut/hofft, daß Google möglichst lange so doof/unentschlossen wie bisher bleibt … 😉
@gysi
Contentmenge & Filter scheint mir eher auch eine Episode zum Thema „mal so, mal so oder anders“ zu sein und nicht ganz so pauschal einzustufbar?
Bei obigem Kunden-Beispiel ist z.B. sehr viel Textinhalt 3-mal komplett auf verschiedenen URL´s vorhanden (4000+ Zeichen pro Unterseite, bei je ca. 60-70 Unterseiten) und bestenfalls zu 10-20% um jeweils unterschiedliche zusätzliche Texte ergänzt.
Authorities sind die 3 reinen Backlink-Projekte sicher auch nicht – eher dezente Google-Schattenparker & Underground-Linkschleudern – noch mal auf sicher: ich habe nix damit zu tun, die hatte er schon… 😉
Gleiches übrigens auch bei weit verbreiteten XML-Reise-Content (auch immer gleiche riesige Textmengen!), der auf zig URL´s im Google-Index erfasst & angezeit wird – und da sind auch nur wenige Authority-Sites, einige sogar bis auf den prima erfassten duplicate content beinahe inhaltsleere Affiliate-Konstrukte, die zusätzlich mit Adsense zugeknallt sind und auch auf allen Unterseiten Google PR & Platzierungen haben … 😉
>>Wirklich erkennen kann Google aber duplicate content nach meinen bisherigen Erfahrungen nach wie vor nur “manchmal”, da könnte man sicher auch eindeutigere Beispiele ergoogeln.
Ja sehe ich auch so, Amazon, DMOZ und wikipedia Content wird z.B. sehr gut erkannt, allerdings auch nicht immer.
Erkannt und geputzt wird das ganze händisch, cloake ich z.B. einen Wikiclone, also zeige dem Googlebot den Wikipedia Inhalt, dem Besucher aber ganz was anderes (somit auch den Quality Ratern) passiert im Normalfall nichts, zeige ich dem User auch den Wiki Inhalt, ist meist recht schnell Feierabend.
… na das ist ja auch mal ne interessante Info, die ich, aufgrund null vorhandener Cloaking-Erfahrung, auch noch nicht kannte – Danke 😉
Die erkennung is auch nicht wirklich gut bei google, wie siehts den mit yahoo aus?