Man nehme eine große csv Datei mit mehreren tausend Produkten eines Onlinshops, wie sie tausende verwenden … „puste“ sie in eine Datenbank und wartet das Google sich an den neuen tausenden Seiten im Index erfreut. Tja die Zeiten liegen wohl lange zurück. Mit genügend Linkpower und einigen weiteren „Verfeinerungen“ ist es aller Duplicate Content Theorien zum trotze, bekanntlich ja immer noch möglich hier gute Positionen in den Serps zu erreichen.
Interessant ist allerdings, dass Domains mit o.g. Inhalt bei denen man häufig (täglich bis mehrmals täglich) per site: Abfrage die Anzahl der Seiten im Google Index kontrolliert meist nicht lange (gut) leben. Domains die man hingegen nicht nach dieser Methode abfragt geht es meist sehr lange, wenn nicht sogar ewig sehr gut. So zumindest unsere Erfahrungen.
Das ganze einfach mal so völlig wertfrei in den Raum gestellt, aber wer benutzt eigentlich die site: Abfrage, größtenteils doch eigentlich nur SEOs oder?
Kommentare
14 Antworten zu „site: Abfrage bei Google – Nutzen oder Schaden?“
Wenn eine Seite die ich anschaue eine schlechte oder gar keine Suchfunktion hat, aber ich dort etwas suche, verwende ich die Googlesuche mit site:
Eben, und es wäre ja mal wieder eine absolut einfache Methode die Konkurrenz rauszuschmeissen – einfach ein Script aufsetzen das alle 20 Minuten eine site:-Abfrage für die Konkurrenzseite macht.
Ich denke mal das funktioniert, wenn überhaupt nur bei „Spamseiten“, wäre ja mal ein Versuch Wert, natürlich mit einer eigenen Seite.
Sorry, aber das halte ich für ausgemachten Blödsinn 😉
Allein wegen des möglichen Mißbrauchs, das wäre echt zu simpel…
naja das ganze bezog sich halt auf „Spamseiten“ und bei denen kann man ja nicht unbedingt von Mißbrauch reden. Folgendes Prozedere wäre ja denkbar: Seite z.B. größer 1000 Seiten und häufige site: Abfragen -> Seite kommt in Grey-List -> Google Quality Rater checken die Seite – > Spamseite ab, in die Blacklist -> saubere Seite, alles i.o.
naja und zum Thema Mißbrauch gibt es derzeit ja genügend Möglichkeiten diesen zu betreiben, so dass es so scheint als macht Google sich da keine größeren Gedanken drüber.
Interessante Theorie, aber kaum denkbar, ich glaube nicht dass Google dass macht.
Hm also ich hab auch Webseiten mit solchen Datenbanken, aber die werden nicht so ruck zuck gekickt. Werden halt nur wenig gespidert. Müsste das aber mal testen=)
Nein so abwegig ist die Theorie nicht. Ein kleines Beispiel: Ich machte bei einer Test-Seite ein paar Spielchen wieviel Seiten man so in den Index prügeln kann und ob es einen Schaden durch zu schnelles Wachsen gibt. Die Seite fragte ich oft mit der Site Abfrage ab. Nach knapp zwei Wochen war die Seite im SlowDeath. Dannach spielte ich die Seite unverändert unter einem anderen Namen hoch und verlinkte Sie mit den Links von der alten. Also denkbar die gleichen Vorraussetzungen. Diese Seite habe ich aber mit keinerlei Abfragen „belastet“. Keine site Abfrage, keine Positionsabfragen über Google API oder Tools die es so gibt.
Die Seite lebt jetzt schon über 2 Monate.
Mag vielleicht auch Zufall sein, aber spricht für Marios Theorie mit der Grey-List.
[…] Laut einem Beitrag im Suchmaschinen Blog von Mario kann eine häufige (täglich bis mehrmals täglich) “site:”-Abfrage bei Google das Ranking bei Google beeinflussen. […]
ja genau dieses seltsame Erlebnis hatte ich auch vor einiger Zeit, da bin ich das erstemal stutzig geworden. Dann hatte ich noch zeitweilig Probleme mit dem aufrufen der Unterseiten aus der site: Abfrage heraus, bzw. ich hatte sehr lange Ladezeiten, ein Aufruf der seiten über normale Suchergebnisse ging normal von statten.
ich denke, google wird einen pool haben, in den seiten mit genuegend verdachtsmomenten reingeworfen werden. warum nicht auch seiten, die zu oft mit site: aufgerufen werden. vielleicht auch nur dann, wenn ein paar andere verdachtmomente auch noch erfuellt sind.
damit passiert den seiten doch erst einmal nichts, nur dass die dann fuer weitere bearbeitungen an einen extra spam-robot oder ein quality team oder was auch immer durchgereicht werden.
ich hatte neulich ein seltsames erlebnis, da konnte ich bei der site: anfrage ploetzlich nur die erste seite aufrufen, das weiterklicken war deaktiviert. nach dem loeschen meines cookies klappte es dann wieder. wenn das nicht seltdsam ist und verdachtsmomente aufkommen laesst …
Ich denke auch, dass regelmäßige site:-Abfragen nicht direkt schädlich sind, aber dazu führen können, dass eine Seite auf zu heftige SEO-Maßnachmen untersucht wird.
zum Thema Site Abfrage
da habe ich schon im August 2005 einen „Verdacht“ geäussert
(siehe Posting 4 auf der Seite)
http://www.abakus-internet-marketing.de/foren/viewtopic/p-191532.html
mitlerweile würde ich den Smiley am Ende meiner Aussage gegen ein Ausrufezeichen tauschen.
Ich habe vor 8 Wochen eine ganze Reihe von neuen Domains verloren (10 Stück). Diese habe ich über ca 20 tage täglich per Siteabfrage kontrolliert. Habe dafür ein kleines Script gehabt, welches dann fast im Sekundenabstand die Abfragen gestartet hat.
Nach 20 Tagen waren die Domains nicht mehr im Index. Über den Inhalt der Domains kann man sich streiten , ob der wirklich gerbraucht wurde im Index bei Google – Fakt ist, die Domains sind raus und kamen nicht merh rein.
Daher sehe ich eine „große“ Gefahr in dieser Site Abfrage.
mfG
Keks
Also ich kann die Aussagen hier kaum glauben. Da ich im Moment auch einige Seiten bei Google pushen will, tätige ich zur Zeit öfter mal eine „site:“-Abfrage… Auch mehrmals täglich. Jetzt fange ich aber ernsthaft an, mir Sorgen zu machen. Allerdings fällt es mir sehr schwer zu glauben, dass man einer Seite damit schaden kann. Denn es wurde ja bereits erwähnt, so könnte man wohl jede Seit in den Ruin treiben…