Aussperren dynamischer Seiten per robots.txt
- 30. November 2005
Wenn man nicht möchte das dynamisch erzeugte Seiten im Google Index aufgenommen werden, kann man – so schreibt Google -:
1. dynamische Seiten über die URL Console aus dem Index entfernen
2. Google von vornerein darin hindern diese Seiten überhaupt erst aufzunehmen
Funktionieren soll das ganze ja angeblich über:
To remove dynamically generated pages, you’d use this robots.txt entry:
User-agent: Googlebot
Disallow: /*?
Punkt 1 hab ich mich noch nicht gewagt auszuprobieren, Punkt 2 scheint nicht zu funktionieren. Hat irgendjemand schonmal irgendwelche Erfahrungen damit machen können?
Verwandte Beiträge
- Wildcards in Robots.txt
Neben Google unterstützt nun auch Yahoo eine Möglichkeit Wildcards in der Robots.txt anzugeben. Gerade zum…
- Seiten per Google Mail in den Index bringen
Eine Sache die ich demnächst mal testen wollte ist ob meine Vermutung nachweisbar ist. Ich…
- Google und die robots.txt - Experiment-
Viele Webmaster - zu denen auch ich gehöre - beklagen immer wieder das Google sich…
- Abgetauchte Seiten wieder da
Wers noch nicht selber gemerkt hat, die Seiten die vor ca. 2 Wochen abgetaucht sind,…
- Google Zeitungsanzeigen per Auktion
Google testet gerade seine Print Adwords per Auktion - Bieterverfahren zu verkaufen, so berichtet der…
- Seiten ohne Cache Beschreibung
Nicht wichtig, aber ist mir gerade aufgefallen, ruft man z.b. die Google Toolbar Seite über…
- Google ohne Adwords per Firefox
Wer keine Lust auf Adwords Anzeigen bei Google hat, kann diese mit Hilfe des Firefox…
- Back again - die abgeschmierten Seiten
Letzte Nacht hat Google diverse, meist grundlos abgeschmierte Seiten, wieder auf seine Ursprungspositionen zurückgesetzt. Wer…