Aussperren dynamischer Seiten per robots.txt

Wenn man nicht möchte das dynamisch erzeugte Seiten im Google Index aufgenommen werden, kann man – so schreibt Google -:

1. dynamische Seiten über die URL Console aus dem Index entfernen
2. Google von vornerein darin hindern diese Seiten überhaupt erst aufzunehmen

Funktionieren soll das ganze ja angeblich über:

To remove dynamically generated pages, you’d use this robots.txt entry:

User-agent: Googlebot
Disallow: /*?

Punkt 1 hab ich mich noch nicht gewagt auszuprobieren, Punkt 2 scheint nicht zu funktionieren. Hat irgendjemand schonmal irgendwelche Erfahrungen damit machen können?

    Mehr von unserem Blog:

    Zeige alle Beiträge