Spider Trap – die Falle für böse Bots
- 13. Januar 2006
- Software, Suchmaschinen, Tipps
Thomas Zeithaml ein nettes Tool gebastelt auf das wohl viele Webmaster schon lange gewartet haben, gerade wohl auch diejnigen die aufgrund von Duplicate Content durch Spambots verursacht ihre Seiten nur noch auf den hinteren Rängen wiederfinden.
Spidertrap ist eine Falle für genau diese bösen Bots / Spambots, die Installation und Anwendung ist denkbar einfach. Man installiert spider-trap auf dem Server und setzt einen Link von der Seite, z.B. in Form einer Grafik wie hier oben rechts zu sehen, mit einer 1px Grafik, oder mit einem normalen Textlink oder …
Dieser Link verweist nun in das Verzeichnis /spider-trap/ auf dem Server, jetzt verbietet man mithilfe der robots.txt den entsprechenden Bots den Link zu folgen, also z.B.
User-agent: *
Disallow: /spider-trap
Also in diesem Fall hat kein Bot diesen Link zu verfolgen, gute Bots halten sich an die robots.txt, böse Bots halten sich meist nicht an die robots.txt und werden diesen Link verfolgen und landen im Verzeichnis /spider-trap/, sind also in die Falle getappt. Ist der Bot in die Falle gegangen, schreibt Spider Trap ein deny from
in die .htaccess und der Bot ist für die komplette Seite gesperrt. Um dort wieder rauszukommen müsste er ein Wort auf der spider-trap/index.php eingeben, bei uns wäre das Wort mensch. Klickt also ein Besucher auf den Link, kann er seinen deny from
durch Eingabe des vogegebenen Wortes entfernen und hat somit wieder vollen Zugriff auf die Seite, ein Bot kann dieses natürlich nicht und bleibt somit gesperrt.
Auch Google hält sich ja manchmal nicht an die robots.txt, um den Googlebot nicht ausversehen einzufangen, gibt es eine Whitelist in der man über den Useragent definieren kann wer nie eingefangen werden darf, also Googlebot, slurp usw. Über die Whitelist könnte man auch nur die gewünschten Bots zulassen und alle anderen komplett in die Falle tappen lassen. Will man z.B. nur den Googlebot zulassen, könnte man das so machen.
robots.txt:
User-agent: *
Disallow:
also alle „dürfen“ in die Falle
und Whitelist mit dem Eintrag: Googlebot, das wäre dann die ganz harte Nummer 🙂 Hier gibt es noch wesentlich mehr möglichkeiten, welche auf Spider Trap genauer beschrieben werden.
Wir haben das die letzten Tage mal ausgiebig getestet, so sind z.B. auf no-nofollow.de nach nur kurzer Zeit knapp 20 böse Bots in die Falle gegangen, die Kollegen kamen aus allen Ländern. China, Korea, Rußland, USA usw. und hatten sicherlich nichts gutes vor. Wenn man möchte kann man sich auch automatisch per mail informieren lassen wenn jemand in die Falle geht.
Fazit: Ein Super Tool, einfach zu installieren, kostenlos!
Mehr dazu, wie Download, Installationsanleitung, Funktionsweise sowie eine Möglichkeit böse Bots zu melden und bereits gemeldete in einer Übersicht zu sehen gibts direkt auf Spider Trap
Viel Spaß beim Spambot fangen 🙂
Wer es mal ausprobieren möchte, der klicke hier auf die Spinne.
Verwandte Beiträge
- Spider Trap v 1.0
Thomas hat heute gerade die neue Version von der Spider Trap released. Spider Trap ist…
- Spider Trap v 1.0
Thomas hat heute gerade die neue Version von der Spider Trap released. Spider Trap ist…
- Spider Trap v 1.0
Thomas hat heute gerade die neue Version von der Spider Trap released. Spider Trap ist…
- Lesercharts für Blogs
Hier noch mal schnell einen interessanten Link zur Nacht. Lesercharts für deutschsprachige Blogs Auf Lesercharts…
- Yahoo Toolbar für Firefox
Ab sofort steht die Yahoo Toolbar auch Firefox Usern zur Verfügung, der Grund für die…
- Backlink-Spider Update
Es gibt ein Update des Backlinkspiders von suchmaschinenberatung.de auf die Version 1.01, das Update behebt…
- Suchmaschinenoptimierung für Onlineshops
Bei Bloofusion findet man ein meiner Meinung nach lesenwertes Ebook zum Thema Suchmaschinen-Optimierung für Onlineshops.…
- Suchmaschinenoptimierung für Ebay
Heute erhielt ich eine Mail, in der ich gefragt wurde ob ich noch Kapazitäten bzgl.…