Moin Rudi! ;-)
Ois easy: Einfach ein Textfile namens robots.txt erstellen, rin damit mit in die hp-root und zur sicherheit in die file-verzeichnisse. Der Inhalt des Textfiles soll so aussehen:
User-agent: *
Disallow: {Pfadname des Verzeichnisses, von dem nicht automatisch gesaugt werden darf}
Das wars dann auch schon.
Du kannst explizit die Downloadmanager bei User-agent: * auch einzeln mit dem Namen angeben, macht aber aber nur Sinn, wenn Du einen einzigen gezielt ausschliessen willst.
Disallow kannst Du auch mehrmals mit unterschiedlichen Pfaden angeben, wenn Du mehrere Pfade ausklammern willst.
Hier kannste auch nochmal nachgucken:
[a href=\"http://www.searchengineworld.com/robots/robots_tutorial.htm\" target=\"_blank\"]Robots.txt-Tutorial[/a]
Auf diese Weise kann ich meinen Traffic wenigstens ansatzweise auf etwa 2Gbyte/Tag begrenzen.
hth,
rüdiger

Kommentar