A-A+

关于如何降低网络爬虫速度的问题

2008年11月23日 编程开发 暂无评论 阅读 1 次

YAHOO 的解决办法

http://misc.yahoo.com.cn/help.html#q10

robots.txt

User-agent: Slurp
Crawl-delay: 20

解释
由于增加了访问过滤,那么就需要告诉网络爬虫爬行的速度不要太快,还好这个问题比较好解决,在robots.txt中增加:
Robot-version: 2.0
Crawl-delay: 10
Request-rate: 60/1m
Visit-time: 0000-0800

由于这个还没有完全的标准,两种都用了,Crawl-delay是每秒访问的网页数,而Request-rate是页面数/时间段,可以设置为比较小的值,Visit-time为允许访问的时间段。

没找到Google这方面的资料,只能登录Google网站管理员工具进行设置限制了!

给我留言

Copyright © 浩然东方 保留所有权利.   Theme  Ality 07032740

用户登录