跟百度学写Robots.txt

搜索主站:
http://www.baidu.com/robots.txt

禁止所有搜索引擎抓取,特别列出了几个主要的引擎:谷歌、搜搜、搜狗、百度、MSN、即刻、百度图片

最后禁止所有:
User-agent: *
Disallow: /

百度知道:
http://zhidao.baidu.com/robots.txt

允许主要搜索引擎抓取,但不包括360搜索,呵呵。最后禁止所有抓取。

百度百科:
http://baike.baidu.com/robots.txt

允许部分搜索引擎抓取部分内容,同样不包括360搜索。对即刻、搜搜、MSN、有道比较友好。最后同样禁止所有抓取。

 



上一篇: 新发现一个百度蜘蛛IP段180.76.5.137
下一篇: 发现一些恶意IP
文章来自: 本站原创
引用通告: 查看所有引用 | 我要引用此文章
Tags: 百度
相关日志:
评论: 0 | 引用: 0 | 查看次数: 2198
发表评论
昵 称:
密 码: 游客发言不需要密码.
邮 箱: 邮件地址支持Gravatar头像,邮箱地址不会公开.
网 址: 输入网址便于回访.
内 容:
验证码:
选 项:
虽然发表评论不用注册,但是为了保护您的发言权,建议您注册帐号.
字数限制 1000 字 | UBB代码 开启 | [img]标签 关闭

 广告位

↑返回顶部↑