滚滚长江东流水,黄河入海不复返

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

万维网(World Wide Web)机器人程序,会扫描全球的网页,存贮起来做成检索页,但有的时候你的某些网页不希望被机器人所索引,如何解决呢?

解决方法

这需要用到robots.txt文件了。你可把不希望被机器人所索引的目录写在里面,该文件要放在网站的跟目录。

robots.txt文件例子

User-agent: *
Disallow: /product/ 
Disallow: /temp/ 
Disallow: /test.html

这个例子说明对所有机器人开放,但不索引/product/、/temp/目录下所有文件和test.html。

User-agent: *
Disallow: /product/glass/ 
Disallow: /temp/ 
Disallow: /test.html

User-agent: /product/
Disallow:

这个例子说明对所有机器人开放,但不索引/product/glass/、/temp/目录下所有文件和test.html,但可索引/product/下除glass以外的其他目录。

User-agent: *
Disallow: /

这个例子说明网站的所有文件不被机器人所索引。

参考资料 

posted on 2006-12-25 16:26  Steveson  阅读(291)  评论(0编辑  收藏  举报