博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

2014年4月2日

摘要: 搜索引擎Robots协议,是放置在网站根目录下robots.txt文本文件,在文件中可以设定搜索引擎蜘蛛爬行规则。设置搜索引擎蜘蛛Spider抓取内容规则。下面Seoer惜缘举例robots写法规则与含义: 首先要创建一个robots.txt文本文件,放置网站的根目录下,下面就开始编辑设置Robots协议文件: 一、允许所有搜索引擎蜘蛛抓取所以目录文件,如果文件无内容,也表示允许所有的蜘蛛访问,设置代码如下: User-agent: * Disallow: 或者 User-agent: * Allow: / 二、禁止某个搜索引擎蜘蛛抓取目录文件,设置代码如下: User-a... 阅读全文

posted @ 2014-04-02 10:35 SmarTom 阅读(371) 评论(0) 推荐(0)