摘要:
搜索引擎Robots协议,是放置在网站根目录下robots.txt文本文件,在文件中可以设定搜索引擎蜘蛛爬行规则。设置搜索引擎蜘蛛Spider抓取内容规则。下面Seoer惜缘举例robots写法规则与含义: 首先要创建一个robots.txt文本文件,放置网站的根目录下,下面就开始编辑设置Robots协议文件: 一、允许所有搜索引擎蜘蛛抓取所以目录文件,如果文件无内容,也表示允许所有的蜘蛛访问,设置代码如下: User-agent: * Disallow: 或者 User-agent: * Allow: / 二、禁止某个搜索引擎蜘蛛抓取目录文件,设置代码如下: User-a... 阅读全文
posted @ 2014-04-02 10:35 SmarTom 阅读(371) 评论(0) 推荐(0)
浙公网安备 33010602011771号