摘要:
搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。 您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。 robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它... 阅读全文
posted @ 2009-02-27 16:58
编程入门
阅读(707)
评论(0)
推荐(0)
浙公网安备 33010602011771号