摘要:        
当搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。Robots.txt文件用于限定搜索引擎对其网站的访问范围,即告诉搜索引擎网站中哪些文件是允许它进行检索(下载)的。这就是大家在网络上常看到的“拒绝Robots访问标准”(Robots Exclusion Standard)。下面我们简称RES。 Robots.txt文件的格...    阅读全文
posted @ 2009-10-13 21:22
肚肚
阅读(277)
评论(0)
推荐(0)
        
            
        
        
摘要:        
_log.Info("----------------------------------\r\n 新的一行");    阅读全文
posted @ 2009-10-13 18:02
肚肚
阅读(1330)
评论(0)
推荐(0)
        
 
                     
                    
                 
                    
                
 
 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号