摘要:        
#执行这个爬虫文件 scrapy crawl spider51job    阅读全文
posted @ 2019-10-01 22:26
天天见和
阅读(558)
评论(0)
推荐(0)
        
            
        
        
摘要:        
import requestsfrom lxml import etree# http://www.dajiangtai.com/login/check.dopost_url='http://www.dajiangtai.com/login/check.do'mysession=requests.S    阅读全文
posted @ 2019-10-01 20:48
天天见和
阅读(112)
评论(0)
推荐(0)
        
            
        
        
摘要:        
import requests#通过cookies登录post_url='http://pythonscraping.com/pages/cookies/welcome.php'userdata={"username":"zhangsan","password":"password"}post_re    阅读全文
posted @ 2019-10-01 20:02
天天见和
阅读(841)
评论(0)
推荐(0)
        
                    
                
浙公网安备 33010602011771号