python中urllib2高级应用 使用代理 模拟浏览器 cookie

python中urllib2高级应用 使用代理 模拟浏览器 cookie

http://blog.csdn.net/winterto1990/article/details/51225822

原创 2016年04月23日 13:19:53

之前的文章分享了一下python中requests如何使用代理以及如何处理乱码问题,还有使用cookies的问题,有感兴趣的可以查看。

 

urllib2简介 

urllib2提供一个基础函数urlopen,通过向指定的URL发出请求来获取数据。最简单的形式就是

 

[python] view plain copy
 
  1. import urllib2  
  2. response=urllib2.urlopen('http://www.douban.com')  
  3. html=response.read()  
这个过程就是我们平时刷网页的代码表现形式,它基于请求-响应模型。

 

[python] view plain copy
 
  1. response=urllib2.urlopen('http://www.douban.com')  
实际上可以看作两个步骤: 
我们指定一个域名并发送请求 

 

[python] view plain copy
 
  1. request=urllib2.request('http://www.douban.com')  
接着服务端响应来自客户端的请求 

 

[python] view plain copy
 
  1. response=urllib2.urlopen(request)  
也许你会注意到,我们平时除了刷网页的操作,还有向网页提交数据。这种提交数据的行为,urllib2会把它翻译为:

 

[python] view plain copy
 
  1. import urllib  
  2. import urllib2  
  3. url = 'http://www.douban.com'  
  4. info = {'name' : 'Michael Foord',  
  5.           'location' : 'Northampton'}  
  6. data = urllib.urlencode(info)  #info 需要被编码为urllib2能理解的格式,这里用到的是urllib  
  7. req = urllib2.Request(url, data)  
  8. response = urllib2.urlopen(req)  
  9. the_page = response.read()  
有时你会碰到,程序也对,但是服务器拒绝你的访问。这是为什么呢?问题出在请求中的头信息(header)。 
有的服务端有洁癖,不喜欢程序来触摸它。这个时候你需要将你的程序伪装成浏览器来发出请求。请求的方式就包含在header中。 
常见的情形:

 

[python] view plain copy
 
  1. import urllib  
  2. import urllib2  
  3. url = 'http://www.someserver.com/cgi-bin/register.cgi'  
  4. user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'# 将user_agent写入头信息  
  5. values = {'name' : 'Michael Foord',  
  6.           'location' : 'Northampton',  
  7.           'language' : 'Python' }  
  8. headers = { 'User-Agent' : user_agent }  
  9. data = urllib.urlencode(values)  
  10. req = urllib2.Request(url, data, headers)  
  11. response = urllib2.urlopen(req)  
  12. the_page = response.read()  


学会使用urllib2利用cookie

说明: 
1.人人网的登录地址需要用BeautifulSoup来抓取。 
2.个人信息存在info中。info是一个字典{'email':'xx','password':'xx'}.key的命名需要根据实际网页中定义,比如豆瓣的定义是{'form_email':'xx','form_password':'xx'} 
3.使用cookie的好处在于,登录之后你可以使用cookie中保存的信息作为头信息的一部分,利用已经保存的头信息接着访问网站。

 

下面解决的问题是如何在urllib2中使用代理

 

[python] view plain copy
 
  1. proxies={"http":"114.244.112.220:8118"}   #设置你想要使用的代理  
  2. proxy_s=urllib2.ProxyHandler(proxies)       
  3. opener=urllib2.build_opener(proxy_s)        
  4. urllib2.install_opener(opener)  
  5. content=urllib2.urlopen('http://ip.catr.cn/').read()#读取指定网站的内容  
[python] view plain copy
 
  1. ff=open("content.txt",'w')  
  2. ff.writelines(content)  
  3. ff.close()  

这里所使用的网址 http://ip.catr.cn/是用来检测你访问该网站所使用的ip。这也是检测使用代理是否成功很好的办法。
 
posted @ 2018-01-17 18:56  sky20080101  阅读(174)  评论(0)    收藏  举报