Phantomjs与Selenium爬取图片
一、任务描述
本实验任务主要对网络爬虫进行一些基本操作,通过完成本实验任务,要求学生熟练掌握网络爬虫的网络请求及数据解析,并对网络爬虫的基本操作进行整理并填写工作任务报告。
二、任务目标
1、掌握正则表达式
2、掌握网络爬虫的原理
三、任务环境
Ubuntu16.04、Python2.7
四、任务分析
学习爬虫,首先是要学习它的原理。打开网址,每页都有很多套图,如果要手动去保存,怎么操作?想应该是这样,从第一页开始,点进第一个套图,然后保存每张图片,然后进行第二个套图……第一页完了之后第二页,从第一个套图开始,保存保存……这就是原理,当然,虽然这样能达到这个目的,但大家应该没有那么多的时间,那么就来学习爬虫,来保存图片。
五、任务实施
步骤1、环境准备
右击Ubuntu操作系统桌面,从弹出菜单中选择【Open in Terminal】命令 打开终端。
通过【cd /home】切换到home目录下。【ls】查看该目录下的所有内容。

【mkdir Image】在home目录下创建Image文件夹。

步骤2、爬虫分析
爬取的MM图片URL为https://mm.taobao.com/search_tstar_model.htm?
打开浏览器输入该URL,查看界面效果。把所有的MM图片下载下来。

通过【cd /Image】切换到Image目录下。【vim taobaoMM.py】回车后创建并编辑taobaoMM.py的Python文件。

回车后进入编辑框内,按键盘【i】进入编辑状态,编译如下程序。
导入程序所需的所有库。

browserPath是Phantomjs的路径
homeUrl是爬取的页面
outputDir是保存的文件夹路径
parser是解析器

加载PhantomJS的浏览器,通过driver.get(url)来访问URL,用BeautifulSoup来对得到爬取的URL进行解析。driver.page_source是网页的全部HTML源码。最后通过主方法来调用main方法。

编辑完毕后,按【esc】退出编辑状态,【:wq】保存并退出编辑框,【python taobaoMM.py】执行taobaoMM的Python文件。driver.page_source输出的结果是网页的全部HTML源码。

打开访问URL的浏览器,右键选择【Inspect Element(Q)】根据判断得知,MM的所有信息在id为J_GirlsList内。

【vim taobaoMM.py】再次编辑taobaoMM.py文件。
在main函数内通过find_element_by_id获得所有信息,正则表达式获取妹子的封面图片以及个人主页的地址。

在main函数内通过list列表的截取得到妹子的名字地点、身高体重、个人主页地址以及封面图片地址。

在main函数内将妹子的信息通过zip函数封装(zip函数接受任意多个(包括0个和1个)序列作为参数,返回一个tuple列表)。再通过for循环,对妹子的信息进行写入。

定义mkdir函数,判断图片输出的路径是否存在,不存在则创建。

在主方法内调用mkdir函数,并将输出路径作为参数传递。

编辑完毕后,按【esc】退出编辑状态,【:wq】保存并退出编辑框,【python taobaoMM.py】执行taobaoMM的Python文件。爬取需要几分钟。静等几分钟后。打开/home/Image/MMImage下。发现生成很多文件夹。

每个目录下都包含MM的主图以及保存信息的txt文件。

txt文件内包含了MM的基本信息。

步骤3、源代码
#coding:utf-8import osimport refrom bs4 import BeautifulSoupimport urllib2from selenium import webdriverimport sysreload(sys)sys.setdefaultencoding( "utf-8" )browserPath = "/home/soft/phantomjs/bin/phantomjs"homeUrl = "https://mm.taobao.com/search_tstar_model.htm?"outputDir = "MMImage/"parser = "html5lib"def main():#PhantomJS浏览器的地址driver = webdriver.PhantomJS(executable_path=browserPath)#访问目标网页地址driver.get(homeUrl)#解析目标网页的 Html 源码bsObj = BeautifulSoup(driver.page_source,parser)#获得主页上所有妹子的姓名、所在城市、身高、体重等信息girlsList = driver.find_element_by_id("J_GirlsList").text.split("\n")#获取所有妹子的封面图片imagesUrl = re.findall(r"//gtd.alicdn.com/sns_logo.*.jpg",driver.page_source)#解析出妹子的个人主页地址等信息girlsUrl = bsObj.find_all("a",{"href":re.compile("\/\/.*\.htm\?(userId=)\d*")})# 所有妹子的名字地点girlNL = girlsList[::3]# 所有妹子的身高体重girlsHW = girlsList [1::3]# 所有妹子的个人主页地址girlsHURL = [("http:" + i["href"]) for i in girlsUrl]# 所有妹子的封面图片地址girlsPhotoURL = [("https:" + i) for i in imagesUrl]girlsInfo = zip(girlNL, girlsHW, girlsHURL, girlsPhotoURL)for girlNL,girlHW,girlHURL,girlCover in girlsInfo:#建立文件夹mkdir(outputDir + girlNL)# 获取妹子封面图片data = urllib2.urlopen(girlCover).read()with open(outputDir + girlNL + "/cover.jpg","wb") as f:f.write(data)f.close()with open(outputDir + girlNL + "/information.txt","wb") as a:a.write("Name And City:" + girlNL + "\n")a.write("Hight And weight:" + girlHW + "\n")a.write("personal homepage:" + girlHURL)a.close()driver.close()def mkdir(path):#判断路径是否存在isExists = os.path.exists(path)#判断结果if not isExists:#如果不存在则创建目录print(" 新建了文件夹",path)#创建目录操作函数os.makedirs(path)else:#如果目录存在则不创建,并提示目录已存在print("文件夹", path, "已创建")if __name__ == "__main__":if not os.path.exists(outputDir):os.makedirs(outputDir)main()

浙公网安备 33010602011771号