摘要: 一,django是一个十分优秀的python web的框架,那框架的是什么? 假设我们不使用框架来进行编写,我们要用如下的代码进行web脚本: #!/usr/bin/env pythonimport MySQLdbprint "Content-Type: text/html\n"print "... 阅读全文
posted @ 2015-10-19 23:35 爱吃猫的鱼 阅读(385) 评论(0) 推荐(0) 编辑
摘要: 加上你的准备的时间,估计30分钟完全够用了,因为最近在做爬虫管理平台,想着快速开发,没想到python web平台下有这么非常方便的框架,简洁而优雅。将自己的一些坑总结出来,方便给大家的使用。准备环境:系统:win7 or ubuntudjango版本:1.8.5python版本:2.7.6数据... 阅读全文
posted @ 2015-10-18 22:43 爱吃猫的鱼 阅读(3679) 评论(4) 推荐(1) 编辑
只有注册用户登录后才能阅读该文。 阅读全文
posted @ 2015-10-14 13:42 爱吃猫的鱼 阅读(22) 评论(0) 推荐(0) 编辑
摘要: 之前一直在研究scrapy下数据抓取,在研究ajax数据抓取时碰巧研究了一下selenium,确实很实用,不过只做scrapy下的数据抓取,不怎么合适,一是性能的损耗,一直需要开一个浏览器,二是对于爬虫来说,分析ajax的请求才是正事。好吧,说远了,今天来扯一下我对于自动化测试一些见解。 py... 阅读全文
posted @ 2015-09-22 18:35 爱吃猫的鱼 阅读(13551) 评论(6) 推荐(2) 编辑
摘要: 本次探讨的主题是规则爬取的实现及命令行下的自定义参数的传递,规则下的爬虫在我看来才是真正意义上的爬虫。我们选从逻辑上来看,这种爬虫是如何工作的:我们给定一个起点的url link ,进入页面之后提取所有的ur 链接,我们定义一个规则,根据规则(用正则表达式来限制)来提取我们想要的连接形式,然后爬取这... 阅读全文
posted @ 2015-09-15 16:48 爱吃猫的鱼 阅读(3944) 评论(0) 推荐(1) 编辑
摘要: 前段时间写脚本,一直使用的是pycharm ,无奈机器不配置实在不怎么样,我记得之前用过subline text,这是我用过的最酷炫的文本编辑器,参考了一下网上的文章,自己走了一些弯路,将心得写在这里,方便给需要帮助的人: 这是完成配置后的界面: 一,下载subline text 3 官网:h... 阅读全文
posted @ 2015-09-14 13:42 爱吃猫的鱼 阅读(34740) 评论(8) 推荐(3) 编辑
摘要: 放假这段时间好好的思考了一下关于Scrapy的一些常用操作,主要解决了三个问题: 1.如何连续爬取 2.数据输出方式 3.数据库链接一,如何连续爬取: 思考:要达到连续爬取,逻辑上无非从以下的方向着手 1)预加载需要爬取的列表,直接到这个列表都处理完,相应的爬取工作都已经完成了。 2)从第一页开始... 阅读全文
posted @ 2015-09-07 15:35 爱吃猫的鱼 阅读(5039) 评论(3) 推荐(2) 编辑
摘要: 本篇主要介绍对于一个爬虫框架的思考和,核心部件的介绍,以及常规的思考方法:一,猜想 我们说的爬虫,一般至少要包含几个基本要素: 1.请求发送对象(sender,对于request的封装,防止被封) 2.解析文档对象(将请求的网页当作是html文档还是字符串) 3.承载所需要的解析对象(标准格式的... 阅读全文
posted @ 2015-09-02 17:07 爱吃猫的鱼 阅读(1361) 评论(3) 推荐(0) 编辑
摘要: 最近做了一些关于winform的项目,需要用到winform的语言国际化,在初使化的时候用起来非常方便。可以参考一下: 核心逻辑: 预览效果演示:OK,以下是核心代码和操作流程一,添加LanguageHelper类using System;using System.Collections.Gen... 阅读全文
posted @ 2015-09-02 12:50 爱吃猫的鱼 阅读(8279) 评论(13) 推荐(12) 编辑
摘要: 关于Scrapy的安装,网上一搜一大把,一个一个的安装说实话是有点麻烦,那有没有一键安装的?答案显然是有的,下面就是给神器的介绍: 主页:http://conda.pydata.org/docs/ 下载地址:http://continuum.io/downloads 两个版本,64位和32位,根... 阅读全文
posted @ 2015-09-01 12:41 爱吃猫的鱼 阅读(579) 评论(0) 推荐(1) 编辑