2017年7月6日

python框架Scrapy中crawlSpider的使用——爬取内容写进MySQL

摘要: 一、先在MySQL中创建test数据库,和相应的site数据表 二、创建Scrapy工程 三、进入工程目录,根据爬虫模板生成爬虫文件 四、设置IP池或用户代理(middlewares.py文件) 五、settngs.py配置 六、定义爬取关注的数据(items.py文件) 七、爬虫文件编写(test 阅读全文

posted @ 2017-07-06 16:33 小明在线 阅读(4902) 评论(0) 推荐(1)

python之MongoDB学习

摘要: 1 import pymongo as pm 2 3 # 获取连接 4 client = pm.MongoClient('localhost', 27017) # 端口号是数值型 5 6 # 连接数据库 7 db = client.py3 8 9 # 获取集合 10 stb = db.stb 11 12 # 获取数据信息 13 datas = stb.find() 1... 阅读全文

posted @ 2017-07-06 16:10 小明在线 阅读(247) 评论(0) 推荐(0)

python之MySQL学习——简单的增删改查封装

摘要: 1.增删改查封装类MysqlHelper.py 2.数据查询(引入封装类) 3.数据修改(引入封装类) 阅读全文

posted @ 2017-07-06 16:07 小明在线 阅读(3274) 评论(0) 推荐(0)

python之MySQL学习——防止SQL注入(参数化处理)

摘要: 1 import pymysql as ps 2 3 # 打开数据库连接 4 db = ps.connect(host='localhost', user='root', password='123456', database='test', charset='utf8') 5 6 # 创建一个游标对象 7 cur = db.cursor() 8 9 # 参数化处理 10... 阅读全文

posted @ 2017-07-06 16:00 小明在线 阅读(6220) 评论(0) 推荐(0)

python之MySQL学习——数据操作

摘要: 1.增 2.删除 阅读全文

posted @ 2017-07-06 15:56 小明在线 阅读(316) 评论(0) 推荐(0)

python之MySQL学习——数据查询

摘要: 1 import pymysql as ps 2 3 # 打开数据库连接 4 db = ps.connect(host='localhost', user='root', password='123456', database='test', charset='utf8') 5 6 # 创建一个游标对象 7 cur = db.cursor() 8 9 a = cur.ex... 阅读全文

posted @ 2017-07-06 15:49 小明在线 阅读(240) 评论(0) 推荐(0)

python框架Scrapy中crawlSpider的使用

摘要: 一、创建Scrapy工程 二、进入工程目录,根据爬虫模板生成爬虫文件 三、设置IP池或用户代理(middlewares.py文件) 四、settngs.py配置 五、定义爬取关注的数据(items.py文件) 六、爬虫文件编写(test.py) 七、管道文件编写(pipelines.py) 八、测试 阅读全文

posted @ 2017-07-06 13:51 小明在线 阅读(932) 评论(0) 推荐(0)

在Scrapy中使用IP池或用户代理更新版(python3)

摘要: middlewares.py settngs.py中添加一下代码(注意根据项目名修改指向,如这里的工程名是“的demo3”) 阅读全文

posted @ 2017-07-06 13:22 小明在线 阅读(2674) 评论(0) 推荐(0)

导航