摘要: import psutil from apscheduler.schedulers.blocking import BlockingScheduler from threading import Timer import datetime def System_text(): # 获取cpu使用情况 阅读全文
posted @ 2020-06-30 17:03 Mario_ok 阅读(250) 评论(0) 推荐(0)
摘要: import base64 from Crypto.Cipher import AES data = '4' # 待加密数据 password = '1593574560efawqr' # 16,24,32位长的密码(密钥) if isinstance(password, str):# 如果它是st 阅读全文
posted @ 2020-06-16 18:00 Mario_ok 阅读(220) 评论(1) 推荐(0)
摘要: 这是遍历excel表的第3列的所有行 df = pd.DataFrame(pd.read_excel(xls_load)) xls_load 是excel表的地址 如:C:\python\img\2020 for i in range(0,len(df)): 取长度 df1 = df.columns 阅读全文
posted @ 2020-05-08 11:20 Mario_ok 阅读(5739) 评论(0) 推荐(0)
摘要: str_i = "20081231" list_i = list(i) str转成list list_i.insert(4, '/') 注意不用重新赋值 list_i.insert(7, '/') str_i = ''.join(i) list转成str print(str_i) 阅读全文
posted @ 2020-05-06 17:12 Mario_ok 阅读(817) 评论(0) 推荐(0)
摘要: items.py部分 import scrapy class App01Item(scrapy.Item): define the fields for your item here like: name = scrapy.Field() original_url = scrapy.Field() 阅读全文
posted @ 2020-05-05 22:47 Mario_ok 阅读(100) 评论(0) 推荐(0)
摘要: 下载中间件三大函数 1. process_request(request,spider)拦截request ​ 返回值(4种) ​ 返回 None 正常情况是none ​ 返回 request 重新放回队列 ​ 返回 response ​ raises IgnoreRequest 抛弃这个reque 阅读全文
posted @ 2020-04-20 10:26 Mario_ok 阅读(139) 评论(0) 推荐(0)
摘要: 首次scrapy的58爬虫 house_test pipelines main items 阅读全文
posted @ 2020-04-20 10:25 Mario_ok 阅读(150) 评论(0) 推荐(0)
摘要: 初入scrapy 1. 进入cmd,到我创建的文件夹E:spyder 2. 创建一个项目 例如:city_58 3. 输入代码:scrapy startproject city_58 4. 然后进入city_58项目目录下 cd city_58 5. 开始创建爬虫程序 scrapy genspide 阅读全文
posted @ 2020-04-20 10:23 Mario_ok 阅读(144) 评论(0) 推荐(0)
摘要: 爬虫拉钩职位 阅读全文
posted @ 2020-03-12 22:00 Mario_ok 阅读(261) 评论(0) 推荐(0)
摘要: 爬取知乎作者关注的人物信息 阅读全文
posted @ 2020-03-12 21:59 Mario_ok 阅读(272) 评论(0) 推荐(0)
点击右上角即可分享
微信分享提示