01 2020 档案

摘要:一、为了快点更新,首先替换apt源(感谢https://blog.csdn.net/zhangjiahao14/article/details/80554616) 1.复制源文件备份,以防万一 我们要修改的文件是sources.list,它在目录/etc/apt/下,sources.list是包管理 阅读全文
posted @ 2020-01-11 12:43 import* 阅读(484) 评论(0) 推荐(0)
摘要:1 from bs4 import BeautifulSoup 2 import re 3 # 获取需要解析的代码 4 soup = BeautifulSoup(open('1.html','r',encoding='utf8'),'lxml') 5 6 # 改正前端代码中可能出现的错误 7 sou 阅读全文
posted @ 2020-01-10 16:29 import* 阅读(275) 评论(0) 推荐(0)
摘要:import requestsfrom lxml import etreeurl = 'https://www.kuaidaili.com/free/'headers = { 'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_2) 阅读全文
posted @ 2020-01-09 16:13 import* 阅读(1362) 评论(0) 推荐(0)
摘要:from urllib import parseimport lxmlimport requestsdef parse_url(): key_word = input('请输入关键字>>:') # 微博的url编码两次 key_word = parse.quote(key_word,encoding 阅读全文
posted @ 2020-01-09 16:12 import* 阅读(207) 评论(0) 推荐(0)
摘要:import requests# 使用proxies关键字response = requests.get('https://www.baidu.com', proxies={ # 'http':'http://114.101.18.169:65309', 'socks5':'http://114.1 阅读全文
posted @ 2020-01-09 16:07 import* 阅读(241) 评论(0) 推荐(0)
摘要:from urllib import parsekey_word = "中文"url = 'https://s.weibo.com/weibo/' + parse.quote(key_word,encoding='utf8')print(url)#https://s.weibo.com/weibo/ 阅读全文
posted @ 2020-01-09 16:03 import* 阅读(182) 评论(0) 推荐(0)