08 2018 档案

摘要:from selenium import webdriver from selenium.webdriver.support.wait import WebDriverWait from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.common.by import By f... 阅读全文
posted @ 2018-08-16 21:24 找回失去的自我 阅读(551) 评论(0) 推荐(0)
摘要:1.图片展示: 2.写出上面图式的小脚本需要利用python两个方面的知识: (1)可视化库 (需用库:tkinter) (2)简单爬虫知识 (需用库:requests) 注意:爬虫在获取翻译信息时,会因为一些反爬虫的机制导致失败,所以从翻译网站获取翻译信息时,要选择稳定性强的翻译网站,并做好针对网 阅读全文
posted @ 2018-08-13 21:57 找回失去的自我 阅读(543) 评论(0) 推荐(0)
摘要:# coding = utf-8 # 字符串异或加密 import random choice = input('加密(1)还是解谜(2)?') def encode(str1, key): #设置秘钥种子 random.seed(key) str2 = '' for c in str1: str2 += str(ord(c) ^ random... 阅读全文
posted @ 2018-08-10 21:06 找回失去的自我 阅读(2272) 评论(0) 推荐(0)
摘要:1.为什么要设置代理ip 在学习Python爬虫的时候,经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以通过设置代理IP来避免被封,从而顺利爬取。 2.从那里获取免费的IP 西刺免费 阅读全文
posted @ 2018-08-09 21:38 找回失去的自我 阅读(282) 评论(0) 推荐(0)
摘要:1.轻量级的web开发框架,没有像django那样的命令行工具,只用于写一些小的脚本 (1)安装tornado包 (2)安装成功后,在IDE中建立项目名example,在example下 建立app.py: 再建立template文件夹和static文件夹,在template中创建html文件,在s 阅读全文
posted @ 2018-08-08 21:48 找回失去的自我 阅读(121) 评论(0) 推荐(0)
摘要:1.爬取目标网站:http://www.zhaoxiaoshuo.com/all.php?c=0&o=0&s=0&f=2&l=0&page=1 2.爬取目标网站信息:小说类型 小说书名 小说作者 小说字数 小说投票数 小说搜藏数 小说状态 3.scrapy框架结构: (1)items.py (2)s 阅读全文
posted @ 2018-08-04 18:47 找回失去的自我 阅读(781) 评论(0) 推荐(0)