随笔分类 - 爬虫
python爬虫集合
摘要:from urllib import request from time import sleep from lxml import etree import csv # import random #sleep(random.random(1)*2) 随机秒数 # 参数部分 # sz_url = 'https://sz.lianjia.com/zufang/' # # header ...
阅读全文
摘要:import requests import re #正则表达式库导入倒推部分下载文件的代码url='http://zhangmenshiting.qianqian.com/data2/music/6c03fa42a322f8ad3c78eebe9f2b4211/594781778/59478177
阅读全文
摘要:# -*- coding:utf-8 -*-from urllib import request as urllib2import re# 利用正则表达式爬取内涵段子url = r'http://www.neihanpa.com/article/list_5_{}.html'headers = {
阅读全文
浙公网安备 33010602011771号