用工具爬虎牙星秀VS用代码
先来个工具操作
1、获取链接https://www.huya.com/g/xingxiu

2、删除字段、增加字段、开始采集

3、启动

4、运行中

5、采的太多了我就停止了

6、导出数据Excel格式

 
7、查看本地文件

8、导入到mysql数据库

9、mysql配置


10、选择导出设置

11、查看mysql数据库里面的数据

12、OK啦!好开心!!!
用代码开始操作
1、首先咱们创建个爬取的工程项目
scrapy startproject huyaPro

2、创建虫子

3、settings配置文件里面修改

4、先看下数据试试
scrapy crawl huya

5、复制ul的xpath

6、分别定位标题、作者、热度

import scrapy
class HuyaSpider(scrapy.Spider):
name = 'huya'
start_urls = ['https://www.huya.com/g/xingxiu']
def parse(self, response):
# 复制ul的xpath并获取下面所有的li数据:
li_list = response.xpath('//*[@id="js-live-list"]/li')
# 定义空列表:
all_data = []
for li in li_list:
# 获取标题:
title = li.xpath('./a[2]/text()').extract_first()
# 获取作者:
author = li.xpath('./span/span[1]/i/text()').extract_first()
# 获取热度:
hot = li.xpath('./span/span[2]/i[2]/text()').extract_first()
# 定义字典形式:
dic = {
"title": title,
"author": author,
"hot": hot
}
# 列表里面增加字典的数据:
all_data.append(dic)
return all_data
7、存储到本地文件.csv格式
终端执行命令:scrapy crawl huya -o huya.csv

 
 
8、存储到mysql数据库
 
9、items.py

10、接下来管道处理

11、配置文件开启管道

12、爬取到本地
终端执行命令:scrapy crawl huya

13、mysql配置部分

14、管道mysql

15、后台查数据

16、存储到redis
17、升级redis版本
pip install -U redis==2.10.6

18、终端执行命令
scrapy crawl huya

19、查看redis库

lrange huyaList 0 -1查看所有内容
 
                    
                     
                    
                 
                    
                
 
                
            
         
         浙公网安备 33010602011771号
浙公网安备 33010602011771号