摘要: 1 import scrapy 2 from text_info.items import TextInfoItem 3 4 class A50zwSpider(scrapy.Spider): 5 name = '50zw' 6 allowed_domains = ['m.50zw.la'] 7 s 阅读全文
posted @ 2020-03-13 23:59 爬爬QQ 阅读(476) 评论(0) 推荐(0)
摘要: 1.创建scrapy框架和爬虫程序 2.定义settings.py 3.编写spider爬虫程序 1 #!/usr/bin/python3 2 #-*-coding:UTF-8-*- 3 import scrapy 4 import sys 5 import time 6 sys.path.appe 阅读全文
posted @ 2020-03-13 21:46 爬爬QQ 阅读(830) 评论(0) 推荐(0)
摘要: 1.创建爬虫 1 cmd-cd desktop scrapy startproject top250 View Code 2.修改访问表头UA 将setting文件里的USER_AGENT和COOKIES_ENABLED前面的#去掉 3.定义item容器 1 # -*- coding: utf-8 阅读全文
posted @ 2020-03-13 20:15 爬爬QQ 阅读(414) 评论(0) 推荐(0)
摘要: 1 import pymysql 2 user=input("username:") 3 pwd=input("password:") 4 conn=pymysql.connect(host="localhost",user="%s"%user,password="",database="db1") 阅读全文
posted @ 2020-03-13 14:39 爬爬QQ 阅读(95) 评论(0) 推荐(0)
摘要: 导出现有数据库数据: mysqldump -u用户名 -p密码 数据库名称 >导出文件路径 # 结构+数据 mysqldump -u用户名 -p密码 -d 数据库名称 >导出文件路径 # 结构 !!!注意:()一定要用英文半角 1 /* 2 Navicat Premium Data Transfer 阅读全文
posted @ 2020-03-13 13:31 爬爬QQ 阅读(160) 评论(0) 推荐(0)