摘要:
1 import scrapy 2 from text_info.items import TextInfoItem 3 4 class A50zwSpider(scrapy.Spider): 5 name = '50zw' 6 allowed_domains = ['m.50zw.la'] 7 s 阅读全文
posted @ 2020-03-13 23:59
爬爬QQ
阅读(476)
评论(0)
推荐(0)
摘要:
1.创建scrapy框架和爬虫程序 2.定义settings.py 3.编写spider爬虫程序 1 #!/usr/bin/python3 2 #-*-coding:UTF-8-*- 3 import scrapy 4 import sys 5 import time 6 sys.path.appe 阅读全文
posted @ 2020-03-13 21:46
爬爬QQ
阅读(830)
评论(0)
推荐(0)
摘要:
1.创建爬虫 1 cmd-cd desktop scrapy startproject top250 View Code 2.修改访问表头UA 将setting文件里的USER_AGENT和COOKIES_ENABLED前面的#去掉 3.定义item容器 1 # -*- coding: utf-8 阅读全文
posted @ 2020-03-13 20:15
爬爬QQ
阅读(414)
评论(0)
推荐(0)
摘要:
1 import pymysql 2 user=input("username:") 3 pwd=input("password:") 4 conn=pymysql.connect(host="localhost",user="%s"%user,password="",database="db1") 阅读全文
posted @ 2020-03-13 14:39
爬爬QQ
阅读(95)
评论(0)
推荐(0)
摘要:
导出现有数据库数据: mysqldump -u用户名 -p密码 数据库名称 >导出文件路径 # 结构+数据 mysqldump -u用户名 -p密码 -d 数据库名称 >导出文件路径 # 结构 !!!注意:()一定要用英文半角 1 /* 2 Navicat Premium Data Transfer 阅读全文
posted @ 2020-03-13 13:31
爬爬QQ
阅读(160)
评论(0)
推荐(0)

浙公网安备 33010602011771号