返回顶部
扩大
缩小

Gaidy's

2019年12月25日

CRM客户关系管理系统(四)

摘要: kingadmin设计开发 4.4.根据list_display配置生成数据列表 (1)kingadmin/views.py (2)kingadmin/templates/kingadmin/table_obj_list.html 通过自定义的admin_class类,循环出list_display 阅读全文

posted @ 2019-12-25 15:54 Gaidy 阅读(238) 评论(0) 推荐(0)

CRM客户关系管理系统(三)

摘要: 第四章、kingadmin开发设计 4.1.kingadmin设计 django admin注册model的写法 crm/admin.py class CustomerAdmin(admin.ModelAdmin): #显示 list_display = ['name','source','cont 阅读全文

posted @ 2019-12-25 15:53 Gaidy 阅读(421) 评论(0) 推荐(0)

CRM客户关系管理系统(二)

摘要: 第三章、前端页面设计 3.1.前端页面布局 Bootstrap模板下载 (1)静态文件 新建statics目录(存放css/fonts/imgs/js/plugins) settings配置 STATIC_URL = '/static/' STATICFILES_DIRS = ( os.path.j 阅读全文

posted @ 2019-12-25 15:19 Gaidy 阅读(421) 评论(0) 推荐(0)

CRM客户关系管理系统(一)

摘要: 第一章、CRM介绍和开发流程 1.1.CRM简介 客户关系管理(CRM) 客户关系管理(customer relationship management)的定义是:企业为提高核心竞争力,利用相应的信息技术以及互联网技术协调企业与顾客间在销售、营销和服务上的交互,从而提升其管理方式,向客户提供创新式的 阅读全文

posted @ 2019-12-25 15:13 Gaidy 阅读(472) 评论(0) 推荐(0)

正则表达式爬取猫眼电影

摘要: 正则表达式爬取猫眼电影Top100 import requests import re,json from multiprocessing import Pool def get_one_page(url): response = requests.get(url) return response. 阅读全文

posted @ 2019-12-25 15:11 Gaidy 阅读(424) 评论(0) 推荐(0)

21天打造分布式爬虫-房天下全国658城市房源(十一)

摘要: 项目:爬取房天下网站全国所有城市的新房和二手房信息 网站url分析 1.获取所有城市url http://www.fang.com/SoufunFamily.htm 例如:http://cq.fang.com/ 2.新房url http://newhouse.sh.fang.com/house/s/ 阅读全文

posted @ 2019-12-25 15:08 Gaidy 阅读(300) 评论(0) 推荐(0)

21天打造分布式爬虫-简书整站爬取(十)

摘要: 10.1.简书整站爬虫 创建项目 scrapy startproject jianshu scrapy genspider -t crawl jianshu_spider "jianshu.com" jianshu_spider.py # -*- coding: utf-8 -*- import s 阅读全文

posted @ 2019-12-25 15:06 Gaidy 阅读(308) 评论(0) 推荐(0)

21天打造分布式爬虫-下载汽车之家图片(九)

摘要: 9.1.下载汽车之家图片 新建项目 scrapy startproject bmx scrapy genspider bmx5 "car.autohome.com.cn" bmx5.py # -*- coding: utf-8 -*- import scrapy from bmx.items imp 阅读全文

posted @ 2019-12-25 15:03 Gaidy 阅读(227) 评论(0) 推荐(0)

21天打造分布式爬虫-Crawl类爬取小程序社区(八)

摘要: 8.1.Crawl的用法实战 新建项目 scrapy startproject wxapp scrapy genspider -t crawl wxapp_spider "wxapp-union.com" wxapp_spider.py # -*- coding: utf-8 -*- import 阅读全文

posted @ 2019-12-25 14:43 Gaidy 阅读(273) 评论(0) 推荐(0)

21天打造分布式爬虫-Spider类爬取糗事百科(七)

摘要: 7.1.糗事百科 安装 pip install pypiwin32 pip install Twisted-18.7.0-cp36-cp36m-win_amd64.whl pip install scrapy 创建和运行项目 scrapy startproject qsbk #创建项目 scrapy 阅读全文

posted @ 2019-12-25 14:39 Gaidy 阅读(171) 评论(0) 推荐(0)

21天打造分布式爬虫-Selenium爬取拉钩职位信息(六)

摘要: 6.1.爬取第一页的职位信息 第一页职位信息 from selenium import webdriver from lxml import etree import re import time class LagouSpider(object): def __init__(self): self 阅读全文

posted @ 2019-12-25 14:26 Gaidy 阅读(244) 评论(0) 推荐(0)

21天打造分布式爬虫-多线程下载表情包(五)

摘要: 5.1.threading模块 简单使用 import threading,time def coding(): for x in range(3): print('正在写代码%s'%x) time.sleep(2) def drawing(): for x in range(3): print(' 阅读全文

posted @ 2019-12-25 14:16 Gaidy 阅读(216) 评论(0) 推荐(0)

21天打造分布式爬虫-中国天气网和古诗文网实战(四)

摘要: 4.1.中国天气网 网址:http://www.weather.com.cn/textFC/hb.shtml 解析:BeautifulSoup4 爬取所有城市的最低天气 import requests from bs4 import BeautifulSoup import html5lib def 阅读全文

posted @ 2019-12-25 14:05 Gaidy 阅读(312) 评论(0) 推荐(0)

21天打造分布式爬虫-豆瓣电影和电影天堂实战(三)

摘要: 3.1.豆瓣电影 使用lxml import requests from lxml import etree headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, l 阅读全文

posted @ 2019-12-25 13:52 Gaidy 阅读(207) 评论(0) 推荐(0)

21天打造分布式爬虫-requests库(二)

摘要: 2.1.get请求 简单使用 import requests response = requests.get("https://www.baidu.com/") #text返回的是unicode的字符串,可能会出现乱码情况 # print(response.text) #content返回的是字节, 阅读全文

posted @ 2019-12-25 13:08 Gaidy 阅读(265) 评论(0) 推荐(0)

21天打造分布式爬虫-urllib库(一)

摘要: 1.1.urlopen函数的用法 #encoding:utf-8 from urllib import request res = request.urlopen("https://www.cnblogs.com/") print(res.readlines()) #urlopen的参数 #def 阅读全文

posted @ 2019-12-25 11:51 Gaidy 阅读(221) 评论(0) 推荐(0)

python爬虫人门(十)Scrapy框架之Downloader Middlewares

摘要: 设置下载中间件(Downloader Middlewares) 下载中间件是处于引擎(crawler.engine)和下载器(crawler.engine.download())之间的一层组件,可以有多个下载中间件被加载运行。 当引擎传递请求给下载器的过程中,下载中间件可以对请求进行处理 (例如增加 阅读全文

posted @ 2019-12-25 11:40 Gaidy 阅读(276) 评论(0) 推荐(0)

python爬虫入门(九)Scrapy框架之数据库保存

摘要: 豆瓣电影TOP 250爬取-->>>数据保存到MongoDB 豆瓣电影TOP 250网址 要求: 1.爬取豆瓣top 250电影名字、演员列表、评分和简介 2.设置随机UserAgent和Proxy 3.爬取到的数据保存到MongoDB数据库 items.py # -*- coding: utf-8 阅读全文

posted @ 2019-12-25 11:37 Gaidy 阅读(355) 评论(0) 推荐(0)

python爬虫入门(八)Scrapy框架之CrawlSpider类

摘要: CrawlSpider类 通过下面的命令可以快速创建 CrawlSpider模板 的代码: scrapy genspider -t crawl tencent tencent.com CrawSpider是Spider的派生类,Spider类的设计原则是只爬取start_url列表中的网页,而Cra 阅读全文

posted @ 2019-12-25 11:34 Gaidy 阅读(316) 评论(0) 推荐(0)

python爬虫入门(七)Scrapy框架之Spider类

摘要: Spider类 Spider类定义了如何爬取某个(或某些)网站。包括了爬取的动作(例如:是否跟进链接)以及如何从网页的内容中提取结构化数据(爬取item)。 换句话说,Spider就是您定义爬取的动作及分析某个网页(或者是有些网页)的地方。 class scrapy.Spider是最基本的类,所有编 阅读全文

posted @ 2019-12-25 11:29 Gaidy 阅读(853) 评论(0) 推荐(0)

导航