03 2019 档案

摘要:DRF,全称Django Restful Framework,是一个基于Django的Restful接口框架,是主要用来做API接口的,为前端提供数据的接口。在前面一片博客中,我们构建了一个vue的项目,vue项目是一个前端项目,这个前端项目中的数据就是接口获取的,而今天要完成的drf项目,就是为v 阅读全文
posted @ 2019-03-23 14:32 W的一天 阅读(2210) 评论(0) 推荐(0)
摘要:有很多页面,当我们用request发送请求,返回的内容里面并没有页面上显示的数据,主要有两种情况,一是通过ajax异步发送请求,得到响应把数据放入页面中,对于这种情况,我们可以查看关于ajax的请求,然后分析ajax请求路径和响应,拿到想要的数据;另外一种就是js动态加载得到的数据,然后放入页面中。 阅读全文
posted @ 2019-03-23 09:58 W的一天 阅读(19066) 评论(1) 推荐(2)
摘要:一、Vue自动化工具的安装 1,安装nvm 它是一个node管理工具,当我们的电脑上有多个node版本时,nvm可以帮我们切换node版本。 下载地址:https://github.com/coreybutler/nvm-windows/releases 下载下来后解压安装就可以了,然后配置环境变量 阅读全文
posted @ 2019-03-22 10:59 W的一天 阅读(5316) 评论(0) 推荐(3)
摘要:一、简介 RabbitMQ是一个在AMQP基础上完整的、可复用的企业消息系统,遵循Mozilla Public License开源协议。MQ全称Message Queue(消息队列),它是一种应用程序对应用程序的通信方式。应用程序通过读写入队列的消息(针对应用程序的数据)来通信,而无需专用连接来链接 阅读全文
posted @ 2019-03-21 17:42 W的一天 阅读(1879) 评论(0) 推荐(1)
摘要:一、认识scrapy框架 何为框架,就相当于一个封装了很多功能的结构体,它帮我们把主要的结构给搭建好了,我们只需往骨架里添加内容就行。scrapy框架是一个为了爬取网站数据,提取数据的框架,我们熟知爬虫总共有四大部分,请求、响应、解析、存储,scrapy框架都已经搭建好了。scrapy是基于twis 阅读全文
posted @ 2019-03-09 16:16 W的一天 阅读(9683) 评论(1) 推荐(4)
摘要:一、MongoDB简介 MongoDB是由c++语言编写的,是一个基于分布式文件存储的开源数据库系统,在高负载的情况下,添加更多的节点,可以保证服务器性能。MongoDB旨在为web应用提供扩展的高性能数据存储解决方案。MongoDB将数据存储为一个文档,数据结构由键值对(key=value)组成。 阅读全文
posted @ 2019-03-06 09:44 W的一天 阅读(604) 评论(0) 推荐(0)
摘要:一、FBV与CBV FBV(function based views),即基于函数的视图;CBV(class based views),即基于类的视图,也是基于对象的视图。当看到这个解释时,我是很萌的,我仔细回想了一下,哪里有基于类的视图啊,怎么我之前写的视图都是一个一个的函数啊,奇怪了,很多人都应 阅读全文
posted @ 2019-03-05 10:11 W的一天 阅读(1137) 评论(0) 推荐(1)
摘要:一、selenium模块 之前,我们爬虫是模拟浏览器,但始终不是用的浏览器,但今天我们要说的是另一种爬虫方式,这次不是模拟浏览器,而是用程序去控制浏览器进行一些列操作,也就是selenium。selenium是python的一个第三方库,对外提供的接口可以操控浏览器,比如说输入、点击,跳转,下拉等动 阅读全文
posted @ 2019-03-04 22:35 W的一天 阅读(1971) 评论(0) 推荐(3)
摘要:一、啥是数据解析 在上一篇关于爬虫的博客里,我提到过,整个爬虫分为四个部分,上一篇博客已经完成了前两步,也就是我说的最难的地方,接下来这一步数据解析不是很难,但就是很烦人,但只要你有耐心,一步一步查找、排除就会提取出目标信息,这一步就相当于从接收到的庞大数据中提取出真正想要、有意义的信息,所以对于爬 阅读全文
posted @ 2019-03-03 09:05 W的一天 阅读(4598) 评论(1) 推荐(0)
摘要:一、爬虫 我所理解的爬虫就是编写程序,模拟浏览器发送请求,然后服务端把数据响应给我,然后我再对响应的数据做解析,拿到我想要的那一小部分,这就是整个爬虫过程。说起来很简单哈,其实不然,门户网站是很不希望他们的数据被爬虫程序拿到,有可能说有些不怀好意的人拿数据干见不得人的勾当,或者说现在大数据时代,有数 阅读全文
posted @ 2019-03-02 15:15 W的一天 阅读(2682) 评论(0) 推荐(0)
摘要:长期以来都想用python对Excel进行一些列的操作,但由于某种神秘的力量控制着我,一直未果,今天有幸用requests模块和BeautifulSoup模块进行爬虫练习,拿到了一大批数据,照我以前,都只是用字典啊、列表啊,或者文本文件存放,之前没觉得哪里不好,但今天的我很奇怪,怎么看怎么不爽,而且 阅读全文
posted @ 2019-03-01 22:32 W的一天 阅读(2358) 评论(0) 推荐(0)