01 2020 档案
摘要:为什么要用numpy .jpg) 为什么要用ndarray .jpg) 怎么用numpy .jpg) .jpg) 讲一下图中 In[59]的例子,这里的问题是 列表,和数组有什么区别 首先要知道一个点,你只要理清了这个点,就知道答案了。 那就是,列表里存的都是什么? 答案:列表里存的都是一个个地址,
阅读全文
摘要:IPython介绍 ipython 是一个 python 的交互式 shell ,比默认的 python shell 好用得多,支持变量自动补全,自动缩进,支持 bash shell命令,内置了许多很有用的功能和函数。学ipython 将会让我们以一种更高的效率来使用 python 。同时它也是利用
阅读全文
摘要:十六 mysql安装 以源码安装的方式编译和安装Mysql 5.6 1 卸载旧版本 2 安装mysql 2.1 安装源码需要编译 2.2 上传本地mysql5.6源码包至/opt 2.3 编译 2.4 配置mysql 十七 shell编程 17.1 shell编程是个啥 Shell 是一个命令行解释
阅读全文
摘要:十二 Linux 磁盘分区、挂载 12.1 分区基础知识 12.1.1 分区方式 12.1.2 windows下的磁盘分区 12.2Linux分区 12.2.1 原理介绍 1.Linux 来说无论有几个分区,分给哪一目录使用,它归根结底就只有一个根目录,一个独立且唯一的文件结构 , Linux 中每
阅读全文
摘要:开机/重启/用户切换/注销 7.1 关机/重启命令 特别注意: 当关机或重启前,都应当先执行一下sync指令,把内存的数据写入磁盘,防止数据丢失 7.2 用户切换/注销 7.2.1 基本说明: 正常在公司是不会给你root权限的,就算给你了root权限,也不要拿root用户直接登录,避免操作失误 正
阅读全文
摘要:wtforms校验组件 安装 使用1 login.html 使用2 register.html
阅读全文
摘要:"Linux基础指令上" "Linux基础命令(中)" "linux基础指令(下)" "shell编程"
阅读全文
摘要:Linux 关于 Linux 的历史就不说。 Linux 和 Windows 的比较 Windows,VMware和Centos三者的关系 就是在你的 Windows 里用Vmware开一个虚拟机空间,用来放这个linux操作系统以及其他必要的东西。 配置网络连接的三种形式 1.1桥连接 概念:
阅读全文
摘要:Scrapy框架 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方 式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API 所返回的数据(例如
阅读全文
摘要:SQLAlchemy SQLAlchemy是一个基于Python实现的ORM框架。该框架建立在 DB API之上,使用关系对象映射进行数据库操作,简言之便是:将类和对象转换成SQL,然后使用数据API执行SQL并获取执行结果。 组成部分: SQLAlchemy本身无法操作数据库,其必须以来pymsq
阅读全文
摘要:flask session 通过这种方式可以把session存入redis。
阅读全文
摘要:信号 信号就相当于是埋点,在执行到send这个方法的时候,就会执行信号中注册的函数。 一共有两个原生的信号:request_started 和 request_finished。 信号和请求扩展的区别再去,请求扩展是在响应函数前执行的函数,信号是在请求扩展之前执行的函数。从源码中可以看出来。 自定义
阅读全文
摘要:flask是一个轻量级框架,它默认依赖2个外部库: Jinja2 模板、 WSGI工具集 Werkzeug 。 flask的使用特点是基本所有的工具使用都依赖于导入的形式去扩展,flask只保留了web开发的核心功能。 通常:我们学习一个web框架只需要学会 如何使用路由、如何使用视图函数与模板语法
阅读全文
摘要:MongoDB MongoDB是一款强大、灵活、且易于扩展的通用型数据库。 1、易用性 2、易扩展性 3、丰富的功能 4、卓越的性能 MongoDB基础知识 .jpg) 从上面的图中可以看出,集合就相当于关系型数据库的表,文档就是记录等等 集合就是一组文档。如果将MongoDB中的一个文档比喻为关系
阅读全文
摘要:```python import requests from bs4 import BeautifulSoup import re from mysql_control import MySQL # 爬虫三部曲 # 1.发送请求 def get_html(url): response = requests.get(url) return response # 2.解析数据 def parse_da
阅读全文
摘要:```python import requests import re import uuid from concurrent.futures import ThreadPoolExecutor pool = ThreadPoolExecutor(50) # 爬虫三部曲 # 1.发送请求 def get_html(url): print(f'start: {url}...') response =
阅读全文
摘要:```python import requests import re headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36' } # 爬虫三部曲 # 1.发送请求 def get
阅读全文
摘要:reques补充 Response的属性 bs4五种过滤器
阅读全文

浙公网安备 33010602011771号