内容概要
- hashlib加密模块
- hashib加密补充说明
- subprocess模块
- logging日志模块
- logging配置参数
- 日志的组成
- 日志配置字典
内容详细
hashlib加密模块
'''
加密:所谓的加密就是通过一系列的算法将明文数据转化为加密数据,
目的是为了数据的安全性
python里hashlib提供了几种常见的摘要算法,如MD5,SHA1等
而所谓的摘要算法就是通过摘要函数对任意长度的数据计算出固定长度的摘要,
目的是为了发现原始数据是否被篡改过
摘要算法这里我们称为加密算法
常见的加密算法有:md系列,sha系列,base系列,hmac系列
'''
1.何为加密
将明文数据处理成密文数据 让人无法看懂
2.为什么加密
保证数据的安全
3.如何判断数据是否是加密的
一串没有规律的字符串(数字、字母、符号)
4.密文的长短有何讲究
密文越长表示使用的加密算法(数据的处理过程)越复杂
'''
密文越复杂,其内部相对应的算法就越复杂,在计算的时候,
占用的资源就越多,密文越长,基于网络传输需要占用的数据也就越大
具体使用什么算法取决于项目的需求,不过一般md5就足够了
'''
5.常见的加密算法有哪些
md5、base64、hmac、sha系列 (md5是我们使用比较多的)
6.加密算法基本操作
import hashlib
# 1.选择加密算法
md5 = hashlib.md5()
# 2.传入明文数据
md5.update(b'hello') !注意:update只能接受bytes类型的数据
# 3.获取加密密文
res = md5.hexdigest()
print(res) # 5d41402abc4b2a76b9719d911017c592
hashib加密补充说明
1.加密算法不变 内容如果相同 那么结果肯定相同
# md5.update(b'hello~world~python~666') # 一次性传可以
md5.update(b'hello') # 分多次传也可以
md5.update(b'~world') # 分多次传也可以
md5.update(b'~python~666') # 分多次传也可以
'''
加密后的数据是没有办法反解密成明文的
网站上一些所谓的解密,其实就是提前计算出一系列明文对应的密文
之后对比密文再获取明文
'''
2.加密之后的结果是无法反解密的
只能从明文到密文正向推导 无法从密文到明文反向推导
常见的解密过程其实是提前猜测了很多种结果
123 密文
321 密文
222 密文
'''
只要涉及到用户的登录密码存储,一般都是加密处理,只有用户自己知道明文是什么
1、程序员无法知道用户的登录密码明文
2、即使数据泄露了也无从得知明文数据
'''
3.加盐处理
在明文里面添加一些额外的干扰项
'''
所谓的加盐处理,就是在对明文数据进行加密处理之前,添加一些干扰项,
使得真正的明文数据更难以被破解
'''
# 1.选择加密算法
md5 = hashlib.md5()
# 2.传入明文数据
md5.update('公司设置的干扰项'.encode('utf8'))
md5.update(b'hello python') # 一次性传可以
# 3.获取加密密文
res = md5.hexdigest()
print(res) # e53024684c9be1dd3f6114ecc8bbdddc
'''
加密后的数据是一串无规则的随机字符串,且只要是一个字符的变化,加密后的数据就完全不同
'''
4.动态加盐
干扰项是随机变化的
eg:当前时间、用户名部分...
'''
动态加盐简单来说就是加的盐是一个变化值,每次获取的密文都不一样
使得真实的明文数据被破解的难度加大
'''
import hashlib
import datetime
md1111 = hashlib.md5()
md1111.update(b'fuckingdog')
res = md1111.hexdigest()
print(res) # 固定不变
req = str(datetime.datetime.now()) # 转为字符串
md2222 = hashlib.md5()
md2222.update(req.encode('utf8')) # 动态加盐 字符串转二进制
md2222.update(b'fuckingdog')
ret = md2222.hexdigest()
print(ret) # 动态变化
"""
在IT互联网领域 没有绝对的安全可言 只有更安全
原因在于互联网的本质 就是通过网线(网卡)连接计算机
例1:有时候我们感觉某个软件下载速度很快 是因为有的用户本地有现成资源 软件直接发送给其他用户
例2:有的网站对密码的加密程度不高 可以拦截获取密码 看似不能拦截的也能通过一些手段获取
"""
5.加密实战操作
1.用户密码加密
比对密文,就算密文数据库泄露,明文密码也不会泄露
2.文件安全性校验
软件提供方写好软件后先用算法加密,然后在用户下载时将密文和算法都提供给用户,用户下载后运行前后台先对软件(文件)用提供的算法加密,然后对比密文
3.文件内容一致性校验(与2同理)
有时候出现下载/上传速度很快(一致性检验:已上传/下载过的数据 文件名变化 但内容没变 就可以避免重复上传/下载 节省资源)(先上传/下载密文)
也可以检验文件是否被修改
4.大文件内容加密
截取部分内容加密即可(为避免巧合 根据实际情况多分几段)
'''3、4具体如下:'''
import hashlib
import time
'''
当对一个文件内的全部数据进行加密时,文件较小时,可以这样使用,
但是当文件很大时,全部加密会大大增加消耗的资源,这时候就要采用
对文件进行切片读取加密的方式
'''
# 这里以一个txt文件为例(注意二进制)
# 先确定加密算法
md5 = hashlib.md5()
# 1、我们先采用加密的方式读取原始文件里的内容
with open(r'hell.txt','rb') as f:
for line in f:
# 把明文数据传入加密算法中
md5.update(line)
real_date = md5.hexdigest()
print(real_date) # 5140f3cf68d0cefcfa16a400711c4999
# 2、对原始文件进行修改后再进行加密读取
# 确定加密的算法
md5 = hashlib.md5()
with open(r'hell.txt','rb') as f:
for line in f:
# 将明文数据传入到加密算法中
md5.update(line)
real_date = md5.hexdigest()
print(real_date) # 7f221ddbbf8aca5b3555342be4964160
'''
从上面两个案例我们可以看到,文件修改前后的加密数据差距很大,
我们一般在网络上下载的文件,都是经过加密处理以后的,当我们下载后,
再利用形同的算法进行加密处理随后和文件之间的加密数据进行比对,如果不一样,
就说明文件有被修改的迹象,也就是我们平时在下载软件时会遇到警告的原因(可能还有病毒!!!)
'''
当我们要进行加密的文件数据较大时,如何采用切片获取数据进行加密
import os
# 1、读取文件的大小
size = os.path.getsize(r'a.txt')
# 2、指定切片读取的策略(读取几段,每段读取几个字节)
read_method = [0, size // 4, size // 2, size]
'''
了解知识:
比特流技术:(所有用户都充当网站数据提供者,所有有时候会出现下载速度很快之类的现象(有可能就是你同桌设备上的资源,网站直接拿去发送给你)
断点续传技术:(文件较大!)
'''
subprocess模块
模拟操作系统终端 执行命令并获取结果
"""
1.可以基于网络连接上一台计算机(socket模块)
2.让连接上的计算机执行我们需要执行的命令
3.将命令的结果返回
"""
import subprocess
res = subprocess.Popen(
'asdas', # 操作系统要执行的命令
shell=True, # 固定配置
stdin=subprocess.PIPE, # 输入命令
stdout=subprocess.PIPE, # 输出结果
)
print('正确结果', res.stdout.read().decode('gbk')) # 获取操作系统执行命令之后的正确结果
"""
windows电脑内部编码默认为GBK
"""
print('错误结果', res.stderr) # 获取操作系统执行命令之后的错误结果
logging日志模块
1.如何理解日志
简单的理解为是记录行为举止的操作(历史史官)
2.日志的级别
五种级别
导入日志模块
import logging
import logging.config
日志分为五个等级
1、debug级别
logging.debug('debug级别') # 级别为10
'''
debug级别是代码运行一行记录一行
'''
2、info级别
logging.info('info级别') # 级别为20
'''
info级别则是记录产生的信息
'''
3、warning级别
logging.warning('warning级别') # 级别为30
'''
warning级别记录程序的预警信息,日志默认的级别为warning级别
'''
4、error级别
logging.error('error级别') # 级别为40
'''
error级别记录程序的异常信息
'''
5、critical级别
logging.critical('critical级别') # 级别为50
'''
critical级别记录程序出现重大事故的信息
'''
import logging
logging.debug('debug message')
logging.info('info message')
logging.warning('warning message')
logging.error('error message')
logging.critical('critical message')
'''只有warning级别以上的才会被打印'''
日志文件需要考虑的两点
'''针对日志模块需要考虑以下几点
1、日志的产生位置
终端(可以理解为直接在显示屏上显示)
文件(写入文件中,只有打开文件时才能看到)
2、日志的格式
打印日志的格式,且不同的产生位置的打印格式不一样
'''
3.日志模块要求
代码无需掌握 但是得会CV并稍作修改
file_handler = logging.FileHandler(filename='x1.log', mode='a', encoding='utf8',)
logging.basicConfig(
format='%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s',
datefmt='%Y-%m-%d %H:%M:%S %p',
handlers=[file_handler,],
level=logging.ERROR
)
logging.error('你好')
logging配置参数
logging.basicConfig()函数中可通过具体参数来更改logging模块默认行为,可用参数有:
filename:用指定的文件名创建FiledHandler,这样日志会被存储在指定的文件中。
filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。
format:指定handler使用的日志显示格式。
datefmt:指定日期时间格式。
level:设置rootlogger(后边会讲解具体概念)的日志级别
stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件(f=open(‘test.log’,’w’)),默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。
format参数中可能用到的格式化串:
%(name)s Logger的名字
%(levelno)s 数字形式的日志级别
%(levelname)s 文本形式的日志级别
%(pathname)s 调用日志输出函数的模块的完整路径名,可能没有
%(filename)s 调用日志输出函数的模块的文件名
%(module)s 调用日志输出函数的模块名
%(funcName)s 调用日志输出函数的函数名
%(lineno)d 调用日志输出函数的语句所在的代码行
%(created)f 当前时间,用UNIX标准的表示时间的浮 点数表示
%(relativeCreated)d 输出日志信息时的,自Logger创建以 来的毫秒数
%(asctime)s 字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒
%(thread)d 线程ID。可能没有
%(threadName)s 线程名。可能没有
%(process)d 进程ID。可能没有
%(message)s用户输出的消息
日志的组成
1.产生日志
2.过滤日志
基本不用 因为在日志产生阶段就可以控制想要的日志内容
3.输出日志
4.日志格式
import logging
1.日志的产生(准备原材料) logger对象
logger = logging.getLogger('购物车记录')
...
'''
logging对象主要负责产生日志信息
'''
2.日志的过滤(剔除不良品) filter对象>>>:可以忽略 一般不使用
3.日志的产出(成品) handler对象 (输出到文件或终端(console)中)
hd1 = logging.FileHandler('a1.log', encoding='utf-8') # 输出到文件a1中
hd2 = logging.FileHandler('a2.log', encoding='utf-8') # 输出到文件a2中
hd3 = logging.StreamHandler() # 输出到终端
...
'''
handler对象主要负责日志的产生位置
'''
4.日志的格式(包装) format对象
fm1 = logging.Formatter(
fmt='%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s',
datefmt='%Y-%m-%d %H:%M:%S %p',
)
fm2 = logging.Formatter(
fmt='%(asctime)s - %(name)s: %(message)s',
datefmt='%Y-%m-%d',
)
...
'''
formatter对象主要负责日志的打印格式
生成日志的过程:
产生日志>>>过滤日志>>>选择产生位置>>>日志格式化
'''
5.给logger对象绑定handler对象
logger.addHandler(hd1)
logger.addHandler(hd2)
logger.addHandler(hd3)
...
'''
绑定handler对象:日志名.addHandler(产生位置)
'''
6.给handler绑定formmate对象
hd1.setFormatter(fm1)
hd2.setFormatter(fm2)
hd3.setFormatter(fm1)
...
'''
绑定formatter对象:handler.setFormatter(格式1)
'''
7.设置日志等级
logger.setLevel(10) # debug
log.setLevel(30) # warning
...
8.记录日志
logger.debug('日志信息')
'''
日志的生成过程非常麻烦,因此可以使用生成日志的通用模板,具体见节!!!
'''
![image]()
日志配置字典
import logging
import logging.config (config比较特殊,需要另行再导入)
1、定义日志输出格式 开始
standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \
'[%(levelname)s][%(message)s]' # 其中name为getlogger指定的名字
simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s'
2、自定义文件路径
logfile_path = 'a3.log' # (字典中需要提供)
'''
配置字典基本结构
LOGGING_DIC = {
'version':,
'disable_existing_loggers':,
'formatters':,
'filters':,
'handlers':,
loggers':}
'''
3、使用配置字典:
LOGGING_DIC = {
'version': 1,
'disable_existing_loggers': False,
'formatters': {
'standard': {
'format': standard_format
},
'simple': {
'format': simple_format
},
},
'filters': {}, # 过滤日志(不用 所以空字典)
'handlers': {
# 打印到终端的日志
'console': { # 输出到终端
'level': 'DEBUG',
'class': 'logging.StreamHandler', # 打印到屏幕
'formatter': 'simple'
},
# 打印到文件的日志,收集info及以上的日志
'default': { # 默认
'level': 'DEBUG',
'class': 'logging.handlers.RotatingFileHandler', # 保存到文件 # RotatingFileHandler滚动输出
'formatter': 'standard',
'filename': logfile_path, # 日志文件(需要我们提供的)
'maxBytes': 1024 * 1024 * 5, # 日志大小 5M 达到后另新建
'backupCount': 5, # 备份 # 限定日志文件备份个数 达到后依次覆盖 数量保持5(相当于有时间限制——如监控)
'encoding': 'utf-8', # 日志文件的编码,再也不用担心中文log乱码了
},
},
'loggers': {
兼容的:
# logging.getLogger(__name__)拿到的logger配置
'': { # 键用空字符串代替
'handlers': ['default', 'console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
'level': 'DEBUG',
'propagate': True, # 向上(更高level的logger)传递
}, # 当键不存在的情况下 (key设为空字符串)默认都会使用该k:v配置
写死的:
# '购物车记录': {
# 'handlers': ['default','console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
# 'level': 'WARNING',
# 'propagate': True, # 向上(更高level的logger)传递
# }, # 当键不存在的情况下 (key设为空字符串)默认都会使用该k:v配置
},
}
4、自动加载字典中的配置
logging.config.dictConfig(LOGGING_DIC) # 自动加载字典中的配置
logger1 = logging.getLogger('文件名') # 指定文件 括号中文件名与字典中loggers的键写入的名字一致
logger1.级别('自定义内容') # 自定级别 括号内自定义内容
'''
需要注意》》》:
写死的方式:
logging.getLogger('文件名') 里面的文件名 必须是字典中loggers 的键出现过的 有几个下面就可以填几个
兼容诀窍(记啥都行):
键用空字符串代替('':),当键不存在的情况下 (key设为空字符串)默认都会使用该k:v配置
实现了兼容之后就能实现写入不同类型的日志 然后通过筛选 获得自己想要查看的
方法:for 循环、 列表生成式、 正则表达式。。。
'''
eg:
logger1 = logging.getLogger('购物车记录')
logger1.warning('尊敬的VIP客户 晚上好 您又来啦')
logger1 = logging.getLogger('注册记录')
logger1.debug('jason注册成功')
logger1 = logging.getLogger('红浪漫顾客消费记录')
logger1.debug('慢男 猛男 骚男')
'''
由于日志文件在很多功能都会用到,且会在不同地方重复调用,
因此,我们可以将其封装成函数写入公共功能里,任其他功能调用
'''
def get_logger(msg):
logging.config.dictConfig(settings.LOGGING_DIC) # 自动加载字典中的配置
logger1 = logging.getLogger(msg)
return logger1
配置字典 标准版
# 我偷懒 不改大写了
standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \
'[%(levelname)s][%(message)s]' # 其中name为getlogger指定的名字
simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s'
# 自定义文件路径
LOG_DIR = os.path.join(BASE_DIR, 'log')
if not os.path.isdir(LOG_DIR):
os.mkdir(LOG_DIR)
LOGFILE_PATH = os.path.join(LOG_DIR, 'ATM.log')
# log配置字典
LOGGING_DIC = {
'version': 1,
'disable_existing_loggers': False,
'formatters': {
'standard': {
'format': standard_format
},
'simple': {
'format': simple_format
},
},
'filters': {}, # 过滤日志
'handlers': {
# 打印到终端的日志
'console': {
'level': 'DEBUG',
'class': 'logging.StreamHandler', # 打印到屏幕
'formatter': 'simple'
},
# 打印到文件的日志,收集info及以上的日志
'default': {
'level': 'DEBUG',
'class': 'logging.handlers.RotatingFileHandler', # 保存到文件
'formatter': 'standard',
'filename': LOGFILE_PATH, # 日志文件
'maxBytes': 1024 * 1024 * 5, # 日志大小 5M
'backupCount': 5,
'encoding': 'utf-8', # 日志文件的编码,再也不用担心中文log乱码了
},
},
'loggers': {
# logging.getLogger(__name__)拿到的logger配置
'': {
'handlers': ['default', 'console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
'level': 'DEBUG',
'propagate': True, # 向上(更高level的logger)传递
}, # 当键不存在的情况下 (key设为空字符串)默认都会使用该k:v配置
# '购物车记录': {
# 'handlers': ['default','console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
# 'level': 'WARNING',
# 'propagate': True, # 向上(更高level的logger)传递
# }, # 当键不存在的情况下 (key设为空字符串)默认都会使用该k:v配置
},
}