【转载】Python中的byte与str
原文:https://www.cnblogs.com/chownjy/p/6625299.html,https://www.cnblogs.com/mlgjb/p/7899534.html。
Python3最重要的特性之一是对string和binary stream做了明确的区分。文本总是Unicode,由str类型表示,二进制数据则由bytes类型表示。Python3不会以任意隐式的方式混用str和bytes,你不能拼接字符串和字节流,也无法在字节流里搜索字符串(反之亦然),也不能将字符串传入参数为字节流的函数(反之亦然)。
编码发展的历史
在计算机历史的早期,美国为代表的英语系国家主导了整个计算机行业,26个英文字母组成了多样的英语单词、语句、文章。因此,最早的字符编码规范是ASCII码,一种8位即1字节的编码规范,它可以涵盖整个英语系的编码需要。
编码是指把一个字符用一个二进制来表示。在计算机内部,读取和存储数据处理的都是01组成的比特流。人类看不懂比特流,那么如何让这些01对人类变得可读呢?这就需要字符编码,它是个翻译机,在计算机内部的某个地方,帮我们将比特流翻译成人类可以直接理解的文字。这个过程的原理在下面解释。
以ASCII编码为例,它规定1个字节(8个比特位)代表1个字符的编码,也就是“00000000”这么宽,一个一个字节的解读。例如:01000001表示大写字母A,有时我们会“偷懒”的用65这个十进制来表示A在ASCII中的编码。8个比特位,可以没有重复的最多表示2^8(255)个字符。
后来,随着计算机的普及,各国文字都需要在计算机内表示,ASCII的255位远远不够,于是标准组织制定出了叫做UNICODE的万国码,它规定,任何一个字符(不管哪国的)至少以2个字节表示,可以更多。其中,英文字母就是用2个字节,而汉字是3个字节。这个编码虽然很好,满足了所有人的要求,但是它不兼容ASCII,还占用较多的空间和内存。因为,在计算机世界更多的字符是英文字母,明明可以1个字节就能够表示,非要用2个。
于是出现了UTF-8编码,它规定英文字母系列用1个字节表示,汉字用3个字节表示等等。因此,它兼容ASCII,可以解码早期的文档。UTF-8很快就得到了广泛的应用。
在编码的发展历程中,我国还创造了自己的编码方式,如GBK,GB2312,BIG5。他们只局限于国内使用,不被国外认可。在GBK编码中,中文汉字占2个字节。

bytes与str之间的异同
bytes是一种比特流,它的存在形式是01010001110这种。我们无论是在写代码,还是阅读文章过程中,肯定不会有人直接阅读这种比特流,它必须有一个编码方法,使得它变成有意义的比特流,而不是一堆晦涩难懂的01组合。因为编码方式的不同,对这个比特流的解读也会不同,对实际使用造成了很大的困扰。下面看看Python是如何处理这一系列编码问题的:
>>> s = "中文"
>>> s
'中文'
>>> type(s)
<class 'str'>
>>> b = bytes(s, encoding='utf-8')
>>> b
b'\xe4\xb8\xad\xe6\x96\x87'
>>> type(b)
<class 'bytes'>
可以看出,s是个字符串类型。Python有个内置函数bytes()可以将字符串str类型转换成bytes类型,b实际上是一串01组合,单位了在ide环境中让我们相对直观的观察,它被表示成了b'\xe4\xb8\xad\xe6\x96\x87'这种形式,开头的b表示这是一个bytes类型。\xe4是16进制的表示方式,它占用1个字节(8bit)的长度,因此“中文”被编码成utf-8后,我们可以数得出共占用了6个字节,每个汉字占用3个字节,这印证了上面的论述。在使用内置函数bytes()的时候,必须明确encoding的参数,不可以省略。
我们都知道,字符串类str里有一个encode()方法,它是从字符串向比特流的编码过程。而bytes类型恰好有个decode()方法,它是从比特流向字符串解码的过程。除此之外,我们查看Python源码会发现bytes和str拥有几乎一模一样的方法列表,最大的区别就是encode和decode。
从实质上来讲,字符串在磁盘上的保存形式也是01组合,也需要编码解码。
总之,记住下面几句话:
1. 将字符串存入磁盘和从磁盘读取字符串的过程中,python自动的帮你完成了编码和解码工作,你不需要关心它的过程。
2. 使用bytes类型,实质上是告诉Python,不需要它帮你自动地完成编码和解码的工作,而是用户自己手动进行,并指定编码格式。
3. Python已经严格区分了Bytes和Str两种数据类型,你不能在需要bytes类型参数的时候使用str参数,反之亦然,这点在读写磁盘文件时容易碰到。
在bytes和str互相转换过程中,实际就是编码解码的过程,必须显式地指定编码格式。
1 >>> b
2 b'\xe4\xb8\xad\xe6\x96\x87'
3 >>> type(b)
4 <class 'bytes'>
5 >>> s1 = str(b)
6 >>> s1
7 "b'\\xe4\\xb8\\xad\\xe6\\x96\\x87'"
8 >>> type(s1)
9 <class 'str'>
10 >>> s1 = str(b, encoding = 'utf-8')
11 >>> s1
12 '中文'
13 >>> type(s1)
14 <class 'str'>
15 >>> b = bytes(s1,encoding='gbk')
16 >>> b
17 b'\xd6\xd0\xce\xc4'
现在计算机中,在内存中采用unicode编码方式。
>>> s = 'b'
>>> t = bytes(s, encoding='utf-8')
>>> t
b'b'
可以看到上图中,字节型数据t并没有像想象中的一样显示0,1字符串。显示仍然是b,这是因为t是采用utf-8来编码,而utf-8与unicode编码中的字符部分的编码方式是一样的,因此在显示t的时候,在内存中采用unicode解码,而两种编码方式的字符部分一样,因此显示并没有什么区别。
>>> s = '中'
>>> t = bytes(s, encoding='utf-8')
>>> t
b'\xe4\xb8\xad'
在这幅图中,可以直观的看到t是0,1数据串,这里为了便于观看,显示的是16进制,utf-8与unicode汉字部分的编码是不一样的,unicode无法进行解码,因此这里的t只能用0,1串来显示。
在python3中提供了,encode()和decode()两个函数,
- encode()函数:将unicode编码转换成其他的编码方式。
- decode()函数:将其他编码方式转换成unicode编码方式。
>>> s = '中'
>>> t = bytes(s, encoding='utf-8')
>>> t
b'\xe4\xb8\xad'
>>> t.decode('utf-8')
'中'
unicode的存储效率低,会浪费很多空间,因此在保存文本时,很多时候并不是用unicode编码方式,有很多其他的编码,utf-8,gbk,还有日文,韩文编码等,下面以读取一个用utf-8的文本为例:
- 首先将utf-8转换成unicode编码方式,然后再来译码。
- 简单来说,就是计算机内存中是以unicode编码为桥梁的。
- 如果说从从其他编码方式转换成unicode这一过程出错,就会产生乱码,例如文本使用日文编码保存的,你用gbk来解码就会产生乱码。

浙公网安备 33010602011771号