>ASCII

在所有字符集中,最知名的可能要数被称为ASCII7位字符集了。它是美国标准信息交换代码(American Standard Code for Information Interchange)的缩写为美国英语通信所设计。它由128个字符组成,包括大小写字母、数字0-9、标点符号、非打印字符(换行符、制表符等4个)以及控制字符(退格、响铃等)组成。

>iso-8859-1(不支持中文)

由于ASCII是针对英语设计的,当处理带有音调标号(形如汉语的拼音)的欧洲文字时就会出现问题。因此,创建出了一些包括255个字符的由ASCII扩展的字符集。有一种8位字符集是ISO 8859-1Latin 1,也简称为ISO Latin-1。它把位于128-255之间的字符用于拉丁字母表中特殊语言字符的编码,也因此而得名。

>gb2312、gbk、gb1830(系统默认编码,中国的国标码)

GB2312是一个简体中文字符集的中国国家标准,全称为《信息交换用汉字编码字符集•基本集》,又称为GB0,由中国国家标准总局发布,198151日实施。GB2312编码通行于中国大陆;新加坡等地也采用此编码。

GB2312标准共收录6763个汉字,其中一级汉字3755个,二级汉字3008个;同时,GB 2312收录了包括拉丁字母、希腊字母、日文平假名及片假名字母、俄语西里尔字母在内的682个全角字符。

对于人名、古汉语等方面出现的罕用字,GB2312不能完全包括,这导致了后来GBKGB18030汉字字符集的出现。

GB2312兼容ASCII码,这部分还是每个字符占1个字节。每个汉字字符占2个字节。GB2312是中国自己的字符集,而其他国家也都有自己的字符集!!!

>Unicode

Unicode(统一码、万国码、单一码)是一种在计算机上使用的字符编码。它为每种语言中的每个字符设定了统一并且唯一的编码,以满足跨语言、跨平台进行文本转换、处理的要求。它通过增加一个高字节(2个字节)对ISO Latin-1字符集进行扩展,当这些高字节位为0时,低字节就是ISO Latin-1字符。UNICODE支持欧洲、非洲、中东、亚洲(包括统一标准的东亚象形汉字和韩国象形文字)。但是,UNICODE并没有提供对诸如Braille, Cherokee, Ethiopic, Khmer, Mongolian, Hmong, Tai Lu, Tai Mau文字的支持。同时它也不支持如Ahom, Akkadian, Aramaic, Babylonian Cuneiform, Balti, Brahmi, Etruscan, Hittite, Javanese, Numidian, Old Persian Cuneiform, Syrian之类的古老文字。Unicode支持ISO Latin-1ISO-8859-1),而Latin-1包含了ASCII编码表。

>utf-8(万国码,支持全世界的编码)

事实证明,对可以用ASCII表示的字符使用UNICODE并不高效,因为UNICODEASCII占用大一倍的空间,而对ASCII来说高字节的0对他毫无用处。为了解决这个问题,就出现了一些中间格式的字符集,他们被称为通用转换格式,即UTFUniversal Transformation Format)。目前存在的UTF格式有:UTF-7, UTF-7.5, UTF-8, UTF-16, 以及 UTF-32

UTF-8只是Unicode编码的一种转换方式,这时因为Unicode问题占用两个字节的空间,而且最为常用的ASCII编码部分只需要一个字节就可以了,所以才会出现通用转换格式(UTF)。

UTF-8对不同范围的字符使用不同长度的编码,ASCII编码部分与ASCII一样,都是1个字节。而汉字部分都是3个字节。

Unicode转换到UTF-8规则如下:

  1. 如果Unicode编码的16位二进制数的前9位是0, 则UTF-8编码用一个字节来表示,这个字节的首位是0,剩下的7位与原二进制数据的后7位相同。例如:

     Unicode编码:\u0061 = 00000000 01100001

     UTF-8编码: 01100001 = 0x61

  1. 如果Unicode编码的16位二进制数的头5位是0,则UTF-8编码用2个字节来表示,首字节用110开头,后面的5位与原二进制数据去掉前5个零后的最高5位相同;第二个字节以10开头,后面的6位与原二进制数据的低6位数据相同。例如:

Unicode编码: \u00A9 = 00000000 10101001

UTF-8编码: 11000010 10101001 = 0xC2  0xA9

  1. 如果不符合上述两个规则,则用3个字节表示。第一个字节以1110开头,后四位为原二进制数据的高四位,第二个字节以10开头,后六位为原二进制数据的中间6位,第三个字节以10开头,后6位为原二进制数据的低6位。例如:

Unicode编码: \u4E2D = 01001110 00101101

UTF-8编码: 11100100 10111000 10101101 = 0xE4 0xB8 0xAD

Unicode 0101-1101 0001-0100 (5D14)

转换成UTF-8后为: 1110-0101 1011-0100 1001-0100 (E5B494)

编码相关功能

汉字“崔”的编码:

l GBK 0xB4DE

l Unicode 0x5D14

l UTF-8 0xE5B494

1 获取字符串中所有字符的编码

String类的getBytes(String charName)方法可以用来获取当前字符串的据的字符的编码,返回值为字节数组。

l byte[] getBytes():返回GBK编码的字节数组;

l byte[] getBytes(String charsetName):返回指定编码的字节数组。该方法声明了UnsupportedEncodingException异常,该异常是IOException的子类,当Java不支持指定的编码时会抛出这个异常

byte[] b1 = “”.getBytes();// [-76, -34]

byte[] b1 = “”.getBytes(“GBK”);// [-76, -34]

byte[] b2 = “”.getBytes(“UTF-8”);// [-27, -76, -108]

byte[] b3 = “”.getBytes(“Unicode”);// [-2, -1, 93, 20],-2-1是没有意义的。

   虽然上面使用的都是字符串“崔”,但获取的编码结果是不同的。这时因为Java使用相同的字符去查找不同的编码表得到的结果。

2 字符串类与字符编码

Java中,字符都是使用Unicode编码(其实是UTF-16的一种方式),每个字符都占两个字节。而我们使用的OS都是使用GBK编码(当然,这需要你安装中文操作系统),也就是说文本文件中默认使用的都是GBK编码。

现在我们有一个字节数组,它表示的是GBK编码的汉字“崔”,例如:

byte[] buff = {-76, -34};

现在我们要把它转换成字符串,这需要使用String类的构造器:

String s = new String(buff, "GBK");

这个构造器需要指定字节数组,以及这个字节数组使用的编码表。其实,如果你不指定编码表,String类的构造器也会使用默认的编码表来把字节数组转换成字符串的。默认的编码表就是系统默认编码表,对中文操作系统来说就是GBK

  new String(buff, “GBK”)的意思是:拿着buff这个编码,去查找”GBK”编码表,找到我们想要的字符,构成一个字符串。

byte[] buff = {-76, -34}; 

String s = new String(buff);

System.out.println(s);

上面代码打印的还是汉字“崔”。但如果你使用其他的编码表,例如使用UTF-8,那么一定会出现乱码。因为你的字节数组本身是对应GBK编码表的,但非要告诉String构造器去对照UTF-8编码表,那查出来的字符当前是错误的了!

乱码的出现,就是因为使用了错误的编码

要想不出现乱码:在调用getWriter()方法之前,要加上这一句即可:response.setContentType("text/html;charset=utf-8");

 

posted on 2015-07-19 16:17  脆皮软心  阅读(2450)  评论(0编辑  收藏  举报