最近一直在学习,NIO以及netty方面的知识,涉及到IO操作差不多就一定会遇到出现乱码的问题。并且在Web开发中,更是容易会遇到乱码问题,很多时候我们通过修改编码可以解决乱码的问题,但是有些知其然不知其所以然的味道。所以在这片博客中,会介绍到为什么会出现乱码的情况,以及各种编码的关系,来彻底理解透编码与解码。
什么是解码(decode)?
在磁盘中文件都是以二进制存储的,8bit等于一个字节,通过不同的编码格式可以将n(n >= 1)个字节组合成一个字符。我们不懂字节,但是正确的解码使字节解码成字符,这样我们就看的懂了。字节转换成字符的这个动作就叫做解码(可以这么理解:就是破解二进制文件的意思)。
什么是编码(encode)?
顾名思义,编码就是解码的返向操作,就是将字符通过某个编码格式转换成字节(可以这样理解:将字符编写成二进制文件)。
什么是字符编码?
字符编码(英语:Character encoding)也称字集码,计算机只能识别二级制的数据,但是人们又看不懂二进制数据,如果一个网页上或者一个APP上显示的都是二进制数据,那么这个网页或者APP应该对你也没有一点吸引力吧,并且如果你写入计算机的数据也只能是二级制的,现象一下那种感觉,应该很痛苦吧。所以字符编码就诞生了,你可以理解为它是一个二级制文件与你所能认识的某种语言的一种映射关系,可以将二进制文件解码成你所认识的语言,或者将你所写的语言编码成二进制文件。
众所周知,计算机技术起源于美国,对于以英文为母语的国家,其字符编码只需要映射26个字母大小写,以及9个阿拉伯数字和一些特殊符号即可,所以最早出现了ASCII编码,它是7bit表示一个字符,共计128种,足够英美国家使用,但是随着计算机技术的发展,当别的国家使用计算机的时候就出现问题了,比如中国,这么多汉字,用ASCII就显然完全不够用了,所以这时候就出现了很多的字符编码,常用的有ISO-8859-1、GB2312、GBK、UTF-8等,之后会对这些常用字符编码一一做介绍。
为什么会出现乱码?
出现乱码的根本原因是,编码与解码的时候所使用的字符编码不相同。这个很好理解,比如你使用的是UTF-8字符编码将’中’字编码成0xE4B8AD,是由两个字节表示的。如果此时你用GBK去解码,而GBK是用两个字节表示一个字符的,将)0xE4B8AD用GBK解码成汉字,显然是要出现乱码的。所以出现乱码的问题,排除文件损坏的可能外,剩下的百分之90的可能都是编码和解码所使用的字符编码不相同导致的!
常用的字符编码
ASCII
7bit表示一个字符,共计128种。其中只包括26个英文字母大小写、9个数字和一些字符符号等。
ISO-8859-1
8bit表示一个字符,即用一个字节(byte)表示一个字节。共计256个字符。
它向下完全兼容ASCII码。
GB2312(GB:国标)
两个字节表示一个汉字,由中华人民共和国建立。当时并没有包括全部的汉字,只包含了常用汉字。
GBK
GB2312的超集,完全兼容与GB2312,但是收录了更多的生僻字。
GB18030
GB2312的超集,包含了全部的中国字
big5
台湾省的编码格式,繁体字。与GBXX并不兼容。
unicode
也称万国码,两个字节表示一个字符。包含了全世界的所有的编码格式。
世界上存在着多种编码方式,同一个二进制数字可以被解释成不同的符号。因此,要想打开一个文本文件,就必须知道它的编码方式,否则用错误的编码方式解读,就会出现乱码。为什么电子邮件常常出现乱码?就是因为发信人和收信人使用的编码方式不一样。
可以想象,如果有一种编码,将世界上所有的符号都纳入其中。每一个符号都给予一个独一无二的编码,那么乱码问题就会消失。这就是Unicode,就像它的名字都表示的,这是一种所有符号的编码。
Unicode当然是一个很大的集合,现在的规模可以容纳100多万个符号。每个符号的编码都不一样,比如,U+0639表示阿拉伯字母Ain,U+0041表示英语的大写字母A,U+4E25表示汉字”严”。具体的符号对应表,可以查询unicode.org,或者专门的汉字对应表。
Unicode的问题
需要注意的是,Unicode只是一个符号集,它只规定了符号的二进制代码,却没有规定这个二进制代码应该如何存储。
比如,汉字”严”的unicode是十六进制数4E25,转换成二进制数足足有15位(100111000100101),也就是说这个符号的表示至少需要2个字节。表示其他更大的符号,可能需要3个字节或者4个字节,甚至更多。
这里就有两个严重的问题,第一个问题是,如何才能区别Unicode和ASCII?计算机怎么知道三个字节表示一个符号,而不是分别表示三个符号呢?第二个问题是,我们已经知道,英文字母只用一个字节表示就够了,如果Unicode统一规定,每个符号用三个或四个字节表示,那么每个英文字母前都必然有二到三个字节是0,这对于存储来说是极大的浪费,文本文件的大小会因此大出二三倍,这是无法接受的。
它们造成的结果是:
1)出现了Unicode的多种存储方式,也就是说有许多种不同的二进制格式,可以用来表示Unicode。
2)Unicode在很长一段时间内无法推广,直到互联网的出现。
UTF-8(unicode Translation Format)
unicode是一种编码方式,而UTF-8是一种存储方式:UTF-8是unicode的实现方式之一
互联网的普及,强烈要求出现一种统一的编码方式。UTF-8就是在互联网上使用最广的一种Unicode的实现方式。其他实现方式还包括UTF-16(字符用两个字节或四个字节表示)和UTF-32(字符用四个字节表示),不过在互联网上基本不用。重复一遍,这里的关系是,UTF-8是Unicode的实现方式之一。
UTF-8最大的一个特点,就是它是一种变长的编码方式。它可以使用1~4个字节表示一个符号,根据不同的符号而变化字节长度。
UTF-8的编码规则很简单,只有二条:
1)对于单字节的符号,字节的第一位设为0,后面7位为这个符号的unicode码。因此对于英语字母,UTF-8编码和ASCII码是相同的。
2)对于n字节的符号(n>1),第一个字节的前n位都设为1,第n+1位设为0,后面字节的前两位一律设为10。剩下的没有提及的二进制位,全部为这个符号的unicode码。
下表总结了编码规则,字母x表示可用编码的位。1
2
3
4
5
6
7Unicode符号范围 | UTF-8编码方式
(十六进制) | (二进制)
--------------------+---------------------------------------------
0000 0000-0000 007F | 0xxxxxxx
0000 0080-0000 07FF | 110xxxxx 10xxxxxx
0000 0800-0000 FFFF | 1110xxxx 10xxxxxx 10xxxxxx
0001 0000-0010 FFFF | 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
跟据上表,解读UTF-8编码非常简单。如果一个字节的第一位是0,则这个字节单独就是一个字符;如果第一位是1,则连续有多少个1,就表示当前字符占用多少个字节。
下面,还是以汉字”严”为例,演示如何实现UTF-8编码。
已知”严”的unicode是4E25(100111000100101),根据上表,可以发现4E25处在第三行的范围内(0000 0800-0000 FFFF),因此”严”的UTF-8编码需要三个字节,即格式是”1110xxxx 10xxxxxx 10xxxxxx”。然后,从”严”的最后一个二进制位开始,依次从后向前填入格式中的x,多出的位补0。这样就得到了,”严”的UTF-8编码是”11100100 10111000 10100101”,转换成十六进制就是E4B8A5。
UTF-16LE(little endian)、UTF-16BE(big endian)
上一节已经提到,Unicode码可以采用UCS-2格式直接存储。以汉字”严”为例,Unicode码是4E25,需要用两个字节存储,一个字节是4E,另一个字节是25。存储的时候,4E在前,25在后,就是Big endian方式;25在前,4E在后,就是Little endian方式。
这两个古怪的名称来自英国作家斯威夫特的《格列佛游记》。在该书中,小人国里爆发了内战,战争起因是人们争论,吃鸡蛋时究竟是从大头(Big-Endian)敲开还是从小头(Little-Endian)敲开。为了这件事情,前后爆发了六次战争,一个皇帝送了命,另一个皇帝丢了王位。
因此,第一个字节在前,就是”大头方式”(Big endian),第二个字节在前就是”小头方式”(Little endian)。
那么很自然的,就会出现一个问题:计算机怎么知道某一个文件到底采用哪一种方式编码?
Unicode规范中定义,每一个文件的最前面分别加入一个表示编码顺序的字符,这个字符的名字叫做”零宽度非换行空格”(ZERO WIDTH NO-BREAK SPACE),用FEFF表示。这正好是两个字节,而且FF比FE大1。
如果一个文本文件的头两个字节是FE FF,就表示该文件采用大头方式;如果头两个字节是FF FE,就表示该文件采用小头方式。
BOM(Byte Order Mark)
从根本上来说BOM是不需要的,他指的是0xFEFF或0xFFFE这类文件头。