字符编码和字符集详细理解

/ 默认分类 / 0 条评论 / 878浏览

字符编码和字符集

一.基本概念

二.说明

很久很久以前,有一群人,他们决定用8个可以开合的晶体管来组合成不同的状态,以表示世界上的万物,他们把这称为”字节”。再后来,他们又做了一些可以处理这些字节的机器,机器开动了,可以用字节来组合出很多状态,状态开始变来变去,他们就把这机器称为”计算机”。

开始计算机只在美国用。八位的字节一共可以组合出256(2的8次方)种不同的状态。他们把其中的编号从0开始的32种状态分别规定了特殊的用途,一但终端、打印机遇上约定好的这些字节被传过来时,就要做一些约定的动作。遇上 00×10, 终端就换行,遇上0×07, 终端就向人们嘟嘟叫,例好遇上0x1b, 打印机就打印反白的字,或者终端就用彩色显示字母。他们看到这样很好,于是就把这些0×20以下的字节状态称为”控制码”。

他们又把所有的空格、标点符号、数字、大小写字母分别用连续的字节状态表示,一直编到了第127号,这样计算机就可以用不同字节来存储英语的文字 了。大家看到这样,都感觉很好,于是大家都把这个方案叫做 ANSI 的”Ascii”编码(American Standard Code for Information Interchange,美国信息互换标准代码)。当时世界上所有的计算机都用同样的ASCII方案来保存英文文字。

后来计算机发展越来越广泛,世界各国为了可以在计算机保存他们的文字,他们决定采用127号之后的空位来表示这些新的字母、符号,还加入了很多画表格时需要用下到的横线、竖线、交叉等形状,一直把序号编到了 最后一个状态255。从128到255这一页的字符集被称”扩展字符集”。但是原有的编号方法,已经再也放不下更多的编码。

等中国人们得到计算机时,已经没有可以利用的字节状态来表示汉字,况且有6000多个常用汉字需要保存呢。于是国人就自主研发,把那些127号之后的奇异符号们直接取消掉。规定:一个小于127的字符的意义与原来相同,但两个大于127的字符连在一起时,就表示一个汉字,前面的一个字节(他称之为高字节)从0xA1用到 0xF7,后面一个字节(低字节)从0xA1到0xFE,这样我们就可以组合出大约7000多个简体汉字了。在这些编码里,我们还把数学符号、罗马希腊的字母、日文的假名们都编进去了,连在 ASCII 里本来就有的数字、标点、字母都统统重新编了两个字节长的编码,这就是常说的”全角”字符,而原来在127号以下的那些就叫”半角”字符了。

中国人民看到这样很不错,于是就把这种汉字方案叫做 “GB2312″。GB2312 是对 ASCII 的中文扩展。

但是中国的汉字太多了,后来还是不够用,于是干脆不再要求低字节一定是127号之后的内码,只要第一个字节是大于127就固定表示这是一个汉字的开始,不管后面跟的是不是 扩展字符集里的内容。结果扩展之后的编码方案被称为 GBK 标准,GBK 包括了 GB2312 的所有内容,同时又增加了近20000个新的汉字(包括繁体字)和符号。后来少数民族也要用电脑了,于是我们再扩展,又加了几千个新的少数民族的字,GBK 扩成了 GB18030。从此之后,中华民族的文化就可以在计算机时代中传承了。

因为当时各个国家都像中国这样搞出一套自己的编码标准,结果互相之间谁也不懂谁的编码,谁也不支持别人的编码。当时的中国人想让电脑显示汉字,就必须装上一个”汉字系统”,专门用来处理汉字的显示、输入的问题,装错了字符系统,显示就会乱了套。这怎么办?就在这时,一个叫 ISO (国际标谁化组织)的国际组织决定着手解决这个问题。他们采用的方法很简单:废了所有的地区性编码方案,重新搞一个包括了地球上所有文化、所有字母和符号的编码!他们打算叫它”Universal Multiple-Octet Coded Character Set”,简称 UCS, 俗称 “UNICODE”。

UNICODE 开始制订时,计算机的存储器容量极大地发展了,空间再也不成为问题了。于是 ISO 就直接规定必须用两个字节,也就是16位来统一表示所有的字符,对于 ascii 里的那些”半角”字符,UNICODE 包持其原编码不变,只是将其长度由原来的8位扩展为16位,而其他文化和语言的字符则全部重新统一编码。由于”半角”英文符号只需要用到低8位,所以其高 8位永远是0,因此这种大气的方案在保存英文文本时会多浪费一倍的空间。

但是,UNICODE 在制订时没有考虑与任何一种现有的编码方案保持兼容,这使得 GBK 与UNICODE 在汉字的内码编排上完全是不一样的,没有一种简单的算术方法可以把文本内容从UNICODE编码和另一种编码进行转换,这种转换必须通过查表来进行。UNICODE 是用两个字节来表示为一个字符,他总共可以组合出65535不同的字符,这大概已经可以覆盖世界上所有文化的符号。

UNICODE 来到时,一起到来的还有计算机网络的兴起,UNICODE 如何在网络上传输也是一个必须考虑的问题,于是面向传输的众多 UTF(UCS Transfer Format)标准出现了,顾名思义,UTF8 就是每次8个位传输数据,而 UTF16 就是每次16个位,只不过为了传输时的可靠性,从UNICODE到 UTF时并不是直接的对应,而是要过一些算法和规则来转换。

看完这些,相信你对于这几个编码关系等,了解的比较清楚了吧。我再来简单的总结一下:

● 中国人民通过对 ASCII 编码的中文扩充改造,产生了 GB2312 编码,可以表示6000多个常用汉字。

● 汉字实在是太多了,包括繁体和各种字符,于是产生了 GBK 编码,它包括了 GB2312 中的编码,同时扩充了很多。

● 中国是个多民族国家,各个民族几乎都有自己独立的语言系统,为了表示那些字符,继续把 GBK 编码扩充为 GB18030 编码。

● 每个国家都像中国一样,把自己的语言编码,于是出现了各种各样的编码,如果你不安装相应的编码,就无法解释相应编码想表达的内容。

● 终于,有个叫 ISO 的组织看不下去了。他们一起创造了一种编码 UNICODE ,这种编码非常大,大到可以容纳世界上任何一个文字和标志。所以只要电脑上有 UNICODE 这种编码系统,无论是全球哪种文字,只需要保存文件的时候,保存成 UNICODE 编码就可以被其他电脑正常解释。

● UNICODE 在网络传输中,出现了两个标准 UTF-8 和 UTF-16,分别每次传输 8个位和 16个位。

于是就会有人产生疑问,UTF-8 既然能保存那么多文字、符号,为什么国内还有这么多使用 GBK 等编码的人?因为 UTF-8 等编码体积比较大,占电脑空间比较多,如果面向的使用人群绝大部分都是中国人,用 GBK 等编码也可以。但是目前的电脑来看,硬盘都是白菜价,电脑性能也已经足够无视这点性能的消耗了。所以推荐所有的网页使用统一编码:UTF-8。

三. 字符,字符集,(字符编码)字符集编码

  1. 字符
    一个中文汉字是一个字符,一个英文字母是一个字符,一个阿拉伯数字是一个字符,一个标点符号也是一个字符。

  2. 字库表
    一套编码规范不一定包含世界上所有的字符,每套编码规范都有自己的使用场景。而字库表就==存储了编码规范中能显示的所有字符==,计算机根据二进制数从字库表中找到字符然后显示给用户,相当于一个存储字符的数据库。 例如:几乎所有汉字都保存在GBK 编码规范的字库表中,所以计算机可以显示汉字,但法语,俄语并不在其字库表中,所以GBK不能显示法语,俄语等不包含在其中的字符。 可以将字库表理解为下图的样子:
    字库表

  3. 字符集 和 字符编码

在一个字库表中,每一个字符都有一个对应的二进制地址,而字符集就是这些地址的集合。
例如:在ASCII编码字符集中,字母A的序号(地址)是65,65的二进制就是01000001。我们可以说编码字符集就是用来存储这些二进制数的,而这个二进制数就是编码字符集中的一个元素,同时它也是字库表中字母A的地址,我们根据这个地址就可以显示出字母A。

字符集
ps: 上图二进制地址为连续,因为手敲的,好像差一个ob00001110,这里说明下

因为有很多个国家,然后有很多中语言,因为不同国家发展顺序的原因,导致最开始计算机只在英文语言环境下运行,所以只需要支持英文和一些常用的符号即可,也就是ascll字符集中的字符,这里说的ascll字符集,也就将是英文字母和常用符号组成的字库表通过ascll编码规范得到的ascll字符集。也就是我们常说的ascll码,注意,ascll码不是一个表达类型,也就是说,一般我们说A的ascll码是65,这样的表达其实是不严谨的(不对的),因为前句话说的ascll码不是指某一个字符的另一个表达方式,他不是一个明确的一一映射的关系表,ascll码其实准确来说应该叫做ascll码关系表,他是一个将英文字母和常用符号编码后形成的对应关系表,而我们说的A对应的ascll码是65,是说A对应的按照ascll编码规范编码后的十进制表示方式为65,也就是说,我们还可以这样表达,A对应的按照ascll编码规范编码后的二进制表示方式为0100 0001,详细可以参照下面的ascll编码关系表:

所以我们可以看出,在前面的介绍中,我们说了在一个字库表中,每一个字符都有一个对应的二进制地址,而字符集就是这些地址的集合。,因此对于英文字母和常用字符这个字库表,将其转换为一一对应的二进制地址的集合的就是ascll字符编码规范

字符编码是把字符集中的字符编码为特定的二进制数,以便在计算机中存储。编码方式一般就是对二维表的横纵坐标进行变换的算法。一般都比较简单,直接把横纵坐标拼一起就完事了。后来随着字符集的不断扩大,为了节省存储空间,才出现了各种各样的算法。

ps : 也就是说,字库表是人类语言字符的集合,字符编码是为了将字库表(人类语言字符的集合)保存到计算机中而出现的一种保存方式,按照上面介绍的,也就是: 字符集一般都是一个二维数组(二维表)

所以按照上面介绍的ascll编码规范,我们可以很好理解接下来的,GB2312,GBK,Unicode,Utf-8,Utf-16

四. ASCLL,GB2312,GBK,Unicode,Utf-8,Utf-16

先看图:

  1. Ascll ASCII 是用来表示英文字符的一种编码规范。每个ASCII字符占用1 个字节,因此,ASCII 编码可以表示的最大字符数是255(00H—FFH)。这对于英文而言,是没有问题的,一般只什么用到前128个(00H--7FH,最高位为0)。而最高位为1 的另128 个字符(80H—FFH)被称为“扩展ASCII”,一般用来存放英文的制表符、部分音标字符等等的一些其它符号。

  2. GB2312
    对于中文等比较复杂的语言,255个字符显然不够用。于是,各个国家纷纷制定了自己的文字编码规范,其中中文的文字编码规范叫做“GB2312—80”, 它是和ASCII 兼容的一种编码规范, 其实就是利用扩展ASCII没有真正标准化这一点,==把一个中文字符用两个扩展ASCII 字符来表示==,以区分ASCII 码部分。 (这里重点是用两个字节表示,后面会解释)

  3. GBK
    GB2312支持的汉字太少。1995年的汉字扩展规范GBK1.0收录了21886个符号,它分为汉字区和图形符号区。汉字区包括21003个字符。GBK中的K为汉语拼音扩的声母,即扩展的含义。英文全称Chinese Internal Code Specification。GBK编码标准兼容GB2312。GB2312基本满足了汉字的计算机处理需要,但对于人名、古汉语等方面出现的罕用字,GB2312不能处理,这导致了后来GBK及GB18030汉字字符集的出现。==GBK采用双字节表示==,总体编码范围为8140-FEFE,首字节在81-FE之间,尾字节在40-FE之间,剔除xx7F一条线。总计23940个码位,共收入21886个汉字和图形符号.

  4. Unicode
    Unicode也是一种字符编码规范,它占用两个字节(0000H—FFFFH),容纳65536 个字符,这完全可以容纳全世界所有语言文字的编码。在Unicode 里,所有的字符都按一个字符来处理, 它们都有一个唯一的Unicode 码。

ps: 因为Unicode这种字符编码规范,将几乎全世界的语言字符作为一个统一的字库表,然后对这个统一的字库表进行编码,并且规定每个字符通过这种字符编码规范得到的二进制地址都统一占用两个字节(0000H—FFFFH),也就是可以支持65536个字符,这完全可以将全世界的语言都纳入进去,这种编码规范就是Unicode编码规范,实现了江山的大一统;这也是ISO组织常干的事;

可以见得,对于现代社会,很多时候我们需要多种语言混合使用,所以使用Unicode编码就显得十分可行和方便,可以在记事本中同时用多国语言写上我们擅长的HelloWord,但是有一个问题我们可以想象到,在Ascll编码中,使用的是一个字节表示不同的字符,在GBK中做到的是兼容Ascll(做法就当字节小于0x80,那么这一个字节一定单独表示,表示一个Ascll,所以计算机按照GBK编码方式读取的时候,如果遇到字节小于0x80就会直接输出,单独显示这一个字节为Ascll码中对应的字符,当一个字节大于0x80时,此字节需要加下一个字节共同表示为一个汉字,所以这里做到了按照中文比较复杂占用空间比字母大这样的特性区别对待,占用空间大的,你就多占2,占用空间小的你就少占),但是在Unicode中,它的字符编码中的每个字节都可以小于0x80,也就是说,没有规定当小于ox80的时候就直接单独显示,所以就会出现它的这个字节代表ASCII呢还是和其他字节组合表示一个别的字符(如汉字)?

所以单独使用Unicode编码规范来编辑文本和存储文本会出现下面几个问题:

  1. 首先,的确Unicode将几乎全世界的字符都统一起来了,按照两个字节的大小来规定一个字符,但是这样导致,原本只需要使用一个字节来表示的字符,比如A,在Unicode中保存任然需要占用2个字节,这样造成空间浪费;
  2. 其次,Unicode的存储,每个字节都是可以小于Ox80的(不是说GBK中不允许,而是说,GBK中规定了大于Ox80的会和下一个字节一起组合来单独显示,但是在Unicode中没有),所以导致存储之后无法根据字节来读取显示,因为计算机不知道这个字节代表ASCII呢还是和其他字节组合表示一个别的字符(如汉字)? ps: 这里有一个疑问,那就是Unicode大小是2byte,那么读取的时候为什么不是按照每2byte读取一次呢,然后再对比编码表来单独显示

所以出现了UTF-8

https://blog.csdn.net/qq_23274715/article/details/104931433

https://blog.csdn.net/u011318077/article/details/100086698
https://www.jianshu.com/p/bd7a6c508c33