字符集与字符编码总结

    xiaoxiao2022-07-13  165

    在软件的编码和实现中,我们可能会碰到个 一个比较头疼的问题--编码,不同字符间的编码和解码,你确定了解各种字符的编码吗?一个朋友问到了我这 个问题,我虽然能回答一两个出来,但是感觉已经有点模糊,混乱了,在网上搜了搜,在书上翻了翻,总结一下吧。

    基础

    计算机中只能存储0,1二进制字节码。如果计算机需要处理文本,就必须把文本转换成数字才能进行处理。计算机在设计时采用8比特(bit)作为一个字节(byte),所以一个字节能处理的最大整数是255(二进制11111111)

    00000000-11111111 即 0-255

    如果需要表示更大的整数,就必须占用更多的字节。

    1字节 11111111=255 2字节 1111111111111111=65535 4字节 11111111111111111111111111111111=4294967295

    编码由来

    ASCII编码:计算机是美国人发明的,并且最早只有127个字母被编码到计算机中(大小字字母,数字,符合),这个编码被称为ASCII编码;GB2312编码:显然中文的汉字数大于255,至少需要2个字节,而且还不能和ASCII冲突,所以中国制定了ASCII编码,把中文编了进去。

    同理,中国有GB2312,日本有Shift_JIS,韩文有Euc_Kr...各国有各国的标准;这样问题来了,想避免冲突就难了,在多语言混合的文本中,就没有办法玩了。

    Unicode编码:Unicode把各语言统一到一套编码里,这样就不会再有乱码问题了。Unicode也在不断发展,但最常用的是用两个字节表示一个字符 (如果非常偏僻的字的话,就需要4个字节)。现代操作系统和大数据的编程语言都支持Unicode编码。

    #捋一捋ASCII与Unicode的区别 字母A用ASCII编码是十进制的65,二进制的01000001; 字符0用ASCII编码是十进制的48,二进制的00110000; 汉字"中"已经超出了ASCII编码的范围,用Unicode编码是十进制的20013,二进制的01001110 00101101。 你可以猜测,如果把ASCII编码的A用Unicode编码,只需要在前面补0就可以,因此,A的Unicode编码是00000000 01000001。

    新问题的出现:如果统一成Unicode编码,乱码问题就不会出现,但是如果写文本都用英文,Unicode要比ASCII编码需要多一倍存储空间,存储和传输上十分不划算。 所以本着『节约的精神』,又出现了把Unicode编码转换成『可变长编码』的UTF-8编码。UTF-8编码把一个Unicode字符根据不同的数字大小编码成1-6个字节,常用的英文字母被编码成1个字节,汉字通常是3个字节,生僻字才会是4-6字节。

    示例

     

    从上图可以看出,ASCII编码可以看成UTF-8编码的一部分,所以,大量支持ASCII编码的历史遗留软件可以在UTF-8编码下继续工作。

    且在计算机内存中,统一使用Unicode编码,当需要保存到硬盘或者需要传输时,就转的成UTF-8编码。用记事本编辑的时候,从文件读取的UTF-8字符被转换为Unicode字符到内存里,编辑完成后,保存的时候再把Unicode转换为UTF-8保存到文件:

     

    2.png

     

    总结: 英文编码ASCII,占用1字节存储空间; 先前为了支持中文,出现GB2312编码,占用2字节; 为了统一各种像GB2312这样的「区域编码」,防止编码冲突,出现Unicode编码,正常占用2个字节,后僻字需要4字节; 为了解决Unicode占用空间大的问题,出现UTF-8这种可变长的编码;常用英文1字节,汉字正常3字节;

    最新回复(0)