温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Java字符串编码的知识点有哪些

发布时间:2022-02-28 10:22:44 来源:亿速云 阅读:134 作者:iii 栏目:开发技术

这篇文章主要介绍“Java字符串编码的知识点有哪些”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Java字符串编码的知识点有哪些”文章能帮助大家解决问题。

    一、为什么要编码

    不知道大家有没有想过一个问题,那就是为什么要编码?我们能不能不编码?要回答这个问题必须要回到计算机是如何表示我们人类能够理解的符号的,这些符号也就是我们人类使用的语言。由于人类的语言有太多,因而表示这些语言的符号太多,无法用计算机中一个基本的存储单元—— byte 来表示,因而必须要经过拆分或一些翻译工作,才能让计算机能理解。我们可以把计算机能够理解的语言假定为英语,其它语言要能够在计算机中使用必须经过一次翻译,把它翻译成英语。这个翻译的过程就是编码。所以可以想象只要不是说英语的国家要能够使用计算机就必须要经过编码。这看起来有些霸道,但是这就是现状,这也和我们国家现在在大力推广汉语一样,希望其它国家都会说汉语,以后其它的语言都翻译成汉语,我们可以把计算机中存储信息的最小单位改成汉字,这样我们就不存在编码问题了。

    所以总的来说,编码的原因可以总结为:

    • 计算机中存储信息的最小单元是一个字节即 8 个 bit,所以能表示的字符范围是 0~255 个

    • 人类要表示的符号太多,无法用一个字节来完全表示,要解决这个矛盾必须需要一个新的数据结构 char,从 char 到 byte 必须编码

    二、如何“翻译”

    明白了各种语言需要交流,经过翻译是必要的,那又如何来翻译呢?计算中提拱了多种翻译方式,常见的有 ASCII、ISO-8859-1、GB2312、GBK、UTF-8、UTF-16 等。它们都可以被看作为字典,它们规定了转化的规则,按照这个规则就可以让计算机正确的表示我们的字符。目前的编码格式很多,例如 GB2312、GBK、UTF-8、UTF-16 这几种格式都可以表示一个汉字,那我们到底选择哪种编码格式来存储汉字呢?这就要考虑到其它因素了,是存储空间重要还是编码的效率重要。根据这些因素来正确选择编码格式,下面简要介绍一下这几种编码格式。

    • ASCII 码

    学过计算机的人都知道 ASCII 码,总共有 128 个(0-127),用一个字节的低 7 位表示,0~31 是控制字符如换行回车删除等;32~126 是打印字符,可以通过键盘输入并且能够显示出来。

    其中48~57为0到9十个阿拉伯数字
    65~90为26个大写英文字母
    97~122号为26个小写英文字母

    • ISO-8859-1

    128 个字符显然是不够用的,于是 ISO 组织在 ASCII 码基础上又制定了一些列标准用来扩展 ASCII 编码,它们是 ISO-8859-1~ISO-8859-15,其中 ISO-8859-1 涵盖了大多数西欧语言字符,所有应用的最广泛。ISO-8859-1 仍然是单字节编码,它总共能表示 256 个字符。

    • GB2312

    它的全称是《信息交换用汉字编码字符集 基本集》,它是双字节编码,总的编码范围是 A1-F7,其中从 A1-A9 是符号区,总共包含 682 个符号,从 B0-F7 是汉字区,包含 6763 个汉字。

    • GBK

    全称叫《汉字内码扩展规范》,是国家技术监督局为 windows95 所制定的新的汉字内码规范,它的出现是为了扩展 GB2312,加入更多的汉字,它的编码范围是 8140~FEFE(去掉 XX7F)总共有 23940 个码位,它能表示 21003 个汉字,它的编码是和 GB2312 兼容的,也就是说用 GB2312 编码的汉字可以用 GBK 来解码,并且不会有乱码。

    • GB18030

    全称是《信息交换用汉字编码字符集》,是我国的强制标准,它可能是单字节、双字节或者四字节编码,它的编码与 GB2312 编码兼容,这个虽然是国家标准,但是实际应用系统中使用的并不广泛。

    • UTF-16

    说到 UTF 必须要提到 Unicode(Universal Code 统一码),ISO 试图想创建一个全新的超语言字典,世界上所有的语言都可以通过这本字典来相互翻译。可想而知这个字典是多么的复杂,关于 Unicode 的详细规范可以参考相应文档。Unicode 是 Java 和 XML 的基础,下面详细介绍 Unicode 在计算机中的存储形式。

    UTF-16 具体定义了 Unicode 字符在计算机中存取方法。UTF-16 用两个字节来表示 Unicode 转化格式,这个是定长的表示方法,不论什么字符都可以用两个字节表示,两个字节是 16 个 bit,所以叫 UTF-16。UTF-16 表示字符非常方便,每两个字节表示一个字符,这个在字符串操作时就大大简化了操作,这也是 Java 以 UTF-16 作为内存的字符存储格式的一个很重要的原因。

    • UTF-8

    UTF-16 统一采用两个字节表示一个字符,虽然在表示上非常简单方便,但是也有其缺点,有很大一部分字符用一个字节就可以表示的现在要两个字节表示,存储空间放大了一倍,在现在的网络带宽还非常有限的今天,这样会增大网络传输的流量,而且也没必要。而 UTF-8 采用了一种变长技术,每个编码区域有不同的字码长度。不同类型的字符可以是由 1~6 个字节组成。
    UTF-8 有以下编码规则:

    1、如果一个字节,最高位(第 8 位)为 0,表示这是一个 ASCII 字符(00 - 7F)。可见,所有 ASCII 编码已经是 UTF-8 了。
    2、如果一个字节,以 11 开头,连续的 1 的个数暗示这个字符的字节数,例如:110xxxxx 代表它是双字节 UTF-8 字符的首字节。
    3、如果一个字节,以 10 开始,表示它不是首字节,需要向前查找才能得到当前字符的首字节

    三、Java 中需要编码的场景

    前面描述了常见的几种编码格式,下面将介绍 Java 中如何处理对编码的支持,什么场合中需要编码。

    3.1 I/O 操作中存在的编码

    我们知道涉及到编码的地方一般都在字符到字节或者字节到字符的转换上,而需要这种转换的场景主要是在 I/O 的时候,这个 I/O 包括磁盘 I/O 和网络 I/O,关于网络 I/O 部分在后面将主要以 Web 应用为例介绍。

    Reader 类是 Java 的 I/O 中读字符的父类,而 InputStream 类是读字节的父类,InputStreamReader 类就是关联字节到字符的桥梁,它负责在 I/O 过程中处理读取字节到字符的转换,而具体字节到字符的解码实现它由 StreamDecoder 去实现,在 StreamDecoder 解码过程中必须由用户指定 Charset 编码格式。值得注意的是如果你没有指定 Charset,将使用本地环境中的默认字符集,例如在中文环境中将使用 GBK 编码。

    写的情况也是类似,字符的父类是 Writer,字节的父类是 OutputStream,通过 OutputStreamWriter 转换字符到字节。

    同样 StreamEncoder 类负责将字符编码成字节,编码格式和默认编码规则与解码是一致的。

    如下面一段代码,实现了文件的读写功能:

    String file = "c:/stream.txt"; 
    String charset = "UTF-8"; 
    // 写字符换转成字节流
    FileOutputStream outputStream = new FileOutputStream(file); 
    OutputStreamWriter writer = new OutputStreamWriter( 
    outputStream, charset); 
    try { 
       writer.write("这是要保存的中文字符"); 
    } finally { 
       writer.close(); 
    } 
    // 读取字节转换成字符
    FileInputStream inputStream = new FileInputStream(file); 
    InputStreamReader reader = new InputStreamReader( 
    inputStream, charset); 
    StringBuffer buffer = new StringBuffer(); 
    char[] buf = new char[64]; 
    int count = 0; 
    try { 
       while ((count = reader.read(buf)) != -1) { 
           buffer.append(buffer, 0, count); 
       } 
    } finally { 
       reader.close(); 
    }

    在我们的应用程序中涉及到 I/O 操作时只要注意指定统一的编解码 Charset 字符集,一般不会出现乱码问题,有些应用程序如果不注意指定字符编码,中文环境中取操作系统默认编码,如果编解码都在中文环境中,通常也没问题,但是还是强烈的不建议使用操作系统的默认编码,因为这样,你的应用程序的编码格式就和运行环境绑定起来了,在跨环境下很可能出现乱码问题。

    3.2 内存中操作中的编码

    在 Java 开发中除了 I/O 涉及到编码外,最常用的应该就是在内存中进行字符到字节的数据类型的转换,Java 中用 String 表示字符串,所以 String 类就提供转换到字节的方法,也支持将字节转换为字符串的构造函数。如下代码示例:

    String s = "这是一段中文字符串"; 
    byte[] b = s.getBytes("UTF-8"); 
    String n = new String(b,"UTF-8");

    另外一个是已经被被废弃的 ByteToCharConverter 和 CharToByteConverter 类,它们分别提供了 convertAll 方法可以实现 byte[] 和 char[] 的互转。如下代码所示:

    ByteToCharConverter charConverter = ByteToCharConverter.getConverter("UTF-8"); 
    char c[] = charConverter.convertAll(byteArray); 
    CharToByteConverter byteConverter = CharToByteConverter.getConverter("UTF-8"); 
    byte[] b = byteConverter.convertAll(c);

    这两个类已经被 Charset 类取代,Charset 提供 encode 与 decode 分别对应 char[] 到 byte[] 的编码和 byte[] 到 char[] 的解码。如下代码所示:

    Charset charset = Charset.forName("UTF-8"); 
    ByteBuffer byteBuffer = charset.encode(string); 
    CharBuffer charBuffer = charset.decode(byteBuffer);

    编码与解码都在一个类中完成,通过 forName 设置编解码字符集,这样更容易统一编码格式,比 ByteToCharConverter 和 CharToByteConverter 类更方便。

    Java 中还有一个 ByteBuffer 类,它提供一种 char 和 byte 之间的软转换,它们之间转换不需要编码与解码,只是把一个 16bit 的 char 格式,拆分成为 2 个 8bit 的 byte 表示,它们的实际值并没有被修改,仅仅是数据的类型做了转换。如下代码所以:

    ByteBuffer heapByteBuffer = ByteBuffer.allocate(1024); 
    ByteBuffer byteBuffer = heapByteBuffer.putChar(c);

    以上这些提供字符和字节之间的相互转换只要我们设置编解码格式统一一般都不会出现问题。

    四、Java 中如何编解码

    前面介绍了几种常见的编码格式,这里将以实际例子介绍 Java 中如何实现编码及解码,下面我们以“I am 君山”这个字符串为例介绍 Java 中如何把它以 ISO-8859-1、GB2312、GBK、UTF-16、UTF-8 编码格式进行编码的。

    public static void encode() { 
           String name = "I am 君山"; 
           toHex(name.toCharArray()); 
           try { 
               byte[] iso8859 = name.getBytes("ISO-8859-1"); 
               toHex(iso8859); 
               byte[] gb2312 = name.getBytes("GB2312"); 
               toHex(gb2312); 
               byte[] gbk = name.getBytes("GBK"); 
               toHex(gbk); 
               byte[] utf16 = name.getBytes("UTF-16"); 
               toHex(utf16); 
               byte[] utf8 = name.getBytes("UTF-8"); 
               toHex(utf8); 
           } catch (UnsupportedEncodingException e) { 
               e.printStackTrace(); 
           } 
    }

    我们把 name 字符串按照前面说的几种编码格式进行编码转化成 byte 数组,然后以 16 进制输出,我们先看一下 Java 是如何进行编码的。

    首先根据指定的 charsetName 通过 Charset.forName(charsetName) 设置 Charset 类,然后根据 Charset 创建 CharsetEncoder 对象,再调用 CharsetEncoder.encode 对字符串进行编码,不同的编码类型都会对应到一个类中,实际的编码过程是在这些类中完成的。

    如字符串“I am 君山”的 char 数组为 49 20 61 6d 20 541b 5c71,下面把它按照不同的编码格式转化成相应的字节。

    4.1 按照 ISO-8859-1 编码

    字符串“I am 君山”用 ISO-8859-1 编码

    从上图看出 7 个 char 字符经过 ISO-8859-1 编码转变成 7 个 byte 数组,ISO-8859-1 是单字节编码,中文“君山”被转化成值是 3f 的 byte。3f 也就是“?”字符,所以经常会出现中文变成“?”很可能就是错误的使用了 ISO-8859-1 这个编码导致的。中文字符经过 ISO-8859-1 编码会丢失信息,通常我们称之为“黑洞”,它会把不认识的字符吸收掉。由于现在大部分基础的 Java 框架或系统默认的字符集编码都是 ISO-8859-1,所以很容易出现乱码问题,后面将会分析不同的乱码形式是怎么出现的。

    4.2 按照 GB2312 编码

    字符串“I am 君山”用 GB2312 编码

    GB2312 对应的 Charset 是 sun.nio.cs.ext. EUC_CN 而对应的 CharsetDecoder 编码类是 sun.nio.cs.ext. DoubleByte,

    GB2312 字符集有一个 char 到 byte 的码表,不同的字符编码就是查这个码表找到与每个字符的对应的字节,然后拼装成 byte 数组。查表的规则如下:

    c2b[c2bIndex[char >> 8] + (char & 0xff)]

    如果查到的码位值大于 oxff 则是双字节,否则是单字节。双字节高 8 位作为第一个字节,低 8 位作为第二个字节,如下代码所示:

    if (bb > 0xff) {    // DoubleByte 
               if (dl - dp < 2) 
                   return CoderResult.OVERFLOW; 
               da[dp++] = (byte) (bb >> 8); 
               da[dp++] = (byte) bb; 
    } else {                      // SingleByte 
               if (dl - dp < 1) 
                   return CoderResult.OVERFLOW; 
               da[dp++] = (byte) bb; 
    }

    从上图可以看出前 5 个字符经过编码后仍然是 5 个字节,而汉字被编码成双字节,在第一节中介绍到 GB2312 只支持 6763 个汉字,所以并不是所有汉字都能够用 GB2312 编码。

    4.3 按照 GBK 编码

    字符串“I am 君山”用 GBK 编码

    你可能已经发现上图与 GB2312 编码的结果是一样的,没错 GBK 与 GB2312 编码结果是一样的,由此可以得出 GBK 编码是兼容 GB2312 编码的,它们的编码算法也是一样的。不同的是它们的码表长度不一样,GBK 包含的汉字字符更多。所以只要是经过 GB2312 编码的汉字都可以用 GBK 进行解码,反过来则不然。

    4.4 按照 UTF-16 编码

    字符串“I am 君山”用 UTF-16 编码

    用 UTF-16 编码将 char 数组放大了一倍,单字节范围内的字符,在高位补 0 变成两个字节,中文字符也变成两个字节。从 UTF-16 编码规则来看,仅仅将字符的高位和地位进行拆分变成两个字节。特点是编码效率非常高,规则很简单,由于不同处理器对 2 字节处理方式不同,Big-endian(高位字节在前,低位字节在后)或 Little-endian(低位字节在前,高位字节在后)编码,所以在对一串字符串进行编码是需要指明到底是 Big-endian 还是 Little-endian,所以前面有两个字节用来保存 BYTE_ORDER_MARK 值,UTF-16 是用定长 16 位(2 字节)来表示的 UCS-2 或 Unicode 转换格式,通过代理对来访问 BMP 之外的字符编码。

    4.5 按照 UTF-8 编码

    字符串“I am 君山”用 UTF-8 编码,下面是编码结果:

    Java字符串编码的知识点有哪些

    UTF-16 虽然编码效率很高,但是对单字节范围内字符也放大了一倍,这无形也浪费了存储空间,另外 UTF-16 采用顺序编码,不能对单个字符的编码值进行校验,如果中间的一个字符码值损坏,后面的所有码值都将受影响。而 UTF-8 这些问题都不存在,UTF-8 对单字节范围内字符仍然用一个字节表示,对汉字采用三个字节表示。它的编码规则如下:

    private CoderResult encodeArrayLoop(CharBuffer src, 
    ByteBuffer dst){ 
               char[] sa = src.array(); 
               int sp = src.arrayOffset() + src.position(); 
               int sl = src.arrayOffset() + src.limit(); 
               byte[] da = dst.array(); 
               int dp = dst.arrayOffset() + dst.position(); 
               int dl = dst.arrayOffset() + dst.limit(); 
               int dlASCII = dp + Math.min(sl - sp, dl - dp); 
               // ASCII only loop 
               while (dp < dlASCII && sa[sp] < 'u0080') 
                   da[dp++] = (byte) sa[sp++]; 
               while (sp < sl) { 
                   char c = sa[sp]; 
                   if (c < 0x80) { 
                       // Have at most seven bits 
                       if (dp >= dl) 
                           return overflow(src, sp, dst, dp); 
                       da[dp++] = (byte)c; 
                   } else if (c < 0x800) { 
                       // 2 bytes, 11 bits 
                       if (dl - dp < 2) 
                           return overflow(src, sp, dst, dp); 
                       da[dp++] = (byte)(0xc0 | (c >> 6)); 
                       da[dp++] = (byte)(0x80 | (c & 0x3f)); 
                   } else if (Character.isSurrogate(c)) { 
                       // Have a surrogate pair 
                       if (sgp == null) 
                           sgp = new Surrogate.Parser(); 
                       int uc = sgp.parse(c, sa, sp, sl); 
                       if (uc < 0) { 
                           updatePositions(src, sp, dst, dp); 
                           return sgp.error(); 
                       } 
                       if (dl - dp < 4) 
                           return overflow(src, sp, dst, dp); 
                       da[dp++] = (byte)(0xf0 | ((uc >> 18))); 
                       da[dp++] = (byte)(0x80 | ((uc >> 12) & 0x3f)); 
                       da[dp++] = (byte)(0x80 | ((uc >>  6) & 0x3f)); 
                       da[dp++] = (byte)(0x80 | (uc & 0x3f)); 
                       sp++;  // 2 chars 
                   } else { 
                       // 3 bytes, 16 bits 
                       if (dl - dp < 3) 
                           return overflow(src, sp, dst, dp); 
                       da[dp++] = (byte)(0xe0 | ((c >> 12))); 
                       da[dp++] = (byte)(0x80 | ((c >>  6) & 0x3f)); 
                       da[dp++] = (byte)(0x80 | (c & 0x3f)); 
                   } 
                   sp++; 
               } 
               updatePositions(src, sp, dst, dp); 
               return CoderResult.UNDERFLOW;

    UTF-8 编码与 GBK 和 GB2312 不同,不用查码表,所以在编码效率上 UTF-8 的效率会更好,所以在存储中文字符时 UTF-8 编码比较理想。

    五、几种编码格式的比较

    对中文字符后面四种编码格式都能处理,GB2312 与 GBK 编码规则类似,但是 GBK 范围更大,它能处理所有汉字字符,所以 GB2312 与 GBK 比较应该选择 GBK。UTF-16 与 UTF-8 都是处理 Unicode 编码,它们的编码规则不太相同,相对来说 UTF-16 编码效率最高,字符到字节相互转换更简单,进行字符串操作也更好。它适合在本地磁盘和内存之间使用,可以进行字符和字节之间快速切换,如 Java 的内存编码就是采用 UTF-16 编码。但是它不适合在网络之间传输,因为网络传输容易损坏字节流,一旦字节流损坏将很难恢复,想比较而言 UTF-8 更适合网络传输,对 ASCII 字符采用单字节存储,另外单个字符损坏也不会影响后面其它字符,在编码效率上介于 GBK 和 UTF-16 之间,所以 UTF-8 在编码效率上和编码安全性上做了平衡,是理想的中文编码方式。

    关于“Java字符串编码的知识点有哪些”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识,可以关注亿速云行业资讯频道,小编每天都会为大家更新不同的知识点。

    向AI问一下细节

    免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

    AI