为什么Java char使用UTF-16?

最近我读了很多关于unicode代码点以及它们如何随着时间的推移而演变的事情,并确定我也阅读了http://www.joelonsoftware.com/articles/Unicode.html 。

但是我无法找到Java使用UTF-16作为char的真正原因。

例如,如果我的字符串包含1024个字母的ASCII范围字符串字符串。 它意味着1024 * 2 bytes ,相当于它将消耗的2KB字符串内存。

因此,如果Java base char是UTF-8,那么它只有1KB的数据。 即使字符串有任何需要2字节的字符,例如10字符“字”,它自然会增加内存消耗的大小。 (1014 * 1 byte) + (10 * 2 bytes) = 1KB + 20 bytes

结果不是那个明显的1KB + 20 bytes VS. 2KB 1KB + 20 bytes VS. 2KB我不是说关于ASCII但我对此的好奇心为什么它不是UTF-8,它只是照顾多字节字符。 UTF-16在任何具有大量非多字节字符的字符串中看起来像浪费内存。

这背后有什么好理由吗?

一个原因是随机访问或迭代字符串字符的性能特征:

UTF-8编码使用可变数(1-4)字节来编码unicode char。 因此,通过索引访问字符: String.charAt(i)会更复杂,并且比java.lang.String使用的数组访问更慢。

Java在2004/2005年通过UTF-16转换之前使用了UCS-2 。 原始选择UCS-2的原因主要是历史 :

Unicode最初设计为固定宽度的16位字符编码。 Java编程语言中的原始数据类型char旨在通过提供可以保存任何字符的简单数据类型来利用此设计。

Unicode常见问题解答页面进一步解释了这一点以及UTF-16的诞生:

最初,Unicode被设计为纯16位编码,旨在表示所有现代脚本。 (古代脚本用私人用字符表示。)随着时间的推移,特别是在添加超过14,500个复合字符以与传统集合兼容之后,很明显16位对用户社区来说还不够。 出于这个出现的UTF-16。

正如@wero 已经提到的 ,使用UTF-8无法有效地进行随机访问。 所有事情都在衡量,UCS-2似乎是当时最好的选择,特别是因为那个阶段没有分配补充字符。 这使得UTF-16成为最简单的自然进展。