Ist ein Java-Zeichen-Array immer eine gültige UTF-16-Codierung (Big Endian)?

Sage, dass ich ein Java-Zeichen-Array codieren würde char[]) Instanz als Bytes:

unter Verwendung von zwei Bytes für jedes Zeichen Verwenden der Big-Endian-Codierung (Speichern der höchstwertigen 8 Bits im ganz linken und der niedrigstwertigen 8 Bits im ganz rechten Byte)

Würde dies immer eine gültige UTF-16BE-Codierung erzeugen? Wenn nicht, welche Codepunkte führen zu einer ungültigen Codierung?

Diese Frage hat viel mit @ zu tdiese Frage zum Java-Zeichentyp unddiese Frage zur internen Darstellung von Java-Strings.

Antworten auf die Frage(2)

Ihre Antwort auf die Frage