Ist ein Java-Zeichen-Array immer eine gültige UTF-16-Codierung (Big Endian)?
Sage, dass ich ein Java-Zeichen-Array codieren würde char[]
) Instanz als Bytes:
Würde dies immer eine gültige UTF-16BE-Codierung erzeugen? Wenn nicht, welche Codepunkte führen zu einer ungültigen Codierung?
Diese Frage hat viel mit @ zu tdiese Frage zum Java-Zeichentyp unddiese Frage zur internen Darstellung von Java-Strings.