O que C # faz quando typecasting uma carta para um int?

Temos que implementar uma criptografia para uma interface externa. O proprietário da interface forneceu documentação de como executar a mesma criptografia do nosso lado. No entanto, esta documentação está em C # e trabalhamos em PHP.

A maioria das partes que entendemos, exceto por onde eles parecem typecast um hash para um int. Seu código lê:

// hashString exists and is a md5 a like string
int[] keyBuffer = new int[hashString.length];
for (int i=0; i<hashString.length; i++) {
    keyBuffer[i] = (int)hashString[i];
}

No PHP, ao converter uma letra como int, você obtém 0 (int). Como não podemos imaginar isso é o que a terceira parte significa, acreditamos que o C # faz outra coisa.

O C # também lança para int 0 ou possivelmente para um caractere?

Em segundo lugar, o hashString original tem 320 de comprimento. Isso significa que o código estará criando um int que é de 320 ?? No PHP você não tem essa idéia de reservar memória como o C # faz aqui. Mas quando tentamos digitar uma string longa de 320 em um int, obtemos um int que é 19 'chars' longo.

O C # também cria um int mais curto ao digitar um 'número' realmente longo em uma string?

questionAnswers(5)

yourAnswerToTheQuestion