Representação binária de um .NET Decimal

Olá a todos, pergunta rápida: como um .NETdecimal tipo é representado em binário na memória?

Todos sabemos como os números de ponto flutuante são armazenados e, portanto, os motivos da imprecisão, mas não consigo encontrar nenhuma informação sobredecimal exceto o seguinte:

Aparentemente mais preciso que números de ponto flutuanteLeva 128 bits de memória2 ^ 96 + intervalo de sinais28 (às vezes 29?) Total de dígitos significativos no número

Existe alguma maneira de descobrir isso? O cientista da computação em mim exige a resposta e, após uma hora de tentativa de pesquisa, não consigo encontrá-la. Parece que há muitos pedaços desperdiçados ou estou imaginando isso errado na minha cabeça. Alguém pode esclarecer isso, por favor? Obrigado.

questionAnswers(1)

yourAnswerToTheQuestion