Как 64-битная математика достигается на 32-битной машине?

Если 32-разрядный процессор действительно имеет длину всего 32 бита, то как математические операции могут работать с 64-разрядными числами? Например:

long lngTemp1 = 123456789123;
long lngTemp2 = lngTemp1 * 123;

Согласно MSDN, long в C # - это 64-битное число со знаком:http://msdn.microsoft.com/en-us/library/ctetwysk(VS.71).aspx

Как получается, что 32-разрядный микропроцессор Intel может выполнять код, как описано выше, без переполнения?

Ответы на вопрос(1)

Ваш ответ на вопрос