Как 64-битная математика достигается на 32-битной машине?
Если 32-разрядный процессор действительно имеет длину всего 32 бита, то как математические операции могут работать с 64-разрядными числами? Например:
long lngTemp1 = 123456789123;
long lngTemp2 = lngTemp1 * 123;
Согласно MSDN, long в C # - это 64-битное число со знаком:http://msdn.microsoft.com/en-us/library/ctetwysk(VS.71).aspx
Как получается, что 32-разрядный микропроцессор Intel может выполнять код, как описано выше, без переполнения?