Есть ли способ получить «значащие цифры» десятичной дроби?
Хорошо, после некоторого расследования, и во многом благодаря полезным ответам, предоставленным Джоном и Гансом, это то, что я смог собрать. Пока что я думаю, что это работает хорошо. Конечно, я бы не поставил свою жизнь на ее полную правильность.
public static int GetSignificantDigitCount(this decimal value)
{
/* So, the decimal type is basically represented as a fraction of two
* integers: a numerator that can be anything, and a denominator that is
* some power of 10.
*
* For example, the following numbers are represented by
* the corresponding fractions:
*
* VALUE NUMERATOR DENOMINATOR
* 1 1 1
* 1.0 10 10
* 1.012 1012 1000
* 0.04 4 100
* 12.01 1201 100
*
* So basically, if the magnitude is greater than or equal to one,
* the number of digits is the number of digits in the numerator.
* If it's less than one, the number of digits is the number of digits
* in the denominator.
*/
int[] bits = decimal.GetBits(value);
if (value >= 1M || value <= -1M)
{
int highPart = bits[2];
int middlePart = bits[1];
int lowPart = bits[0];
decimal num = new decimal(lowPart, middlePart, highPart, false, 0);
int exponent = (int)Math.Ceiling(Math.Log10((double)num));
return exponent;
}
else
{
int scalePart = bits[3];
// Accoring to MSDN, the exponent is represented by
// bits 16-23 (the 2nd word):
// http://msdn.microsoft.com/en-us/library/system.decimal.getbits.aspx
int exponent = (scalePart & 0x00FF0000) >> 16;
return exponent + 1;
}
}
Я не проверял все это полностью. Вот несколько примеров входов / выходов:
Value Precision 0 1 digit(s). 0.000 4 digit(s). 1.23 3 digit(s). 12.324 5 digit(s). 1.2300 5 digit(s). -5 1 digit(s). -5.01 3 digit(s). -0.012 4 digit(s). -0.100 4 digit(s). 0.0 2 digit(s). 10443.31 7 digit(s). -130.340 6 digit(s). -80.8000 6 digit(s).
Используя этот код, я думаю, что достигну своей цели, сделав что-то вроде этого:
public static decimal DivideUsingLesserPrecision(decimal x, decimal y)
{
int xDigitCount = x.GetSignificantDigitCount();
int yDigitCount = y.GetSignificantDigitCount();
int lesserPrecision = System.Math.Min(xDigitCount, yDigitCount);
return System.Math.Round(x / y, lesserPrecision);
}
Я действительно не закончил работать через это, все же. Любой, кто хочет поделиться своими мыслями: это будет высоко ценится!
Оригинальный вопросПредположим, я написал этот код:
decimal a = 1.23M;
decimal b = 1.23000M;
Console.WriteLine(a);
Console.WriteLine(b);
Выше будет выводить:
1.23 1.23000
Я считаю, что это также работает, если я используюdecimal.Parse("1.23")
заa
а такжеdecimal.Parse("1.23000")
заb
(что означает, что этот вопрос относится к случаям, когда программа получает пользовательский ввод).
Так явноdecimal
значение как-то "осознает", что я буду называть еготочность, Тем не менее, я не вижу членов наdecimal
тип, который обеспечивает любой способ доступа к этому, кромеToString
сам.
Предположим, я хотел умножить дваdecimal
значения и обрезать результат до точности менее точного аргумента. Другими словами:
decimal a = 123.4M;
decimal b = 5.6789M;
decimal x = a / b;
Console.WriteLine(x);
Вышеуказанные выводы:
21.729560302171195125816619416
Что я спрашиваю: как я мог бы написать метод, который будет возвращать21.73
вместо (так как123.4M
имеет четыре значимых цифры)?
Чтобы было ясно: я понимаю, что я мог бы позвонитьToString
по обоим аргументам подсчитайте значащие цифры в каждой строке и используйте это число, чтобы округлить результат вычисления. Я ищуразные Кстати, если это возможно.
(Ятакже понимать, что в большинстве сценариев, когда вы имеете дело со значительными цифрами, вам, вероятно, не нужно использоватьdecimal
тип. Но я спрашиваю, потому что, как я уже упоминал в начале,decimal
типпоявляется включить информацию о точности, тогда какdouble
нет, насколько я знаю.)