Wie groß ist der Präzisionsverlust bei der Umwandlung von Long in Double?

Ich habe in einem anderen Beitrag über Stackoverflow und in der C # -Dokumentation gelesen, dass die Konvertierung vonlong (oder ein anderer Datentyp, der eine Zahl darstellt) bisdouble verliert an Präzision. Dies ist aufgrund der Darstellung von Gleitkommazahlen offensichtlich.

Meine Frage ist, wie groß der Genauigkeitsverlust ist, wenn ich eine größere Zahl in @ konvertierdouble? Muss ich mit Differenzen rechnen, die größer als +/- X sind?

Der Grund, warum ich das wissen möchte, ist, dass ich mich mit einem fortlaufenden Zähler beschäftigen muss, der ein @ islong. Dieser Wert wird von meiner Anwendung als @ gelesestring muss gegossen werden und muss durch z. 10 oder eine andere kleine Zahl und wird dann weiterverarbeitet.

Würdedecimal für diese Aufgabe besser geeignet sein?

Antworten auf die Frage(4)

Ihre Antwort auf die Frage