Wie genau ist die interne Uhr eines modernen PCs?

Ich weiß, dass vor 10 Jahren die typische Taktgenauigkeit einem System-Tick entsprach, der im Bereich von 10-30 ms lag. In den letzten Jahren wurde die Präzision in mehreren Schritten erhöht. Heutzutage gibt es Möglichkeiten, Zeitintervalle in tatsächlichen Nanosekunden zu messen. Gewöhnliche Frameworks liefern jedoch immer noch Zeit mit einer Genauigkeit von nur etwa 15 ms.

Meine Frage ist, welche Schritte die Genauigkeit erhöht haben, wie es möglich ist, in Nanosekunden zu messen und Warum bekommen wir immer noch oft eine Genauigkeit von weniger als einer Mikrosekunde? (zum Beispiel in .NET).

(Haftungsausschluss: Es kommt mir seltsam vor, dass dies nicht zuvor gestellt wurde. Ich vermute, dass ich diese Frage bei der Suche verpasst habe. Bitte schließen Sie mich und weisen Sie mich auf die Frage in diesem Fall, danke. Ich glaube, dies gehört auf SO und nicht auf Ich verstehe den Unterschied zwischen Präzision und Genauigkeit.)

Antworten auf die Frage(2)

Ihre Antwort auf die Frage