¿Qué tan preciso es el reloj interno de una PC moderna?

Sé que hace 10 años, la precisión típica del reloj equivalía a un tic del sistema, que estaba en el rango de 10-30 ms. En los últimos años, la precisión se incrementó en múltiples pasos. Hoy en día, hay formas de medir los intervalos de tiempo en nanosegundos reales. Sin embargo, los marcos habituales aún devuelven el tiempo con una precisión de solo unos 15 ms.

Mi pregunta es, qué pasos aumentaron la precisión, cómo es posible medir en nanosegundos y¿Por qué seguimos obteniendo una precisión de menos de un microsegundo? (por ejemplo en .NET).

(Descargo de responsabilidad: me parece extraño que esto no se haya hecho antes, así que supongo que me perdí esta pregunta cuando busqué. Por favor, cierre y apunte a la pregunta en ese caso, gracias. Creo que esto pertenece a SO y no a ningún otro sitio SOFU. Entiendo la diferencia entre precisión y exactitud.)

Respuestas a la pregunta(2)

Su respuesta a la pregunta