Qual é a precisão do relógio interno de um PC moderno?

Eu sei que há 10 anos, a precisão típica do relógio era igual a um tick do sistema, que estava na faixa de 10 a 30ms. Nos últimos anos, a precisão foi aumentada em várias etapas. Atualmente, existem maneiras de medir intervalos de tempo em nanossegundos reais. No entanto, estruturas usuais ainda retornam tempo com uma precisão de apenas cerca de 15ms.

Minha pergunta é: quais etapas aumentaram a precisão, como é possível medir em nanossegundos epor que ainda estamos obtendo precisão com menos de microssegundos (por exemplo, no .NET).

(Isenção de responsabilidade: Parece-me estranho que isso não tenha sido feito antes, por isso acho que perdi essa pergunta ao pesquisar. Por favor, feche e aponte-me para a pergunta nesse caso, obrigado. Acredito que isso pertença ao SO e não a qualquer outro site da SOFU. Entendo a diferença entre precisão e exatidão.)

questionAnswers(2)

yourAnswerToTheQuestion