Tiempo de precisión por debajo de milisegundos en C o C ++

¿Qué técnicas / métodos existen para obtener datos de temporización de precisión por debajo de milisegundos en C o C ++, y qué precisión y exactitud proporcionan? Estoy buscando métodos que no requieran hardware adicional. La aplicación implica esperar aproximadamente 50 microsegundos +/- 1 microsegundo mientras algún hardware externo recopila datos.

EDITAR: OS es Wndows, probablemente con VS2010. Si puedo obtener controladores y SDK para el hardware en Linux, puedo ir usando el último GCC.

Respuestas a la pregunta(9)

Su respuesta a la pregunta