Wiem, że 10 lat temu, typowa dokładność zegara równała się tyknięciu systemu, który był w zakresie 10-30ms. W ciągu ostatnich lat precyzja była zwiększana w wielu krokach. W dzisiejszych czasach istnieją sposoby mierzenia odstępów czasu w rzeczywistych nanosekundach. Jednak zwykłe frameworki wciąż zwracają czas z dokładnością zaledwie około 15 ms.Jak dokładny jest wewnętrzny zegar współczesnego komputera?
Moje pytanie brzmi: jakie kroki zwiększyły precyzję, jak to jest zmierzyć w nanosekundach, i , dlaczego wciąż uzyskujemy dokładność mniejszą niż mikrosekundę (na przykład w .NET).
(Zastrzeżenie: Wydaje mi się dziwne, że nie zadano mi tego wcześniej, więc domyślam się, że tęskniłem za tym pytaniem, gdy szukałem.) Proszę zamknąć i wskazać mi na pytanie w tym przypadku, dziękuję. a nie na żadnej innej witrynie SOFU Rozumiem różnicę między precyzją a dokładnością.)
http://en.wikipedia.org/wiki/High_Precision_Event_Timer#Problems Podobno niektóre implementacje HPET ironicznie mają problemy z precyzją, ze względu na powolność czytania lub dryfowanie, między innymi. Nadal jednak powinno być w porządku, jednak w większości przypadków, szczególnie w przypadku odtwarzania/synchronizowania multimediów (ponieważ jest to przeznaczenie). – Alex