Цитата(rezident @ Feb 14 2007, 17:59)

При таком способе (определение частоты по измеренному периоду) даже если тактировать TimerA от 10МГц (больше по даташиту нельзя), то относительная погрешность измерения периода получиться не выше одного дискретного отсчета 1/10МГц. Что для периода 1/10кГц составляет ~0.1%. А требуется 0,02%.
Тормозишь. Я ведь не случайно сказал -"за время 100+ mS". Не по одному периоду, а за время счета (в данном случае 10 раз в секунду) набираем (в таймере) точное время в дискретах опорника, и число входных импульсов (а вовсе не по одному периоду). Таким образом, имеем разрешение 1E-6 при опорнике 10 MHz, а точность - соответствующую точности опорника. Более того, точность измерения не зависит от измеряемой частоты и не пострадает, если на входе поставить прескалер (если потребуется считать существенно большие частоты).
Цитата(rezident @ Feb 14 2007, 17:59)

Так что для достижения требуемой точности измерения нужно еще математику применить. ИМХО.
Всенепременно - как же без математики ?
Мне другое забавно - вот сколько журналах и инете микропроцессорных частотомеров, и все тупо считают импульсы за измерительный интервал. Нужно десятые Hz - делают окно 10 sec. Очевидно же решение, нет, из конструкции в конструкцию все повторяют и повторяют... А у меня частотомер показывает сотые Hz по два раза в секунду (можно было и тысячные, только не нужно)