Добрый день, господа!
Есть ли в природе хорошие книги, описывающие подход к калибровке приборов? В целом вопросов нет. Но появляются вопросы в частности.
К примеру. Делаем вольтметр. Используем n-битный АЦП.
Каждое звено измерительного тракта вносит погрешности. По идее - зависимость выходного кода АЦП от входного напряжения - линейная (это не совсем так). Раз зависимость линейная, то можно калибровать прибор по двум точкам, например на 0 вольт, и на напряжение, соотвествующее максимальному на шкале.
Практика показывает, что такой подход не всегда даёт удовлетворительный результат, т.к. появляются всякого рода нелинейности (естественно не от одного АЦП, т.к. перед ним различные нормализаторы, фильтры и т.п.).
Вот и хотелось бы вычитать теорию, т.к. сказать общий подход к этому делу. Какие точки от диапазона брать для калибровки, сколько штук, по какому полиному аппроксимировать и т.д. и т.п.
Просьба к геометрии за начальные классы не отсылать

Ибо я не хочу сам изобретать теорию. Хочу, наоборот, почитать, что мировой опыт может мне дать.
Есть книги по электрорадиозмерениям (Елизаров, Мейзда и т.п.). Но там методика измерений. Немного матстатистики. Про калибровку ни слова.
В общем нужна хорошая книга, от которой можно стартовать.
Спасибо!!!
Выбор.