Цитата(Old1 @ Nov 14 2005, 12:28)

Цитата(Vic1 @ Nov 12 2005, 15:56)

Но существуют (мягко скажем) способы, которые дадут более узкий интервал выходной величины P (т.е. ее оценки погрешности), т.е. ближе к реальному измеренному значению .
Реальное измеренное значение, наверное, не одно? и наверняка есть разброс (неопределенность)?
А каким образом определяется действительная (истинная ширина) интервала? т.е. на основании чего принимается решение какой из результатов вычислений ("традиционными" или "интервальными" методами) ближе к истине?
Да, выяснилось, что мой "багаж" знаний в области интервальных вычислений не велик

, что посоветуете почитать (на русском языке)?
Я имела в виду конечно же истинное значение измерямой величины ("Погрешность средств измерений - разность между показанием средства измерений и истинным (действительным) значением измеряемой физической величины" - "Основные термины в области метрологии". Москва, Издательство стандартов, 1989.) Там и другие определения даются (погрешность результата измерений, отличия действительного значения от истинного и т.п.). Этот справочник фактически переложение ГОСТ 16263. ГСИ. Метрология. Термины и определения.
Будем считать, у истинного значения неопределенности нет (а то вообще можно запутаться). После преобразований (первичного, передача по линии связи, А/Ц) из-за погрешностей этих преобразований появляются неопределенности в измерительных данных (или, по другому, коды измерительных каналов АЦП имеют некоторую погрешность, интервал неопределенности). Применяя далее, какой-то алгоритм для получения (оценки) истинного значения измеряемой величины, интервал заведомо расширяется за счет вычислительных погрешностей. Правильно подобрав алгоритм вычисления, можно сузить этот интервал (хорошо бы к входному для алгоритмической части системы

). Конечно же, интервальные оценки могут применяться и для суммирования погрешностей hardware-части системы (измерительного канала), но это я пока не рассматриваю (не так актуально в наших задачах).
Интервал неопределенности на входе алгоритм
пока - это традиционные границы погрешности измерит. канала.
На основании чего принимается решение какой из результатов вычислений ("традиционными" или "интервальными" методами) ближе к истине? Например, такой переход к точечному представлению -середина интервала. Хотя, это тоже спорный момент.
А дальше вычисление разности между измеренным и истинным значением.
Еще один аспект - потребителю измерительных данных может быть полезно и интервальное представление его измеряемой величины, т.к. он сразу наблюдает и возможные отклонения из-за погрешностей применяемых средств измерений. Особенно, если этот потребитель - исследователь (испытания и исследования новой продукции). Если же измерительные данные потребляются в какой то системе управления (все, что угодно - АСУТП, ...), то интервальное представление выгодно в решающих (принимающих решение) программных процедурах за счет большего выбора стратегий.
Опять же спорных моментов (или подводных камней) - все равно много.
Для пополнения "багажа"
1. Алефельд Г. Херцбергер Ю. Введение в интервальные вычисления. М.: Мир, 1987. - 360 с.
2. Шокин Ю.И. Интервальный анализ. Новосибирск: Наука, 1981.
Есть - на
http://lib.mexmat.ru.
Более современные (там же)
3. Добронец Б.С. Интервальная математика. Учебное издание. Красноярский госуниверситет, 2004 г. -218 с.
4. Шарый С.П. Конечномерный интервальный анализ. Институт вычислительных технологий СО РАН. 2007 г.
3, 4 - учебные курсы для студентов
В печатном виде есть еще конспекты лекций Г.Г. Меньшикова (Санкт-Петербургский госуниверситет, каф. Математ. теории микропроцессорных систем управления).
Среди англоязычных - сайт Vladik Kreinovich (http://www.cs.utep.edu/vladik/).