Цитата(Freeze Anti @ Oct 30 2007, 15:03)

Не знаю, в какую тему впихнуть свой вопрос, поэтому решил написать сюда.
Я разрабатываю программу микроконтроллера для управления гидравлическим прессом.
У пресса есть режим работы поддержания заданной нагрузки.
Алгоритм работы пресса при этом режиме:
1. Включается электродвигатель и в резервуар загоняет жидкость, вследствие чего давление растет, одна из пластин пресса перемещается.
2. При достижении некоторого давления, близкого к заданному, электродвигатель выключается. По инерции давление растет некоторое время, после чего останавливается.
Вопрос состоит в следующем. На больших значениях нагрузки алгоритм срабатывает нормально. Но при уменьшении давления погрешность (и относительная, и абсолютная) растет. Я задал отклонение от заданного значения, при котором выключается двигатель, константой. Совершенно очевидно, что нужно использовать некоторую зависимость между заданной нагрузкой и отклонением, при котором дается команда Stop двигателю. Может кто-нибудь натолкнет меня на мысль, как приблизительно должна выглядеть эта зависимость.
Гипотезы нестабильности абсолютной погрешности три:
1. Неточность сигнала управления - двигатель запустили и тут же остановили, в результате рывка прокачанный объем нестабилен.
2. Неточность датчика при малых давлениях, в результате сигнал остановки формируется неточно.
3. Существенная нестабильность жесткости образца. Требуемое время выключения зависит от его жесткости (или как правильно назвать это свойство в данном случае?). Возможно, при малых давлениях она существенно другая или даже нестабильная - металл не начал течь, например.
Пишите в личку.