Цитата(Petrovich @ Nov 26 2010, 23:23)

Господа, есть задача, помогите пожалуйста решить.
Есть выборка сигнала длинной 10000 семплов. Всю эту выборку нужно отобразить на экране длинной в 300 точек. Как это сделать так, что бы из исходной выборки не были выкинуты характерные максимумы и минимумы?
При этом алгоритм должен быть не ресурсоемким...
Вроде все логично, делал так: разбивал на блоки по 10000/300 семплов, в каждом искал min,max рисовал вертикальную линию от min до max, при этом х-координата линии равна номеру блока. В моем случае было быстрее, чем на каждый семпл ставить точку с координатой (trunc (x/(10000/300)),y) (здесь х-номер отсчета, у - значение)
Сообщение отредактировал alexPec - Nov 26 2010, 20:44