чет понять не могу энтропия дискретного случайного процесса H = -sum(P(i)*log(P(i))) максимальная интегральная энтропия для нормального распределения H = log(sig*sqrt(2*pi*e)), sig - среднеквадратическое отклонение
вопрос - интегральная энтропия зависит от сигмы (от дисперсии ), а дискретная только от количества P(i) и от сигмы не зависит (значение в каналах гистораммы зависит только от количества каналов, ну или если другими словами то от уровня квантования... чем больше каналов тем больше энтропия, тем меньше вероятность угадать исход события) если к примеру интегральная энтропия при sig = 1 равна 2.047, то дискретная может принимать любое значение... если предоположим у нас есть 5 вероятностей P(i) то она равна там 1.7, если 100, то она уже больше 5,6
получается что H = -sum(P(i)*log(P(i))) не считает энтропию, а считает хер знает че, или как? или я чет не догоняю?
|