реклама на сайте
подробности

 
 
> Подсчет энтропии случайного процесса, для нормального распределения
COCAINE
сообщение Dec 15 2010, 06:35
Сообщение #1


Частый гость
**

Группа: Свой
Сообщений: 131
Регистрация: 17-08-08
Из: Киев
Пользователь №: 39 650



чет понять не могу
энтропия дискретного случайного процесса H = -sum(P(i)*log(P(i)))
максимальная интегральная энтропия для нормального распределения H = log(sig*sqrt(2*pi*e)), sig - среднеквадратическое отклонение

вопрос - интегральная энтропия зависит от сигмы (от дисперсии ), а дискретная только от количества P(i) и от сигмы не зависит (значение в каналах гистораммы зависит только от количества каналов, ну или если другими словами то от уровня квантования... чем больше каналов тем больше энтропия, тем меньше вероятность угадать исход события)
если к примеру интегральная энтропия при sig = 1 равна 2.047, то дискретная может принимать любое значение... если предоположим у нас есть 5 вероятностей P(i) то она равна там 1.7, если 100, то она уже больше 5,6

получается что H = -sum(P(i)*log(P(i))) не считает энтропию, а считает хер знает че, или как? или я чет не догоняю?
Go to the top of the page
 
+Quote Post

Сообщений в этой теме


Reply to this topicStart new topic
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0

 


RSS Текстовая версия Сейчас: 22nd June 2025 - 04:14
Рейтинг@Mail.ru


Страница сгенерированна за 0.01343 секунд с 7
ELECTRONIX ©2004-2016