теория информации. ТИ (Best). Лекции по предмету "Теория информации" Красноярск 2002
Скачать 1.06 Mb.
|
Энтропия и её свойстваРассмотрим некоторую систему, которую обозначим за X, котороя может принимать конечное множество состояний x1, x2, …,xn (пример: алфавит x1,..,xn - буквы). Вероятность появления символов p1, p2, .. ,pn. Свойства: 1) Энтропию системы X - - всегда больше нуля. Это следует из того, что log2 pi – отр., pi меньше единицы и – на - , даёт плюс. 2) Энтропия обращается в 0, когда одно из состояний достоверно, а другие невозможны, т.е. какая-то из вероятностей будет равна единице, логорифм даст ноль, следовательно, Н(x) = 0. 3) Обращается в максимальное, когда все состояния равновероятны. 4) Энтропия обладает свойством аддитивности, кода несколько систем объединяются в одну, их энтропии складываются. Рассмотрим простейший случай. Система имеет два состояния и эти состояния равновероятны.
Определить энтропию системы X, которая имеет n равновероятных состояний
- это частный случай, когда все вероятности одинаковы. Пример: Система X имеет восемь состояний. Определить энтропию. (состояния равновероятны) n = 8 Пример: Определить H, состояние которой описывается таблицей. Система имеющая пять состояний
Иногда энтропию определяют через математическое ожидание H(x) = M[-log2 p(x)] – это позволяет упростить математические выкладки. Пример: Алфавит состоит из букв a, b, c, d. Даны вероятности pa = pb = 0,25; рс = 0,34; pd = 0.16 H(x) = - (2*0.25 log 0.25 + 0.34 log 0.34 + 0.16 log 0.16) = 1.952 бит/символ |