теория информации. ТИ (Best). Лекции по предмету "Теория информации" Красноярск 2002
Скачать 1.06 Mb.
|
Энтропия и информацияПусть имеется система X с энтропией H(x). После получении информации о состоянии системы; система полностью определилась, т.е энтропия равна нулю, следовательно, информация, получаемая в результате выяснения состояния системы x равна уменьшению энтропии. Ix = H(x) – 0 = H(x) Количество информации приобретённое при полном выяснении состояния системы равна энтропии. - часть информации о системе - называют частной информацией о системе или информацией от отдельного сообщения. Для системы с равновозможными состояниями Полная информация Пример: На шахматной доске в одной из клеток поставлена фигура. Вероятность нахождения фигуры на любой клетке одинакова. Определить информацию, получаемую от сообщения о нахождении фигуры в какой-либо клетке. Ix = log 64 = 6 бит Пример 2: Определить частную информацию от сообщения о нахождении фигуры в одной из четырёх клеток. P = ; - вероятность сообщения = 4 бит Пример 3: Определить частную информацию, содержащаяся в сообщении случайного лица о своём дне рожденье. - вероятность полученного сообщения; бит – количество информации Пример 4: Определить полную информацию от сообщения о дне рождения случайного лица. x1 – день рожденье x2 – не день рожденье бит Пример 5: По цели может быть произведено n выстрелов. Вероятность поражения цели при каждом выстреле p. После k-ого выстрела (1 к n) производятся разведка, сообщение поражена или не поражена цель. Определить к при условии, чтобы количество информации, доставляемая разведкой была максимальной. xk – система (цель после к-ого выстрела) имеет два состояния: x1 – цель поражена; x2 – промах p1 = 1 – (1 - p)k p2 = (1 - p)k Информация будет максимальна, когда p1 = p2, следовательно 1 – (1 - p)k = (1 - p)k , k = p = 0.2; к = 3 Взаимная информацияИмеется две системы: X и Y. Они взаимосвязаны. Необходимо определить, какое количество информации по системе X даст наблюдение за системой Y. Такую информацию определяют, как уменьшение энтропии системы X в результате получения сведений о системе Y. Iyx = H(x) – H(x / y) Iyx = Ixy = Ixy Если системы X и Y независимы, то H(x / y) = H(x) и Iyx = 0 - информации не будет2) Система полностью зависимы H(x / y) = H(y / x) = 0 Iyx = H(x) = H(y) Выражения для взаимной информации можно получить через взаимную энтропию H(x / y) = H(x, y) – H(y) Iyx = H(x) + H(y) – H(x, y) Формула для расчёта взаимной информации H(x) = M[ - log p(x)], H(y) = M[ - log p(y)] H(x, y) = M[ - log p(x, y)] Iyx = M[ - log p(x) – log p(y) + log p(x, y)] П Сумма равна единицеЭтих сведений достаточно, чтобы определить взаим- ную информацию, создавшуюся в системе ример: Найти полную взаимную информацию, содержащуюся в системах X и Y. Если задача на матрицы совместных вероятностей.
бит |