Главная страница

ТЕОРИЯ ИНФОРМАЦИИ И КОДИРОВАНИЯ. Воронежский институт мвд россии кафедра высшей математики


Скачать 1.43 Mb.
НазваниеВоронежский институт мвд россии кафедра высшей математики
Дата12.04.2022
Размер1.43 Mb.
Формат файлаpdf
Имя файлаТЕОРИЯ ИНФОРМАЦИИ И КОДИРОВАНИЯ.pdf
ТипУчебник
#464649
страница1 из 14
  1   2   3   4   5   6   7   8   9   ...   14

ВОРОНЕЖСКИЙ ИНСТИТУТ МВД РОССИИ
Кафедра высшей математики
Думачев В.Н.
ТЕОРИЯ ИНФОРМАЦИИ
И КОДИРОВАНИЯ
Воронеж - 2016-06

УДК 519.72
Д82
Рассмотрены и одобрены на заседании кафедры высшей математики протокол
№3 от 22.11.2011 г.
Рассмотрены и одобрены на заседании методического совета протокол №3 от
26.11.2011 г.
Д82 Думачев В.Н. Теория информации и кодирования - Воронеж:
Воронежский институт МВД России, 2012. – 200 с.
Учебник содержит систематическое изложение всего материала по курсу "Теория информации и кодирования"
и предназначен для выполнения типового расчета,
проведения практических занятий, лабораторных работ и самоподготовки для курсантов радиотехнического факультета,
обучающихся по специальности
090302.65 - Информационная безопасность телекоммуникационных систем.
Д
1203021300 - 39 1(III)
УДК 519.72 221 - 08
c
Воронежский институт МВД России, 2015

Оглавление
1 Энтропия и информация
5 1.1 Энтропия и информация дискретных источников сообщений . . . . .
5 1.2 Энтропия непрерывных источников сообщений . . . . . . . . . . . . .
10 1.3 Условная энтропия . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16 1.4 Задачи информационного поиска . . . . . . . . . . . . . . . . . . . . .
20 1.5 Взаимная информация . . . . . . . . . . . . . . . . . . . . . . . . . . .
29 1.6 Кодирование информации методом Шеннона . . . . . . . . . . . . . .
36 1.7 Избыточность сообщения . . . . . . . . . . . . . . . . . . . . . . . . . .
38 2 Каналы связи
41 2.1 Пропускная способность каналов связи . . . . . . . . . . . . . . . . . .
41 2.2 Теоремы Котельникова и Шеннона . . . . . . . . . . . . . . . . . . . .
58 2.3 Теория массового обслуживания . . . . . . . . . . . . . . . . . . . . . .
61 2.3.1 Цепи Маркова . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61 2.3.2 Работа телефонного коммутатора . . . . . . . . . . . . . . . . .
64 2.3.3 Система массового обслуживания с ожиданием . . . . . . . . .
72 2.4 Стандарт сотовой связи GSM . . . . . . . . . . . . . . . . . . . . . . .
74 2.5 Стандарты зписи CD и DVD . . . . . . . . . . . . . . . . . . . . . . . .
80 3 Теория помехоустойчивого кодирования
83 3.1 Коды Хэмминга . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
86 3.2 Циклические коды . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93 3.2.1 Исправление 1 ошибки . . . . . . . . . . . . . . . . . . . . . . .
96 3.2.2 Исправление 2 ошибок . . . . . . . . . . . . . . . . . . . . . . .
102 3.3 Коды Рида-Миллера . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
106 3.4 Сверточные коды . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
109 3.4.1 Блочное чередование . . . . . . . . . . . . . . . . . . . . . . . .
109 3.4.2 Теория автоматов . . . . . . . . . . . . . . . . . . . . . . . . . .
110 3.4.3 Сверточные коды . . . . . . . . . . . . . . . . . . . . . . . . . .
115 3.4.4 Коррекция ошибок сверточным кодом . . . . . . . . . . . . . .
117 3.4.5 Алгоритм Витерби . . . . . . . . . . . . . . . . . . . . . . . . . .
124 3.5 Турбокоды . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
131 3.6 Вычисления в полях Галуа . . . . . . . . . . . . . . . . . . . . . . . . .
137 3

4
Оглавление
3.7 Коды БЧХ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
143 3.7.1 Прямой алгебраический метод PGZ . . . . . . . . . . . . . . . .
144 3.7.2 Коды БЧХ над GF (2 3
) . . . . . . . . . . . . . . . . . . . . . . .
145 3.7.3 Коды БЧХ над GF (2 4
) . . . . . . . . . . . . . . . . . . . . . . .
150 3.7.4 Расширенный алгоритм Евклида . . . . . . . . . . . . . . . . .
159 3.8 Совершенные недвоичные коды . . . . . . . . . . . . . . . . . . . . . .
161 3.8.1 Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
161 3.8.2 Совершенный код в GF (2 2
) . . . . . . . . . . . . . . . . . . . . .
161 3.8.3 Совершенный код в GF (2 3
) . . . . . . . . . . . . . . . . . . . . .
163 3.9 Коды Рида-Соломона . . . . . . . . . . . . . . . . . . . . . . . . . . . .
166 3.9.1 Исправление 1 ошибки несовершенного кода [n, k]
q
= [7, 5]
8 166 3.9.2 Исправление 2 ошибок несовершенного кода [n, k]
q
= [7, 3]
8 172 3.10 Алгоритм Берлекемпа-Месси . . . . . . . . . . . . . . . . . . . . . . . .
181 3.11 Расширенный алгоритм Евклида для кода RS . . . . . . . . . . . . . .
183 4 Квантовая информация
187 4.1 Основы квантовых вычислений . . . . . . . . . . . . . . . . . . . . . .
187 4.2 Матрица плотности . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
198 4.3 Редуцированные матрицы плотности . . . . . . . . . . . . . . . . . . .
206 4.4 Разложение Шмидта . . . . . . . . . . . . . . . . . . . . . . . . . . . .
214 4.5 Зацепленные квантовые состояния . . . . . . . . . . . . . . . . . . . .
221 4.6 Квантовые алгоритмы . . . . . . . . . . . . . . . . . . . . . . . . . . . .
224 4.6.1 Алгоритм Дойча . . . . . . . . . . . . . . . . . . . . . . . . . . .
224 4.6.2 Квантовое плотное кодирование . . . . . . . . . . . . . . . . . .
227 4.6.3 Квантовая телепортация . . . . . . . . . . . . . . . . . . . . . .
232 4.7 Коррекция ошибок в квантовых каналах информации . . . . . . . . .
233 4.8 Клонирование квантовой информации . . . . . . . . . . . . . . . . . .
236
Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
239

Глава 1
Энтропия и информация
1.1
Энтропия и информация дискретных источников сообщений
Теорией информации называется наука, изучающая количественные закономерности,
связанные с получением, передачей, обработкой и хранением информации. Одной из задач теории информации является отыскание наиболее экономных методов кодирования,
позволяющих передать заданную информацию с помощью минимального количества символов. Эта задача решается как при отсутствии, так и при наличии искажений
(помех) в канале связи.
Другая типичная задача теории информации ставится следующим образом: имеется источник информации (передатчик), непрерывно вырабатывающий информацию, и канал связи, по которому эта информация передается в другую инстанцию (приемник).
Какова должна быть пропускная способность канала связи для того, чтобы канал
«справлялся» со своей задачей, т.е. передавал всю поступающую информацию без задержек и искажений?
Ряд задач теории информации относится к определению объема запоминающих устройств, предназначенных для хранения информации, к способам ввода информации в эти запоминающие устройства и вывода ее для непосредственного использования.
Любое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Очевидно, если бы состояние физической системы было известно заранее, не было бы смысла передавать сообщение. Сообщение приобретает смысл только тогда, когда состояние системы заранее неизвестно, случайно.
Поэтому в качестве объекта, о котором передается информация, будем рассматривать некоторую физическую систему X, для которой событием будет возможность оказаться в том или ином состоянии, т. е. систему, которой заведомо присуща какая-то степень неопределенности. Интуитивно понятно, что если вероятность появления события равна 1, то само появление этого события для нас информации никакой не несет (мы и так знали, что оно появится). Например, если кто то вам скажет, что занятия в
5

6
Глава 1. Энтропия и информация нашем институте начинаются в 9-00, то для вас это не будет новостью, вероятность этого события равна 1 и вы не получите в этом сообщении никакой дополнительной информации о системе образования в нашем вузе. Рассмотрим другой крайний случай:
допустим, стало известно, что всем двоечникам в нашем ВУЗе будут давать дополнительный отпуск и надбавку к стипендии. Вот это уже новость. Эту новость все будут друг другу пересказывать, опубликуют в газетах, возможно даже приедет телевидение.
Ведь появление такого события очень маловероятно, поэтому оно очень значимо с точки зрения информации и дает огромные знания относительно того, как (оказывается)
организован учебный процесс в нашем институте. Из этого примера видно, что вероятность появления события должна играть ключевую роль в формальном определении информации.
В математике за меру информации принимают величину
I = log
2
 1
p

=
− log
2
p.
Заметим, что в теории информации используется двоичный (битовый) логарифм lb a = log
2
a,
а при практических вычислениях на ЭВМ используется натуральный логарифм log e
a =
ln a. Переход от натурального основания к битовому осуществляется по формуле lb a = log
2
a =
log e
a log e
2
=
ln a ln 2
Информация о системе дается знанием того, какое именно из состояний примет данная система при проведении испытания и вычисляется по формуле
I =
− lbp.
Для случайной величины x с плотностью f(x)
I(x) =
− lbf(x).
Единица измерения информации называется бит (1 bit или 1 b). Бит – информация,
хранящаяся в 1 ячейке с двумя значениями (0,1):
x
0 1
p 0.5 0.5
Тогда
I
0
=
− lbp
0
=
− log
2
 1 2

= log
2 2 = 1 bit,
I
1
=
− lbp
1
=
− log
2
 1 2

= log
2 2 = 1 bit.

1.1. Энтропия и информация дискретных источников сообщений
7
Пример 1.1. Какая информация содержится в сообщении о том, что монетка упала гербом?
Решение. Вероятность того, что монетка упадет гербом, равна p =
1 2
. Поэтому,
проведение данного испытания дало нам
I =
− lbp = − lb
1 2
= lb2 = 1 bit т.е. 1 бит информации.
N
Пример 1.2. В ящике 10 гранат, из которых 8 без взрывателя. Из ящика наудачу выбирается 3 гранаты. Какое количество информации содержится в сообщении о том,
что все 3 выбранные гранаты оказались без взрывателя?
Решение. Определим вероятность выбора из ящика 3 гранат без взрывателя:
p =
8 10
·
7 9
·
6 8
=
7 15
= 0.467.
Количество информации в сообщении определяется по формуле
I = lb
 1
p

= lb
 15 7

= 1.1 bit. N
Пример 1.3. В группе 20 курсантов, среди которых 4 отличника, 6 хорошистов,
7 троечников, остальные – двоечники. По списку наудачу отобраны 5 курсантов.
Какое количество информации содержится в сообщении о том, что среди отобранных курсантов 3 отличника, 1 хорошист и 1 троечник?
Решение. Приведем обозначения задачи в соответствие с формулой обобщенной гипергеометрической вероятности. Согласно условию задачи: N=20. Определим состав группы:
имеем выбираем
Отличники n
1
= 4
m
1
= 3
Хорошисты n
2
= 6
m
2
= 1
Троечники n
3
= 7
m
3
= 1
Двоечники n
4
= 3
m
4
= 0
Всего
N=20
M=5
Вспоминая, что
C
m n
=
n!
m!(n
− m)!
,
по формуле гипергеометрической вероятности получим
P =
C
m
1
n
1
· C
m
2
n
2
· C
m
3
n
3
· C
m
4
n
4
C
M
N
=
C
3 4
· C
1 6
· C
1 7
· C
0 3
C
5 20
=
7 17
· 19 · 2
= 0.011.

8
Глава 1. Энтропия и информация
Тогда количество информации есть
I = lb
 1
P

=
− lb (P ) = − lb0.011 = 6.528 bit. N
Задача 1.1.
1. В коробке 7 одинаковых деталей, причем 3 из них окрашены. Наудачу извлечены
4 изделия. Какое количество информации содержится в сообщении о том, что среди двух извлеченных изделий 2 два окрашенных.
2. В партии из 10 деталей имеется 8 стандартных. Наудачу отобраны 3 детали.
Какое количество информации содержится в сообщении о том, что среди них
1 бракованная.
3. В отделе работают 6 мужчин и 4 женщины. По табельным номерам наудачу отобраны 7 человек. Какое количество информации содержится в сообщении о том, что среди отобранных лиц окажутся 3 женщины.
4. На складе имеются 15 мониторов, причем 10 из них Samsung. Какое количество информации содержится в сообщении о том, что среди 5 взятых наудачу мониторов
3 окажутся Samsung.
5. В группе 12 курсантов, среди которых 8 отличников. По списку наудачу отобраны
9 курсантов. Какое количество информации содержится в сообщении о том, что среди отобранных курсантов 5 отличников.
6. В коробке 5 одинаковых купюр, причем 3 из них помечены. Наудачу извлечены
4 купюры. Какое количество информации содержится в сообщении о том, что среди извлеченных купюр 2 помеченых.
7. В конверте среди 10 фотокарточек находится 2 разыскиваемых. Из конверта наудачу извлечены 8 карточек. Какое количество информации содержится в сообщении о том, что среди них оказалась 1 нужная.
8. В урне 7 белых и 5 черных шаров. Из урны вынимают сразу 5 шаров. Какое количество информации содержится в сообщении о том, что 2 из них будут белыми.
9. Среди 10 лотерейных билетов 3 выигрышных. Наудачу взяли 5 билетов. Какое количество информации содержится в сообщении о том, что среди них 2 выигрышных.
10. Во время гололеда на трассе М4-ДОН столкнулись 6 автомобилей, причем 3
из них - Mersedes. Инспектор ДПС наудачу оштрафовал 3 водителей. Какое количество информации содержится в сообщении о том, что среди них 2 будут водителями Mersedes.

1.1. Энтропия и информация дискретных источников сообщений
9 11. Во время летнего отпуска 4 человека полетели в Турцию, а 6 - на Тайвань.
Внезапно прибывший начальник решил провести совещание и вызвал из отпуска
5 человек. Какое количество информации содержится в сообщении о том, что среди них 2 прибудут из Турции.
12. В урне 3 белых, 4 черных и 5 красных шаров. Из урны вынимают сразу три шара. Какое количество информации содержится в сообщении о том, что все шары будут разного цвета.
13. В урне 5 белых, 6 черных и 7 красных шаров. Из урны вынимают сразу три шара. Какое количество информации содержится в сообщении о том, что все шары будут белые.
14. Имеются изделия четырех сортов, причем число изделий каждого сорта равно n
1
= 2, n
2
= 3, n
3
= 1, n
4
= 3. Для контроля наудачу берутся 5 изделий. Какое количество информации содержится в сообщении о том, что среди них m
1
= 2
первосортных, m
2
= 1 второго, m
3
= 0 третьего и m
4
= 2 четвертого сорта.
15. ППС задержали 6 хулиганов, причем 3 из них без российского гражданства.
Наудачу вызывают 3 задержанных. Какое количество информации содержится в сообщении о том, что среди них 2 будут без гражданства.
16. На складе из 10 деталей имеется 8 нелицензионных. Наудачу отобраны 3 детали.
Какое количество информации содержится в сообщении о том, что среди них
1 нелицензионная.
17. В отделе работают 8 мужчин и 4 женщины. По табельным номерам наудачу отобраны 7 человек. Какое количество информации содержится в сообщении о том, что среди отобранных лиц окажутся 4 женщины.
18. Через границу проезжает 15 КАМазов, причем 10 из них с наркотиками. Какое количество информации содержится в сообщении о том, что среди 5 проверенных наудачу КАМазов 3 окажутся с наркотиками.
19. В бандгруппе 15 боевиков, среди которых 8 вакхабитов. По списку наудачу отобраны 9 боевиков. Какое количество информации содержится в сообщении о том, что среди отобранных боевиков 5 вакхабитов.
20. В ящике 6 гранатометов, причем 3 из них российского производства. Наудачу извлечены 2 гранатомета. Какое количество информации содержится в сообщении о том, что среди двух извлеченных гранатометов 2 российских.
21. В конверте среди 10 фотокарточек находится одна разыскиваемая. Из конверта наудачу извлечены 5 карточек. Какое количество информации содержится в сообщении о том, что среди них окажется нужная.

10
Глава 1. Энтропия и информация
22. На позициях стояло 8 БМП и 5 БТР. Установкой ГРАД было поражено сразу 5
единиц боевой техники. Какое количество информации содержится в сообщении о том, что 2 из них будут БМП.
23. Среди 10 олигархов было 3 депутата. Наудачу взяли 5 олигархов. Какое количество информации содержится в сообщении о том, что среди них 2 депутата.
24. В камере 3 таджика, 4 грузина и 6 азербайджанцев. Из камеры наудачу вызывают трех человек. Какое количество информации содержится в сообщении о том,
что все вызываемые будут разной национальности.
25. В камере 3 таджика, 4 грузина и 6 азербайджанцев. Из камеры наудачу вызывают трех человек. Какое количество информации содержится в сообщении о том,
что все вызываемые будут грузины.
26. Имеются изделия четырех сортов, причем число изделий каждого сорта равно n
1
= 4, n
2
= 3, n
3
= 5, n
4
= 3. Для контроля наудачу берутся 5 изделий. Какое количество информации содержится в сообщении о том, что среди них m
1
= 1
первосортных, m
2
= 1 второго, m
3
= 0 третьего и m
4
= 3 четвертого сорта.
1.2
Энтропия непрерывных источников сообщений
Поскольку возможные состояния x = (x
1
, x
2
, ..., x n
), случайно принимаемые системой,
образуют полную группу несовместных событий, то в дальнейшем все изучаемые системы мы будем описывать некоторой случайной величиной x с плотностью вероятностей f (x) =
X
p i
δ(x
− x i
).
В этом случае, за меру информации, содержащейся в значении x непрерывной случайной величины x, принимают выражение
I =
− lbf(x).
Напомним, что математическое ожидание (среднее значение) случайной величины x
вычисляется по формуле
M(x) =
hxi = x =
Z
x
· f(x)dx.
Если случайная величина x является дискретной, то
M(x) =
Z
x
· f(x)dx =
X
Z
x
· p i
δ(x
− x i
)dx =
X
x i
p i
= (
x · p).
Здесь мы воспользовались фильтрующим свойством δ-функции
Z
f (x)δ(x
− a)dx = f(a).

1.2. Энтропия непрерывных источников сообщений
11
Очевидно, сведения, полученные о системе, будут, вообще говоря, тем ценнее и содержательнее, чем больше была неопределенность системы до получения этих сведений («априори»). В качестве меры априорной неопределенности системы (или случайной величины x) в теории информации применяется специальная характеристика,
называемая энтропией.
Энтропией H(x) называется среднее количество информации, содержащееся в случайной величине x
H(x) = M(I) =
hIi =
Z
I
· f(x)dx.
Подставляя сюда I = − lbf(x), для непрерывной случайной величины получим
H(x) =

Z
f
· lbf dx,
а для дискретной:
H(x) =

X
p i
lbp i
причем f lbf = 0, если f = 0.
Свойства энтропии.
1. H(x) ≥ 0;
2. H(x) ≤ lb|x|;
3. Если x и y независимы, то H(xy) = H(x) + H(y)
4. Обработка информации не приводит к увеличению энтропии
H(g(x))
≤ H(x).
Энтропия является мерой неопределенности случайной величины x. Чем больше энтропия, тем больше неопределенности в распределении случайной величины.
Условная энтропия случайной величины x относительно случайной величины y дается выражениями
H(x/y) =

X
p(x/y) lbp(x/y),
H(x/y) =

Z
f (x/y) lbf (x/y)dx.
Математическое ожидание условной энтропии M [H(x/y)] называется средней условной энтропией:
H
y
(x) = M
y
[H(x/y)] =
X
p(y)H(x/y) =

X X
p(y)p(x/y) lbp(x/y),
H
y
(x) =

Z Z
f (y)f (x/y) lbf (x/y)dxdy.

12
Глава 1. Энтропия и информация
Количество информации о случайной величине x, которое может быть получено в результате наблюдения значений y, измеряется разностью энтропии H(x) и ее средней условной энтропии относительно y:
I
y
(x) = H(x)
− H
y
(x).
Если после получения сообщения о дискретной случайной величине y значение x полностью определено, то
H
y
(x) = 0 и I
y
(x) = H(x).
Если x и y независимы, то
H(x) = H
y
(x) и I
y
(x) = 0.
Отметим свойство симметрии условной информации
I
y
(x) = I
x
(y).
Энтропия H(x), как мы увидим в дальнейшем, обладает рядом свойств, оправдывающих ее выбор в качестве характеристики степени неопределенности. Во-первых, она обращается в нуль, когда одно из состояний системы достоверно, а другие – невозможны. Во- вторых, при заданном числе состоянии она обращается в максимум, когда эти состояния равновероятны, а при увеличении числа состояний – увеличивается. Наконец, и это самое главное, она обладает свойством аддитивности, т. е. когда несколько независимых систем объединяются в одну, их энтропии складываются.
Определение 1. Среди всех законов распределения, ограниченных на интервале,
наибольшую энтропию имеет равномерное.
Пример 1.4. Энтропия равномерного, на конечном интервале, распределения x = (x
1
, x
2
, ..., x n
) есть
H(x) = lb n.
Действительно, поскольку вероятность всех событий данного распределения одинакова и равна p i
=
1
n
, то
H(x) =

n
X
i=1
p i
· lb p i
=

n
X
i=1 1
n
· lb
1
n
=
1
n
· lb n n
X
i=1 1 =
1
n
· lb n · n = lb n. N

1.2. Энтропия непрерывных источников сообщений
13 0
  1   2   3   4   5   6   7   8   9   ...   14


написать администратору сайта