Главная страница

Содержание Задание на курсовую работу 2 Введение 4 Задания 5 Задание 1 5 Задание 2 8 Задание 3 12 Задание 4 14 Задание 5 17 Задание 6 21 Задание 7 23 Задание


Скачать 237.33 Kb.
НазваниеСодержание Задание на курсовую работу 2 Введение 4 Задания 5 Задание 1 5 Задание 2 8 Задание 3 12 Задание 4 14 Задание 5 17 Задание 6 21 Задание 7 23 Задание
Дата17.07.2022
Размер237.33 Kb.
Формат файлаdocx
Имя файла321657f.docx
ТипРеферат
#632422
страница5 из 8
1   2   3   4   5   6   7   8

Задание 5


Определим характеристики источника независимых двоичных сообщений, если вероятность появления символа "1"
р(1) = 0,001+0,kn,
где k и n - предпоследняя и последняя цифры номера варианта.
Вероятность появления одного из символов задается следующим образом: номер варианта=07, то вероятность появления символа "1" равна:
р(1) = 0,001+0,07 = 0,071. [4, п.4.4]
Необходимо последовательно рассчитать вероятность появления символа "0" - р(0), энтропию элемента - Нэл, производительность источника сообщений - Н, максимальную энтропию - Нэл.max, максимальную производительность источника -Нmax, избыточность источника сообщений - . [5, c. 200-209]

Под производительностью источника двоичных сообщений понимают среднее количество информации, выдаваемое источником в единицу времени (1 сек.) - Н’.
Н’ = НЭЛ / ТТАКТ, (бит/с), (5.1)

Н’ = НЭЛ FТАКТ, (бит/с). (5.2)
где НЭЛ - энтропия единичного элемента - среднее количество информации содержащееся в одном элементе, (бит/эл);ТАКТ - длительность единичного элемента, (с).

Единичный элемент кодовой комбинации передаётся за тактовый интервал.

Для источника независимых двоичных сообщений:
Н ЭЛ = - [p(1) log2p(1) + p(0)log2p(0)], (бит/эл); (5.3)
где p(1) и p(0) - вероятности появления символов <<1>> и <<0>>.

Так как появление символов <<1>> и <<0>> составляют полную группу событий, то:
р(1) + p(0) = 1, отсюда - p(0) = 1 - p(1).

р(1) = 0,001+0,07 = 0,071.
Следует:
p(0) = 1- 0,071 = 0,929.

Н ЭЛ = -[p(1) log2p(1) + p(0)log2p(0)]= -[0,071 log20,071 + 0,929 log20,929] =

= -[ 0,071 (-3,813) ++ 0,929 (-0,106)] =0,369 (бит/эл.)

Н’ = НЭЛ FТАКТ = 0,369  88  103 =32,47 103 (бит/c)= 32,47(кбит/c)
Для двоичного кода энтропия элемента достигает максимального значения при равенстве вероятностей появления символов <<1>> и <<0>>, т.е. когда p(1) = p(0) = 0,5.

Тогда:
НЭЛ = НЭЛ. MAX = log2m, (бит/эл), (5.4)
где m - основание кода (m=2).
НЭЛ. МАХ = log22 = 1 (бит/эл.)
При этом производительность источника равна:
Н" = Н"МАХ = 1/ТТАКТ, = FТАКТ, (бит/c), (5.5)

т.е. Н" = Н"МАХ = 1/ТТАКТ, = FТАКТ =88 103(бит/c)=88(кбит/c)
Избыточность источника двоичных сообщений равна:
æ = (НЭЛ.МАХ - НЭЛ)/НЭЛ.МАХ = 1 - (НЭЛ / НЭЛ. МАХ). Получим æ = 1- (0,369/1) = 0,63
Избыточность показывает долю (0,63) от максимально возможной энтропии, не используемую источником.

Количество информации, содержащееся элементах <<1>> и <<0>> равно:

= - log2p(1), (бит) (5.6)= -log2p(0), (бит). (5.7)
Зная log2p(1)= -3,813, log2p(0)= -0,106, получим I1=3,813(бит) и I0 =0,106(бит).

Количество информации в конкретной кодовой комбинации кода равно:
IKK = IЭЛ 1 + IЭЛ 2 +… +IЭЛ К, или IKK = a I1 + b I0 ,(бит). (5.8)
где IЭЛ I - количество информации в i- м элементе кодовой комбинации; k - количество информационных элементов в кодовой комбинации (проверочный элемент информации не несёт); а - количество элементов <<1>> в кодовой комбинации (без учёта проверочного элемента); b - количество элементов <<0>> в кодовой комбинации (без учёта проверочного элемента).
IKK1 = 4 3,813 + 6 0,106 =15,89 (бит).= 3 3,813 +7 0,106 = 12,18(бит).
Для увеличения энтропии источника, если p(1)  p(0), следует перекодировать кодовые комбинации ИКМ сигнала таким образом, чтобы символы нового двоичного кода были как можно более равновероятны. Это увеличит энтропию элемента (символа) нового двоичного кода. Для этой цели можно использовать неравномерный двоичный код, который содержит: две кодовые комбинации длиной в 1 элемент (k=1), т.е. 1 и 0; четыре кодовые комбинации длиной 2 элемента (k=2), т.е. 00, 01, 10, 11; восемь кодовых комбинаций длиной 3 элемента (k=3), т.е. 000, 001, 010, 011, 100, 101, 110, 111 и т.д. [5, c.200-209]

Для увеличения энтропии необходимо наиболее вероятные кодовые комбинации исходного кода закодировать наиболее короткими кодовыми комбинациями нового двоичного кода (неравномерного). Так как p(1)Таблица 5.1.

Кодовая комбинация равномерного кода

Кодовая комбинация неравномерного кода

1111111110

0

1111111101

1

1111111011

00

1111110111

01

1111101111

10

1111011111

11

1110111111

000

1101111111

001

1011111111

010

0111111111

011
1   2   3   4   5   6   7   8


написать администратору сайта