Содержание Задание на курсовую работу 2 Введение 4 Задания 5 Задание 1 5 Задание 2 8 Задание 3 12 Задание 4 14 Задание 5 17 Задание 6 21 Задание 7 23 Задание
![]()
|
Задание 5Определим характеристики источника независимых двоичных сообщений, если вероятность появления символа "1" р(1) = 0,001+0,kn, где k и n - предпоследняя и последняя цифры номера варианта. Вероятность появления одного из символов задается следующим образом: номер варианта=07, то вероятность появления символа "1" равна: р(1) = 0,001+0,07 = 0,071. [4, п.4.4] Необходимо последовательно рассчитать вероятность появления символа "0" - р(0), энтропию элемента - Нэл, производительность источника сообщений - Н, максимальную энтропию - Нэл.max, максимальную производительность источника -Нmax, избыточность источника сообщений - . [5, c. 200-209] Под производительностью источника двоичных сообщений понимают среднее количество информации, выдаваемое источником в единицу времени (1 сек.) - Н’. Н’ = НЭЛ / ТТАКТ, (бит/с), (5.1) Н’ = НЭЛ FТАКТ, (бит/с). (5.2) где НЭЛ - энтропия единичного элемента - среднее количество информации содержащееся в одном элементе, (бит/эл);ТАКТ - длительность единичного элемента, (с). Единичный элемент кодовой комбинации передаётся за тактовый интервал. Для источника независимых двоичных сообщений: Н ЭЛ = - [p(1) log2p(1) + p(0)log2p(0)], (бит/эл); (5.3) где p(1) и p(0) - вероятности появления символов <<1>> и <<0>>. Так как появление символов <<1>> и <<0>> составляют полную группу событий, то: р(1) + p(0) = 1, отсюда - p(0) = 1 - p(1). р(1) = 0,001+0,07 = 0,071. Следует: p(0) = 1- 0,071 = 0,929. Н ЭЛ = -[p(1) log2p(1) + p(0)log2p(0)]= -[0,071 log20,071 + 0,929 log20,929] = = -[ 0,071 (-3,813) ++ 0,929 (-0,106)] =0,369 (бит/эл.) Н’ = НЭЛ FТАКТ = 0,369 88 103 =32,47 103 (бит/c)= 32,47(кбит/c) Для двоичного кода энтропия элемента достигает максимального значения при равенстве вероятностей появления символов <<1>> и <<0>>, т.е. когда p(1) = p(0) = 0,5. Тогда: НЭЛ = НЭЛ. MAX = log2m, (бит/эл), (5.4) где m - основание кода (m=2). НЭЛ. МАХ = log22 = 1 (бит/эл.) При этом производительность источника равна: Н" = Н"МАХ = 1/ТТАКТ, = FТАКТ, (бит/c), (5.5) т.е. Н" = Н"МАХ = 1/ТТАКТ, = FТАКТ =88 103(бит/c)=88(кбит/c) Избыточность источника двоичных сообщений равна: æ = (НЭЛ.МАХ - НЭЛ)/НЭЛ.МАХ = 1 - (НЭЛ / НЭЛ. МАХ). Получим æ = 1- (0,369/1) = 0,63 Избыточность показывает долю (0,63) от максимально возможной энтропии, не используемую источником. Количество информации, содержащееся элементах <<1>> и <<0>> равно: = - log2p(1), (бит) (5.6)= -log2p(0), (бит). (5.7) Зная log2p(1)= -3,813, log2p(0)= -0,106, получим I1=3,813(бит) и I0 =0,106(бит). Количество информации в конкретной кодовой комбинации кода равно: IKK = IЭЛ 1 + IЭЛ 2 +… +IЭЛ К, или IKK = a I1 + b I0 ,(бит). (5.8) где IЭЛ I - количество информации в i- м элементе кодовой комбинации; k - количество информационных элементов в кодовой комбинации (проверочный элемент информации не несёт); а - количество элементов <<1>> в кодовой комбинации (без учёта проверочного элемента); b - количество элементов <<0>> в кодовой комбинации (без учёта проверочного элемента). IKK1 = 4 3,813 + 6 0,106 =15,89 (бит).= 3 3,813 +7 0,106 = 12,18(бит). Для увеличения энтропии источника, если p(1) ![]() Для увеличения энтропии необходимо наиболее вероятные кодовые комбинации исходного кода закодировать наиболее короткими кодовыми комбинациями нового двоичного кода (неравномерного). Так как p(1)Таблица 5.1.
|