Содержание Задание на курсовую работу 2 Введение 4 Задания 5 Задание 1 5 Задание 2 8 Задание 3 12 Задание 4 14 Задание 5 17 Задание 6 21 Задание 7 23 Задание
Скачать 237.33 Kb.
|
Задание 5Определим характеристики источника независимых двоичных сообщений, если вероятность появления символа "1" р(1) = 0,001+0,kn, где k и n - предпоследняя и последняя цифры номера варианта. Вероятность появления одного из символов задается следующим образом: номер варианта=07, то вероятность появления символа "1" равна: р(1) = 0,001+0,07 = 0,071. [4, п.4.4] Необходимо последовательно рассчитать вероятность появления символа "0" - р(0), энтропию элемента - Нэл, производительность источника сообщений - Н, максимальную энтропию - Нэл.max, максимальную производительность источника -Нmax, избыточность источника сообщений - . [5, c. 200-209] Под производительностью источника двоичных сообщений понимают среднее количество информации, выдаваемое источником в единицу времени (1 сек.) - Н’. Н’ = НЭЛ / ТТАКТ, (бит/с), (5.1) Н’ = НЭЛ FТАКТ, (бит/с). (5.2) где НЭЛ - энтропия единичного элемента - среднее количество информации содержащееся в одном элементе, (бит/эл);ТАКТ - длительность единичного элемента, (с). Единичный элемент кодовой комбинации передаётся за тактовый интервал. Для источника независимых двоичных сообщений: Н ЭЛ = - [p(1) log2p(1) + p(0)log2p(0)], (бит/эл); (5.3) где p(1) и p(0) - вероятности появления символов <<1>> и <<0>>. Так как появление символов <<1>> и <<0>> составляют полную группу событий, то: р(1) + p(0) = 1, отсюда - p(0) = 1 - p(1). р(1) = 0,001+0,07 = 0,071. Следует: p(0) = 1- 0,071 = 0,929. Н ЭЛ = -[p(1) log2p(1) + p(0)log2p(0)]= -[0,071 log20,071 + 0,929 log20,929] = = -[ 0,071 (-3,813) ++ 0,929 (-0,106)] =0,369 (бит/эл.) Н’ = НЭЛ FТАКТ = 0,369 88 103 =32,47 103 (бит/c)= 32,47(кбит/c) Для двоичного кода энтропия элемента достигает максимального значения при равенстве вероятностей появления символов <<1>> и <<0>>, т.е. когда p(1) = p(0) = 0,5. Тогда: НЭЛ = НЭЛ. MAX = log2m, (бит/эл), (5.4) где m - основание кода (m=2). НЭЛ. МАХ = log22 = 1 (бит/эл.) При этом производительность источника равна: Н" = Н"МАХ = 1/ТТАКТ, = FТАКТ, (бит/c), (5.5) т.е. Н" = Н"МАХ = 1/ТТАКТ, = FТАКТ =88 103(бит/c)=88(кбит/c) Избыточность источника двоичных сообщений равна: æ = (НЭЛ.МАХ - НЭЛ)/НЭЛ.МАХ = 1 - (НЭЛ / НЭЛ. МАХ). Получим æ = 1- (0,369/1) = 0,63 Избыточность показывает долю (0,63) от максимально возможной энтропии, не используемую источником. Количество информации, содержащееся элементах <<1>> и <<0>> равно: = - log2p(1), (бит) (5.6)= -log2p(0), (бит). (5.7) Зная log2p(1)= -3,813, log2p(0)= -0,106, получим I1=3,813(бит) и I0 =0,106(бит). Количество информации в конкретной кодовой комбинации кода равно: IKK = IЭЛ 1 + IЭЛ 2 +… +IЭЛ К, или IKK = a I1 + b I0 ,(бит). (5.8) где IЭЛ I - количество информации в i- м элементе кодовой комбинации; k - количество информационных элементов в кодовой комбинации (проверочный элемент информации не несёт); а - количество элементов <<1>> в кодовой комбинации (без учёта проверочного элемента); b - количество элементов <<0>> в кодовой комбинации (без учёта проверочного элемента). IKK1 = 4 3,813 + 6 0,106 =15,89 (бит).= 3 3,813 +7 0,106 = 12,18(бит). Для увеличения энтропии источника, если p(1) p(0), следует перекодировать кодовые комбинации ИКМ сигнала таким образом, чтобы символы нового двоичного кода были как можно более равновероятны. Это увеличит энтропию элемента (символа) нового двоичного кода. Для этой цели можно использовать неравномерный двоичный код, который содержит: две кодовые комбинации длиной в 1 элемент (k=1), т.е. 1 и 0; четыре кодовые комбинации длиной 2 элемента (k=2), т.е. 00, 01, 10, 11; восемь кодовых комбинаций длиной 3 элемента (k=3), т.е. 000, 001, 010, 011, 100, 101, 110, 111 и т.д. [5, c.200-209] Для увеличения энтропии необходимо наиболее вероятные кодовые комбинации исходного кода закодировать наиболее короткими кодовыми комбинациями нового двоичного кода (неравномерного). Так как p(1)Таблица 5.1.
|