Теория связи Задание (версия). Методические указания по ее выполнению задача 1
Скачать 139.25 Kb.
|
ЗАДАНИЕ НА РАСЧЕТНО-ГРАФИЧЕСКУЮ РАБОТУ И МЕТОДИЧЕСКИЕ УКАЗАНИЯ ПО ЕЕ ВЫПОЛНЕНИЮ Задача №1 Стационарный случайный процесс x(t) имеет одномерную функцию плотности вероятности (ФПВ) мгновенных значений W(x), график и параметры которой приведены в таблице 1. Требуется: 1. Определить параметр h ФПВ. 2. Построить ФПВ W(x) и функцию распределения вероятностей (ФРВ) F(x) случайного процесса. 3. Определить первый m1 (математическое ожидание) и второй m2 начальные моменты, а также дисперсию D(x) случайного процесса. Методические указания 1 Изучите материал в [2, с. 2735]. 2 ФПВ вне интервала [a,b] равна 0. 3 (xx0) дельта-функция. При x=x0, (0) = , при xx0, (xx0) = 0. Условие нормировки для дельта-функции . Фильтрующее свойство дельта-функции . Если случайный процесс принимает некоторое значение x0 c вероятностью p0, то ФПВ в качестве одной из составляющих содержит дельта-функцию p0 (x-x0). 4. ФРВ связана с ФПВ следующим соотношением: , x . Предпоследняя цифра студенческого билета M, последняя цифра билета N. Таблица 1
Выражения для плотности распределения W(x) и функции распределения вероятностей F(x) должны быть заданы (описаны) для диапазона изменения значений x в пределах от до . Если W(x) содержит дельта-функцию, то в функции распределения F(x) должен быть скачок при соответствующем значении x = x0. По условию задачи при x = c (или x = d) будет скачок на величину p(c) (или p(d)). Выражение и график F(x) должны удовлетворять условию «неубываемости» ее в пределах x , т.е. зависимость F(x) не может иметь «падающих»участков. Вероятность попадания значений сигнала в заданный интервал, например, от a до c (т.е. a x c) определяется через плотность распределения вероятностей известным соотношением Задача №2 Энергетический спектр гауссовского стационарного случайного процесса x(t) равен G(). Среднее значение случайного процесса равно mx = m1= M{x(t)}. Требуется : 1. Определить корреляционную функцию B() случайного процесса. 2. Рассчитать величины эффективной ширины спектра и интервала корреляции рассматриваемого процесса. 3. Изобразите графики G() и B() с указанием масштаба по осям и покажите на них эффективную ширину спектра и интервал корреляции. 4. Запишите выражение для функции плотности вероятности W(x) гауссовского стационарного случайного процесса и постройте её график. 5. Определите вероятности того, что мгновенные значения случайного процесса будут меньше a p(xb); будут находиться внутри интервала [c,d] p(c Исходные данные к задаче представлены в таблицах 2 и 3. Методические указания 1. Изучите материал в [1, с. 120131], [2, с.36-45]. 2. Для вариантов 5 9 энергетический спектр симметричен относительно частоты 0, т.е. процесс является узкополосным. Рекомендуется для упрощения расчетов учитывать особенность определения функции корреляции узкополосного случайного процесса - путём смещения заданного спектра с частоты 0 в начало координат. При этом следует в выражении ВинераХинчина сделать замену переменной на переменную = - 0 и интегрирование производить по переменной на интервале от 0 до . Таблица 2
Таблица 3
Учитывая, что функция корреляции узкополосного случайного процесса будет определяться выражением вида . Она имеет огибающую (это функция корреляции эквивалентного низкочастотного процесса с G( )) и высокочастотное заполнение cos0. Получаемые выражения целесообразно приводить к виду, близкому к табличному, или к виду характерных функций, например, sin(x)/x, sin2(x)/x2, что упрощает расчеты. В приложении 2 приведен справочный материал для интегралов встречающихся в работе подынтегральных выражений. Примечание: Если интегралы не имеют явного (табличного) решения, необходимо применять численные методы вычислитель ной математики. Эффективную ширина спектра fэфф и интервал корреляции 0 следует определять по функции энергетического спектра и функции корреляции соответственно. Выражение для связи между fэфф и 0 рекомендуется использовать только для проверки правильности расчетов. Для удобства расчетов и построения графиков энергетического спектра G и функции корреляции B() значения и можно задавать в виде = k и = k , где k - числа 0, 0,5, 1,0, 1,5, 2, и т. д., что позволяет упростить расчет и построение графиков. Однако, при этом оси и графиков G и B() должны быть промасштабированы также и в абсолютных значениях и . При выполнении пунктов 3 и 4 рассматриваемый процесс является гауссовским, в общем случае с ненулевым математическим ожиданием, т.е. с распределением вида . Таблицы интегральных форм нормального закона распределения в справочной литературе приведены для «стандартной» формы нормального закона распределения для табулированной переменной . Соответственно интеграл вероятности определяется выражением (см. Приложение 1) . Поэтому при вычислениях в пункте 4 для гауссовского процесса возникает необходимость вводить табулированную переменную , чтобы воспользоваться таблицами интегральных форм для нормального закона (Приложение 1). При этом необходимо помнить, что пределы интегрирования должны быть также изменены с учетом вида новой переменной t. Например, при определении вероятности p(x>b) должно быть следующее решение p(x>b) = . Переходим от x к t и соответственно изменяем (нормируем) значение нижнего предела b. Получим новое значение нижнего предела . Тогда p(x>b) = . При расчётах с использованием таблицы значений интеграла вероятностей необходимо учитывать соотношения, связывающие между собой различные интегральные формы нормального распределения. Расчеты и построения графиков должны соответствовать условию нормировки, т.е. . В Приложении 1 приведены значения табулированных функций W(x) и V(x). Задача №3 На вход решающего устройства приемника поступает телеграфный сигнал и гауссовская помеха с дисперсией 2 . Сигнал S1(t) представляет собой импульс прямоугольной формы длительностью Т с амплитудой А1 , сигнал S2(t) представляет собой также импульс прямоугольной формы длительностью Т и амплитудой А2. За время длительности сигнала Т произведено два замера в моменты времени t1 и t2, причем Δt=t2 - t1 больше интервала корреляции помехи. Измеренные значения х1 = х(t1) и х2 = х(t2) известны. Найти отношение правдоподобия и принять решение о том, какой из сигналов выдает решающее устройство по критерию идеального наблюдателя для двух случаев: P(S1) = P(S2) = 0,5 и P(S1) ≠ P(S2) ≠ 0,5. Ответ должен сопровождаться подробными пояснениями и рисунками: временными диаграммами, графиками плотности вероятности сигналов S1(t) и S2(t) с учетом наличия гауссовских шумов. На этих рисунках показать значения х1 и х2. Исходные данные к задаче приведены в таблице вариантов. Вариант № ... . (номер варианта соответствует двум последним цифрам номера студ. билета) Таблица 4 - Таблица вариантов
Методические указания Некоторые формулы, необходимые для решения задачи. Критерии приёма дискретных сигналов, отношение правдоподобия. При передаче дискретных сообщений широко используется критерий Котельникова (критерий идеального наблюдателя). П усть принимаемый сигнал , согласно этому критерию принимается решение в пользу того сигнала Si(t), для которого апостериорная вероятность Р(Si/х) имеет наибольшее значение, то есть если На основании формулы Байеса : где Неравенство можно переписать в другом виде: или О тношение, входящее в неравенство слева называется отношением правдоподобия. П ользуясь этим понятием, правило решения, соответствующее критерию Котельникова, можно записать в виде Если передаваемые сигналы равновероятны то это правило решения принимает более простой вид. Если , то Si. Это и есть критерий максимального правдоподобия. Приемник, использующий отношение правдоподобия, работает следующим образом. 1.Анализируя поступающий на его вход сигнал, вычисляет отношение правдоподобия λ. 2. По известным значениям априорных вероятностей P(S1) и P(S2) вычисляется пороговое отношение правдоподобия λо. 3. Величина λ сравнивается с λо. Распределение мгновенных значений помехи, а следовательно и смеси сигнала с помехой подчиняется нормальному закону Так как, согласно заданию задачи, отсчетов два t1 и t2 и они независимы, то отношение правдоподобия необходимо рассчитывать с учетом значений х1 = х(t1) и х2 = х(t2). Задача № 4 При статистическом кодировании уменьшается избыточность, благодаря чему повышается производительность источника сообщений. Решение: В работе необходимо дать определение количества информации и энтропии источника дискретных сообщений и вычислить энтропию для источника варианта с учетом вероятностей передачи элементов «1» и «0» и его производительность (длительность каждого элемента сообщений задана ). Количество информации в теории информации - это количество информации в одном случайном объекте относительно другого. Энтропия - мера неопределенности в поведении источника дискретных сообщений. Энтропия равна нулю, если с вероятностью единица источником выдается всегда одно и то же сообщение (в этом случае неопределенность в поведении источника сообщений отсутствует). Энтропия максимальна, если символы источника появляются независимо и с одинаковой вероятностью. ; . Далее, с целью повышения производительности источника, необходимо закодировать источник с использованием неравномерного кода по методу Шеннона-Фано или близкого этому методу - методу Хаффмена, что практически более удобно. Метод его построения сводится к следующему. Сообщения выписываются в столбец в порядке убывания вероятностей. Два последние сообщения объединяются в одно вспомогательное сообщение, которому приписывается суммарная вероятность. Вероятности сообщений снова располагаются в порядке убывания вероятностей в дополнительном столбце, а две последние объединяются. Процесс продолжается до тех пор, пока не получим единственное сообщение с вероятностью, равной единице. Чтобы составить кодовую комбинацию, соответствующую данному сообщению, необходимо проследить путь перехода сообщения по строкам и столбцам таблицы. Для наглядности может строится кодовое дерево. Из точки, соответствующей вероятности 1, направляются две ветви, причем ветвям с большей вероятностью присваивается символ 1, с меньшей - 0. Такое последовательное ветвление продолжаем до тех пор, пока не дойдем до вероятности каждого сообщения. Теперь, двигаясь по кодовому дереву сверху вниз, можно записать для каждого сообщения соответствующую ему кодовую комбинацию. Полученный код является самым экономичным из всех методов кодирования. Идея оптимального (статистического) кодирования заключается в том, что для передачи сообщений используется неравномерный код (например, код Шеннона-Фано). При этом сообщения, имеющие большую вероятность, представляются в виде коротких комбинаций, а реже встречающимся сообщениям присваиваются более длинные комбинации (под сообщением понимаются буквы, сочетания букв, или элементы букв). Такое кодирование приводит к увеличению производительности источника. Результаты кодирования тем лучше, чем более длинные кодовые комбинации первичного кода применяются для статистического кодирования. Поэтому в данной работе предлагается перед осуществлением статистического кодирования образовать трехбуквенные комбинации, состоящие из элементов двоичного кода 1 и 0 с соответствующими заданными вероятностями и (всего 8 таких комбинаций: 000, 001, 011 и т. д. до 111). Надо вычислить вероятности этих трехбуквенных комбинаций (по теореме умножения вероятностей): ; ; ; ; ; ; ; . Затем, расположив эти комбинации в порядке убывания их вероятностей, осуществить оптимальное кодирование: ; ; ; ; ; ; ; . В результате получим 8 различных комбинаций неравномерного кода. Затем определяем среднюю длину полученных комбинаций оптимального кода, она будет меньше, чем . Однако следует помнить, что полученные комбинации неравномерного кода фактически содержат информацию о трех сообщениях первичного (исходного) алфавита. Разделив среднюю длину полученных комбинаций на три, получим среднюю длину новых комбинаций в расчете на одну букву первоначального двоичного кода. В результате средняя длительность полученных комбинаций в расчете на одну посылку будет менее и, следовательно, скорость передачи информации увеличится. Это и есть тот эффект, который дает статистическое кодирование. Заполним вспомогательную таблицу
Средняя длина полученных комбинаций оптимального кода равна: . Поделив ранее найденную величину энтропии на новое значение средней длительности, получим более высокую производительность, приближающуюся к предельно возможной. Кодирование по методу Хаффмена сводится к построению кодового дерева, которое и определяет вид всех кодовых комбинаций неравномерного кода. |