Сигналы и процессы в электронике. В радиоэлектронике
Скачать 2.48 Mb.
|
d. Такое представление существенно упрощает анализ. Аналитическая за- пись для модуля спектральной плотности в этом случае имеет вид: ω + ω < ω < ω − ω β π ω + ω > ω ω − ω < ω = ω 2 2 , 2 ; 2 , 2 , 0 ) j ( 0 0 0 0 0 D D D D if A if A (8.49) Аргумент спектральной плотности ЛЧМ радиоимпульса при больших значениях параметра B с достаточной степенью точности описывается соот- ношением, которое представляет собой квадратичную параболу [2]: 2 ) ( ) ( 2 0 β ω − ω − = ω θ (8.50) Заметим, что при 1 >> B база ЛЧМ радиоимпульса в соответствии с фор- мулой (7.26) равна: 1 2 2 и >> = ≈ B t f N D . Поэтому такой импульс называют ЛЧМ радиоимпульсом с большой базой. Именно ЛЧМ радиоимпульсы с большой базой нашли широкое применение в радиоэлектронике. 8.5.2. Автокорреляционная функция ЛЧМ радиоимпульса Рассмотрим наиболее интересный для практики случай, при котором ЛЧМ радиоимпульс обладает большой базой (параметр 1 >> B ). Воспользу- емся тем, что АКФ сигнала — это обратное преобразование Фурье от энерге- тического спектра. В соответствии с (6.17) при учете (8.49) можно записать d ) cos( 2 1 ) ( 2 2 2 0 0 0 ω ωτ β π π = τ ∫ ω + ω ω − ω D D A B a (8.51) После несложных преобразований приходим к следующему: 143 ) cos( 2 ) 2 sin( 2 ) ( 0 и 2 0 τ ω τ ω τ ω = τ D D t A B a (8.52) На рис. 8.17 изображен график АКФ радиоимпульса с ЛЧМ, построен- ный в соответствии с (8.52). B a ( τ ) τ 1 / f D 2 / f D –1 / f D –2 / f D A 0 2 t и / 2 Рис. 8.17 Таким образом, АКФ ЛЧМ радиоимпульса с большой базой представля- ет собой высокочастотный процесс с частотой осцилляций, равной 0 ω . При 0 = τ АКФ имеет ярко выраженный всплеск. С ростом τ АКФ немонотонно, убывает, стремясь к нулю. Увеличивая полную девиацию частоты f D , можно получить АКФ, обладающую весьма узким центральным лепестком. 8.6. Пример решения задачи 8.6.1. Условие Получить аналитическое выражение радиосигнала с тональной баланс- ной амплитудной модуляцией и построить временную диаграмму этого сиг- нала. Параметры несущего колебания: ; B 10 0 = A ; Гц 10 6 0 = f π θ = 0 . Пара- метры модулирующего сигнала: ; Гц 10 5 = F ; 2 π − = ν 5 , 0 = M 8.6.2. Решение В спектре радиосигнала с балансной амплитудной модуляцией отсутст- вует несущее колебание, поэтому такой сигнал при тональной модуляции можно записать как сумму двух боковых составляющих, исключив из фор- мулы (8.14) первый член, представляющий собой несущее колебание. В итоге 144 получим , ] ) cos[( 2 ] ) cos[( 2 ) ( 0 0 0 0 0 0 ν − θ + Ω − ω + ν + θ + Ω + ω = t M A t M A t a (8.53) где F f π = Ω π = ω 2 ; 2 0 0 Выражение (8.53) представляет собой сумму двух гармонических функ- ций с одинаковыми амплитудами, частоты которых отличаются на малую ве- личину. Как известно это приводит к так называемым биениям. Путем про- стых тригонометрических преобразований приведем выражение (8.53) к виду ) cos( ) cos( ) ( 0 0 0 θ + ω ν + Ω = t t M A t a (8.54) Из (8.54) следует, что колебание представляет собой быстро осцилли- рующий с частотой 0 ω процесс с медленным изменением амплитуды. Временная диаграмма радиосигнала с балансной тональной АМ, рассчи- танная по формуле (8.54) в соответствии с исходными данными, изображена на рис. 8.18. a(t), В t, мкс 5 10 − 10 − 5 0 Рис. 8.18 5 − 5 Из (8.54), а также из рисунка следует, что амплитуда радиосигнала при любом значении коэффициента модуляции (исключая вырожденный случай 0 = M , при котором сигнал тождественно равен нулю) периодически с час- тотой, равной удвоенной частоте модуляции, принимает нулевые значения, что подтверждает факт наличия биений. 145 Рис. 9.1 ………………………………. x k (t) t 0 t 1 x 1 (t) t 0 t 1 x 2 (t) t 0 t 1 ………………………………. t 2 t 2 t 2 τ 9. ОСНОВЫ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ Предметом изучения этого раздела являются случайные процессы и их свойства. Это изучение является чрезвычайно важным, поскольку связано с проблемой помехозащищенности каналов свя- зи. Напомним, что случайным называют про- цесс, мгновенное значение которого не может быть определено с вероятностью, равной еди- нице. В радиоэлектронике процессы рассматри- вают как случайные в двух случаях: 1) при описании возникающих в тракте пе- редачи сигналов шумов и помех, которые по своей природе являются случайными функция- ми времени; 2) при необходимости оценить количество информации, которое передают по каналу связи с помощью сигналов. Сигнал, несущий инфор- мацию, является для получателя случайным процессом, поскольку априорно (до приема) получателю неизвестно, какое сообщение ему передано. Чем более неожи- данным для получателя является принятое сообщение, тем больше информа- ции в нем заключено. Случайные процессы могут быть как непрерывными (аналоговыми) так и дискретными, либо цифровыми. Для описания случайных процессов ис- пользуют методы теории вероятностей и математической статистики. 146 9.1. Основные характеристики случайных процессов 9.1.1. Реализации случайного процесса Рассмотрим случайный процесс X(t).Реализация случайного процесса — это бесконечная запись временной функции случайного процесса, получен- ная в результате его наблюдения (например, функция x 1 (t) на рис. 9.1). На практике доступна лишь конечная во времени реализация ввиду того, что время наблюдения ограничено. При этом необходимо, чтобы время на- блюдения было достаточно большим, чтобы изменчивость процесса за это время была отражена в достаточно полной мере. Ансамбль реализаций представляет собой множество реализаций слу- чайного процесса. Ансамбль реализаций, состоящий из бесконечного числа реализаций, называют полным ансамблем. Полный ансамбль полностью ха- рактеризует случайный процесс, поскольку он включает все возможные ис- ходы случайного процесса. На рис. 9.1 представлен полный ансамбль реали- заций процесса X(t), состоящий из реализаций x 1 (t), x 2 (t) и т.д. Для описания ансамбля применяют фигурные скобки. Например, ансамбль процесса X(t) можно представить в виде: { } ), ( ),... ( ), ( 2 1 t x t x t x k . На практике доступно только конечное число реализаций, то есть неполный ансамбль. Сечение ансамбля представляет собой совокупность случайных величин, наблюдаемых в произвольный момент времени, например t 1 (см. рис. 9.1). Сечение ансамбля в момент времени t 1 можно записать в виде { } ), ( ),... ( ), ( 1 1 2 1 1 t x t x t x k 9.1.2. Одномерная плотность вероятности Указанная выше совокупность случайных величин в каждом сечении ан- самбля описывается с помощью одномерного закона распределения. Одномерная плотность вероятности является важнейшей характери- стикой случайного процесса. Плотность вероятности называют еще диффе- ренциальным законом распределения, поскольку она определяется как пер- вая производная от функции распределения, которую в свою очередь назы- 147 вают интегральным законом распределения. Будем обозначать одномерную плотность вероятности случайной вели- чины x в виде функции p(x, t). Зависимость этой функции от времени t гово- рит о том, что плотность вероятности в общем случае может быть разной в различных сечениях ансамбля реализаций. Функция p(x, t), в частности, по- зволяет рассчитать вероятность попадания случайной величины x в интервал значений ) , ( b a по формуле d ) , ( ) ( ∫ = < < b a t x t x p b x a F (9.1) Если интервал ) , ( b a включает все возможные значения случайной ве- личины, то интеграл (9.1) равен единице (полная вероятность). 9.1.3. Двумерная плотность вероятности Одномерная плотность вероятности недостаточна для глубокого описа- ния случайного процесса, поскольку она характеризует процесс только в от- дельных сечениях ансамбля и не дает представления о степени связи значе- ний этого процесса в различных сечениях ансамбля реализаций. Для оценки изменчивости случайного процесса во времени используют двумерную плотность вероятности p(x 1 , x 2 , t 1 , t 2 ), где t 1 и t 2 — моменты вре- мени, в которых наблюдают значения x 1 и x 2 случайного процесса, соответст- венно (см. рис. 9.1). Зависимость функции p(x 1 , x 2 , t 1 , t 2 ) от t 1 и t 2 говорит о том, что двумерная плотность вероятности в общем случае зависит не только от расстояния между сечениями τ = t 2 – t 1 , но и от расположения этих сечений на оси времени. Двумерная плотность вероятности определяет взаимосвязь значений случайного процесса в сечениях t 1 и t 2 . Знание p(x 1 , x 2 , t 1 , t 2 ) позволяет, в ча- стности, определить вероятность попадания случайной величины x в интер- вал значений ) , ( b a в сечении t 1 , в то время как в сечении t 2 она попадает в интервал значений ) , ( d c по следующей формуле 148 ∫∫ = < < < < b a d c t t x x t t x x p d x c b x a F 2 1 2 1 2 1 2 1 , d d ) , , , ( ) , ( 2 1 (9.2) Если интервалы ) , ( b a и ) , ( d c включают все возможные значения слу- чайной величины, то интеграл (9.2) равен единице (полная вероятность). На основании свойств одномерной и двумерной плотностей вероятности вводится понятие стационарности случайного процесса. Стационарный в широком смысле случайный процесс— это такой процесс, одномерная плотность вероятности которого не зависит от времени, а двумерная плотность вероятности зависит только от временного интервала между сечениями 1 2 t t − = τ и не зависит от положения этого интервала τ на оси времени [11]. В противном случае процесс считается нестационарным. Теория нестационарных процессов разработана недостаточно полно. Боль- шую часть случайных процессов в радиоэлектронике можно отнести к кате- гории стационарных, поэтому в дальнейшем рассмотрены только стационар- ные процессы. Из приведенного выше определения следует, что для стационарных процессов выполняются следующие соотношения: ) ( ) , ( x p t x p = ; p(x 1 , x 2 , t 1 , t 2 ) = p(x 1 , x 2 , τ ) . В ряде случаев стационарный процесс может обладать так называемым свойством эргодичности. Эргодический случайный процесс — это такой стационарный случай- ный процесс, для полного описания которого достаточно знать только одну реализацию. 9.1.4. Усреднения случайного процесса Количественная оценка свойств случайных процессов базируется на ус- реднениях. Для каждого случайного процесса можно определить некоторые 149 константы, которые описывают его в среднем. Эти константы называют мо- ментами. Пусть f (x) — функция случайного аргумента х, который обладает плот- ностью вероятности p(х), тогда f (x)также является случайной функцией. Из- вестно [11], что среднее значение случайной функции определяется соотно- шением [ ] d ) ( ) ( ) ( ∫ ∞ ∞ − = x x p x f x f M (9.3) Здесь буквой М обозначена операция усреднения (определения матема- тического ожидания). Рассмотрим наиболее часто используемые усреднения. 1) Математическое ожидание (среднее значение) случайной величины Математическое ожидание является начальным моментом первого по- рядка. В этом случае усредняют функцию f (x) = x. Применив (9.3), получим ∫ ∞ ∞ − = = d ) ( ] [ x x xp m x M x (9.4) Математическое ожидание имеет физический смысл среднего значения случайного процесса. Для эргодического процесса математическое ожидание представляет собой постоянную составляющую этого процесса во времени. 2) Среднее значение квадрата случайной величины Эта характеристика является начальным моментом второго порядка. В этом случае усредняют функцию f (x) = x 2 . Применив (9.3), получим d ) ( ] [ 2 2 ∫ ∞ ∞ − = x x p x x M (9.5) Среднее значение квадрата случайной величины имеет физический смысл полной средней мощности процесса (с учетом мощности математиче- ского ожидания). 150 3) Среднее значение квадрата флуктуации (дисперсия) Флуктуация — это отклонение случайного процесса от его среднего значения, то есть это переменная составляющая случайного процесса. В математике переменную (флуктуирующую) часть процесса называют центрированным процессом. Центрированный случайный процесс можно по- лучить из нецентрированного путем исключения (вычитания) из него мате- матического ожидания, а именно: x m x x − = ≈ Среднее значение квадрата флуктуации называют дисперсией (второй центральный момент). В этом случае усредняется функция 2 ) ( ) ( x m x x f − = Применив (9.3), получим [ ] ∫ ∞ ∞ − − = − = d ) ( ) ( ) ( 2 2 x x p m x m x M D x x x (9.6) Очевидно, что дисперсия имеет физический смысл средней мощности переменной составляющей случайного процесса и определяет степень (ин- тенсивность) разброса значений этого процесса. Выражение (9.6) можно преобразовать к виду 2 2 ] [ x x m x M D − = (9.7) Таким образом, дисперсия численно равна разности полной средней мощности случайного процесса и мощности математического ожидания это- го процесса. 4) Среднеквадратическое отклонение (СКО) случайной величины Эта характеристика имеет ту же размерность, что и случайная величина x и определяется по формуле x х D = σ (9.8) Среднеквадратическое отклонение имеет физический смысл действую- щего значения переменной составляющей случайного процесса по аналогии с действующим значением детерминированного сигнала. 151 9.1.5. Ковариационная и корреляционная функции Знание двумерной плотности вероятности позволяет ввести понятие ко- вариационной и корреляционной функций случайного процесса. Ковариационная функция стационарного случайного процесса вводится как среднее значение произведения двух значений случайной величины x 1 и x 2 в сечениях, которые находятся на расстоянии τ друг от друга. Процедура усреднения для двумерных процессов отличается от (9.3) только тем, что вместо одномерного вычисляют двумерный интеграл и используют при этом двумерную плотность вероятности. В этом случае усредняется функция 2 1 ) ( x x x f = . Применив процедуру усреднения, получим [ ] d d ) , , ( ) ( 2 1 2 1 2 1 2 1 x x x x p x x x x M K x τ = = τ ∫ ∫ ∞ ∞ − ∞ ∞ − (9.9) Ковариационная функция (9.9) является четной функцией аргумента τ Если положить в (9.9) 0 = τ , то величина 2 1 x x превращается в величину 2 x , а двумерная плотность вероятности — в одномерную. При этом (9.9) принима- ет вид ] [ ) 0 ( 2 x M K x = (9.10) Таким образом, при 0 = τ ковариационная функция положительна, при- нимает максимальное значение и численно равна среднему квадрату случай- ного процесса. |