Главная страница
Навигация по странице:

  • 3.19 Тема 12.1 Фильтрация дискретных сигналов Рассматриваемые вопросы

  • Рекомендуемая литература

  • Вопросы для самопроверки

  • 3.20 Тема 12.2 Основы теории информации Рассматриваемые вопросы

  • 3.21 Тема 13.1 Достоверность и скорость передачи информации Рассматриваемые вопросы

  • Программа дисциплины (силлабус) 9 3 Краткий курс лекций 30 1


    Скачать 4.39 Mb.
    НазваниеПрограмма дисциплины (силлабус) 9 3 Краткий курс лекций 30 1
    Дата21.11.2019
    Размер4.39 Mb.
    Формат файлаdoc
    Имя файлаumkd tes dunaev p.a..doc
    ТипПрограмма дисциплины
    #96299
    страница9 из 20
    1   ...   5   6   7   8   9   10   11   12   ...   20

    Вопросы для самопроверки

    1. Помехоустойчивость систем связи.

    2. Оценка помехоустойчивости

    3. Критерии оптимальности.

    4. Функциональные схемы приемников.

    5. Алгоритм оптимального приема.

    6. Методы приема ОФМн сигналов.

    3.19 Тема 12.1 Фильтрация дискретных сигналов
    Рассматриваемые вопросы

    - фильтрация дискретных сигналов;

    - условия различимости сигналов;

    - согласованный фильтр;

    - оптимальная фильтрация сигнала.
    Рекомендуемая литература
    1 Васюков В.Н. Цифровая обработка сигналов и сигнальные процессоры в системах подвижной радиосвязи: Учебник. Новосибирск: Издательство НГТУ. 2003.

    2 Гольденберг Л.М. и др. Цифровая обработка сигналов: Учебное пособие для вузов/ Л.М, Гольденберг, Б.Д. Матюшкин, М.Н. Поляк. – 2- издание, переработанное и дополненное, - М.: Радио и связь. 1990.

    3 Прокис Дж. Цифровая связь. Перевод с английского. Под редакцией Д.Д. Кловского. – М.: Радио и связь. 2000.

    4 Теория электрической связи. Курс лекций. Ташкентский институт связи. 2006.
    Краткое содержание
    Пусть имеются сигналы X(t), Y(t) с длительностью Т и граничной частотой Fс.

    Условие их различимости можно определить исходя из выражения:



    Достаточным условием различимости является взаимная ортогональность сигналов [4].

    Рисунок 3.19.1 - Графическое представление сигналов:
    Степень различимости сигналов определяется выражением:

    Достоверность принятого сигнала зависит от отношения уровня сигнала к уровню помехи: .

    Чем больше отношение С/П , тем меньше вероятность ошибки, тем больше вероятность правильного приема: .

    Сигнал S(t) с помехой W(t) поступает в фильтр, на выходе которого образуется сигнал Y(t), аналогичный S(t) с хорошим отношением С/П [3, 4].

    Рисунок 3.19.2 - Фильтрация сигнала.
    Фильтр, который дает максимальное отношение С/П на выходе, считается оптимальным фильтром.

    В некоторых случаях, на приемной стороне заранее известна форма принимаемого сигнала [1, 2, 3, 4].

    Рисунок 3.19.3 - Пример сигнала.
    Известно, что:

    ,

    где w(t) – флуктуационная помеха с энергетическим спектром,
    .
    Тогда, отклик на выходе фильтра:

    .

    Мощность сигнала на выходе:
    ;

    ;
    Отношение энергии сигнала к энергетическому спектру помехи определяется выражением: ,

    где Ес – энергия полезного сигнала;

    С = constf
    (коэффициент передачи фильтра). Фаза на выходе фильтра:
    .
    Параметры фильтра согласуются с параметрами сигнала, следовательно, фильтр можно считать оптимально согласованным. Полная фаза сигнала на выходе фильтра:
    .
    Выражение для определения импульсной реакции согласованного оптимального фильтра приведено ниже:

    Импульсная реакция согласованного оптимального фильтра h(τ) представляет собой зеркальное отображение сигнала S(t), в масштабе S относительно момента времени t0.


    Рисунок 3.19.4 - Сигнал (а) и импульсная реакция (б) фильтра.

    Для сигнала известной формы можно подобрать соответствующий ему фильтр, обеспечивающий максимальное отношение сигнал помеха.
    Вопросы для самопроверки
    1. Условия различения сигналов.

    2. Достоверность принятого сигнала.

    3. Понятие оптимального фильтра.

    4. Определение коэффициента передачи фильтра.

    5. Импульсная реакция фильтра.

    3.20 Тема 12.2 Основы теории информации
    Рассматриваемые вопросы

    - основы теории информации;

    - энтропия источников, взаимная информация;

    - избыточность, надежность канала, энтропия шума.

    Рекомендуемая литература
    1 Макаров А.А., Чиненков Л.А. Основы теории передачи информации: Учебное пособие. – Новосибирск: СибГУТИ. 1998.

    2 Самсонов Б.Б., Плохов Е.М., Филоненков А.И., Кречет Т.В. Теория информации и кодирования. Ростов. 2002.

    3 Прокис Дж. Цифровая связь. Перевод с английского. Под редакцией Д.Д. Кловского. – М: Радио и связь. 2000.

    4 Панфилов Н.П., Дырда В.Е. Теория электрической связи. – М: Радио и связь. 1990.
    Краткое содержание
    В предыдущих разделах были рассмотрены основные понятия: информация; сообщение; сигнал. Передача сообщения посредством сигналов сопровождается поисками и искажениями сигналов, что позволяет представить сигналы в виде случайных процессов.

    При проектировании систем связи, статистическом моделировании источников, при необходимости определения характеристик каналов и оценке качественных характеристик систем связи обычный математический аппарат не подходит. Поэтому используют теорию вероятностей и случайных процессов [2, 3, 4].

    Все случайные явления можно разделить на группы: случайные события; случайные величины; случайные процессы.

    Реальные сигналы и помехи могут быть: простыми, сложными, аналоговыми, дискретными.

    В общем, все они зависят от времени и, в конкретных условиях их можно рассматривать как случайные величины и, как случайные события.

    Случайное событие, это всякий факт, который может произойти или не произойти, в результате опыта (например, превышение заданного уровня помех; передача текста без ошибок и т.д.) [1, 2, 3, 4].

    Частота появления событий в данной серии опытов, это отношение числа опытов (m), в которых появилось событие А, к общему числу опытов (n):

    Вероятность события:

    .

    Величины, значения которых меняются случайным образом, называются случайными величинами.

    Случайный процесс Х(t), это такая функция времени t, значения которой при любом фиксированном значении аргумента t, являются случайными величинами.

    Большинство случайных сигналов и помех относятся к стационарным эргодическим случайным процессам [1, 2].

    Для описания случайного процесса используется функция корреляции Кх(τ), характеризующая степень взаимосвязи между значениями случайного процесса в различные моменты времени t и t.

    Для эргодического процесса:

    ,

    где tH – время наблюдения реализации ХК(t).

    Функция распределения F(x) показывает, что значение случайной величины Х не превысит конкретно выбранного значения х:
    ;

    Данная функция называется еще интегральной функцией распределения, ИФР [3].

    Производная от функции распределения - функция плотности вероятности (ФПВ):

    ; .

    Напомним, что математическое ожидание по смыслу является средним значением случайной величины [1, 2, 3]:

    - для непрерывной случайной величины,
    ;

    - для дискретной случайной величины,
    .

    Дисперсия и среднеквадратичное отклонение:

    ;
    ;
    Как указывалось ранее, существуют различные типы случайных величин, наиболее известные гауссовы случайные величины и их распределения [тема 5].

    Функция распределения вероятности:

    ;
    .
    В некоторых случаях этого бывает недостаточно, поэтому вводятся дополнительные элементы:

    - моменты случайных величин, Е(х);

    - характеристические функции, .

    Рассмотрим, вкратце, другие виды случайных величин и их распределения [3]:

    - равномерное распределение отличается от распределения Гаусса тем, что ФПВ представлено прямоугольником, а ИФР прямыми линиями, первый момент , ;

    - Хи – квадрат распределения, случайная величина с таким распределением порождается гауссовой случайной величиной (Х),

    Y = X2; , при ;

    ;

    - распределение Релея используется как модель для статистики сигналов переданных через радиоканал (сотовая связь); данное распределение связано с Хи– квадрат распределением; новая случайная величина:
    ;
    - распределение Райса связано с нецентральным Хн – квадрат распределением, используется для статистики сигнала подверженного воздействию узкополосного гауссова шума, для некоторых радиоканалов;

    - m - распределение Накагами, как и два предыдущих, используется для описания сигнала на выходе многопутевого канала с замиранием;

    - биноминальное распределение используется для дискретной случайной величины,

    () ,

    где - биноминальный коэффициент;

    () ∙δ (y-k); ().



    При определении характеристик систем цифровой связи, требуется определить площадь, ограниченную хвостами ФПВ (вероятность хвостов) [3].

    При этом определяются границы для вероятности хвостов.

    Неравенство Чебышева дает верхнюю границу площади, ограниченную хвостами ФПВ:

    ,

    где ms - ограниченное среднее значение;

    σs – ограниченная дисперсия;

    δ – произвольное число.

    Граница Чернова дает более точные значения:
    ,
    для верхнего хвоста дискретной или непрерывной случайной величины с нулевым средним (для нижнего хвоста уравнение аналогичное).

    Информацию о событии α можно определить через его вероятность P(α):

    Если логарифм натуральный, то такая единица называется нат, если логарифм по основанию два (log2), то единица называется бит.

    В случае несвязанных между событий α и β, но рассматриваемых как одно событие, информация о них представляется суммой информации о каждом из этих событий:

    Источники информации представляют в виде вероятностной модели, выходом которой являются события или случайные величины.

    Дискретный источник без памяти (ДИБП), в каждую единицу времени, порождает случайную величину, не зависящую от выходных величин во все предыдущие и последующие моменты времени.

    Если в какой-то момент времени на выходе ДИБП появился символ U=αk (событие αk), то количество информации, содержащееся в данном символе, определяется по аналогии с предыдущим:

    Среднее количество информации на символ, на выходе источника, называется энтропией ДИБП:

    .
    Источник с равновероятными символами имеет наибольшую энтропию.

    Для двоичного источника без памяти, с алфавитом U={0;1} и вероятностями Р(0)=Р, Р(1)=1-Р энтропия будет равна:

    В случае Р=0,5, источник называется двоичным симметричным источником (ДСИ) и каждый символ на выходе содержит один бит информации.

    Среднее количество информации на выходную последовательность:


    Для ДИБП:

    Полная средняя информация, в последовательности выходных независимых символов, равна сумме средней информации в каждом символе.

    В теории кодирование без шума для источника (Шеннона) указано, что среднее число двоичных символов, приходящихся на выходной символ источника, можно приблизить к энтропии источника, но невозможно сделать его меньше энтропии [3,4].

    Информация, о событии α содержащаяся в событии β, называется взаимной информацией:

    .
    Для дискретного канала без памяти (ДКБП), каждый символ на выходе канала зависит только от соответствующего входа (хn – входные, yn- выходные):

    .

    Каналом с дискретным входом без памяти, с аддитивным гауссовым шумом, считается такой канал, когда выполняется предыдущее равенство, а условная плотность вероятности определяется согласно выражению:


    Для дискретного канала без памяти взаимная информация и плотность вероятности равны [1, 3]:

    .
    Средняя взаимная информация между входными и выходными символами в ДКБП:


    Под пропускной способностью ДКБП понимается максимум средней взаимной информации:

    .
    Для дискретного симметричного канала, при входных вероятностях канала q(0) = q(1) = 0,5, пропускная способность определяется выражением:

    [бит/символ].

    Энтропия ДИБП определяет теоретический предел для минимально возможного среднего числа двоичных символов на выходной символ источника.

    Пропускная способность ДКБП (максимальная средняя взаимная информация) характеризует теоретический предел скорости передачи информации [1, 3, 4].
    Вопросы для самопроверки

    1. Случайные процессы и величины.

    2. Классификация реальных сигналов.

    3. Стационарные эргодические процессы.

    4. Функции распределения и корреляции.

    5. Дискретные источники.

    6. Теорема Шеннона.


    3.21 Тема 13.1 Достоверность и скорость передачи информации
    Рассматриваемые вопросы

    -скорость передачи информации;

    -помехоустойчивость;

    -пропускная способность дискретного канала, теоремы Шеннона.
    Рекомендуемая литература

    1 Зюко А.Г., Кловский Д.Д., Назаров М.А. Теория электрической связи. Учебник для ВУЗов М.: Радио и связь. 1999.

    2 Панфилов Н.П., Дырда В.Е. Теория электрической связи. – М: Радио и связь. 1990.

    3 Теория электрической связи. Курс лекций. Ташкентский институт связи. 2006.
    Краткое содержание
    Достоверность и скорость передачи информации характеризуют каналы (системы) связи. Достоверность является качественной характеристикой канала (системы) связи, а скорость передачи количественной оценкой канала или системы [1, 2, 3].

    Ранее указывалось, что для обеспечения хороших количественных и качественных характеристик, системы и устройства связи должны обладать помехоустойчивостью, т.е. противостоять воздействиям помехи.

    Для дискретных сообщений, прямой мерой оценки качества является относительное количество ошибочно принятых знаков сообщения, имеет название коэффициент ошибок [2, 3].

    Пусть Nобщ - число переданных знаков сообщения, Nпр - количество правильно принятых знаков, а Nош - количество ошибочно принятых знаков, тогда коэффициент ошибок:
    Кош= Nош / Nобщ ,
    при времени наблюдения τн ∞.

    В данном случае, коэффициент ошибок совпадает с вероятностью ошибки Pош:

    Pош.= lim Kош.

    tн→∞

    Для непрерывных сообщений, прямой мерой оценки качества служит среднеквадратичное отклонение принятого сообщения и переданного. Любое воздействие на сигнал приводит к уменьшению достоверности, оценку можно определить по формуле [2]:

    Е2ош=
    Е2ош Е2ош.доп

    Известно, что помехоустойчивость является функцией отношения сигнал / помеха (ρ = Рс / Pп ; ρ =Uc/ Uп ) и зависит от многих факторов, например:

    - от формы сигнала и способа модуляции;

    - от метода приема и способа обработки сигнала.

    Однако, даже при известном методе модуляции, способе кодирования и уровне помехи, сообщение можно передавать через систему связи с достоверностью (помехоустойчивостью) не выше некоторого предельного значения.

    Приемник, который обеспечивает предельную помехоустойчивость, считается идеальным (оптимальным, или приемником Котельникова). Все реальные приемники имеют помехоустойчивость ниже предельной помехоустойчивости (оптимальной). Предельную помехоустойчивость принято называть потенциальной помехоустойчивостью [2,3].

    Скорость передачи (R) - это количество двоичных символов, передаваемых по каналу связи за единицу времени (τ)[3]:

    R =1/τ0Log2m, где m - значимость кода.

    Пропускная способность системы передачи информации определяется по выражению: V / T << C,

    где V– объем сообщений; Т – время управления процессом.

    Пропускная способность — это предельное количество информации, которое может обеспечить система связи, R ≤ С.

    Оценить качество передачи можно по внешним характеристикам: достоверности передачи; скорости передачи; своевременности.

    Внутренние характеристики выявляют степень предельных возможностей всей системы, т.е. помехоустойчивость и эффективность. Таким образом, характеристиками систем являются: надежность; достоверность; помехоустойчивость; эффективность и дальность передачи.

    Обобщая вышеизложенное можно сказать, что достоверность передачи определяется степенью сходства принятого и переданного сообщений, критерием достоверности служит коэффициент ошибок (для дискретных сообщений) и среднеквадратичное отклонение (для непрерывных сообщений).

    Скорость передачи информации, это количество сведений, переданных в единицу времени, по системе связи с заданной достоверностью [1, 2, 3].

    Предельно возможная скорость передачи информации, по данному каналу с учетом воздействия помех, называется пропускной способностью системы.

    Эффективность определяется отношением скорости передачи информации к пропускной способности канала связи.

    Помехоустойчивость оценивается по достоверности передачи.

    Как указывалось ранее, оценка качества передачи сообщений осуществляется прямыми и косвенными методами.

    К косвенным мерам качества дискретных сигналов относится оценка степени искажения формы принимаемых стандартных сигналов.

    Для непрерывных сообщений оценка проводится по характеристикам каналов: частотным, амплитудным, фазовым, уровню помех; по параметрам сигналов и помех. Большинство вышеуказанных параметров можно измерить соответствующими приборами и произвести оценку систем связи [2].
    1   ...   5   6   7   8   9   10   11   12   ...   20


    написать администратору сайта