Главная страница
Навигация по странице:

  • Билет 25

  • Билет 26

  • 2. Оптимальные кодо-сигнальные конструкции

  • Билет 27

  • Билет 28

  • Билет 29

  • 2. Способы увеличения энтропии

  • Билет 30

  • Билет 1 икм


    Скачать 225.22 Kb.
    НазваниеБилет 1 икм
    Анкор
    Дата14.01.2023
    Размер225.22 Kb.
    Формат файлаdocx
    Имя файлаOtvety_na_bilety_bez_zadach.docx
    ТипДокументы
    #886173
    страница5 из 5
    1   2   3   4   5

    1. Теорема Шеннона

    По каналу связи с полосой пропускания F, в котором действует сигнал с мощностью Pc и нормальный шум с дисперсией σ2 можно передавать информацию со скоростью сколько угодно близкой к пропускной способности канала С=Flog(1+Pc/ σ2) и при этом вероятность ошибки может быть сделана сколь угодно малой.

    Производительность источника – это количесвто информации, производимой источником в единицу времени: H’=H/T (H - энтропия, T – длительность сообщения).

    Скорость передачи информации – количество взаиной информации передаваемой по каналу связи в единицу времени: I’=lim(I(Z,U)/T).

    Пропускная способность канала вязи – максимально возможная скорость передачи информации.

    Доказательство:

    Количество взаимной информации содержащейся в процессе z(t) о сигнала u(t):

    I(Z,U)=h(z)-h(X) (h(z), h(X) – дифференциальные энтропии соответствующих процессов).

    Дифференциальная энтропия – относительная информационная содержательность непрерывного процесса (h(z)=-∫W(z)log(Wz)dz). Т.к. шум нормальный и его дисперсия σ2=G0F, то: h(X)=0.5log(2πe σ2). Чтобы энтропия процесса z была максимальной, этот процесс должен быть нормальным случайным процессом с дисперсией Рс. Тогда максимальное количество взаимной информации равно: I(Z,U)= 0.5log(2πe (σ2+Рс))- 0.5log(2πe σ2)= 0.5log(2πe(1+Рс/σ2). Т.к. процесс на выходе канала связи финитный по спектру, то полностью определяется по теореме Котельникова, т.о. в единицу времени следует передавать 2F отсчетов, тогда получаем: C=2F*I(Z,U).

    2. Способы увеличения энтропии

    Количество информации, которое заключено в некотором сообщении А с вероятностью появления p(А), равно: I=-log2p(А).

    Свойства количества информации:

    1)чем меньше р, тем больше I.

    2)количество информации в достоверном событии с вероятностью появления p=1 равно 0.

    3)аддитивное свойство: количество информации, заключенное в совокупности двух независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.

    4)количество информации величина неотрицательная.

    Энтропия H - это среднее кол-во информации приходящееся на одно сообщение

    Для дискретного источника независимых сообщений энтропия вычисляется по формуле:

    H=-∑mk=1 pklogpk, m – основание кода, pk - вероятность определенного символа).

    Энтропия дискретного источника независимых сообщений максимальна, если все сообщения равновероятны: Hmax=logm

    Избыточность это степень отличия энтропии от максимального значения: R=(Hmax-H)/Hmax.

    Наиболее часто используются двоичные системы связи m=2. Энтропия двоичного источника вычисляется по формуле:

    H(m=2)=-p(1)*logp(1)-[1-p(1)]log[1-p(1)]

    Энтропия двоичного источника максимальна если p(1)=p(0)=0.5

    Чем больше энтропия, тем больше информации несет один символ и тем больше скорость передачи информации при заданной бодовой скорости - количество посылок в единицу времени

    Основные способы увеличения энтропии:

    1)наличие корреляционных связей между символами уменьшает энтропию.

    Чтобы увеличить энтропию, мы кодируем не буквы а слова. Это называется укрупнение алфавита источника.

    Эта же цель достигается путем предсказания - кодирования с предсказанием последующих символов по предыдущим

    2) Неравновероятность символов уменьшает энтропию. Для устранения неравновероятности строят "кодовое дерево"

    Наиболее вероятные символы передаются наиболее короткими кодовыми комбинациями.

    3)Для дальнейшего увеличения энтропии увеличивают основание кода m.

    Билет 25

    1. ДОФМ

    Двоичная относительная фазовая модуляция

    Для приема сигнала ДФМ необходимо иметь на приеме когерентное опорное напр.

    ->ФД перемножитель->Tint0

    ^

    ГОН

    cosw0t

    Опорное напряжение может быть получено только из принимаемого сигнала, т.к. он меняется в тракте(линии связи)

    ГОН содержит умножитель частоты на 2(снимает модуляцию), узкополосный фильтр(фильтрует сигнал от помех), делитель частоты на 2(триггер)

    На выходе ГОН фаза сигнала случайно меняется на 180град.

    На выходе интегратора 1 в 0, а 0 в 1. Такое явление называется "обратная работа"

    Для борьбы с этим используется ДОФМ: информация заключена в разности фаз соседних посылок. При передаче 0 фаза n посылки фиn равна фазе предыдущей (n-1) посылки фи(n-1)

    При передаче 1 фаза n посылки фиn отличается на 180град от фазы (n-1) посылки

    Для упрощения схемы модулятора при ДОФМ на передачу включается блок внесения относительности(БВО) между кодером и модулятором.

    Прием сигнала ДОФМ осуществляется двумя способами:

    1)прием ДОФМ «сравнением полярностей»: сигнал будет принят правильно, если n и (n-1) посылки приняты верно, либо если обе приняты неверно. Вероятность ошибки равна:

    Рош=2F(√2* h0)*(1-F(√2 * h0))

    h0=0 Pош=0.5

    2)Прием ДОФМ «сравнением фаз» (некогерентный способ прием): в фазовом детекторе сравниваются данная посылка и передающая. Вероятность ошибки для приема сравнением фаз равна: Pош=0.5*e^-h^2

    Для НКГ способов передачи ДОФМ наиболее помехоустойчивый способ передачи.

    Выигрывает в 4 раза по мощности передатчика по сравнению с ДАМ и в 2 раза по мощности передатчика по сравнению с ДЧМ.

    2. Устойчивость ЦФ

    ЦФ – это микроЭВМ, которая решает задачу фильтрации средствами вычислительной техники. Описывается разностным уравнением, которое является цифровым эквивалентом аналогового дифференциального уравнения: yi==∑Ll=1 alyi-l+=∑Mm=0 bmxi-m. Максимум из L,M определяет порядок фильтра.

    Отношение z-преобразования выходного процесса y(z) к z-преобразованию входного процесса x(z). Из нее можно получить определить является ли фильтр устойчивым (корни числителя – нули, корни знаменателя – полюсы; ЦФ устойчив если полюсы лежат внутри окружности единичного радиуса; ЦФ называется устойчивым, если при ограниченном воздействии на входе xi<∞ напряжение на выходе также ограничено yi<∞).

    Импульсная реакция ЦФ - реакция на единичный импульс

    Переходная характеристика ЦФ. Переходной характеристикой hi ЦФ называется реакция фильтра на дискретную функцию единичного скачка.

    y0=h0=a1y-1 + a2y-2 + b0x0 + b1x-1 + b2x-2 = b0x0

    Передаточная характеристика ЦФ. Передаточной характеристикой ЦФ k(z) называется отношение z-преобразования выходного процесса y(z) к z-преобразованию входного процесса x(z)

    ЦФ называется устойчивым, если при ограниченном воздействии на входе xi
    Билет 26

    1. Способы увеличения энтропии

    Количество информации, которое заключено в некотором сообщении с вероятностью появления p(i), равно: I=-log2p(i).Свойства количества информации:

    1)чем меньше р, тем больше I.

    2)количество информации в достоверном событии с вероятностью появления p=1 равно 0.

    3)аддитивное свойство: количество информации, заключенное в совокупности двух независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.

    4)количество информации величина неотрицательная.

    Энтропия H - это среднее кол-во информации приходящееся на одно сообщение

    Для дискретного источника независимых сообщений энтропия вычисляется по формуле:

    H=-∑mk=1 pklogpk, m – основание кода, pk - вероятность определенного символа).

    Энтропия дискретного источника независимых сообщений максимальна, если все сообщения равновероятны Hmax=logm

    Избыточность это степень отличия энтропии от максимального значения: R=(Hmax-H)/Hmax.

    Наиболее часто используются двоичные системы связи m=2. Энтропия двоичного источника вычисляется по формуле:

    H(m=2)=-p(1)*logp(1)-[1-p(1)]log[1-p(1)]

    Энтропия двоичного источника максимальна если p(1)=p(0)=0.5

    Чем больше энтропия, тем больше информации несет один символ и тем больше скорость передачи информации при заданной бодовой скорости - количество посылок в единицу времени

    Основные способы увеличения энтропии:

    1)наличие корреляционных связей между символами уменьшает энтропию.

    Чтобы увеличить энтропию, мы кодируем не буквы а слова. Это называется укрупнение алфавита источника.

    Эта же цель достигается путем предсказания - кодирования с предсказанием последующих символов по предыдущим

    2) Неравновероятность символов уменьшает энтропию. Для устранения неравновероятности строят "кодовое дерево"

    Наиболее вероятные символы передаются наиболее короткими кодовыми комбинациями.

    3)Для дальнейшего увеличения энтропии увеличивают основание кода m.

    2. Оптимальные кодо-сигнальные конструкции

    Кодер+декодер=кодек. Модулятор +демодулятор= модем. Для построения оптимальной системы связи кодек и модем также надо разрабатывать как единое устройство - кодем.

    Различия кодовых комбинаций одной от другой характеризуется кодовым расстоянием по Хеммингу dx(xi;xk) (это расстояние в двоичной системе координат). Если кодовые комбинации передаются в виде сигналов Ui(t) и Uk(t), то кодовое расстояние определяется по Гильберту: d=∫0T (Ui(t) - Uk(t))2dt. Оптимальный кодем должен строиться таким образом, чтобы меньшее расстояние по Хеммингу соответствовало меньшему расстоянию по Гильберту.

    Совокупность кодовых комбинаций и соответствующих им оптимальных сигналов образуют оптимальные КСК. Виды:

    1)Ансамбль двоичных сигналов: комбинации 0 и 1; сигналы: ДАМ (U1(t)=UmCosw0t,U0(t)=0), ДЧМ (U1(t)=UmCosw1t, U0(t)=UmCosw0t), ДФМ (U1(t)=UmSinw0t, U0(t)=-UmSinw0t).

    2)Ансамбль четверичных сигналов: комбинации 00, 01, 10, 11; сигналы: круг из 4 значений по порядку, смещены относительно друг друга на π/2.

    3)Ансамбль восьмеричных сигналов: комбинации 000, 001, 010, 011, 100…; сигналы: круг из 8 значений расположенных (011, 001, 000, 010, далее противоположные этим значения), смещены относительно друг друга на π/4.

    Билет 27

    1. Прием ИКМ методом однократного отсчета

    ИКМ - это двоичный сигнал с заданной точностью, соответствующий исходному аналоговому сигналу

    Устройство, осуществляющее переход от аналогового к двоичному цифровому сигналу называется АЦП(аналогово-цифровой преобразователь)

    Для перехода от аналогового сигнала к сигналу ИКМ необходимо выполнить три операции:

    1)дискретизация в соответствии с теоремой Котельникова

    Интервал дискретизации Т=pi/wв=1/2Fв, где wв-ширина спектра исходного сигнала

    2)квантование: диапазон допустимых значений исходного аналогового сигнала разбивается на разрешенные уровни – уровни квантования.

    Вместо истинного значения амплитуды импульса-отсчета передаётся ближайший разрешенный уровень.

    3)кодирование: квантованный уровень записывается в виде двоичной кодовой комбинации

    Для восстановления исходного аналогового сигнала на приеме необходимо выполнить две операции: эти операции осуществляет ЦАП(цифро-аналоговый преобразователь)

    1)декодирование принятых кодовых комбинаций(декодер служит для восстановления L-ичных уровней из двоичных кодовых комбинаций)

    2)полученные импульсы-отсчеты подаются на вход ФНЧ с характеристиками, близкими к идеальному ФНЧ

    Регенерация – это восстановление частично пораженных помехой импульсов сигнала. Принцип работы: если z(T/2+kT)>V, то на выходе ПУ 1, если z(T/2+kT)
    Под действием помех некоторые импульсы искажаются и будут приняты неверно: прием 0 вместо 1 пропуск цели, прием 1 вместо 0 ложная тревога.

    Вероятности p(1/0) и p(0/1) это условные вероятности. Их зависимость от порогового напряжения если поражающий сигнал нормальный и шум х(t):

    p(1/0)=p(x>V)=∫V W(x)dx=1-F(V/σ) (замена x/σ=y и dx=σ dy)

    p(0/1)=p(xV-Uc-∞ W(x)dx=F((V-Uc)/σ) (замена x/σ=y и dx=σ dy)

    Пороговое напряжение, при котором средняя вероятность ошибки минимальна, называется оптимальным пороговым напряжением: Vопт=Uc/2-σ2/Uc * ln(p(1)/p(0))

    2. Сверточный код

    Код - двоичный (1;0)

    Относится к классу непрерывных кодов (после передачи очередного кодового символа кодер не возвращается в исходное состояние, т.о. между выходными символами возникают корреляционные связи, что повышает помехоустойчивость). В общем случае сверточный кодер имеет m входов и n выходов.

    Рассмотрим простейший сверточный кодер с одним входом и двумя выходами (скорость работы уменьшается в 2 раза). Принцип работы можно рассмотреть с помощью решетчатой диаграммы: при передаче 1 идем по нижнему ребру, при передаче 0 идем по верхнему ребру. Далее рассматривается в соответствии с кодовой комбинацией поступившей на вход.


    Билет 28

    1. Оптимальные кодо-сигнальные конструкции

    Кодер+декодер=кодек. Модулятор +демодулятор= модем. Для построения оптимальной системы связи кодек и модем также надо разрабатывать как единое устройство - кодем.

    Различия кодовых комбинаций одной от другой характеризуется кодовым расстоянием по Хеммингу dx(xi;xk) (это расстояние в двоичной системе координат). Если кодовые комбинации передаются в виде сигналов Ui(t) и Uk(t), то кодовое расстояние определяется по Гильберту: d=∫0T (Ui(t) - Uk(t))2dt. Оптимальный кодем должен строиться таким образом, чтобы меньшее расстояние по Хеммингу соответствовало меньшему расстоянию по Гильберту.

    Совокупность кодовых комбинаций и соответствующих им оптимальных сигналов образуют оптимальные КСК. Виды:

    1)Ансамбль двоичных сигналов: комбинации 0 и 1; сигналы: ДАМ (U1(t)=UmCosw0t,U0(t)=0), ДЧМ (U1(t)=UmCosw1t, U0(t)=UmCosw0t), ДФМ (U1(t)=UmSinw0t, U0(t)=-UmSinw0t).

    2)Ансамбль четверичных сигналов: комбинации 00, 01, 10, 11; сигналы: круг из 4 значений по порядку, смещены относительно друг друга на π/2.

    3)Ансамбль восьмеричных сигналов: комбинации 000, 001, 010, 011, 100…; сигналы: круг из 8 значений расположенных (011, 001, 000, 010, далее противоположные этим значения), смещены относительно друг друга на π/4.

    2. Циклический код

    Код называется циклическим, если циклическая перестановка одной кодовой комбинации дает все остальные кодовые комбинации данного кода.

    10110

    01011

    10101

    11010

    Каждая комбинация такого кода записывается в виде полинома. Состоит из 7 символов, из которых 4 информационных и 3 проверочных.

    Алгоритм формирования: записываются возможные информационные комбинации; каждую комбинацию записывают в виде полинома (а3,а2,а1,а0); выбираем образующий полином, степень которого соответствует количеству проверочных символов ; полином, соответствующий информационной комбинации, умножается на образующий полином.

    Алгоритм декодирования: принятая кодовая комбинация делится на образующий полином, остаток от деления есть синдром, который указывает, где произошла ошибка; формируем вектор ошибки (т.е. кодовую комбинацию с ошибкой) на основании синдрома.

    Кодовое расстояние – количество позиций, в которых одна кодовая комбинация отличается от другой. Здесь минимальное кодовое расстояние равно 3 (т.е. код исправляет все одиночные ошибки).

    Билет 29

    1. Оптимальные кодо-сигнальные конструкции

    Кодер+декодер=кодек. Модулятор +демодулятор= модем. Для построения оптимальной системы связи кодек и модем также надо разрабатывать как единое устройство - кодем.

    Различия кодовых комбинаций одной от другой характеризуется кодовым расстоянием по Хеммингу dx(xi;xk) (это расстояние в двоичной системе координат). Если кодовые комбинации передаются в виде сигналов Ui(t) и Uk(t), то кодовое расстояние определяется по Гильберту: d=∫0T (Ui(t) - Uk(t))2dt. Оптимальный кодем должен строиться таким образом, чтобы меньшее расстояние по Хеммингу соответствовало меньшему расстоянию по Гильберту.

    Совокупность кодовых комбинаций и соответствующих им оптимальных сигналов образуют оптимальные КСК. Виды:

    1)Ансамбль двоичных сигналов: комбинации 0 и 1; сигналы: ДАМ (U1(t)=UmCosw0t,U0(t)=0), ДЧМ (U1(t)=UmCosw1t, U0(t)=UmCosw0t), ДФМ (U1(t)=UmSinw0t, U0(t)=-UmSinw0t).

    2)Ансамбль четверичных сигналов: комбинации 00, 01, 10, 11; сигналы: круг из 4 значений по порядку, смещены относительно друг друга на π/2.

    3)Ансамбль восьмеричных сигналов: комбинации 000, 001, 010, 011, 100…; сигналы: круг из 8 значений расположенных (011, 001, 000, 010, далее противоположные этим значения), смещены относительно друг друга на π/4.

    2. Способы увеличения энтропии

    Количество информации, которое заключено в некотором сообщении с вероятностью появления p(i), равно: I=-log2p(i).Свойства количества информации:

    1)чем меньше р, тем больше I.

    2)количество информации в достоверном событии с вероятностью появления p=1 равно 0.

    3)аддитивное свойство: количество информации, заключенное в совокупности двух независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.

    4)количество информации величина неотрицательная.

    Энтропия H - это среднее кол-во информации приходящееся на одно сообщение

    Для дискретного источника независимых сообщений энтропия вычисляется по формуле:

    H=-∑mk=1 pklogpk, m – основание кода, pk - вероятность определенного символа).

    Энтропия дискретного источника независимых сообщений максимальна, если все сообщения равновероятны Hmax=logm

    Избыточность это степень отличия энтропии от максимального значения: R=(Hmax-H)/Hmax.

    Наиболее часто используются двоичные системы связи m=2. Энтропия двоичного источника вычисляется по формуле:

    H(m=2)=-p(1)*logp(1)-[1-p(1)]log[1-p(1)]

    Энтропия двоичного источника максимальна если p(1)=p(0)=0.5

    Чем больше энтропия, тем больше информации несет один символ и тем больше скорость передачи информации при заданной бодовой скорости - количество посылок в единицу времени

    Основные способы увеличения энтропии:

    1)наличие корреляционных связей между символами уменьшает энтропию.

    Чтобы увеличить энтропию, мы кодируем не буквы а слова. Это называется укрупнение алфавита источника.

    Эта же цель достигается путем предсказания - кодирования с предсказанием последующих символов по предыдущим

    2) Неравновероятность символов уменьшает энтропию. Для устранения неравновероятности строят "кодовое дерево"

    Наиболее вероятные символы передаются наиболее короткими кодовыми комбинациями.

    3)Для дальнейшего увеличения энтропии увеличивают основание кода m.

    Билет 30

    1. Сверточный код

    Код - двоичный (1;0)

    Относится к классу непрерывных кодов (после передачи очередного кодового символа кодер не возвращается в исходное состояние, т.о. между выходными символами возникают корреляционные связи, что повышает помехоустойчивость). В общем случае сверточный кодер имеет m входов и n выходов.

    Рассмотрим простейший сверточный кодер с одним входом и двумя выходами (скорость работы уменьшается в 2 раза). Принцип работы можно рассмотреть с помощью решетчатой диаграммы: при передаче 1 идем по нижнему ребру, при передаче 0 идем по верхнему ребру. Далее рассматривается в соответствии с кодовой комбинацией поступившей на вход.

    2. ДОФМ

    Двоичная относительная фазовая модуляция

    Для приема сигнала ДФМ необходимо иметь на приеме когерентное опорное напр.

    ->ФД перемножитель->Tint0

    ^

    ГОН

    cosw0t

    Опорное напряжение может быть получено только из принимаемого сигнала, т.к. он меняется в тракте(линии связи)

    ГОН содержит умножитель частоты на 2(снимает модуляцию), узкополосный фильтр(фильтрует сигнал от помех), делитель частоты на 2(триггер)

    На выходе ГОН фаза сигнала случайно меняется на 180град.

    На выходе интегратора 1 в 0, а 0 в 1. Такое явление называется "обратная работа"

    Для борьбы с этим используется ДОФМ: информация заключена в разности фаз соседних посылок. При передаче 0 фаза n посылки фиn равна фазе предыдущей (n-1) посылки фи(n-1)

    При передаче 1 фаза n посылки фиn отличается на 180град от фазы (n-1) посылки

    Для упрощения схемы модулятора при ДОФМ на передачу включается блок внесения относительности(БВО) между кодером и модулятором.

    Прием сигнала ДОФМ осуществляется двумя способами:

    1)прием ДОФМ «сравнением полярностей»: сигнал будет принят правильно, если n и (n-1) посылки приняты верно, либо если обе приняты неверно. Вероятность ошибки равна:

    Рош=2F(√2* h0)*(1-F(√2 * h0))

    h0=0 Pош=0.5

    2)Прием ДОФМ «сравнением фаз» (некогерентный способ прием): в фазовом детекторе сравниваются данная посылка и передающая. Вероятность ошибки для приема сравнением фаз равна: Pош=0.5*e^-h^2

    Для НКГ способов передачи ДОФМ наиболее помехоустойчивый способ передачи.

    Выигрывает в 4 раза по мощности передатчика по сравнению с ДАМ и в 2 раза по мощности передатчика по сравнению с ДЧМ.
    1   2   3   4   5


    написать администратору сайта