задачи по ОТС. Занятие 1 Основы теории передачи информации
Скачать 62.26 Kb.
|
ПРАКТИЧЕСКОЕ ЗАНЯТИЕ № 1 Основы теории передачи информации Цель занятия: Изучение практических приложений теории информации для сравнительной оценки информационных характеристик дискретных и непрерывных источников сообщений и каналов связи. Литература: 1.Передача дискретных сообщений: Учебник для вузов/ В.П.Шувалов, Н.В.Захарченко, В.О.Шварцман и др.; Под ред. В.П.Шувалова. - М.: Радио и связь,1990.-464 с.: ил. - стр. 12-29. Контрольные вопросы: Что такое информация? Какое сообщение содержит информацию? Что является мерой количества информации в сообщении? Какое сообщение содержит 1 двоичную единицу информации? Как определяется энтропия источника дискретных сообщений - с независимыми элементами сообщений; - с зависимыми элементами сообщений? Когда энтропия источника минимальна, когда максимальна? Как определяется совместная информация 2-х элементов сообщения и совместная энтропия 2-х источников информации? Когда она максимальна и когда минимальна? Как определяется взаимная информация 2-х элементов сообщения? Когда она максимальна и когда минимальна? Что такое избыточность источника? Причины избыточности. Что такое производительность источника? Что такое пропускная способность канала связи? Ее размерность? Что утверждает теорема К.Шеннона для каналов связи с помехами? Чем отличаются изохронные сигналы от анизохронных? Какой сигнал называется цифровым сигналом данных (ЦСД)? Перечислите известные вам критерии оптимизации систем ПДС. Каковы их достоинства и недостатки? При какой плотности распределения вероятностей случайная непрерывная величина имеет максимальную энтропию? Чему равен этот максимум? Как определяется энтропия и производительность источника непрерывных сообщений с ограниченным спектром? Задачи: 1.1.Самолет противника с равной вероятностью может находиться в одной из 1024 зон воздушного пространства. Какое количество информации получает оператор радиолокационной станции, когда он фиксирует наличие самолета в одной из них. 1.2.Символы алфавита азбуки Морзе появляются в сообщении со следующими вероятностями: 0,51 для "точки"; 0,31 для "тире"; 0,12 для промежутка между буквами; 0,06 для промежутка между словами. Определить среднее количество информации в сообщении из 500 символов данного алфавита, считая, что связь между последовательными символами отсутствует. 1.3.Определить энтропию и избыточность двоичного источника, для которого вероятности выбора “0” и “1” равны 0,8 и 0,2 соответственно. 1.4.Напряжение изменяется в пределах U2 - U1 = 8 B. При равномерном квантовании датчик регистрирует приращение напряжения U = 0,1 B. Вычислить максимальное количество информации в 5 отсчетах. 1.5.Определить энтропию и избыточность источника с зависимыми элементами (буквами), для которого вероятности переходов заданы в табл.1.1. Изобразить на чертеже диаграмму состояний и переходов источника. Таблица 1.1
1.6.Согласно экспериментальным данным безусловные вероятности букв русского алфавита характеризуются следующими величинами (табл. 1.2): Таблица 1.2
Найти энтропию источника, выдающего текст из этих букв при отсутствии статистических связей между буквами. Вычислить избыточность источника, обусловленную неравновероятностью выбора букв, а также и их статистической связью (памятью источника), если по экспериментальным данным энтропия такого источника H(A)=1 бит/символ. 1.7.Согласно экспериментальным данным безусловные вероятности букв английского алфавита характеризуются следующими величинами (табл.1.3): Таблица 1.3
Найти энтропию источника, выдающего текст из этих букв при отсутствии статистических связей между буквами. Вычислить избыточность источника, если по экспериментальным данным энтропия такого источника с учетом 8-буквенных сочетаний H(A) =1,86 бит/символ за счет неравновероятности выбора букв и их статистической связи. 1.8.Согласно экспериментальным данным безусловные вероятности букв немецкого алфавита характеризуются следующими величинами (табл.1.4): Таблица 1.4
Найти энтропию источника, выдающего текст из этих букв при отсутствии статистических связей между буквами. 1.9. Найти количество информации, которое содержится в квантованном телевизионном сигнале, соответствующем одному кадру развертки изображения, если: в кадре 625 строк; сигнал, соответствующий одной строке развертки изображения представляет собой последовательность из 833 случайных по амплитуде импульсов, каждый из которых может с равной вероятностью принимать любое значение в интервале от 0 до 16 ; каждый импульс квантуется по величине с шагом квантования 1; импульсы изображения между собой не коррелированны. Найти избыточность ТВ сигнала, если фактически кадр изображения с 16 градациями уровней содержит 9,3710 бит информации. 1.10. Плотность распределения значений случайного сигнала имеет вид: 1. , ; 2. , ; 3. , (равномерный закон); 4. , (нормальный закон); 5. , - (закон Симпсона); 6. , (закон Релея); 7. , (закон Коши). Найти энтропию сигнала. 1.11. На вход приемного устройства воздействует сигнал , где - сигнал и - помеха являются независимыми случайными гауссовскими процессами с нулевыми средними значениями и дисперсиями, равными соответственно и . Определить: а) Количество информации , которое содержится в принятом значении сигнала о сигнале ; б) Среднюю взаимную информацию . |