Главная страница
Навигация по странице:

  • Клод Элвуд Шеннон

  • Андрей Андреевич Марков

  • ОТС №4. Группы итс32 бзс александров А. О вопросы рассматриваемые в презентации Энтропия источника независимых дискретных сообщений и её свойства


    Скачать 0.96 Mb.
    НазваниеГруппы итс32 бзс александров А. О вопросы рассматриваемые в презентации Энтропия источника независимых дискретных сообщений и её свойства
    Дата17.01.2022
    Размер0.96 Mb.
    Формат файлаpptx
    Имя файлаОТС №4.pptx
    ТипДокументы
    #333896
    Энтропия источника независимых дискретных сообщений. Свойства энтропии. Энтропия источника зависимых дискретных сообщений. Свойства энтропии. Избыточность источника. Производительность источника. Причины статистической избыточности сообщений и способы ее уменьшения. Информационные характеристики каналов связи. Пропускная способность дискретного и непрерывного каналов связи.

    Выполнил студент

    Группы ИТС-32 БЗС

    Александров А.О

    Вопросы рассматриваемые в презентации:

    • Энтропия источника независимых дискретных сообщений и её свойства.
    • Энтропия источника зависимых дискретных сообщений и её свойства.
    • Избыточность источника.
    • Производительность источника.
    • Причины статистической избыточности сообщений и способы ее уменьшения.
    • Информационные характеристики каналов связи.
    • Пропускная способность дискретного и непрерывного каналов связи.

    Энтропия источника информации

    (1)

    (2)

    Клод Элвуд Шеннон

    американский инженер, криптоаналитик и математик. Считается «отцом информационного века».

    Мера Шеннона

    Количественную меру информации, учитывающую статистику сообщений и сигналов, ввел Клод Шеннон. Её соответственно и называют мерой Шеннона:

    где I(ai) – количество информации, заключенное в некотором сообщении ai, Pi – вероятность появления сообщения ai.


    (3)

    Энтропия источника независимых дискретных сообщений

    (4)

    Свойства энтропии

    Энтропия – величина неотрицательная.

    Энтропия равна нулю, если одно событие достоверно, а остальные имеют нулевую вероятность.

    Свойства энтропии

    Энтропия совместного наступления независимых событий есть сумма их энтропий.

    Свойства энтропии

    Энтропия последовательности из n независимых символов в n раз больше энтропии одного символа.

    источник создает максимальное количество информации, если символы независимы и равновероятны.

    Свойства энтропии

    Свойства энтропии

    (5)

    Энтропия такого двоичного источника независимых сообщений рассчитывается по формуле:

    Энтропия двоичного источника независимых событий

    Энтропия источника зависимых дискретных сообщений

    Граф взаимосвязи символов дискретного источника

    Андрей Андреевич Марков

    русский математик, академик, внёсший большой вклад в теорию вероятностей, математический анализ и теорию чисел.

    Односвязная цепь Маркова

    Односвязная цепь Маркова

    Можно показать, что среднее количество информации, которое переносит символ на j-й позиции при влиянии предыдущего (j-1)-го символа меньше, чем без учета этого влияния, т. е. условная энтропия меньше безусловной:

    Избыточность источника

    Избыточность источника характеризует степень недоиспользования его предельных характеристик и определяется следующим коэффициентом:

    где Н(А) – энтропия реального источника; Нmax – максимальная энтропия источника, если бы все символы были независимы и равновероятны.

    Коэффициент избыточности ρ показывает, насколько можно сократить время передачи сообщений, если сократить избыточность ρ = 1 – μ, где

    Избыточность источника

    а μ – информационная насыщенность источника сообщений. Величина Нmax/Н(А) определяет коэффициент сжатия текста.

    Пример избыточности источника

    Рассмотрим передачу по системе связи текста на русском языке. Практически объем алфавита m = 32. Энтропия реального источника, вырабатывающего текст на русском языке, составляет величину порядка Н(А) = 1.5 бит. Максимума энтропии можно было бы достичь, если бы символы были равновероятны, т. е. при

    Пример избыточности источника

    Тогда коэффициент избыточности:

    Производительность источника

    Производительность источника определяется количеством собственной информации, вырабатываемой им в единицу времени:

    Сравнение двух независимых двоичных источников

    Причины статистической избыточности сообщений

    и способы ее уменьшения
    • Наличие корреляционных связей между символами

    • Для увеличения энтропии и уменьшения избыточности осуществляют ослабление корреляционных связей. Один из способов декорреляции символов – укрупнение сообщений, т. е. символами кода будут не отдельные буквы, а целые слова. Корреляционные связи между словами гораздо меньше, чем между символами. Следовательно, укрупнение сообщений увеличит энтропию.

    Причины статистической избыточности сообщений

    и способы ее уменьшения
    • Неравновероятность символов

    • Для увеличения энтропии и уменьшения избыточностинадо перекодировать сообщения с учетом их вероятностей так,чтобы символы нового кода были бы практическиравновероятны. Такое кодирование, учитывающее статистикупередачи символов, носит название статистического (илиэффективного) кодирования.

    Информационные характеристики каналов связи
    • Количество информации, передаваемой по каналу связи, определяется как взаимная информация, содержащаяся в сигнале на выходе канала связи относительно сигнала на его входе.
    • Количество информации равно разности энтропии в сигнале, наблюдаемом на выходе канала, и энтропии шума в канале.

    Информационные характеристики каналов связи

    Скорость (R) передачи информации по каналу связи определяется как количество информации, передаваемой по каналу связи в единицу времени.

    Пропускная способность (С) определяется как максимальная скорость передачи информации по каналу связи:

    Максимум ищется по всем возможным вероятностным распределениям источника и всем возможным способам передачи и приема. Поэтому пропускная способность не зависит от свойств источника, а зависит только от помеховой (шумовой) ситуации в канале связи

    Пропускная способность дискретного канала связи

    Н(Е) – энтропия шума Е в канале связи

    Пропускная способность непрерывного канала связи

    Формула Шеннона для пропускной способности непрерывного канала связи С:

    где F – полоса пропускания канала, в котором действует сигнал с мощностью Ps и нормальный белый шум с мощностью Рш.

    Пропускная способность непрерывного канала связи

    Информационная эффективность канала связи определяется отношением скорости передачи информации к его пропускной способности:

    Список использованных источников
    • Акулиничев, Ю. П. Теория электрической связи : учеб. пособие для вузов / Ю. П. Акулиничев. – СПб. : Лань, 2010. – 233 с.

    • 2. Добаткина, Н. В. Основы теории телекоммуникаций / Н. В. Добаткина. – М. : Издательский центр «Интерэкомс», 2010. – 176 с.

      3. Теория электрической связи : учебник для вузов / под ред. Д. Д. Кловского. – М. : Радио и связь, 1999. – 432 с.

      4. Крук, Б. И. Телекоммуникационные системы и сети : учеб. пособие : в 3 т. Т. 1 : Современные технологии / Б. И. Крук, В. Н. Попантопуло, В. П. Шувалов; под ред. проф.172 В. П. Шувалова. – М. : Горячая линия – Телеком, 2003. - 647 с.

      5. Прокис, Д. Цифровая связь / Д. Прокис ; под ред. Д. Д. Кловского. – М. : Радио и связь, 2000. – 800 с.

    Список использованных источников

    6. Основы цифровой обработки сигналов: учеб. пособие / Ю. А. Брюханов и др. – Ярославль: ЯрГУ, 2013. – 344 с.

    7. Гмурман, В. Е. Теория вероятностей и математическая статистика : учеб. пособие для бакалавров / В. Е. Гмурман ; М-во образования и науки РФ – 12-е изд. – М. : Юрайт, 2013. – 479 с.

    8. Кремер, Н. Ш. Теория вероятностей и математическая статистика : учебник для вузов. / Н. Ш. Кремер ; М-во образования РФ – 3-е изд., перераб. и доп. – М. : ЮНИТИ, 2009. – 551 с.

    9. Теория вероятностей и математическая статистика / сост. Л. П. Бестужева, Н. Л. Майорова; Яросл. гос. ун-т им. П. Г. Демидова, Науч.-метод. совет ун-та. Ч. 1 :

    практикум. – Б.м. : Б.и., 2012. – 47 с.

    10. Hsu, H. Analog and Digital Communcations. Schaum's outline series / H. Hsu – McGraw Hill, 2003. – 330 p.

    Выводы
    • Энтропия источника информации представляет собой среднее количество информации, приходящееся на один символ дискретного источника.
    • Корреляционные связи между символами уменьшают энтропию источника.
    • Для увеличения энтропии и уменьшения избыточности надо перекодировать сообщения с учетом их вероятностей так, чтобы символы нового кода были бы практически равновероятны.
    • Для повышения эффективности использования каналов связи применяют различные методы сокращения избыточности сообщений источника путем их эффективного кодирования.


    написать администратору сайта