Главная страница
Навигация по странице:

  • ХАРАКТЕРИСТИКИ СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ

  • Каналы передачи информации

  • Техническими характеристиками канала связи являются

  • / *Рк

  • ЗНАЧЕНИЕ ФУНКЦИИ –P

  • ЗНАЧЕНИЕ ФУНКЦИИ log

  • Лекции по информатике2. 1. информационная мера шеннона. Количество информации и избыточность


    Скачать 269.5 Kb.
    Название1. информационная мера шеннона. Количество информации и избыточность
    Дата15.04.2023
    Размер269.5 Kb.
    Формат файлаdoc
    Имя файлаЛекции по информатике2.doc
    ТипДокументы
    #1064241

    1.ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА.

    1.1.Количество информации и избыточность.


    Дискретные системы связи - системы, в которых как реализации сообщения, так и реализации сигнала представляют собой последовательности символов алфавита, содержащего конечное число элементарных символов.

    Пусть  и  - случайные величины с множествами возможных значений Х={х1,х2,...,хN}, Y={y1,y2,...,yM}

    Количество информации H() при наблюдении случайной величины   X = {x1,x2,…,xN} с распределением вероятностей P={p1,p2,рN}задается формулой Шеннона:

    .

    Единицей измерения количества информации является бит, который представляет собой количество информации, получаемое при наблюдении случайной величины, имеющей два равновероятных значения. При равномерном распределении р12==pN количество информации задается формулой Хартли:



    Справедливы следующие соотношения:

    • 0 H()log2N;

    • N=2, p1=p2=0.5, H()=1;

    • H(,)=H()+H(), если и -независимы. Избыточностью называется
      р= 1‑H(,)/max{ H() } = 1 ‑ H()/log2N.

    1.2.Пример.


    Источник сообщений выдает символы из алфавита А={аi}, i = 1..4 с вероятностями р= 0.2, р2 = 0.3; р3= 0.4; р4= 0.1. Найти количество информации и избыточность.

    Решение. По формуле Шеннона

    Н(А)= -0.2 log20.2 – 0.3 log2 0.3 – 0.4 Iog2 0.4 – 0.1 log2 0.1 = 1.86 (бит).

    По определению избыточности р = 1 – H(A)! log2 4 = 0,07.

    1.3.Задачи


    Задача 1. Определить энтропию и избыточность источника информации А, передающего сообщения Аi, i= 1..4. Вероятность сообщений определяются по формулам: р1= 0.2 + 0.005.V; р2= 0.3 ‑ 0.005.V; р3= 0.1 + 0.01.V; р4= 0.4 ‑ 0.01.V, где V – номер варианта.

    Задача 2. На выходе источника сообщений может появляться нуль и единица. Вероятность появления каждого сообщения изменяется со временем и в каждый момент времени может быть определена по формулам:

    p(1) = 0.9 – 0.02.(V - 1) – 0.1.t, p(0) = 0.1 + 0.02.(V - 1) + 0.1.t,

    Необходимо исследовать изменение энтропии источника информации во времени и определить момент времени, когда математическая модель опыта теряет смысл. Энтропия источника сообщений вычисляется в соответствии с формулой Шеннона. Все вычисления сводятся в табл.2:

    Таблица 2

    t

    Р(0)

    Р(1)

    H(0)

    Н(1)

    H




















    Значения t задаются целыми числами через равные промежутки времени t = 0,1,2,...

    Математическая модель опыта имеет смысл, когда выполняются соотношения для вероятностей р(1)+р(0)= 1; 0 р(0)  1; 0  р(1)  1. Значения t, при котором эти соотношения перестают выполняться, и есть момент времени, когда модель опыта теряет смысл. После заполнения таблицы результатами вычислений следует построить графики изменения H(0), H(1), H. При анализе графиков обратить внимание на точку, где энтропия принимает наибольшее значение и наименьшее значение. Указать значения вероятностей появления символов в этих точках и моменты времени.



    Задача 1

    Сигнал подается на вход канала (величина ) с вероятностью (логическая единица) и отсутствует (логический ноль) с вероятностью (1 – р). Вероятность того, что поступившая единица правильно воспроизведена на выходе – p.0.8, а вероятность правильного воспроизведения нуля – p.0.95 (величина ). Найти энтропию выхода, энтропию входа, взаимную информацию входа и выхода I(S,S');

    Задача 2

    Распределение вероятностей входных и выходных сигналов системы заданы следующей матрицей:

    , где
    Определить энтропию входа H(), условную энтропию H(Y/XН(Х/), взаимную информацию (X,Y ).

    ХАРАКТЕРИСТИКИ СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ

    Каналы передачи информации

    Канал связи представляет собой совокупность технических средств для передачи сообщений из одной точки пространства в другую. С точ­ки зрения теории информации физическое устройство канала несуще­ственно. Источник сообщений (ИС) имеет выходной алфавит символов A={аi}, i=1..n - количество информации, приходящееся в среднем на один символ источника:



    где pi, - вероятность появления символа ai, на выходе источника, символы источника считаются независимыми. Канал связи имеет алфавит символов B={bj}, j=1..m, среднее количество информации в одном символе канала



    где qj - вероятность появления символа bi, в канале.

    Техническими характеристиками канала связи являются:

    • техническая производительность источника A - среднее число символов, выдаваемых источником в единицу времени;

    • техническая пропускная способность канала связи B - среднее число символов, передаваемое по каналу в единицу времени.

    Информационной характеристикой источника является инфор­мационная производительность. По определению, информационная производительность - это среднее количество информации, выдава­емое источником в единицу времени.



    В канале без помех информационными характеристиками являются:

    1 ) скорость передачи информации по каналу

    2) пропускная способность канала

    где {P} - множество всех возможных распределений вероятностей символов алфавита В канала. С учетом свойств энтропии

    CK=B.log2m.

    В канале с помехами в общем случае входной и выходной алфа­виты не совпадают. Пусть

    BВХ=X={x1,x2,…,xn};

    BВЫХ=Y={y1,y2,…,ym}.

    Если отправленный на входе канал символ хкопознан в приемнике как yi и iK, то при передаче произошла ошибка. Свойства канала описываются матрицей переходных вероятностей (вероятность приема символа уi, при условии, что послан хk):

    || P(yi|xk) ||, k=1..n, i=1..m.

    Справедливо соотношение:

    Среднее количество информации на один входной символ канала:

    pi=p(xi).

    Среднее количество информации на выходной символ канала:



    Информация, которую несет выход канала о входе:

    I(Y,X)=H(X)-HY(X)=H(Y)-HX(Y).

    Здесь Ну(Х) - условная энтропия входного символа канала при на­блюдении выходного символа (ненадежность канала), Нх(Y) - услов­ная энтропия выходного символа канала при наблюдении входных символов (энтропия шума).

    Скорость передачи информации по каналу с помехами:

    dI(B)/dt=BI(X,Y).

    Пропускная способность канала с помехами:



    где { р} - множество всех возможных распределений вероятностей входного алфавита символов канала.

    Рассмотрим пример

    Н айти пропускную способность двоичного симметричного канала (канала с двухсимвольными входными и выходными алфавитами) и одинаковыми вероятностями ошибок (рис.1), если априорные вероят­ности появления входных символов: P(x1)=P1=P, P(x2)=P2=1-P.

    Решение. В соответствии с моделью канала условные веро­ятности

    P(y| x2) = P(y| x1) = Pi,

    P(y| x1) = P(y| x2) = 1-Pi.

    Пропускная способность канала - CK=B.max{H(Y)-H(X|Y)}. Найдем энтропию шума:



    По теореме умножения: P(yjxi)=P(xi)P(yj|xi), следовательно,

    P(x1y1)=P(1-Pi), P(x2y1)=(1-P)Pi, P(x1y2)=PPi, P(x2y2)=(1-P)(1-Pi).

    Подставляя в формулу, получаем:

    Таким образом, H(Y|X) не зависит от распределения входного алфавита, следовательно:



    Определим энтропию выхода:

    Вероятности P(y1) и P(y2)получаем следующим образом:

    P(y1)=P(y1x1)+P(y1x2)=P(1-Pi)+(1-Pi)Pi,P(y2)=P(y2x1)+P(y2x2)=PPi+(1-P)(1-Pi).

    Варьируя Р, убеждаемся, что максимальное значение H(Y), равное 1, получается при равновероятных входных символах P(y1) и P(y2). Следовательно,



    Задача. Найти пропускную способность канала с трехсимвольными входными и выходными алфавитами (x1, x2, x3 и y1, y2, y3 соответсвенно). Интенсивность появления символов на входе канала k=V.10 символов/с.

    Вероятности появления символов:

    , , .

    Вероятности передачи символов через канал связи:

    , , ,

    , , ,

    , , .

    4. КОДИРОВАНИЕ ИНФОРМАЦИИ

    4.1. Общие сведения Кодом называется:

    - правило, описывающее отображение одного набора знаков в другой набор знаков или в набор слов без знаков;

    - множество образов, получающихся при таком отображении.

    В технических кодах буквы, цифры и другие знаки почти всегда кодируются двоичными последовательностями, называемыми двоичными кодовыми словами. У многих кодов слова имеют оди­наковую длину (равномерные коды).

    Выбор кодов для кодирования конкретных типов сообщений определяется многими факторами:

    - удобством получения исходных сообщений из источника;

    - быстротой передачи сообщений через канал связи;

    - объёмом памяти, необходимым дня хранения сообщений;

    - удобством обработки данных;

    - удобством декодирования сообщений приемником.

    Закодированные сообщения передаются по каналам связи, хра­нятся в ЗУ, обрабатываются процессором. Объемы кодируемых данных велики, и поэтому во многих случаях важно обеспечить таксе кодирование данны:'., которое характеризуется минимальной длиной получающихся сообщений, Это проблема сжатия данных. Существуют два подхода сжатия данных:

    - сжатие, основанное на анализе статистических свойств коди­руемых сообщений.

    Сжатие на основе статистических свойств данных называется так же теорией экономного или эффективного кодирования. Эко­номное кодирование основано на использовании кодов с перемен­ной длиной кодового слова, например, код Шеннона-Фано, код Хафмана /31. Идея использования кодов переменной длины для сжа­тия данных состоит в том, чтобы сообщения с большей вероят­ностью появления ставить в соответствие кодовые комбинации мень­шей длины и, наоборот, сообщения с малой вероятностью появле­ния кодировать словами большей длины. Средняя длина кодового слова определяется с.о.:



    где /, - длина кодового слова для кодирования i - го сообщения; pt - вероятность появления i - го сообщения.

    4.2. Задания

    4.2.1. Из табл.4 выбрать дня последующего кодирования ис­ходный алфавит, содержащий 10 символов, начиная с N-ro (N -порядковый номер студента в журнале группы). Пронормировать вероятности символов.

    4.2.2. Пронормировать выбранный в п.4.2.1. исходный алфавит равномерным двоичным кодом, кодом Шеннона-Фано, кодом Хафмана. Для каждого варианта кодирования рассчитать мини­мальное, максимальное, среднее значение длины кодового слова. Проанализировать результаты.

    4.2.3. Проделать задание 4.2.2. для троичного кода.

    Таблица 4

    N

    сим­вол

    Р

    N

    сим­вол

    Р

    N

    сим­вол

    Р

    N

    сим­вол

    Р

    1

    А

    0,062

    10

    К

    0,028

    19

    у

    0,021

    28

    Э

    0,003

    2

    Б

    0,014

    11

    Л

    0,035

    20

    ф

    0,002

    29

    Ю

    0.018

    3

    В

    0,038

    12

    м

    0,026

    21

    X

    0,009

    30

    Ъ

    0,009

    4

    Г

    0,013

    13

    н

    0,053

    22

    Ц

    0,004

    31







    5

    д

    0,025

    14

    о

    0,090

    23

    ч

    0,012










    6

    Е

    0,072

    15

    п

    0,023

    24

    ш

    0,006










    7

    Ж

    0,007

    16

    Р

    0,040

    25

    Щ

    0,003










    8

    3

    0,016

    17

    с

    0,053

    26

    ь

    (M¥L










    9

    И

    0,062

    18

    т

    0,053

    27

    ъ

    одй1










    4.3. Указания к выполнению отдельных заданий К заданию 4.2.1. Нормирование вероятностей производится по формуле:

    /W-HO / *Рк ' JC=AT

    где Pi - вероятности появления символов, приведенные в табл.4.

    К заданию 4.2.2. Правила построения двоичных кодов изло­жены в /4,6/.

    К заданию 4.2.3. При построении троичного кода в качестве кодовых слов берутся слова, записанные в троичной системе счис­ления. Оптимальный троичный код строится с помощью процедуры Хафмана (с помощью процедуры Шеннона-Фано строится субоп-тимальный код). При этом разбиение алфавита ведется на три груп­пы, первой группе приписывается "О", второй - "1", третьей - "2".
    ПРИЛОЖЕНИЕ 1

    ЗНАЧЕНИЕ ФУНКЦИИ –Plog2P)

    Таблица

    P

    -P.log2P
    P

    -P.log2P

    P

    -P.log2P

    P

    -P.log2P

    0.00

    0.000000

    0.26

    0.505288

    0.52

    0.490577

    0.78

    0.279594

    0.01

    0.066439

    0.27

    0.510022

    0.53

    0.485446

    0.79

    0.268660

    0.02

    0.112877

    0.28

    0.514220

    0.54

    0.480043

    0.80

    0.257542

    0.03

    0.151767

    0.29

    0.517904

    0.55

    0.474373

    0.81

    0.246245

    0.04

    0.185754

    0.30

    0.521090

    0.56

    0.468441

    0.82

    0.234769

    0.05

    0.216096

    0.31

    0.523795

    0.57

    0.462251

    0.83

    0.223118

    0.06

    0.243534

    0.32

    0.526034

    0.58

    0.455808

    0.84

    0.211293

    0.07

    0.268555

    0.33

    0.527822

    0.59

    0.449116

    0.85

    0.199295

    0.08

    0.291508

    0.34

    0.529174

    0.60

    0.442179

    0.86

    0.187129

    0.09

    0.312654

    0.35

    0.530101

    0.61

    0.435002

    0.87

    0.174794

    0.10

    0.332193

    0.36

    0.530615

    0.62

    0.427589

    0.88

    0.162294

    0.11

    0.350287

    0.37

    0.530729

    0.63

    0.419943

    0.89

    0.149629

    0.12

    0.367067

    0.38

    0.530453

    0.64

    0.412068

    0.90

    0.136803

    0.13

    0.382644

    0.39

    0.529797

    0.65

    0.403967

    0.91

    0.123816

    0.14

    0.397110

    0.40

    0.528771

    0.66

    0.395645

    0.92

    0.110671

    0.15

    0.410545

    0.41

    0.527385

    0.67

    0.387104

    0.93

    0.097369

    0.16

    0.423017

    0.42

    0.525646

    0.68

    0.378347

    0.94

    0.083911

    0.17

    0.434587

    0.43

    0.523564

    0.69

    0.369379

    0.95

    0.070301

    0.18

    0.445308

    0.44

    0.521147

    0.70

    0.360201

    0.96

    0.056538

    0.19

    0.455226

    0.45

    0.518401

    0.71

    0.350817

    0.97

    0.042625

    0.20

    0.464386

    0.46

    0.515335

    0.72

    0.341230

    0.98

    0.028563

    0.21

    0.472823

    0.47

    0.511956

    0.73

    0.331443

    0.99

    0.014355

    0.22

    0.480573

    0.48

    0.508269

    0.74

    0.321458

    1.00

    0.000000

    0.23

    0.487668

    0.49

    0.504282

    0.75

    0.311278







    0.24

    0.494134

    0.50

    0.500000

    0.76

    0.300906







    0.25

    0.500000

    0.51

    0.495430

    0.77

    0.290344









    ПРИЛОЖЕНИЕ 2

    ЗНАЧЕНИЕ ФУНКЦИИ log2( 1/P)

    Таблица

    P

    log2(1/P)

    P

    log2(1/P)

    P

    log2(1/P)

    P

    log2(1/P)

    .00

    -

    .26

    1.94342

    .52

    .943416

    .78

    .358454

    .01

    6.64386

    .27

    1.88897

    .53

    .915936

    .79

    .340075

    .02

    5.64386

    .28

    1.83650

    .54

    .888969

    .80

    .321928

    .03

    5.05889

    .29

    1.78588

    .55

    .862496

    .81

    .304006

    .04

    4.64386

    .30

    1.73697

    .56

    .836501

    .82

    .286304

    .05

    4.32193

    .31

    1.68966

    .57

    .810966

    .83

    .268817

    .06

    4.05889

    .32

    1.64386

    .58

    .785875

    .84

    .251539

    .07

    3.83650

    .33

    1.59946

    .59

    .761213

    .85

    .234465

    .08

    3.64386

    .34

    1.55639

    .60

    .736966

    .86

    .217591

    .09

    3.47393

    .35

    1.51457

    .61

    .713119

    .87

    .200913

    .10

    3.32193

    .36

    1.47393

    .62

    .689660

    .88

    .184425

    .11

    3.18442

    .37

    1.43440

    .63

    .666576

    .89

    .168123

    .12

    3.05889

    .38

    1.39593

    .64

    .643856

    .90

    .152003

    .13

    2.94342

    .39

    1.35845

    .65

    .621488

    .91

    .136062

    .14

    2.83650

    .40

    1.32193

    .66

    .599462

    .92

    .120294

    .15

    2.73697

    .41

    1.28630

    .67

    .577767

    .93

    .104697

    .16

    2.64386

    .42

    1.25154

    .68

    .556393

    .94

    .089267

    .17

    2.55639

    .43

    1.21759

    .69

    .535332

    .95

    .074001

    .18

    2.47393

    .44

    1.18442

    .70

    .514573

    .96

    .058894

    .19

    2.39593

    .45

    1.15200

    .71

    .494109

    .97

    .043943

    .20

    2.32193

    .46

    1.12029

    .72

    .473931

    .98

    .029146

    .21

    2.25154

    .47

    1.08927

    .73

    .454032

    .99

    .014500

    .22

    2.18442

    .48

    1.05889

    .74

    .434403

    1.0

    .000000

    .23

    2.12029

    .49

    1.02915

    .75

    .415037







    .24

    2.05889

    .50

    1.00000

    .76

    .395929







    .25

    2.00000

    .51

    .971431

    .77

    .377070








    написать администратору сайта