«операторскому» каналу, состоит из двух потоков: А. поток от информационной модели; Б. поток памяти. Для оценки потока от
информационной модели необходимо знать, какое количество информации содержится в сигналах. Например, имеется прибор с 8-мью возможными положениями стрелки. Оператор считывает показания прибора и видит, что она находится в одном из 53 54
восьми возможных положений. Оператор сделал выбор из 8 ситуаций. Для перевода в биты нужно определить, из скольких элементарных (двоичных)
выборов состоит это действие. Применим двоичный код (0 и 1), тогда, чтобы выбрать одно любое положение нужно сделать 3 последовательных выбора: сперва определим, в какой группе (1 4 или 5 8) находится искомое число один выбор (да, нет), затем, в какой подгруппе (1 2 или 3 4 в случае группы 1 4 и 5 6 и 7 8 в случае группы 58) и наконец, в какой паре. Т.е. при общем числе ситуаций (N), равным 8, нужно сделать 3 двоичных выбора. Число выборов составит 3 = log 2 8.
Таким образом, при равновероятном появлении сигнала, количество информации, содержащееся в одном сигнале, равно двоичному логарифму числа возможных состояний. I бит = log 2 N, (3.8) где N число возможных сигналов (состояний) Так как при равновероятных событиях 1 I бит log 2 Pi 1 P i N, то (3.9)
Практически бывают случаи при следовании сигналов с разной вероятностью. Поэтому необходимо определить среднее количество информации на сигнал ( I )
с учетом возможных вероятностей их появления. Например, положения стрелки на отметке 5 и 10 будут встречаться очень часто, а на 30 и 40 лишь изредка.
Тогда среднее количество информации на сигнал составит: или для удобства: N I i 1 1 P i log 2, (3.10) Pi N I log 2 i 1 P i P, (3.11) i 54 55
где P i вероятность появления i знака. Это основная формула теории информации, позволяющая рассчитать среднее количество информации на сигнал,
если известно конечное число сигналов и их вероятности. Напомним, что (3.12) Появление равновероятных сигналов частный случай, что видно из: Но при Р 1 =
Р 2 = Р N Можно записать а так как 1 P i, то N N( Pi log 2 1 ) P i (3.13) I, (3.14) 1 N( log 2 N) log N (3.15) N I 2 Чем чаще встречается сигнал, тем меньше он несет информации для получателя. Поэтому, при разно вероятном появлении сигналов, за сет часто встречающихся, среднее
количество информации на сигнал меньше, чем при равновероятном появлении такого же количества сигналов, т. е. при разно вероятном появлении сигналов код в определенной мере является избыточным. Давайте рассчитаем на примере. Тогда I N 2 бит. log 2 55 56
При Р 1 = 0,5; Р 2 = 0,2, Р 3 = 0,2, Р 4 = 0,1. I N i 1 Pi log Pi 0.5 log , 0.2log log бит. Следует отметить, что для технического канала связи избыточность вредна, т. к.
загромождает канал сигналами, в то время, как для надежного человеческого восприятия избыточность необходима. Человек различает надежно смысл сообщения даже при 70 80% восприятия. Но для выбора оптимальных способов подачи информации нужно уметь вычислить величину избыточности.
Избыточность определяется: При равновероятном появлении сигналов: (3.16) Чаще избыточность выражает в относительных единицах (процентах). (3.17)
Например, письменные сообщения в русском языке передаются с помощью 32 знаков (букв). При равновероятном их появлении информация на знак составит:
log 2 32 = 5 бит Однако, если учесть частоты распределения отдельных букв, то I составит 4.1бит, откуда 18% В каждом случае построения информационной модели необходимо установить оптимальный уровень избыточности (надежность восприятия при min ошибок), ибо при очень большой избыточности будет иметь пропуск сигналов. Итак, для оценки (количественной), получаемой информации необходимо установить конечное число возможных сигналов (алфавит сигналов, длину 56 57
алфавита) и вероятности их появления. При равновероятном появлении сигнала, пользуются формулой 3.8, а при разно вероятном Несмотря на очевидные преимущества информационных оценок, необходимо помнить об ограничениях и допущениях, на которых строится теория информации. 1. Число сообщений
(сигналов) или состояний источника конечно и сигналы дискретны (неразличимые по физическим характеристикам сигналы воспринимаются получателем как один сигнал). 2. Источник генерирует сигналы с определенной вероятностью их появления. 3. Свойства источника, получателя и канала связи во времени,
необходимо для передачи и получения сообщения постоянны. 4. Смысл информации не учитывается. Эти ограничения играют особую роль при использовании положений теории информации для оценки восприятия человеком. Меры информации передают только количественную характеристику, и совершенно не учитывают значение информации для получателя. Например, при передаче с помощью двоичного кода сообщения (азбука Морзе) слова «ковер» и «пожар»
количественно несут примерно одинаковые оценки, но значение (смысл) для получателя, разумеется, различен. С помощью одинакового количества знаков можно передать самые разнообразные по смыслу и последствиям сообщения. Поэтому, Шенновские меры полностью оправданы для машины, как канала связи,
но не удовлетворяют требованиям интерпретации сигналов (человек). В последние годы предпринимаются
попытки ввести количественные меры качества(значения) информации для получателя. Любая информация служит человеку для достижения какой-то цели. Чем больше информирован получатель о состоянии объекта, с которым он манипулирует (или с которым ведется «игра»), тем вероятнее выбор правильной стратегии поведения и, следовательно,
достижения цели. Сюда же относится и фактор времени (своевре- 57 58
менное получение информации, когда еще возможно вмешательство в нужном направлении). Следовательно, значимость информации может быть определена, как функция назначения вероятности достижения цели после получения этой информации (по отношению к вероятности до ее получения). По
Харкевичу А. А.: (3.18) где: S мера значимости информации, выраженной в битах, Р 0 вероятность достижения цели до ее получения, Р 1 вероятность достижения цели после получения. Однако во-первых, трудность такой оценки заключается в том, что сложно определить практически величины Р 0 и Р 1, а во-вторых, эта оценка учитывает отношение, а не сдвиги абсолютной величины «P» в связи с чем могут быть одинаковые оценки с изменением от Р 0 до Р 1 от 0,05 до 0,10 и от
0,50 до 1,00. Поэтому, лучше оценивать значимость сдвигов численных значений параметров (например, отклонения в показании приборов и т. д. ) и при этом могут быть использованы такие меры значимости информации. Если х отклонение параметра от заданного (показания прибора, где х = х Х при x текущее значение, Х заданное ), а max максимально допустимое отклонение, совместимое с заданной функцией системы, то мера значимости информации (S 1 ) равна:
(3.19) По этому критерию можно оценивать значимость информации, получаемой от различных источников. Качественная оценка может быть дана и с помощью других методов, которые мы обсудим в дальнейшем. 58 59
Итак, мы с известными ограничениями принимаем, что человек функционирует как канал связи. Для определения возможных
характеристик его деятельности необходимо знать, как воспринимает и перерабатывает информацию оператор. Поэтому, познакомимся с принципами функционирования
«входных каналов» оператора. Излучение процессов приема информации одна из важных глав эргономики, т. к. на ней базируются разработки СОИ. Любая деятельность человека связана с приемом и переработкой информации. Организм постоянно получает сигналы из внешней среды и этот процесс столь же характерен для живых систем, как и обмен веществ. Информация из окружающего мира не всегда достигает сферы сознания (например, сигналы о положении тела, давления температуре и т.д. в период сна), но она необходима для нормального функционирования. Если у человека «отключается» основные входные каналы (зрение, слух, тактильная чувствительность) он мгновенно засыпает. После некоторых травм человека может остаться действующим один глаз, стоит закрыть его повязкой и больной впадает сразу же в сон. Органы чувств, т.е. системы, воспринимающие сигналы из внешней среды, и есть входные каналы информации. Сигналы воспринимаются живыми датчиками рецепторами, затем по проводящим путям (нервам) попадают в головной мозг человека. Таким образом, источник информации находится вне организма, рецептор (воспринимающий элемент) выступает в роли преобразователя сигнала, нерв канала связи и мозг получателя информации. Система такого рода называется анализатор, и состоит из 3-х основных частей: 1. Рецептор; 2. Проводящий путь; 3. Центр анализатора. 59 60
Например, глаз рецептор, нерв путь и участок коры мозга центр зрительного анализатора. По роду воспринимаемых сигналов различают зрительный,
слуховой, тактильный и др. анализаторы. Принцип работы всех анализаторов заключается в перекодировании информации. Различные, по своей природе,
физические агенты, преобразуются в рецепторе в биопотенциалы, которые и представляют собой код нервной системы. Как же работают живые датчики- рецепторы? Каждая клетка обладает способностью к возбуждению, т.е. усилению своей активности (обмена веществ) при изменении условий окружающей среды. Для клеток характерны 2 состояния: относительного покоя и возбуждения. В процессе эволюции у живых организмов
выработалась специальная нервная система, способная к проведению возбуждения. В организме человека специфическая функция приема и переработки сигналов (информации)