Главная страница

Эргономика для ЖД транспорта. Курс лекций по «Эргономике» - PDF-2. Курс лекций по Эргономике Утверждено на заседании Учного Совета Механикотехнологического факультета протокол 8 от 8


Скачать 1.6 Mb.
НазваниеКурс лекций по Эргономике Утверждено на заседании Учного Совета Механикотехнологического факультета протокол 8 от 8
АнкорЭргономика для ЖД транспорта
Дата16.08.2019
Размер1.6 Mb.
Формат файлаpdf
Имя файлаКурс лекций по «Эргономике» - PDF-2.pdf
ТипКурс лекций
#85142
страница5 из 16
1   2   3   4   5   6   7   8   9   ...   16

в каком из возможных состояний находится система в данный момент. До получения сигнала у получателя может быть полная неопределенность о состоянии системы. Любой, исходящий из системы источника сигнал (постольку он является следствием определенного изменения в системе), уменьшает степень неопределенности в отношении состояния системы (с точки зрения получателя). Получение сигнала, свидетельствующего об одном из состояний,
снижает величину неопределенности и, чем больше полученный сигнал уменьшает неопределенность состояния, тем больше он несет информации. Поэтому,
между энтропией системы источника информации, вернее, изменением вероятности пребывания ее в каком-то из возможных состояний и сигналами,
исходящими из этой системы (как следствие изменения состояния), существует прямая связь. Если величина энтропии системы до получения сигнала Е 0, а после получения Е 1, то естественно неопределенность в отношении состояния системы уменьшится у получателя информации на величину Е = Е 1 Е 0,
именуемую негэнтропией (отрицательной энтропией). Иными словами, величина негэнтропии количественно соответствует полученной информации: Е = І, где
І количество информации в сообщении, изменившем представление об энтропии системы на Е. Таким образом, принципиально количество информации эквивалентно степени организации источника, т.е. зависит от возможного числа его состояний. Литература к 2 лекции 1. Айзенберг Г.Л. Элементы военно- инженерной психологии. в.і, ВИРТА, Венда В.Ф. Средства отображения информации. М.: Энергия, Владимиров С., Карев М.И. Информация, М., Военно- инженерная психология. M.,
48 5. Котик М.А. Основы инженерной психологии, Тарту, Кузьмин И.В. Проектирование автоматизированных телемеханических систем контроля и управления.
Х., Леонтьев А.Н., Зинченко В.П. Инженерная психология. М.: МГУ, Лошв Б.Ф. Человек и техника. Изд. «Сов.радио», Макол Р. Справочник по системотехнике. М.,
Невельский П.Б., Фланчик В.Л. Симметрия, информация и память, Вестн. ХГУ 58, стр.43 47, Николаев В.М. Контроль работы судовых установок. Изд.
«Судостроение», Л., Сидоров O.A. Физиологические факторы человека, определяющие компоновку поста управления машиной. Оборонгиз, М., Теплов Л. Очерки о кибернетике. М., Тростников В.Н. Человек и информация. М., Фаткин Л.В. Общие понятия теории информации и их применение в психологии и психофизиологии. «Инж. психология», изд. МГУ, Харкевич А.А. О ценности информации. «Проблемы кибернетики», 4, Шеннок К. Работы по теории информации и кибернетике. М., Эргономика. М.: Мир, Трапезников В. Человек в системе управления. Наука и жизнь, 2, 1972, с Смирнов Б.А. Методы оценки количества информации, перерабатываемой оператором. Х.,
49
Лекция 3 Информация в системе ЧМ В предыдущей лекции мы установили, что циркуляция информации по каналам связи обязательно подразумевает наличие источника и получателя сообщения (рис. 3.1).

І Источник Получатель Рис Схема циркуляции информации от источника к получателю Кроме того,
информация представляет собою соотношение между состоянием системы (в каком из n возможных состояний они находятся) и осведомлѐнностью об этом получателя. Если система может быть в одном из «n» состояний, то существует у получателя неопределѐнность, в каком же именно она находится. Обозначим величину неопределѐнности через Н(х), учитывая, что система может иметь состояния: После получения сигнала получатель ликвидирует неопределѐнность, и узнаѐт, какое же состояние приняла система. Например, стрелка прибора может быть в одном из 4-х положений (рис.3.2). До обзора прибора оператор имеет неопределѐнность в отношении того, в каком же (из 4-х возможных) положений находится стрелка, а после обзора неопределѐнность исчезает. Рис.3.2. Схема прибора со стрелкой 49 50
Так как до обзора (до получения сообщения) можно было только с какой то вероятностью сказать о состоянии источника, а после сообщения эта вероятность пребывания изменилась, то мера ликвидированной неопределѐнности может быть выражена через выражение: где Р 1 вероятность рассматриваемого события (сообщения) после получения сигнала; сигнала. Р Р 1 Н, (3.1) 0 Р 0 вероятность рассматриваемого события (сообщения) до получения
Как известно, под вероятностью понимают относительную частоту данного события (состояния): где, P m i i, (3.2) k Р і вероятность i события (состояния); к общее число проб (событий); m і число i событий. При равновероятных событиях (т. е. все состояния встречаются с одинаковой частотой) где, n число состояний. 1 P i,
(3.3) n Сумма вероятностей всех возможных состояний: Вероятности измеряются в пределах (3.4) Событие или состояние, которое никогда не встречается, имеет
P i = 0 50 51
m 0 (P i = i 0), событие или состояние, которое всегда будет встречаться k k (при любом числе проб) имеет вероятность i P i = 1 ( P 1, при m i = k). i k m (Счѐтчик оборотов двигателя всегда будет показывать какое-то число, если двигатель работает) т.е. вероятность наличия показаний равна 1 и никогда не будет показывать, если двигатель не работает, т.е. вероятность наличия сигнала равна 0). Рассмотрим два предельных случая: а) До получения сигнала получатель ничего не знает об источнике, т.е. можно предположить бесконечное множество его состояний (n ), тогда вероятность пребывания источника в каком-то состоянии (с точки зрения осве- 1 домлѐнности об этом получателя) равна «0» ( 0 ). Полностью ликвидирует эту неопределѐнность, и получив его, получатель однозначно определяет состояние источника (вероятность пребывания в этом состоянии равна I), то мера ликвидированной у получателя неопределѐнности составит: (3.5) т.е. получено бесконечное количество информации. б) До получения сигнала получатель точно знает состояние источника, и сигнал ничего не меняет в его осведомлѐнности. Тогда, Р 0 = 1, а т. к. P i = 1,0, то других состояний быть не может и сигнал не несѐт никакой информации. Так как вероятности выражаются дробными величинами, то для практического удобства пользуются для количественной оценки информации в сигнале логарифмом отношения вероятностей состояний после получения сигнала к вероятности до получения. Эта мера ликвидации неопределѐнности состояния численно равна количеству информации в сообщении и далее вместо меры неопределѐнности мы будем говорить о количестве информации: 51 52
(3.6) В уравнении может быть использован логарифм по любому основанию, но в теории информации принята система двоичных логарифмов по следующим соображениям. Если источник информации принимает какое-то i состояние из n возможных, то можно считать, что источник «произвѐл» выбор данного состояния из n. Иными словами, какие то внешние или внутренние причины привели к тому, что источник изменил своѐ состояние. Следствием изменения состояния явился сигнал, направленный к получателю. В свою очередь, получателю известно что-то об источнике (возможное конечное число состояний) и, получив сигнал, он также делает выбор, т.е. определяет одну из ситуаций (состояний). Значит, суть расшифровки сигнала состоит в проведении выборов. Естественно, что чем больше возможных состояний источника, тем сложнее выбор, тем больше несет в себе информации сигнал. Поэтому, мерой информации и может служить число выборов (шагов), необходимых для точного определения состояния. Любое (даже очень сложное) сообщение можно разложить на последовательность элементарных выборов. Наиболее простой выбор из двух возможных равновероятных состояний (да, нет), вероятность каждого будет содержаться в сигнале, устраняющем неопределѐнность при выборе из 2-х (т.е. указывает, какое состояние из двух возможных имеет место). Как указывалось выше, любое сообщение можно разложить на определѐнное число двоичных выборов. Тогда единицей информации может служить еѐ количество при таком выборе. 52 (3.7)
53
Единица информации получила название бит (binary digit). Как определить количество информации, содержащееся в сигнале? Мы условились рассматривать оператора, как канал связи. Сравним технические и «человеческие» схемы: в технике любое устройство, передающее информацию на расстояние есть канал связи. Человек считает показания приборов и т.д., принимает решение, и воздействует на систему, т.е. также через него идѐт поток информации. Человек воспринимает сигналы от приборов и других источников, которые будем называть информационной моделью (отражающие суть технологических и других процессов). В голове у человека эта модель отражается в виде так называемой концептуальной модели. Итак, в технической системе источник изменяет своѐ состояние, передатчик преобразует изменение в сигнал, который передается по каналу связи. Приѐмник преобразует сигнал и восстанавливает сообщение (телетайп преобразует буквенный сигнал в импульс, приѐмник дешифрирует). При передаче по «человеческому» каналу источником сообщения является машина (технологический процесс), а передатчиком информационная модель (приборы и др.), которая преобразует сигналы о состоянии объекта управления в форму, которую может воспринять оператор. Сигналы (вместе с сигналами памяти)формируют «сообщение», передаваемое на органы управления машин, но преобразуются в такой вид, который «понятен» машине. Таким образом, количество информации, прошедшее по

«операторскому» каналу, состоит из двух потоков: А. поток от информационной модели; Б. поток памяти. Для оценки потока от информационной модели необходимо знать, какое количество информации содержится в сигналах. Например, имеется прибор с 8-мью возможными положениями стрелки. Оператор считывает показания прибора и видит, что она находится в одном из 53 54
восьми возможных положений. Оператор сделал выбор из 8 ситуаций. Для перевода в биты нужно определить, из скольких элементарных (двоичных)
выборов состоит это действие. Применим двоичный код (0 и 1), тогда, чтобы выбрать одно любое положение нужно сделать 3 последовательных выбора: сперва определим, в какой группе (1 4 или 5 8) находится искомое число один выбор (да, нет), затем, в какой подгруппе (1 2 или 3 4 в случае группы 1 4 и 5 6 и 7 8 в случае группы 58) и наконец, в какой паре. Т.е. при общем числе ситуаций (N), равным 8, нужно сделать 3 двоичных выбора. Число выборов составит 3 = log 2 8.
Таким образом, при равновероятном появлении сигнала, количество информации, содержащееся в одном сигнале, равно двоичному логарифму числа возможных состояний. I бит = log 2 N, (3.8) где N число возможных сигналов (состояний) Так как при равновероятных событиях 1 I бит log 2 Pi 1 P i N, то (3.9)
Практически бывают случаи при следовании сигналов с разной вероятностью. Поэтому необходимо определить среднее количество информации на сигнал ( I )
с учетом возможных вероятностей их появления. Например, положения стрелки на отметке 5 и 10 будут встречаться очень часто, а на 30 и 40 лишь изредка.
Тогда среднее количество информации на сигнал составит: или для удобства: N I i 1 1 P i log 2, (3.10) Pi N I log 2 i 1 P i P, (3.11) i 54 55
где P i вероятность появления i знака. Это основная формула теории информации, позволяющая рассчитать среднее количество информации на сигнал,
если известно конечное число сигналов и их вероятности. Напомним, что (3.12) Появление равновероятных сигналов частный случай, что видно из: Но при Р 1 =
Р 2 = Р N Можно записать а так как 1 P i, то N N( Pi log 2 1 ) P i (3.13) I, (3.14) 1 N( log 2 N) log N (3.15) N I 2 Чем чаще встречается сигнал, тем меньше он несет информации для получателя. Поэтому, при разно вероятном появлении сигналов, за сет часто встречающихся, среднее количество информации на сигнал меньше, чем при равновероятном появлении такого же количества сигналов, т. е. при разно вероятном появлении сигналов код в определенной мере является избыточным. Давайте рассчитаем на примере. Тогда I N 2 бит. log 2 55 56
При Р 1 = 0,5; Р 2 = 0,2, Р 3 = 0,2, Р 4 = 0,1. I N i 1 Pi log Pi 0.5 log , 0.2log log бит. Следует отметить, что для технического канала связи избыточность вредна, т. к.
загромождает канал сигналами, в то время, как для надежного человеческого восприятия избыточность необходима. Человек различает надежно смысл сообщения даже при 70 80% восприятия. Но для выбора оптимальных способов подачи информации нужно уметь вычислить величину избыточности.
Избыточность определяется: При равновероятном появлении сигналов: (3.16) Чаще избыточность выражает в относительных единицах (процентах). (3.17)
Например, письменные сообщения в русском языке передаются с помощью 32 знаков (букв). При равновероятном их появлении информация на знак составит:
log 2 32 = 5 бит Однако, если учесть частоты распределения отдельных букв, то I составит 4.1бит, откуда 18% В каждом случае построения информационной модели необходимо установить оптимальный уровень избыточности (надежность восприятия при min ошибок), ибо при очень большой избыточности будет иметь пропуск сигналов. Итак, для оценки (количественной), получаемой информации необходимо установить конечное число возможных сигналов (алфавит сигналов, длину 56 57
алфавита) и вероятности их появления. При равновероятном появлении сигнала, пользуются формулой 3.8, а при разно вероятном Несмотря на очевидные преимущества информационных оценок, необходимо помнить об ограничениях и допущениях, на которых строится теория информации. 1. Число сообщений
(сигналов) или состояний источника конечно и сигналы дискретны (неразличимые по физическим характеристикам сигналы воспринимаются получателем как один сигнал). 2. Источник генерирует сигналы с определенной вероятностью их появления. 3. Свойства источника, получателя и канала связи во времени,
необходимо для передачи и получения сообщения постоянны. 4. Смысл информации не учитывается. Эти ограничения играют особую роль при использовании положений теории информации для оценки восприятия человеком. Меры информации передают только количественную характеристику, и совершенно не учитывают значение информации для получателя. Например, при передаче с помощью двоичного кода сообщения (азбука Морзе) слова «ковер» и «пожар»
количественно несут примерно одинаковые оценки, но значение (смысл) для получателя, разумеется, различен. С помощью одинакового количества знаков можно передать самые разнообразные по смыслу и последствиям сообщения. Поэтому, Шенновские меры полностью оправданы для машины, как канала связи,
но не удовлетворяют требованиям интерпретации сигналов (человек). В последние годы предпринимаются попытки ввести количественные меры качества
(значения) информации для получателя. Любая информация служит человеку для достижения какой-то цели. Чем больше информирован получатель о состоянии объекта, с которым он манипулирует (или с которым ведется «игра»), тем вероятнее выбор правильной стратегии поведения и, следовательно,
достижения цели. Сюда же относится и фактор времени (своевре- 57 58
менное получение информации, когда еще возможно вмешательство в нужном направлении). Следовательно, значимость информации может быть определена, как функция назначения вероятности достижения цели после получения этой информации (по отношению к вероятности до ее получения). По
Харкевичу А. А.: (3.18) где: S мера значимости информации, выраженной в битах, Р 0 вероятность достижения цели до ее получения, Р 1 вероятность достижения цели после получения. Однако во-первых, трудность такой оценки заключается в том, что сложно определить практически величины Р 0 и Р 1, а во-вторых, эта оценка учитывает отношение, а не сдвиги абсолютной величины «P» в связи с чем могут быть одинаковые оценки с изменением от Р 0 до Р 1 от 0,05 до 0,10 и от
0,50 до 1,00. Поэтому, лучше оценивать значимость сдвигов численных значений параметров (например, отклонения в показании приборов и т. д. ) и при этом могут быть использованы такие меры значимости информации. Если х отклонение параметра от заданного (показания прибора, где х = х Х при x текущее значение, Х заданное ), а max максимально допустимое отклонение, совместимое с заданной функцией системы, то мера значимости информации (S 1 ) равна:
(3.19) По этому критерию можно оценивать значимость информации, получаемой от различных источников. Качественная оценка может быть дана и с помощью других методов, которые мы обсудим в дальнейшем. 58 59
Итак, мы с известными ограничениями принимаем, что человек функционирует как канал связи. Для определения возможных характеристик его деятельности необходимо знать, как воспринимает и перерабатывает информацию оператор. Поэтому, познакомимся с принципами функционирования
«входных каналов» оператора. Излучение процессов приема информации одна из важных глав эргономики, т. к. на ней базируются разработки СОИ. Любая деятельность человека связана с приемом и переработкой информации. Организм постоянно получает сигналы из внешней среды и этот процесс столь же характерен для живых систем, как и обмен веществ. Информация из окружающего мира не всегда достигает сферы сознания (например, сигналы о положении тела, давления температуре и т.д. в период сна), но она необходима для нормального функционирования. Если у человека «отключается» основные входные каналы (зрение, слух, тактильная чувствительность) он мгновенно засыпает. После некоторых травм человека может остаться действующим один глаз, стоит закрыть его повязкой и больной впадает сразу же в сон. Органы чувств, т.е. системы, воспринимающие сигналы из внешней среды, и есть входные каналы информации. Сигналы воспринимаются живыми датчиками рецепторами, затем по проводящим путям (нервам) попадают в головной мозг человека. Таким образом, источник информации находится вне организма, рецептор (воспринимающий элемент) выступает в роли преобразователя сигнала, нерв канала связи и мозг получателя информации. Система такого рода называется анализатор, и состоит из 3-х основных частей: 1. Рецептор; 2. Проводящий путь; 3. Центр анализатора. 59 60
Например, глаз рецептор, нерв путь и участок коры мозга центр зрительного анализатора. По роду воспринимаемых сигналов различают зрительный,
слуховой, тактильный и др. анализаторы. Принцип работы всех анализаторов заключается в перекодировании информации. Различные, по своей природе,
физические агенты, преобразуются в рецепторе в биопотенциалы, которые и представляют собой код нервной системы. Как же работают живые датчики- рецепторы? Каждая клетка обладает способностью к возбуждению, т.е. усилению своей активности (обмена веществ) при изменении условий окружающей среды. Для клеток характерны 2 состояния: относительного покоя и возбуждения. В процессе эволюции у живых организмов выработалась специальная нервная система, способная к проведению возбуждения. В организме человека специфическая функция приема и переработки сигналов (информации)
1   2   3   4   5   6   7   8   9   ...   16


написать администратору сайта