Главная страница
Навигация по странице:

  • МЕДИЦИНСКАЯ КИБЕРНЕТИКА

  • 4101000000-084 В -------------------- 85-83 046(01)-83

  • Мед кибернетика. Документ Microsoft Word. Евгении иванович воробьев, анатолий иванович китов


    Скачать 106.62 Kb.
    НазваниеЕвгении иванович воробьев, анатолий иванович китов
    АнкорМед кибернетика
    Дата11.10.2022
    Размер106.62 Kb.
    Формат файлаdocx
    Имя файлаДокумент Microsoft Word.docx
    ТипДокументы
    #728285

    программирования и интерпретирующую программу для выполнения команд этого языка;

    б) управляющую прог12у

    ЕВГЕНИИ ИВАНОВИЧ ВОРОБЬЕВ, АНАТОЛИЙ ИВАНОВИЧ КИТОВ

    МЕДИЦИНСКАЯ КИБЕРНЕТИКА

    Редактор Т. М. Л ю б и м о в а

    Художественный редактор Л. Н. С и л ь я н о в

    Художник В. И. С т о л я р о в

    Технический редактор К. Г. И г у м н о в а Корректор Т. Л. К у с к о в а

    ИБ № 529

    Сдано в набор 09.12.82. Подписано в печать 31.03.83. Т-07729

    Формат 60X90/16. Бумага типографская № 2. Гарнитура литературная. Печать высокая Усл. печ. л. 15,0. Усл. кр.-отт. 15,0. Уч.-изд. л. 19,3. Тираж 4000 экз.

    Изд. № 19640 Зак. № 1320. Цена 2 р. 80 к.

    Издательство «Радио и связь». 101000 Москва, Главпочтамт, а/я 693

    Московская типография № 4 Союзполиграфпрома при

    Государственном комитете СССР по делам издательств, полиграфии и книжной торговли. Москва, 129041, Б. Переяславская, 46.

    4101000000-084



    В -------------------- 85-83 046(01)-83

    © Издательство «Радио и связь», 1983



    ВВЕДЕНИЕ 3

    ЭЛЕМЕНТЫ ТЕОРИИ ИНФОРМАЦИИ 4

    1.1. Основные понятия 4

    ЗАКЛЮЧЕНИЕ ............................................................................................................................................ 152 СПИСОК ЛИТЕРАТУРЫ ........................................................................................................................... 153

    ПРЕДИСЛОВИЕ

    Научно-техническая революция, связанная с внедрением методов кибернетики и электронной вычислительной техники во все отрасли народного хозяйства, в полной мере относится и к медицине и здравоохранению. Резкое повышение технической оснащенности современных лечебнопрофилактических учреждений, применение новой диагностической и лечебной аппаратуры приводят к значительному увеличению объемов и качества медицинской информации, связанной с лечебным процессом и с процессом управления деятельностью медицинских учреждений. Своевременное и эффективное использование этой информации невозможно без применения методов кибернетики и современных электронных вычислительных машин.

    XXVI съезд КПСС уделил большое внимание вопросам автоматизации управления технологическими процессами, предприятиями и отраслями народного хозяйства. Применительно к медицине это означает автоматизацию процессов сбора и переработки информации в различных медицинских учреждениях, выработку оптимальных решений по диагностике и лечению больных, эффективному использованию имеющихся ресурсов, оптимальному планированию развития сети лечебно-профилактических учреждений. Без автоматизации невозможно выполнить решения XXVI съезда КПСС по повышению уровня медицинского обслуживания населения и рациональному использованию выделяемых для этих целей средств. Здравоохранение является одной из важных отраслей народного хозяйства, поэтому автоматизация процессов управления в этой отрасли имеет большое государственное значение.

    В Отчетном докладе ЦК КПСС XXVI съезду КПСС подчеркнута важность дальнейшего совершенствования управления экономикой, повышения эффективности использования материальных, финансовых и трудовых ресурсов. «Ведь именно в области экономики закладывается фундамент решения социальных задач, укрепления обороноспособности страны, фундамент активной внешней политики» [1]. В «Основных направлениях экономического и социального развития СССР на 1981 — 1985 гг., и на период до 1990 года», принятых XXVI съездом КПСС, отмечается необходимость обеспечить дальнейшее развитие и повышение эффективности автоматизированных систем управления и вычислительных центров экономического назначения, выполняющих функции сбора и обработки информации для учета, планирования и управления.

    Здравоохранение является не только важной, но и сложной отраслью народного хозяйства, в которой расходуются большие ресурсы. Хотя здравоохранение не выпускает материальной продукции, от качества и уровня его функционирования зависят производительность труда и уровень работы всех других отраслей народного хозяйства. В системе здравоохранения действует большое количество медицинских и вспомогательных учреждений, трудятся большое число врачей, средний медицинский и обслуживающий персонал и специалисты инженерных и других специальностей. Эти люди в той или иной степени связаны с использованием кибернетики и ЭВМ в научной и практической работе, в учебном процессе.

    Настоящая книга предназначена для указанного широкого круга специалистов, а также для студентов высших учебных заведений и аспирантов соответствующих специальностей. В ней излагаются основные сведения из кибернетики и описываются основные направления и методы ее применения в медицине и здравоохранении, что составляет предмет медицинской кибернетики.

    Приводятся практические примеры применения кибернетических методов в больнице при создании больничных автоматизированных информационных систем. Рассматриваются конкретные задачи автоматизации процессов обработки информации и управления лечебно-профилактическими учреждениями. Обсуждаются вопросы рациональной организации научных исследований и работы научных учреждений.

    В связи с тем, что важную роль во внедрении ЭВМ в медицину играют процессы взаимодействия врачей и ЭВМ, а также с учетом того, что медицинская информация носит в основном описательный характер, в книге достаточно подробно освещены вопросы автоматизации обработки текстовой информации, в частности сущность нормализованного языка медицинской текстовой информации НОРМИН и принципы построения комплексной информационной системы на базе этого языка.

    Современная медицинская кибернетика представляет собой сложную и бурно развивающуюся научную дисциплину, охватывающую большое количество различных направлений. Естественно, что в одной сравнительно небольшой книге невозможно охватить все эти направления с достаточной степенью полноты.

    Авторы стремились изложить в данной книге разделы и вопросы медицинской кибернетики, представляющие интерес с точки зрения возможностей практического использования методов кибернетики в медицине и здравоохранении в настоящее время и в ближайшем будущем.

    Авторы выражают благодарность рецензентам: д-ру мед. наук проф. А. А. Попову и д-ру техн. наук проф. К.В. Тараканову за тщательное рецензирование рукописи книги и ценные замечания и рекомендации, которые были учтены авторами при окончательной доработке книги.

    Глава 4 написана на основе разработок и публикаций канд. техн. наук М. А. Самедовой, Н. Н. Будько, Е. И. Дубининой, В. А. Литвиновой, Ю. Д. Орловой, В. Н. Тараловой.

    Глава 5 написана на основе разработок и публикаций канд. техн. наук Г. В. Романовского, канд. мед. наук Л. Г.

    Леонтьевой, А. Г. Твердохлеба, О. В. Кривенко.

    Авторы выражают перечисленным товарищам свою благодарность.

    ВВЕДЕНИЕ


    Медицинская кибернетика представляет собой приложение общих методов и средств кибернетики к задачам обработки медицинской информации и принятия решений в медицине и здравоохранении. При этом кибернетический подход сочетается с языком медицины и общей медицинской методологией наблюдений, исследований и выработки решений. Кибернетику определяют сейчас как науку об общих законах получения, хранения, передачи и преобразования информации в сложных управляющих системах [11].

    Появление кибернетики было подготовлено развитием целого комплекса наук, изучающих процессы переработки информации и управления в сложных системах различной физической природы. К таким системам относятся организмы животных, автоматические управляющие или регулирующие системы в технике, экономические и административные управляющие системы.

    Изучение указанных систем показало наличие аналогий в организации процессов управления и переработки информации в разных системах, что позволило подойти к их истолкованию с единых материалистических позиций и сформулировать общие закономерности строения и функционирования сложных управляющих систем. Впервые изложение основ кибернетики было дано американским ученым Норбертом Винером в 1948 г. в книге «Кибернетика или управление и связь в животном и машине» (М.: Сов. радио, 1958).

    Кибернетика изучает информационную сущность процессов управления в тесной связи с возможностями практической реализации тех или иных управляющих систем, вопросами их надежного эффективного функционирования. Однако техническая сторона дела, конструирование и техническая проработка вопросов создания управляющих систем выходят за рамки кибернетики. Эти вопросы относятся к различным конкретным техническим наукам.

    Имеется ряд научных дисциплин, тесно связанных с кибернетикой. Сюда относятся исследование операций, системный анализ, информатика.

    Исследование операций — это прикладная математическая дисциплина, направленная на изыскание методов оптимального (наилучшего) использования имеющихся ресурсов (людей, машин, материалов энергии, денег) в целях достижения поставленной задачи. Конечно, при решении подобных задач часто вырабатываются рекомендации и для построения новых управляющих систем экономического или технического характера.

    Системный анализ представляет собой общий научно-технический подход к изучению сложных систем, процессов и ситуаций. При этом предполагаются всесторонний учет различных факторов, применение метода математического моделирования для выявления основных зависимостей между изучаемыми явлениями и применение методов оптимизации для выработки управленческих решений.

    Информатика представляет собой прикладную научную дисциплину, занимающуюся методами обработки информации, построением алгоритмов и программ такой обработки и применением этих методов в различных конкретных областях. Информатику можно определить, как технологию обработки информации с учетом конкретных целей ее использования. Теоретические вопросы аналогий в строении управляющих систем разной природы относятся к общей теории кибернетики. Естественно, что методологической основой кибернетики, как и других естественно-научных дисциплин, является философия марксизма-ленинизма — диалектический материализм, охватывающий общие закономерности развития природы и общества, теорию познания, проблемы первичности материи и вторичности сознания, взаимоотношения материи и духа.

    Для любых процессов управления характерны: наличие организованной системы, состоящей из управляющих и управляемых (исполнительных) органов, связанных каналами прямой и обратной связи; взаимодействие данной организованной системы с внешней средой, являющейся источником внешней информации, а также случайных и систематических помех; осуществление управления по принципу обратной связи на основе приема и передачи информации; наличие цели и алгоритма (набора правил или законов) управления.

    Кибернетика придает весьма широкий смысл понятию цели управления, включая сюда и задачу поддержания устойчивости определенных состояний организмов (гомеостазис).

    Кибернетика изучает процессы управления с информационной стороны, отвлекаясь от энергетических или конструктивных характеристик реальных управляющих систем или установок. В задачу кибернетики входит также изучение структуры и принципов функционирования различных управляющих систем с точки зрения их способности воспринимать и использовать информацию.

    Наиболее важные принципы кибернетики и ее методы могут быть изложены и использованы без сложного математического аппарата, что делает кибернетику доступной широким кругам специалистов в самых различных областях в качестве общей методологической базы и конкретных способов организации процессов переработки информации и выбора оптимальных решений в сложных ситуациях.

    Кибернетику принято делить на три основных раздела: теорию информации, теорию методов управления и теорию управляющих систем. Управляющие системы включают в себя различного рода исполнительные органы и устройства, и вопросы их построения относятся к различным техническим дисциплинам. Такое деление до некоторой степени условно, так как указанные разделы тесно связаны друг с другом и взаимно дополняют друг друга. Кроме того, каждый из этих общих разделов содержит более конкретные разделы и направления. Так, например, раздел теории управляющих систем включает в себя теорию автоматов, теорию нейронных сетей, теорию вычислительных машин, теорию автоматизированных систем управления и т. д. Некоторые из них имеют сложившийся законченный характер, другие находятся в стадии становления и формирования.

    Глава 1

    ЭЛЕМЕНТЫ ТЕОРИИ ИНФОРМАЦИИ

    1.1. Основные понятия


    Понятие информации весьма широкое. Сообщения, публикуемые в газетах, передаваемые по радио, получаемые из разговора с другими людьми, являются информацией. Сигналы о внешней среде и ее изменениях, поступающие в мозг человека или животного от органов чувств, несут информацию. «Указания», получаемые мускулатурой тела человека или животного от мозга, о том, какие движения должны быть произведены, также представляют собой информацию. Исходные данные задачи, подлежащей решению, вводимые в электронную программно-управляемую машину, равно как и промежуточные или окончательные результаты решения задачи, также ни что иное, как информация. Из сообщения, содержание которого уже известно получателю, последний не извлекает информации. Таким образом, под информацией принято понимать новые сведения, получаемые некоторым лицом или системой. Эти сведения изменяют состояние системы (запас знаний или опыт человека, степень устойчивости или траекторию движения системы и т. п.). Информация может быть представлена в виде последовательности дискретных символов (знаков) или в виде непрерывных значений некоторой величины. Символы — это реально различимые приемником (пользователем) объекты (буквы, цифры и т. п.) из заданного набора, называемого алфавитом.

    Для передачи информации используются сигналы — динамические процессы изменения состояния некоторой передающей среды, называемой каналом связи. Для хранения информации служат как динамические, так и статические изменения некоторой запоминающей среды.

    Обязательным условием приема информации получателем является однозначное распознавание им принятых сигналов и отождествление их с соответствующими символами, переданными источником информации.

    Различают четыре основных вида информации: статистическую, семантическую, синтаксическую и прагматическую.

    Статистической называется информация, характеризующая изменение степени статистической неопределенности изучаемой системы в результате проведения некоторого опыта. При статистическом подходе любая изучаемая система до опыта характеризуется некоторым распределением вероятностей ее отдельных состояний. После проведения опыта (и получения информации о его результате) это распределение вероятностей изменяется, т. е. изменяется степень неопределенности в наших знаниях о данной системе, что позволяет количественно оценивать полученную информацию. Этот вид информации подробно будет рассмотрен в дальнейшем.

    Семантической (или смысловой) называется информация, основанная на однозначной связи знаков (или сигналов) с объектами или процессами внешнего мира. Эта связь может быть по общей договоренности («дом», «река» и т. д.), а может быть на основе естественных законов природы (ЭДС термопары при нагреве).

    Пока еще не найдена мера для количественной оценки семантической информации.

    Синтаксической называется информация, заключенная в характере (порядок и взаимосвязи) следования знаков или сигналов в сообщении. Например, число состоит из цифр, слово — из букв, фраза — из слов, оператор — из элементов и т. п. Часто семантическая информация выражается через синтаксическую.

    Прагматическая информация определяет ценность информации для получателя, она связана с семантической, но не совпадает с ней. Одно и то же сообщение может иметь одинаковый смысл для разных лиц, но разные ценность и значение. Еще нет меры измерения прагматической информации.

    Академик А.А.Харкевич предложил измерять количество прагматической (или семантической) информации степенью изменения вероятности достижения некоторой конкретной цели под влиянием получения данной прагматической информации. В связи с этим следует остановиться на часто применяемом на практике разделение двух понятий: данные и информация.

    Под данными принято понимать все первичные сообщения, поступающие в систему из некоторых источников за определенное время. При этом под информацией в узком смысле этого слова принято понимать обработанные и систематизированные сведения, полученные из данных и предназначенные для решения определенной задачи или достижения некоторой цели.

    С точки зрения общей теории информации такое разделение двух понятий (данные и информация) является условным. И то, и другое представляют собой информацию, только с различной степенью обработки.

    Процесс передачи информации может быть весьма сложным. Например, при передаче по радио информация сначала передается в виде звуковых сигналов диктором, говорящим перед микрофоном. В микрофоне звуковые сигналы преобразуются в электрические сигналы. В передатчике радиостанции электрические сигналы преобразуются в электромагнитные колебания — радиоволны. Радиоволны радиоприемником опять превращаются в электрические сигналы, которые динамическим громкоговорителем или телефоном преобразуются снова в звуковые сигналы.

    Наряду с передачей информации имеет место и хранение ее. Мозг человека обладает способностью запоминать информацию. Речь, произносимую оператором, можно записать на магнитофонную пленку. Орган или прибор, служащий для хранения информации, называют запоминающим устройством, или коротко — памятью. В памяти информация хранится тоже в виде сигналов.

    Чаще всего сигналы, применяемые для «запоминания» информации, представляют собой более или менее устойчивые изменения среды, образующей запоминающее устройство. Так, при использовании в качестве запоминающего устройства ферромагнитной пленки сигналами являются группы намагниченных участков этой пленки. Запоминание информации человеческим мозгом происходит в результате возникновения устойчивых изменений в определенных его клетках или группах.

    Можно сказать, что каналы связи служат для передачи информации в пространстве, а запоминающие устройства для передачи ее во времени — из прошлого в настоящее и из прошлого и настоящего в будущее. Однако нужно заметить, что передача информации по каналу сопровождается некоторой потерей времени (от момента посылки сигнала до момента его приема), а запись информации в память или считывание ее из памяти не могут быть произведены без некоторого переноса ее в пространстве (на расстояния, определяемые физическими размерами запоминающего устройства).

    Интересно отметить, что иногда передача информации осуществляется транспортировкой запоминающего устройства, хранящего эту информацию. Каналом связи при этом является совокупность транспортируемого запоминающего устройства и оборудования, с помощью которого осуществляется транспортировка. Примером такой передачи информации может служить почтовая связь.

    Возможны также случаи хранения информации путем многократной передачи ее по некоторому каналу связи из одного конца его в другой и обратно (или циркуляции сигналов в замкнутом канале связи). Такой канал связи вместе с устройствами приема и обратной отправки («отражения)» сигналов, несущих информацию, представляет собой динамическое запоминающее устройство.

    Из сказанного видно, что информация может находиться как в состоянии передачи (по каналу связи), так и в состоянии хранения (в памяти). Информация может также подвергаться преобразованиям, на чем мы остановимся в дальнейшем.

    Подчеркнем сразу же, что передача и прием информации есть лишь один из видов связи между объектами, так как не всякая связь между объектами является обменом информацией (сигналами) и не между всякими объектами существует связь, состоящая в обмене информацией. Такая связь имеет место лишь между частями одной и той же кибернетической системы; эти части должны воспринимать и «понимать» информацию. Обмен информацией между кибернетическими системами происходит лишь тогда, когда они являются частями более сложной кибернетической системы.

    Мы знаем, что все явления и объекты мира существуют во взаимосвязи. Эта связь бесконечно многообразна. Кибернетика, изучающая лишь один из видов связи (обмен информацией) между некоторыми объектами (частями кибернетических систем), не может претендовать и не претендует на то, чтобы быть наукой о всеобщей связи.

    Теория информации изучает информацию с количественной стороны. Это стало возможным благодаря тому, что удалось ввести понятие количества информации и меру количества информации, определяемую как изменение степени неопределенности в ожидании некоторого события, о котором говорится в сообщении до и после его получения. Эта мера позволяет измерять количество информации в сообщениях подобно тому, как в физике измеряется количество энергии или количество вещества; смысл и ценность передаваемой информации для получателя при этом не учитывается.

    Рассмотрим систему событий А1, А2,..., Ап,обладающую тем свойством, что одно и только одно из событий этой системы должно произойти. Пусть р1, p2, ..., pn — соответственно вероятности1 наступления событий А1, А2,..., Ап(очевидно, р1 + р2 + ... + рп= 1). Система событий А1, А2, ..., Ап,рассматриваемых в совокупности с их вероятностями, называется конечной схемой. Конечную схему обозначают символом

    (1.1)

    Наступление одного из событий конечной схемы называется результатом ее испытания. Обычно различают результат и исход испытаний. Результат испытания может объединять несколько исходов с заданными признаками.2

    Всякая конечная схема содержит некоторую неопределенность, которую принято называть энтропией конечной схемы. Известны перечень возможных событий и вероятность каждого события, но какое из событий в действительности произойдет, неизвестно.

    Сообщение о результате испытания конечной схемы снимает эту неопределенность. Естественно считать, что количество информации, содержащейся в сообщении о результатах испытания конечной схемы, равно неопределенности (энтропии), содержащейся в этой конечной схеме. Энтропию условились измерять

    𝐻 = −(𝑝1 log 𝑎 𝑝1 + 𝑝2 log 𝑎 𝑝2 + ⋯ + 𝑝𝑛 log 𝑎 𝑝𝑛). (1.2)

    Здесь а — некоторое положительное число, большее единицы. Ниже будет показано, что выбор числа а равноценен выбору единицы измерения.

    Кроме того, принято, что если р = 0, то

    𝑝 log𝑎 𝑝 = 0. (1.3)

    Знак минус в правой части формулы (1.2) взят потому, что все слагаемые piloga piнеположительны. Вероятность р,если не равна нулю, является положительным числом не больше 1, т. е. log a p будет отрицательным числом или нулем, следовательно, и произведение р logap будет отрицательным числом или нулем. Таким образом, этот знак делает правую часть формулы (1.2) положительной.

    Рассмотрим внимательно формулу (1.2) и убедимся в целесообразности выбранного способа измерения количества информации.

    Предположим, что одно из событий А1, A2, ..., Апдостоверно. Например, событие А1. Тогда его вероятность будет равна 1. Конечная схема примет вид

    (1.4)

    Такая конечная схема не содержит никакой неопределенности, и сообщение о результате ее испытания не будет содержать никакой информации. Формула (1.2) дает именно этот результат:

    𝐻 = −(1 log𝑎 1 + 0 + ⋯ + 0) = 0.

    Очевидно, наибольшую неопределенность содержит конечная схема, все события которой равновероятны. В случае такой конечной схемы (до ее испытания) труднее всего сделать сколько-нибудь обоснованное предположение о результатах испытания.

    Исследуя на максимум величину H как функцию переменных р1, р2, ... рп,(математические выкладки здесь не приводятся), легко получить, что своего наибольшего значения H достигает при р1= р2 =

    = ... рп = 1/n,т. е. в случае равной вероятности событий, образующих конечную схему. При этом конечная схема принимает вид

    . (1.5)

    Сообщение о ее испытании содержит количество информации, равное

    . (1.6)

    Обратим особое внимание на простейший частный случай конечной схемы (1.5), именно на случай, когда п = 2. При этом схема состоит из двух событий: АА2.Событие A2, применяя обозначение математической логики, можно записать символом Ā1(это читается не A1). Конечная схема имеет вид

    . (1.7)

    Сообщение о результате ее испытания содержит количество информации, равное

    𝐻= log𝑎 2.

    Если мы положим а = 2 (в последней и во всех предыдущих формулах), то будем иметь

    𝐻= log2 2 = 1.

    Тем самым мы выбираем единицу измерения количества информации.

    Таким образом, за единицу количества информации принято количество информации, содержащееся в сообщении об испытании конечной схемы, состоящей из двух равновероятных событий. Эта единица получила название «бит».

    Выбранная мера количества информации обладает еще тем свойством, что при подсчете с ее помощью количества информации, содержащегося в сообщении об испытании двух независимых между собой конечных схем, получается число, равное сумме количеств информации, содержащихся в сообщениях об испытании каждой из конечных схем в отдельности, т. е., как говорят, мера количества информации обладает свойством аддитивности.

    Ограничимся доказательством этого факта для простейшего случая, когда каждая из конечных схем состоит из двух событий.

    Итак, рассмотрим две конечные схемы:

    (1.8)

    (1.9)

    Сообщение о результатах испытания этих конечных схем содержит соответственно следующие количества информации:

    𝐻1 = −(𝑝1 log2 𝑝1 + 𝑝2 log2 𝑝2); (1.10)

    𝐻2 = −(𝑞 log2 𝑞1 + 𝑞2 log2 𝑞2). (1.11)

    Очевидно, испытание обеих конечных схем (1.8) и (1.9) эквивалентно испытанию новой конечной схемы

    . (1.12)

    Каждое событие конечной схемы (1.12) представляет собой сочетание одного из событий, входящих в конечную схему (1.8), с одним из событий, входящих в конечную схему (1.9). Вероятность наступления такого комбинированного события, как известно, равна произведению вероятностей наступления событий, входящих в комбинацию.

    Подсчитаем количество информации, содержащееся в сообщении об испытании конечной схемы

    (1.12):

    𝐻 = −[𝑝1𝑞1log2(𝑝1𝑞1) + 𝑝1𝑞2 log2(𝑝1𝑞2) + 𝑝2𝑞1 log2(𝑝2𝑞1) + 𝑝2𝑞2log2(𝑝2𝑞2)] (1.13)

    Представляя в этом выражении каждый логарифм произведения в виде суммы логарифмов сомножителей и выполняя затем несложные алгебраические преобразования, получаем

    H = — [p1q1log2 p1 + p1q1log2q1 + p1q2log2 p1 + p1q2 log2 q2 + p2q1 log2 p2 + p2q1 log2 q1+ p2q2 log2 p2 + + p2q2 log2q2] = — (q1 + q2) (p1log2 p1 + p2 log2 p2) — (p1 +p2) (q1log2 q1+ q2log2 q2).

    Учитывая условия

    p1 +p2 = l, q1 + q2 = 1,

    а также формулы (1.10) и (1.11), получаем

    Н=Н1 + Н2, (1.14)

    что и требовалось доказать.

    Все сказанное выше убеждает нас в том, что способ измерения количества информации выбран удачно.

    Приведем два примера вычисления количества информации.

    Во многие игры в качестве составного элемента входит бросание кубика, на гранях которого написаны цифры 1,2, 3, 4, 5, 6.

    Пусть конечная схема состоит из шести событий, каждое из которых представляет выпадение одного из указанных чисел при бросании кубика. Если кубик изготовлен из однородного материала с возможной степенью точности, то все события можно считать равновероятными. Конечная схема имеет вид



    Сообщение о результате бросания кубика содержит следующее количество информации:

    H= log2 6= 2,585 бит.

    Теперь предположим, что на одной из граней кубика написана цифра 1, а на пяти остальных — цифра 2. Теперь конечная схема состоит из двух событий: А1(выпадение цифры 1) с вероятностью 1/6 и A2 (выпадение цифры 2) с вероятностью5/6:

    ( 𝐴1, 𝐴1 ).

    1/6, 5/6

    Сообщение о результате метания кубика содержит меньше информации, чем в первом примере, а именно:

    .

    В качестве примера медицинской задачи, в которой используется понятие энтропии, рассмотрим следующую ситуацию [26, с. 961.

    Допустим, что некоторое заболевание встречается в среднем у двух человек из 100. Для диагно

    рамму, о

    1 Вероятностью события называется отношение числа шансов, которые ему благоприятствуют, к общему числу равновозможных шансов (такое определение не претендует на строгость). Например, если в ящике находятся 7 черных и 3 белых шара, то вероятность того, что человек с завязанными глазами вынет из ящика черный (а не белый) шар, составит 0,7. 2 Например, результатом испытания при бросании игрального кубика может быть выпадение четного числа очков. Этот результат объединяет три исхода: выпадение 2,4, 6 очков.


    написать администратору сайта