Главная страница
Навигация по странице:

  • 8.1. ИНФОРМАЦИЯ И ЕЕ ИЗМЕРЕНИЕ

  • Виды информации

  • Геометрическая мера.

  • Комбинаторная мера.

  • Аддитивная мера (мера Хартли).

  • Количество информации и избыточность

  • Семантические меры информации

  • Содержательность информации

  • Целесообразность(полезность) информации

  • Исследование систем управления организациями. Учебное пособие по курсу Исследование систем управления для студентов


    Скачать 0.96 Mb.
    НазваниеУчебное пособие по курсу Исследование систем управления для студентов
    АнкорИсследование систем управления организациями.doc
    Дата22.12.2017
    Размер0.96 Mb.
    Формат файлаdoc
    Имя файлаИсследование систем управления организациями.doc
    ТипУчебное пособие
    #12537
    КатегорияЭлектротехника. Связь. Автоматика
    страница22 из 24
    1   ...   16   17   18   19   20   21   22   23   24

    8. ИНФОРМАЦИОННЫЕ АСПЕКТЫ УПРАВЛЕНИЯ



    8.1. ИНФОРМАЦИЯ И ЕЕ ИЗМЕРЕНИЕ
    Имеется множество определений понятия информации в различных областях знаний [15, 16]: в философии – информация есть отражение реального мира; в теории управления – мера раскрытой неопределенности; в теории связи – информация есть все сведения, являющиеся объектом хранения, передачи и преобразования.

    Нужно отметить, что понятие информации связано с некоторыми моделями реальных объектов, отражающими их сущность в той степени, в какой это необходимо в соответствии с поставленными целями.

    Таким образом, под информацией нужно понимать не сами физические объекты и процессы, а их представительные характеристики, отражения или отображения в виде чисел, формул, описаний, чертежей, символов, образов и других абстрактных характеристик.

    Сама по себе информация может быть отнесена к области абстрактных категорий, однако проявляется она всегда в материально-энергетической форме в виде сигналов.
    Виды информации

    Информацию можно различать:

    • по областям знаний:

    биологическая, техническая, экономическая и др.;

    • по физической природе восприятия:

    зрительная, слуховая, вкусовая и др.;

    • по структурно-метрическим свойствам.

    Важнейшим вопросом теории информации является установление меры количества и качества информации.

    В теории информации можно выделить три основных направления: структурное, статистическое и семантическое.

    Структурная теория рассматривает дискретное строение массивов информации и их измерение простым подсчетом информационных элементов (квантов) или комбинаторным методом, предполагающим простейшее кодирование массивов информации.

    Статистическая теория оперирует понятием энтропии как меры неопределенности, учитывающей вероятность появления, а, следовательно и информативность тех или иных сообщений.

    Семантическая теория учитывает целесообразность, ценность, полезность или существенность информации.

    Прежде чем переходить к мерам информации укажем, что источники информации и создаваемые им сообщения разделяются на дискретные и непрерывные. Дискретные сообщения слагаются из счетного множества элементов, создаваемых источником последовательно во времени. Набор элементов называется алфавитом источника, а элементы – буквами. Понятие буквы в данном случае шире, чем в письменности, оно включает цифры и другие знаки. Число букв в алфавите называется объемом алфавита.

    Дискретный источник в конечное время создает конечное множество сообщений. Типичными дискретными сообщениями являются текст, записанный с помощью какого-либо алфавита, последовательность чисел, представленных знаками.

    Непрерывные сообщения отражаются какой-либо физической величиной, изменяющейся в заданном интервале времени. Получение конечного множества сообщений за конечный промежуток времени достигается путем дискретизации (во времени) и квантованию (по уровню).

    При использовании структурных мер учитывается только дискретное строение информационной системы, в особенности количество содержащихся в ней информационных элементов, связей между ними или комбинаций из них.

    Под информационными элементами понимаются неделимые части – кванты – информации в дискретных моделях реальных информационных систем.

    К структурным мерам относятся геометрическая, комбинаторная и аддитивная меры информации.
    Геометрическая мера. Геометрическим методом определяется потенциальное, т.е. максимально возможное количество информации в заданных структурных габаритах. Это количество называют информационной емкостью исследуемой части информационной системы. Информационная емкость может быть представлена числом, показывающим, какое количество квантов содержится в полном массиве информации.
    Комбинаторная мера. В комбинаторной мере количество информации представляется как количество комбинаций элементов, то есть в данном случае оценке подвергается комбинаторное свойство потенциального структурного разнообразия информационных систем.

    Комбинирование возможно в системах в неодинаковыми элементами, переменными связями или разнообразными позициями.

    К комбинаторной мере целесообразно прибегать тогда, когда требуется оценить возможность передачи информации при помощи различных комбинаций информационных элементов. Образование комбинаций есть одна из форм кодирования информации.

    В отличии от геометрической меры, где осуществляется простой подсчет квантов, количество информации Q в комбинаторной мере заключается в определении количества возможных или действительно осуществленных комбинаций, т.е. в оценке структурного разнообразия.

    При применении комбинаторной меры возможное количество информации Q совпадает с числом возможных соединений (сочетаний, перестановок, размещений).
    Аддитивная мера (мера Хартли). Введем понятие глубины h и длины l числа.

    l – длина числа – количество повторений алфавита, необходимых и достаточных для представления чисел нужной величины.

    Аддитивная мера позволяет вычислить количество информации в виде:

    Q = hl,

    где h – глубина числа – количество различных элементов (знаков), содержащихся в принятом алфавите, оно также соответствует основанию системы счисления и кодирования.

    Вследствие показательного закона зависимости Q от l число Q не является удобной мерой для оценки информационной емкости. Поэтому Хартли ввел аддитивную двоичную логарифмическую меру, позволяющую вычислять количество информации I в двоичных единицах – битах.

    I = log2 Q = log2 hl = log2h бит;

    log22 = 1 бит.

    1 бит – единица информации в принятой системе оценки, соответствующая одному элементарному событию, которое может произойти или не произойти.

    В битах и байтах (log216 = 4log22 = 4 бит) оценивается информационная емкость запоминающих устройств.

    Аддитивная мера измеряет объем информации (обычно в битах или байтах).

    Статистические меры информации

    В статистической теории информации (теории связи) энтропия H выражается следующей формулой

    ,

    где р=(р1,…, pk) – вектор вероятности исходов,

    и представляет среднюю информацию, доставляемую одним опытом.

    Энтропия Н характеризуется следующими свойствами:

      1. энтропия всегда неотрицательна ;

      2. энтропия равна нулю, если

    (а остальные ),

    т.е. когда об исходе опыта заранее все известно и результат не приносит никакой новой информации;

      1. энтропия имеет наибольшее значение при условии, когда все вероятности равны между собой:

    p1 = p2 = … = pi = pk = 1/k, при этом

    H = -log21/k = log2k.

    Логарифмическая статистическая мера информации связана с аддитивной логарифмической мерой Хартли:

    I = log2 h.
    Когда алфавит состоит из h-знаков, то вероятность появления каждого знака равна pi = 1/h.

    Количество информации и избыточность

    В общем случае можно считать, что количество информации есть уменьшение энтропии вследствие опыта:

    I = H1H2,

    где H1 – начальная энтропия (до опыта);

    H2 – конечная энтропия (после опыта).

    Наибольшее количество информации получается тогда, когда полностью снимается неопределенность (H2 = 0). Причем I = Imax, если H1= H1max (что достигается, когда вероятности всех событий одинаковы).

    I= Нmax.

    Абсолютная избыточность информации

    Dабс = I – Н = НmaxН.

    Относительная избыточность

    D = (НmaxН)/ Нmax = 1 – H/ Нmax .
    Семантические меры информации

    Под семантикой понимается смысл, содержание информации. Под прагматикой – полезность информации.

    Зачастую прагматические оценки сливаются с семантическими, поскольку не имеющие смысл сведения бесполезны, а бесполезные сведения бессмысленны.

    Для целей измерения смысла информации Карнан и Бар-Хиллел предложили использовать функции истинности и ложности логических высказываний (предложений).

    Полученная таким образом оценка получила название содержательности информации.

    Содержательность информации

    Содержательность события i (cont(i)) выражается через функцию меры m(i)

    cont(i)=m(i)=1–m(i),

    – знак отрицания.

    Содержательность изменяется в пределах

    0 m(i) 1.

    Логическая оценка количества информации, обозначается Inf

    ,

    где m(i) – логическая функция истинности;

    m(i) – логическая функция ложности.
    Целесообразность(полезность) информации

    Если информация используется в системах управления, то ее полезность разумно оценивать по тому эффекту, который она оказывает на результат управления. Харкевичем А.А. была предложена мера целесообразности информации, которая определяется как изменение вероятности достижения цели при получении дополнительной информации:

    Iцел=log2 p1 – log2 p0 = log2 p1/p0 ,

    где p0 и p1 – начальная(до получения информации) и конечная (после получения информации) вероятности достижения цели.

    Если вероятность достижения цели при получении информации не изменяется, то эта информация является пустой, ее полезность равна нулю. В некоторых случаях полученная информация, используемая для управления, может уменьшить вероятность достижения цели. В этом случае полезность информации является отрицательной величиной. В случае, когда полученная информация, используемая для управления, увеличивает вероятность достижения цели, то полезность информации является положительной величиной.


    1   ...   16   17   18   19   20   21   22   23   24


    написать администратору сайта