Главная страница
Навигация по странице:

  • Меры информации синтаксического уровня

  • Меры информации семантического уровня

  • Тезаурус

  • Рисунок 3 — Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса

  • Меры информации прагматического уровня

  • Рисунок 4 — К вопросу о ценности информации: а) ; б) (дезинформация); в)

  • Рисунок 5 — Составляющие качества информации Качество информации

  • Содержательность информации

  • Рисунок 6 — Общий вид закона старения информации

  • Кумулятивность информации

  • Достоверность информации

  • Конфиденциальность информации

  • Виды и формы представления информации в информационных системах

  • Телекоммуникационная информация

  • Информатика — курс лекций. Курс лекций для студентов по направлениям 230100. 62 Информатика и вычислительная техника


    Скачать 2.08 Mb.
    НазваниеКурс лекций для студентов по направлениям 230100. 62 Информатика и вычислительная техника
    АнкорИнформатика — курс лекций.pdf
    Дата04.02.2018
    Размер2.08 Mb.
    Формат файлаpdf
    Имя файлаИнформатика — курс лекций.pdf
    ТипКурс лекций
    #15187
    страница4 из 16
    1   2   3   4   5   6   7   8   9   ...   16
    Тема 2. Количество и качество информации
    Уровни проблем передачи информации
    При реализации информационных процессов всегда происходит перенос информации в про- странстве и времени от источника информации к приёмнику (получателю). При этом для передачи информации используют различные знаки или символы, например естественного или искусственного
    (формального) языка, позволяющие выразить её в некоторой форме, называемой сообщением.
    Сообщение
    — форма представления информации в виде совокупности знаков (символов), используемая для передачи.
    Сообщение как совокупность знаков с точки зрения семиотики (от греч. sêmeion — знак, при- знак) — науки, занимающейся исследованием свойств знаков и знаковых систем, может изучаться на трёх уровнях:

    синтаксическом, где рассматриваются внутренние свойства сообщений, т.е. отношения меж- ду знаками, отражающие структуру данной знаковой системы. Внешние свойства изучают на семантическом и прагматическом уровнях;

    семантическом, где анализируются отношения между знаками и обозначаемыми ими пред- метами, действиями, качествами, т.е. смысловое содержание сообщения, его отношение к источнику информации;

    прагматическом, где рассматриваются отношения между сообщением и получателем, т.е. потребительское содержание сообщения, его отношение к получателю.
    Таким образом, учитывая определённую взаимосвязь проблем передачи информации с уровнями изучения знаковых систем, их разделяют на три уровня: синтаксический, семантический и прагматический.
    Проблемы
    синтаксического уровня
    касаются создания теоретических основ построения ин- формационных систем, основные показатели функционирования которых были бы близки к предель- но возможным, а также совершенствования существующих систем с целью повышения эффективно- сти их использования. Это чисто технические проблемы совершенствования методов передачи со- общений и их материальных носителей — сигналов. На этом уровне рассматривают проблемы до- ставки получателю сообщений как совокупности знаков, учитывая при этом тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления инфор- мации, надёжность и точность преобразования этих кодов и т.п., полностью абстрагируясь от смыс- лового содержания сообщений и их целевого предназначения. На этом уровне информацию, рас- сматриваемую только с синтаксических позиций, обычно называют данными, так как смысловая сто- рона при этом не имеет значения.
    Современная теория информации исследует в основном проблемы именно этого уровня. Она опирается на понятие «количество информации», являющееся мерой частоты употребления знаков, которая никак не отражает ни смысла, ни важности передаваемых сообщений. В связи с этим иногда говорят, что теория информации находится на синтаксическом уровне.
    Проблемы
    семантического уровня
    связаны с формализацией и учётом смысла передавае- мой информации, определения степени соответствия образа объекта и самого объекта. На данном

    30 уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи, формируются понятия и представления, выявляется смысл, содержание информации, осу- ществляется её обобщение.
    Проблемы этого уровня чрезвычайно сложны, так как смысловое содержание информации больше зависит от получателя, чем от семантики сообщения, представленного на каком-либо языке.
    На
    прагматическом уровне
    интересуют последствия от получения и использования данной информации потребителем. Проблемы этого уровня связаны с определением ценности и полезности использования информации при выработке потребителем решения для достижения своей цели. Ос- новная сложность здесь состоит в том, что ценность, полезность информации может быть совершен- но различной для различных получателей и, кроме того, она зависит от ряда факторов, таких, напри- мер, как своевременность её доставки и использования. Высокие требования в отношении скорости доставки информации часто диктуются тем, что управляющие воздействия должны осуществляться в реальном масштабе времени, т.е. со скоростью изменения состояния управляемых объектов или процессов. Задержки в доставке или использовании информации могут иметь катастрофические по- следствия.
    Меры информации
    Для каждого из рассмотренных выше уровней проблем передачи информации существуют свои подходы к измерению количества информации и свои меры информации. Различают соответ- ственно меры информации синтаксического уровня, семантического уровня и прагматического уров- ня.
    Меры информации синтаксического уровня
    Количественная оценка информации этого уровня не связана с содержательной стороной ин- формации, а оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. В связи с этим данная мера даёт возможность оценки информационных потоков в таких разных по своей природе объектах, как системы связи, вычислительные машины, системы управ- ления, нервная система живого организма и т.п.
    Для измерения информации на синтаксическом уровне вводятся два параметра: объём ин- формации (данных) —
    (объёмный подход) и количество информации —
    (энтропийный подход).
    Объём информации
    (объёмный подход). При реализации информационных процессов ин- формация передаётся в виде сообщения, представляющего собой совокупность символов какого- либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательностью символов данного алфавита. Если теперь количество инфор- мации, содержащейся в сообщении из одного символа, принять за единицу, то объём информации
    (данных) в любом другом сообщении будет равен количеству символов (разрядов) в этом сооб- щении. Так как одна и та же информация может быть представлена многими разными способами (с использованием разных алфавитов),
    то и единица измерения информации (данных) соответственно будет меняться.
    Так, в десятичной системе счисления один разряд имеет вес, равный 10, и соответственно единицей измерения информации будет дит (десятичный разряд). В этом случае сообщение в виде -

    31 разрядного числа имеет объём данных дит. Например, четырехразрядное число 2003 имеет объём данных дит.
    В двоичной системе счисления один разряд имеет вес, равный 2, и соответственно единицей измерения информации будет бит (bit binary digit — двоичный разряд). В этом случае сообщение в виде -разрядного числа имеет объём данных бит. Например, восьмиразрядный двоичный код
    11001011 имеет объём данных бит.
    В современной вычислительной технике наряду с минимальной единицей измерения данных
    «бит» широко используется укрупнённая единица измерения «байт», равная 8 бит. При работе с большими объёмами информации для подсчёта её количества применяют более крупные единицы измерения, такие как килобайт (Кбайт), мегабайт (Мбайт), гигабайт (Гбайт), терабайт (Тбайт):
    ;
    ;
    ;
    Следует обратить внимание, что в системе измерения двоичной (компьютерной) информа- ции, в отличие от метрической системы, единицы с приставками «кило», «мега» и т.д. получаются путём умножения основной единицы не на
    , и т.д., а на
    , и т.д.
    Количество информации (энтропийный подход). В теории информации и кодирования принят энтропийный подход к измерению информации. Этот подход основан на том, что факт полу- чения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Исходя из этого, количество информации в сообщении определяется как мера уменьшения неопределённости состояния данной системы после получения сообщения. Неопределённость мо- жет быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе.
    Как только наблюдатель выявил что-нибудь в физической системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной.
    Таким образом, при энтропийном подходе под информацией понимается количественная ве- личина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т.д.) неопределённости.
    При этом в качестве меры неопределённости вводится энтропия , а количество информации равно:
    , где
    — априорная энтропия о состоянии исследуемой системы или процесса,
    — апостери- орная энтропия.
    Апостериори (от лат. a posteriori — из последующего) — происходящее из опыта (испытания, измерения).
    Априори — (от лат. a priori — из предшествующего) — понятие, характеризующее знание, предшествующее опыту (испытанию), и независимое от него.

    32
    В случае когда в ходе испытания имевшаяся неопределённость снята (получен конкретный результат, т.е.
    ), количество полученной информации совпадает с первоначальной энтропи- ей
    Рассмотрим в качестве исследуемой системы дискретный источник информации (источник дискретных сообщений), под которым будем понимать физическую систему, имеющую конечное множество возможных состояний {
    }
    ̅̅̅̅̅̅.
    Всё множество {
    }состояний системы в теории информации называют аб- страктным алфавитом, или алфавитом источника сообщений. Отдельные состояния называют буквами или символами алфавита.
    Такая система может в каждый момент времени случайным образом принять одно из конеч- ных множеств возможных состояний —
    . При этом говорят, что различные состояния реализуются вследствие выбора их источником.
    Поскольку одни состояния выбираются источником чаще, а другие реже, то в общем случае он характеризуется ансамблем , т.е. полной совокупностью состояний с вероятностями их появле- ния, составляющими в сумме единицу:
    (
    ), причём
    1 1



    N
    i
    i
    p
    Введём меру неопределённости выбора состояния источника. Её можно рассматривать и как меру количества информации, получаемой при полном устранении неопределённости относительно состояния источника. Мера должна удовлетворять ряду естественных условий. Одним из них являет- ся необходимость монотонного возрастания с увеличением возможностей выбора, т.е. числа воз- можных состояний источника , причем недопустимые состояния (состояния с вероятностями, рав- ными нолю) не должны учитываться, так как они не меняют неопределённости.
    Ограничиваясь только этим условием, за меру неопределённости можно было бы взять число состояний, предположив, что они равновероятны. Однако в этом случае при , когда неопреде- лённость отсутствует, такая мера давала бы значение, равное единице. Кроме того, она не отвечает
    требованию аддитивности, состоящему в следующем.
    Если два независимых источника с числом равновероятных состояний и рассматривать как один источник, одновременно реализующий пары состояний
    ,
    , то естественно предполо- жить, что неопределённость объединённого источника должна равняться сумме неопределённостей исходных источников. Поскольку общее число состояний объединённого источника равно , то искомая функция должна удовлетворять условию:
    ( ) ( ) ( ).
    (1)
    Соотношение (1) выполняется, если в качестве меры неопределённости источника с равнове- роятными состояниями и характеризующего его ансамбля принять логарифм числа состояний:
    ( ) .
    (2)
    Тогда при ( ) и требование аддитивности выполняется.

    33
    Указанная мера была предложена американским ученым Р. Хартли в 1928 г. Основание лога- рифма в формуле (2) не имеет принципиального значения и определяет только масштаб или еди- ницу измерения. В зависимости от основания логарифма применяют следующие единицы измере- ния:
    1.
    Биты — при этом основание логарифма равно 2:
    ( )
    (3)
    2.
    Наты — при этом основание логарифма равно :
    ( ) .
    3.
    Диты — при этом основание логарифма равно 10:
    ( ) .
    Так как современная информационная техника базируется на элементах, имеющих два устой- чивых состояния, то в информатике в качестве меры неопределенности обычно используют формулу
    (3). При этом единица неопределённости называется двоичной единицей, или битом, и представляет собой неопределённость выбора из двух равновероятных событий.
    Формулу (3) можно получить эмпирически: для снятия неопределённости в ситуации из двух равновероятных событий необходим один опыт и соответственно один бит информации, при не- определённости, состоящей из четырёх равновероятных событий, достаточно двух бит информации, чтобы угадать искомый факт. Эти рассуждения можно продолжить: 3 бита информации соответству- ют неопределённости из 8 равновероятных событий, 4 бита — 16 равновероятных событий и т.д.
    Например, для определения карты из колоды, состоящей из 32 карт, достаточно 5 бит информации, т.е. достаточно задать 5 вопросов с ответами «да» или «нет», чтобы определить искомую карту.
    Таким образом, если сообщение указывает на один из равновероятных вариантов, то оно несёт количество информации, равное
    . Действительно, из наших примеров
    ,
    , и т.д. Ту же формулу можно словесно выразить иначе: количество информа- ции равно степени, в которую необходимо возвести число 2, чтобы получить число равновероятных вариантов выбора, т.е.
    , где (бита).
    Предложенная мера позволяет решать определённые практические задачи, когда все воз- можные состояния источника информации имеют одинаковую вероятность.
    В общем случае степень неопределённости реализации состояния источника информации за- висит не только от числа состояний, но и от вероятностей этих состояний. Если источник информации имеет, например, два возможных состояния с вероятностями 0,99 и 0,01, то неопределённость выбо- ра у него значительно меньше, чем у источника, имеющего два равновероятных состояния, так как в этом случае результат практически предрешён (реализация состояния, вероятность которого равна
    0,99).
    Американский учёный К. Шеннон обобщил понятие меры неопределённости выбора на случай, когда зависит не только от числа состояний, но и от вероятностей этих состояний (вероят- ностей выбора символов алфавита ). Эту меру, представляющую собой неопределённость,

    34 приходящуюся в среднем на одно состояние, называют энтропией дискретного источника инфор-
    мации.




    N
    i
    i
    i
    p
    p
    H
    1
    log
    (4)
    Если снова ориентироваться на измерение неопределённости в двоичных единицах, то осно- вание логарифма следует принять равным двум.




    N
    i
    i
    i
    p
    p
    H
    1 2
    log
    (5)
    При равновероятных выборах все и формула (5) преобразуется в формулу Р. Хартли (2):


    N
    N
    N
    N
    N
    N
    N
    p
    p
    H
    N
    i
    i
    i
    2 2
    2 2
    1 2
    log log
    1
    log
    1 1
    log
    1
    log












    Предложенная мера была названа энтропией не случайно. Дело в том, что формальная струк- тура выражения (4) совпадает с энтропией физической системы, определённой ранее Больцманом.
    Согласно второму закону термодинамики энтропия замкнутого пространства определяется выра- жением:




    N
    i
    П
    i
    i
    П
    M
    m
    m
    M
    H
    1
    ln
    1
    , где
    — число молекул в данном пространстве;
    — число мо- лекул, обладающих скоростью
    . Так как есть вероятность того, что молекула имеет ско- рость
    , то можно записать как




    N
    i
    i
    i
    p
    p
    H
    1
    ln
    . Данная формула полностью совпадает с (4)
    — в обоих случаях величина характеризует степень разнообразия системы.
    Используя формулы (3) и (5), можно определить избыточность алфавита источника сооб- щений — , которая показывает, насколько рационально применяются символы данного алфавита:
    ( ) ( )
    ( )
    ,
    (6)
    где
    ( )— максимально возможная энтропия, определяемая по формуле (3); ( ) — энтропия источника, определяемая по формуле (5).
    Суть данной меры заключается в том, что при равновероятном выборе ту же информацион- ную нагрузку на знак можно обеспечить, используя алфавит меньшего объёма, чем в случае с нерав- новероятным выбором.
    Меры информации семантического уровня
    Для измерения смыслового содержания информации, т.е. её количества на семантическом уровне, наибольшее распространение получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Действи- тельно, для понимания и использования полученной информации получатель должен обладать определенным запасом знаний. Полное незнание предмета не позволяет извлечь полезную инфор- мацию из принятого сообщения об этом предмете. По мере роста знаний о предмете растёт и коли- чество полезной информации, извлекаемой из сообщения.

    35
    Если назвать имеющиеся у получателя знания о данном предмете «тезаурусом» (т.е. неким сводом слов, понятий, названий объектов, связанных смысловыми связями), то количество инфор- мации, содержащееся в некотором сообщении, можно оценить степенью изменения индивидуаль- ного тезауруса под воздействием данного сообщения.
    Тезаурус
    совокупность сведений, которыми располагает пользователь или система.
    Иными словами, количество семантической информации, извлекаемой получателем из по- ступающих сообщений, зависит от степени подготовленности его тезауруса для восприятия такой ин- формации.
    В зависимости от соотношений между смысловым содержанием информации и тезаурусом пользователя изменяется количество семантической информации , воспринимаемой пользова- телем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на ри- сунке 3. Рассмотрим два предельных случая, когда количество семантической информации равно
    0:

    при пользователь не воспринимает (не понимает) поступающую информацию;

    при пользователь «всё знает», и поступающая информация ему не нужна.
    Рисунок 3 — Зависимость количества семантической информации, воспринимаемой потребителем, от его
    тезауруса ( )
    Максимальное количество семантической информации потребитель приобретает при согла- совании её смыслового содержания со своим тезаурусом ( ), когда поступающая ин- формация понятна пользователю и несёт ему ранее неизвестные (отсутствующие в его тезаурусе) сведения.
    Следовательно, количество семантической информации в сообщении, количество новых зна- ний, получаемых пользователем, является величиной относительной. Одно и то же сообщение мо- жет иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного.
    При оценке семантического (содержательного) аспекта информации необходимо стремиться к согласованию величин и .
    Относительной мерой количества семантической информации может служить коэффициент содержательности , который определяется как отношение количества семантической информации к её объёму:

    36
    Ещё один подход к семантическим оценкам информации, развиваемый в рамках науковеде- ния, заключается в том, что в качестве основного показателя семантической ценности информации, содержащейся в анализируемом документе (сообщении, публикации), принимается количество ссы- лок на него в других документах. Конкретные показатели формируются на основе статистической об- работки количества ссылок в различных выборках.
    Меры информации прагматического уровня
    Эта мера определяет полезность информации (ценность) для достижения пользователем по- ставленной цели. Она также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.
    Одним из первых отечественных ученых к этой проблеме обратился А. А. Харкевич, который предложил принять за меру ценности информации количество информации, необходимое для до- стижения поставленной цели, т.е. рассчитывать приращение вероятности достижения цели. Так, если до получения информации вероятность достижения цели равнялась
    , а после её получения —
    ,
    то ценность информации определяется как логарифм отношения
    :
    (7)
    Таким образом, ценность информации при этом измеряется в единицах информации, в дан- ном случае в битах.
    Выражение (7) можно рассматривать как результат нормировки числа исходов. В пояснение на рисунке 4 приведены три схемы, на которых приняты одинаковые значения числа исходов 2 и 6 для точек 0 и 1 соответственно. Исходное положение — точка 0. На основании полученной информа- ции совершается переход в точку 1. Цель обозначена крестиком. Благоприятные исходы изображены линиями, ведущими к цели. Определим ценность полученной информации во всех трёх случаях: а) число благоприятных исходов равно трём:
    , и, следовательно,
    (
    )
    ; б) имеется один благоприятный исход:
    ,
    ,
    (
    )
    ; в) число благоприятных исходов равно четырём:
    ,
    ,
    (
    )
    В примере б) получена отрицательная ценность информации (отрицательная информация).
    Такую информацию, увеличивающую исходную неопределённость и уменьшающую вероятность до- стижения цели, называют дезинформацией. Таким образом, в примере б) мы получили дезинфор- мацию в 1,58 двоичной единицы.

    37
    Рисунок 4 — К вопросу о ценности информации:
    а) ; б) (дезинформация); в)
    Дальнейшее развитие данного подхода базируется на статистической теории информации и теории решений. Сущность метода состоит в том, что, кроме вероятностных характеристик не- определённости объекта, после получения информации вводятся функции штрафов или потерь и оценка информации производится в результате минимизации потерь. Максимальной ценностью об- ладает то количество информации, которое уменьшает потери до ноля при достижении поставлен- ной цели.
    Качество информации
    Эффективность применения и качество функционирования любых систем во многом опреде- ляется качеством информации, на основе которой принимаются управляющие решения. Составляю- щие качества информация отражены на рисунке 5.
    Рисунок 5 — Составляющие качества информации
    Качество информации
    — совокупность свойств информации, характеризующих степень её соответствия потребностям (целям, ценностям) пользователей (средств автоматизации, персонала и др.).
    Качество информации
    Содержательность
    (внутреннее)
    Значимость
    Полнота
    Идентичность
    Кумулятивность
    Избирательность
    Гомоморфизм
    Защищённость
    (внешнее)
    Сохранность
    Достоверность
    Конфиденциальность

    38
    Выделяют внутреннее качество — содержательность (присущее собственно информации и сохраняющееся при её переносе в другую систему) и внешнее — защищённость (присущее информа- ции, находящейся или используемой только в определённой системе).
    Содержательность информации
    — совокупность сведений о конкретном объекте (системе) или процессе, содержащаяся в сообщениях и воспринимаемая получателем. Содержательность отра- жает семантическую ёмкость информации, содержащейся в информационных массивах (массивах данных, массивах программ, сообщениях, фактах). Содержательная информация используется, как правило, для выработки и принятия управляющего воздействия.
    Содержательность информации определяется такими свойствами, как значимость и кумуля- тивность.
    Значимость информации
    — свойство информации сохранять ценность для потребителя с течением времени, т.е. не подвергаться «моральному» старению.
    Составляющими значимости являются полнота и идентичность.
    Полнота информации — свойство содержательной информации, характеризуемое мерой её достаточности для решения определенных задач. Полнота (достаточность) информации означает, что она обеспечивает принятие правильного (оптимального) решения. Из этого следует, что данное свойство является относительным: полнота информации оценивается относительно вполне оп- ределённой задачи или группы задач. Поэтому, чтобы иметь возможность определить показатель полноты информации, необходимо для каждой существенно значимой задачи или группы задач иметь перечень тех сведений, которые требуются для их решения. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информации снижают эффективность прини- маемых пользователем решений.
    Идентичность — свойство, заключающееся в соответствии содержательной информации со- стоянию объекта. Нарушение идентичности связано с техническим (по рассогласованию признаков) старением информации, при котором происходит расхождение реальных признаков объектов и тех же признаков, отображённых в информации. Обычно закон старения информации представляют в виде рисунке 6.
    Рисунок 6 — Общий вид закона старения информации

    39
    На данном рисунке обозначает момент времени генерирования (получения) оцениваемой информации, при этом коэффициент , характеризующий идентичность информации, равен 1. Закон старения информации определяется четырьмя характерными интервалами:
    — продолжительностью времени, в течение которого оцениваемая информация полно- стью сохраняет свою идентичность;
    — продолжительностью времени, в течение которого идентичность информации падает, но не более чем на одну четверть;
    — продолжительностью времени, в течение которого идентичность информации падает наполовину;
    — продолжительностью времени, в течение которого идентичность информации падает на три четверти.
    Кумулятивность информации
    — свойство содержательной информации, заключённой в массиве небольшого объёма, достаточно полно отображать действительность.
    Задачу обеспечения кумулятивности информации можно решать без учёта и с учётом опыта и квалификации конкретного потребителя информации, применяя соответственно формально-тех- нические и социально-психологические приёмы. К числу формально-технических приемов относится, например, агрегирование — получение сводных показателей различного уровня обобщения или вы- бор отдельных показателей из массивов исходных данных. Эти и другие формальные приемы направлены на построение моделей типа «многое в одном», когда действительность отображается с помощью малого числа символов. Такие модели называются гомоморфными, а соответствующее свойство — гомоморфизмом информации. Это формально-техническая составляющая кумуля- тивности информации.
    Гомоморфизм информации — свойство содержательной информации, связанное с достаточ- но полным отображением действительности, представленной информационными массивами боль- шого объёма, с помощью малого числа информационных единиц (символов) на основе соответству- ющих моделей агрегирования.
    Информационное обеспечение конкретного потребителя может осуществляться с учётом его опыта, квалификации и других свойств, а также с учётом решаемых им задач. Информация, спе- циально отобранная для конкретного потребителя, обладает определённым свойством — избира- тельностью. Это социально-психологическая составляющая свойства кумулятивности.
    Избирательность информации — свойство содержательной информации, заключающееся в достаточно полном отображении действительности, представленной информационными массивами большого объёма, с помощью малого числа информационных единиц (символов) на основе учёта квалификации, опыта и других качеств конкретного потребителя.
    Защищённость
    отражает внешнее качество информации, определяемое совокупностью свойств информации, обеспечиваемых системой контроля и защиты информации (КЗИ) в конкретной информационной системе. Основными из них являются свойства, заключающиеся в способности не допускать случайного или целенаправленного искажения или разрушения, раскрытия или моди- фикации информационных массивов, соответственно достоверность, конфиденциальность и сохран- ность информации. При переносе информации в другую систему (среду) эти свойства исчезают.

    40
    Достоверность информации
    — свойство информации, характеризуемое степенью соответ- ствия (в пределах заданной точности) реальных информационных единиц (символов, знаков, запи- сей, сообщений, информационных массивов и т.д.) их истинному значению и определяемое способ- ностью КЗИ обеспечить отсутствие ошибок переработки информации, т.е. не допустить снижения ценности информации при принятии управленческих решений, искажений информационных масси- вов (ИМ), их смыслового значения, замены единичных символов ИМ и других из-за несовершенства организации (структуры) процесса переработки,
    несовершенства алгоритмов, ненадёжной работы аппаратно-программных средств, ошибок пользователей и т.д.
    Требуемый уровень достоверности информации достигается путём внедрения методов кон- троля и защиты информации на всех стадиях её переработки, повышением надёжности комплекса технических и программных средств информационной системы, а также административно- организационными мерами (моральным и материальным стимулированием, направленным на сни- жение числа ошибок, улучшением условий труда персонала и др.).
    Критериями оптимальности при этом, как правило, являются:

    минимизация вероятности искажения единичного массива информации;

    максимизация достоверности переработки информации как некоторой функции вероятности ошибки;

    минимизация времени переработки ИМ и материальных затрат при ограничении на досто- верность;

    минимизация суммарного среднего времени на обработку, контроль и исправление ИМ;

    минимизация суммарных потерь с учётом затрат на разработку и функционирование структур контроля, исправление ошибок и на потери в информационной системе (ИС) при использова- нии недостоверной информации и т.п.
    Конфиденциальность информации
    — свойство информации, позволяющее сохранять предоставленный ей статус. Конфиденциальность информации характеризуется такими показателя- ми, как доступность, скрытность и имитостойкость информации.
    Доступность информации характеризуется степенью разграничения действий объектов ин- формационной системы (операторов, задач, устройств, программ, подсистем и др.) и заключается в возможности использования ИМ по требованию объектов системы, имеющих соответствующие пол- номочия (мандаты).
    Скрытность информации характеризуется степенью маскировки информации и отражает её способность противостоять раскрытию смысла ИМ (семантическая скрытность на основе обратимых преобразований информации), определению структуры хранимого ИМ или носителя (сигнала- переносчика) передаваемого ИМ (структурная скрытность на основе необратимых преобразований, использования спецаппаратуры, различных форм сигналов-переносчиков, видов модуляции и др.) и установлению факта передачи ИМ по каналам связи (энергетическая скрытность на основе примене- ния широкополосных сигналов-переносчиков ИМ, организации периодического маскирующего об- мена ИМ и др.).
    Имитостойкость информации определяется степенью её защищённости от внедрения ИМ, имитирующих авторизованные (зарегистрированные) массивы, и заключается в способности не до-

    41 пустить навязывания дезинформации и нарушения нормального функционирования информацион- ной системы.
    Требуемый уровень конфиденциальности ИМ достигается путём дополнительных преобразо- ваний (семантических, криптографических и др.) информации, контроля полномочий программно- технических средств, ресурсов ИС и лиц (операторов, персонала, пользователей и др.), взаимодей- ствующих со средствами автоматизации и разграничения доступа к ИМ. Критериями оптимальности при этом, как правило, являются:

    минимизация вероятности преодоления («взлома») защиты;

    максимизация ожидаемого безопасного времени до «взлома» подсистемы защиты;

    минимизация суммарных затрат (интеллектуальных, финансовых, материальных, временных и др.) на разработку и эксплуатацию подсистемы КЗИ при ограничениях на вероятность не- санкционированного доступа к ресурсам ИС;

    минимизация суммарных потерь от «взлома» защиты и затрат на разработку и эксплуатацию соответствующих элементов подсистемы КЗИ и т.п.
    Сохранность информации
    — свойство информации, характеризуемое степенью готовности определённых ИМ к целевому применению и определяемое способностью КЗИ обеспечить постоян- ное наличие и своевременное предоставление ИМ, необходимых для автоматизированного решения целевых и функциональных задач системы, т.е. не допускать разрушения ИМ из-за несовершенства носителей, механических повреждений, неправильной эксплуатации, износа и старения аппаратных средств, ошибок персонала и несанкционированных корректировок, недостатков в программных средствах и т.д. Основными показателями сохранности являются целостность и готовность информа- ции.
    Целостность информации характеризуется степенью аутентичности (подлинности) ИМ в ин- формационной базе и исходных документах (сообщениях) и определяется способностью КЗИ обес- печить, насколько это возможно, физическое наличие информационных единиц в информационной базе в любой момент времени, т.е. не допустить случайных искажений и разрушения ИМ из-за де- фектов и сбоев аппаратных средств, действия «компьютерных вирусов», ошибок оператора (при вво- де информации в информационную базу или обращении к ней), ошибок в программных средствах
    (операционных системах, СУБД, комплексах прикладных программ и др.).
    Готовность информации характеризуется степенью работоспособности ИМ при выполнении целевых и функциональных задач системы и определяется возможностью КЗИ обеспечить сво- евременное предоставление необходимых неразрушенных ИМ.
    Необходимый уровень сохранности ИМ достигается путём введения специальной организа- ции хранения и подготовки, регенерации и восстановления ИМ, использования дополнительных ре- сурсов для их резервирования, что позволяет значительно уменьшить влияние разрушающих факто- ров на эффективность функционирования ИС в целом. Основными критериями оптимальности при этом являются:

    максимизация вероятности успешного решения определённой частной задачи системы при наличии соответствующих ИМ, их дубликатов, копий;

    максимизация вероятности восстановления ИМ;

    минимизация среднего времени решения задачи системы;

    42

    минимизация среднего времени восстановления ИМ;

    максимизация вероятности сохранности ИМ за фиксированный интервал времени их эксплу- атации;

    минимизация стоимостных затрат на дополнительные носители информации для размеще- ния резервных ИМ, потерь от разрушения ИМ и т.п.
    Виды и формы представления информации в информационных системах
    Всё многообразие окружающей нас информации можно классифицировать по различным признакам. Так, по признаку «область возникновения» информацию, отражающую процессы, яв- ления неодушевленной природы, называют элементарной, или механической, процессы животного и растительного мира — биологической, человеческого общества — социальной. Информацию, со- здаваемую и используемую человеком, по общественному назначению можно разбить на три вида: личная, массовая и специальная. Личная информация предназначается для конкретного человека, массовая для любого желающего ею пользоваться (общественно-политическая, научно-популярная и т.д.), а специальная — для применения узким кругом лиц, занимающихся решением сложных специ- альных задач в области науки, техники, экономики и т.п. Информация может быть объективной и субъективной. Объективная информация отражает явления природы и человеческого общества.
    Субъективная информация создаётся людьми и отражает их взгляд на объективные явления.
    В автоматизированных информационных системах выделяют:

    структурную (преобразующую) информацию объектов системы, заключённую в структурах системы, её элементов управления, алгоритмов и программ переработки информации;

    содержательную (специальную, главным образом осведомляющую, измерительную и управ- ляющую, а также научно-техническую, технологическую и др.) информацию, извлекаемую из информационных массивов (сообщений, команд и т.п.) относительно индивидуальной моде- ли предметной области получателя (человека, подсистемы).
    Первая связана с качеством информационных процессов в системе, с внутренними техноло- гическими эффектами, затратами на переработку информации. Вторая — как правило, с внешним це- левым (материальным) эффектом.
    Один из возможных вариантов классификации информации в автоматизированных системах:

    по отношению к объекту:

    внутренняя;

    внешняя;

    по форме проявления в задачах управления:

    осведомляющая;

    преобразующая;

    управляющая;

    связь с целью:

    синтаксическая;

    семантическая;

    прагматическая;

    по качеству проявления:

    полезная;

    43

    бесполезная (пустая);

    дезинформация;

    по содержанию источника информации:

    о состоянии управляемого объекта;

    о внешней среде;

    о целях;

    о других системах;

    по полноте отображения:

    полная;

    неполная;

    по характеру генерирования:

    объективная;

    субъективная;

    в зависимости от вида носителя:

    документальная;

    акустическая (речевая);

    телекоммуникационная;

    по отношению к элементу системы:

    статическая;

    динамическая;

    по степени стабильности:

    условно-постоянная;

    переменная;

    по целям использования:

    нормативная;

    справочная;

    плановая;

    отчётная;

    аналитическая;

    оперативно-технологическая;

    по форме представления:

    аналоговая;

    дискретная.
    При реализации информационных процессов передача информации (сообщения) от источни- ка к приёмнику может осуществляться с помощью какого-либо материального носителя (бумаги, магнитной ленты и т.п.) или физического процесса (звуковых или электромагнитных волн).
    В зависимости от типа носителя различают следующие виды информации:

    документальную;

    акустическую (речевую);

    телекоммуникационную.
    Документальная
    информация представляется в графическом или буквенно-цифровом виде на бумаге, а также в электронном виде на магнитных и других носителях.

    44
    Речевая информация
    возникает в ходе ведения разговоров, а также при работе систем зву- коусиления и звуковоспроизведения. Носителем речевой информации являются акустические коле- бания (механические колебания частиц упругой среды, распространяющиеся от источника колебаний в окружающее пространство в виде волн различной длины) в диапазоне частот от 200—300 Гц до 4—
    6 кГц.
    Телекоммуникационная информация
    циркулирует в технических средствах обработки и хра- нения информации, а также в каналах связи при её передаче. Носителем информации при её обра- ботке техническими средствами и передаче по проводным каналам связи является электрический ток, а при передаче по радио- и оптическому каналам — электромагнитные волны.
    Источник информации может вырабатывать непрерывное сообщение (сигнал), в этом случае информация называется непрерывной, или дискретное — информация называется дискретной.
    Например, сигналы, передаваемые по радио и телевидению, а также используемые в маг- нитной записи, имеют форму непрерывных, быстро изменяющихся во времени зависимостей. Такие сигналы называются непрерывными, или аналоговыми сигналами. В противоположность этому в те- леграфии и вычислительной технике сигналы имеют импульсную форму и называются дискретными сигналами.
    Непрерывная и дискретная формы представления информации имеют особое значение при рассмотрении вопросов создания, хранения, передачи и обработки информации с помощью средств вычислительной техники.
    В настоящее время во всех вычислительных машинах информация представляется с помощью электрических сигналов. При этом возможны две формы представления численного значения какой- либо переменной, например :

    в виде одного сигнала — например, электрического напряжения, которое сравнимо с вели- чиной (аналогично ей). Например, при единицам на вход вычислительного уст- ройства можно подать напряжение 2,003 В (масштаб представления 0,001 В/ед.) или 10,015 В
    (масштаб представления 0,005 В/ед);

    в виде нескольких сигналов — нескольких импульсов напряжений, которые сравнимы с чис- лом единиц в , числом десятков в , числом сотен в и т.д.
    Первая форма представления информации (с помощью сходной величины — аналога) назы- вается аналоговой, или непрерывной. Величины, представленные в такой форме, могут принимать принципиально любые значения в определённом диапазоне. Количество значений, которые может принимать такая величина, бесконечно велико. Отсюда названия — непрерывная величина и непре- рывная информация. Слово непрерывность отчётливо выделяет основное свойство таких величин — отсутствие разрывов, промежутков между значениями, которые может принимать данная аналого- вая величина.
    Вторая форма представления информации называется дискретной (с помощью набора напряжений, каждое из которых соответствует одной из цифр представляемой величины). Такие ве- личины, принимающие не все возможные, а лишь вполне определённые значения, называются дис- кретными (прерывистыми). В отличие от непрерывной величины количество значений дискретной величины всегда будет конечным.

    45
    Сравнивая непрерывную и дискретную формы представления информации, нетрудно заме- тить, что при использовании непрерывной формы для создания вычислительной машины потребует- ся меньшее число устройств (каждая величина представляется одним, а не несколькими сигналами), но эти устройства будут сложнее (они должны различать значительно большее число состояний сиг- нала).
    Непрерывная форма представления используется в аналоговых вычислительных машинах
    (АВМ). Эти машины предназначены в основном для решения задач, описываемых системами диффе- ренциальных уравнений: исследования поведения подвижных объектов, моделирования процессов и систем, решения задач параметрической оптимизации и оптимального управления. Устройства для обработки непрерывных сигналов обладают более высоким быстродействием, они могут интегриро- вать сигнал, выполнять любое его функциональное преобразование и т.п. Однако из-за сложности технической реализации устройств выполнения логических операций с непрерывными сигналами, длительного хранения таких сигналов, их точного измерения АВМ не могут эффективно решать за- дачи, связанные с хранением и обработкой больших объёмов информации, которые легко решаются при использовании цифровой (дискретной) формы представления информации, реализуемой циф- ровыми электронными вычислительными машинами (ЭВМ).

    1   2   3   4   5   6   7   8   9   ...   16


    написать администратору сайта