Главная страница
Навигация по странице:

  • Доступность

  • Понятность

  • 2.2 Виды информации

  • Массовая

  • 2.3 Качество информации

  • Репрезентативность

  • Идентичность

  • Логичность

  • 2.4 Количество информации

  • 2.5 Ценность информации

  • Инфо. external_primary_1607596705394_619028949_Лекция 2 - Информация и. Бекман информатика курс лекций Лекция информация


    Скачать 1.57 Mb.
    НазваниеБекман информатика курс лекций Лекция информация
    Дата10.12.2020
    Размер1.57 Mb.
    Формат файлаpdf
    Имя файлаexternal_primary_1607596705394_619028949_Лекция 2 - Информация и.pdf
    ТипКурс лекций
    #159295
    страница4 из 5
    1   2   3   4   5
    Полнота. Информацию можно считать полной, когда она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых на основании информации решений.
    Адекватность - степень соответствия реальному объективному состоянию дела. Различают три формы адекватности информации: синтаксическая, семантическая и прагматическая. 1. Синтаксическая адекватность отображает формально-структурные характеристики информации и не затрагивает её смыслового содержания. 2. Семантическая (смысловая) адекватность определяет степень соответствия информации об объекте самому объекту. 3. Прагматическая
    (потребительская) адекватность отражает отношение информации и её потребителя. Прагматический аспект связан с ценностью, полезностью использования информации потребителем для достижения поставленной цели.
    Доступность - мера возможности получить ту или иную информацию.
    Актуальность - это степень соответствия информации текущему моменту времени. Это – важность для настоящего времени, злободневность, насущность.
    Только вовремя полученная информация может быть полезна.
    Ценность (полезность, значимость) - обеспечивает решение поставленной задачи, нужна для того чтобы принимать правильные решения. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью. Самая ценная информация
    – объективная, достоверная, полная, и актуальная. При этом следует учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет большую значимость для человека.
    Понятность (ясность) – выражена на языке, доступном получателю.
    Точность определяется степенью её близости к реальному состоянию объекта, процесса, явления и т. п.
    Кроме этого информация обладает еще следующими свойствами:
    1)
    Атрибутивные свойства (атрибут – неотъемлемая часть чего-либо). Важнейшими среди них являются дискретность (информация состоит из отдельных частей, знаков) и непрерывность (возможность накапливать информацию)
    2)
    Динамические свойства связаны с изменением информации во времени: копирование – размножение информации; передача от источника к потребителю; перевод с одного языка на другой; перенос на другой носитель; старение (физическое – носителя, моральное – ценностное)
    3) Практические свойства - информационный объем и плотность
    2.2 Виды информации
    Для человека информация подразделяется на виды в зависимости от типа воспринимающих её рецепторов.
    Визуальная - воспринимаемая органами зрения
    (графическая или изобразительная) - первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира http://profbeckman.narod.ru/InformLekc.htm

    Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка.
    Это - способ кодирования речи человека специальными символами - буквами, причём разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания
    Числовая - в виде цифр и знаков, обозначающих математические действия. Это - количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами - цифрами, причем системы кодирования (счисления) могут быть разными.
    Звуковая - устная или в виде записи передача лексем языка аудиальным путем. Мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретение звукозаписывающих устройств в
    1877.
    Музыкальная – разновидность звуковой. Для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение её аналогично графической информации
    Видеоинформация - способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.
    Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения - это тактильная информация, передаваемая ощущениями, органолептическая
    (обонятельная и вкусовая), передаваемая запахами и вкусами и др.
    По предназначению (общественному значению) информация бывает
    Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума. Она бывает обыденной, общественно-политической, эстетической.
    Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация. Она бывает научной, технической, управленческой, производственной
    Личная - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции. Сюда относятся наши знания, умения, интуиция.
    Дезинформация - распространение искаженных или заведомо ложных сведений для достижения пропагандистских, военных (введение противника в заблуждение) или других целей.
    Особый вид информации - информация, представленная в глобальной сети Интернет. Здесь используются особые приёмы хранения, обработки, поиска и передачи распределенной информации больших объемов и особые способы работы с различными видами информации. Постоянно совершенствуется программное обеспечение, позволяющее проводить коллективную работу с информацией всех видов. http://profbeckman.narod.ru/InformLekc.htm

    Объектом приложений информатики являются самые различные науки и области практической деятельности.
    Многообразные информационные технологии, функционирующие в разных видах человеческой деятельности (управлении производственным процессом, проектировании, финансовых операциях, образовании и т.п.), имея общие черты, в то же время существенно различаются между собой. В конкретных приложениях существуют такие категории информации, как: аэронавигационная, геологическая, инсайдовская, социальная, секретная, генетическая - совокупность хранимых и наследственных биологических признаков, и др.
    2.3 Качество информации
    Возможность и эффективность использования информации определяется её качеством, под которым понимают степень её соответствия потребностям потребителей. Свойства информации являются относительным, так как зависят от потребностей потребителя информации.
    Потребительскими показателями качества информации являются:
    Содержательность или внутреннее качество (качество, присущее собственно информации и сохраняющееся при её переносе из одной системы в другую) Содержательность информации отражает семантическую ёмкость, равную отношению величины семантической информации в сообщении к объёму обрабатываемых данных.
    Репрезентативность информации связана с правильностью её отбора и формирования в целях адекватного отражения свойств объекта.
    Значимость (свойство сохранять ценность для потребителя с течением времени)
    Идентичность (свойство, заключающееся в соответствии информации состоянию объекта)
    Кумулятивность (свойство информации, заключённой в массиве небольшого объёма достаточно полно отражать действительность). С течением времени количество информации растет, информация накапливается, происходит её систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации.
    Защищённость или внешнее качество (качество, присущее информации, находящейся или используемой только в определённой системе), включая сохранность, достоверность и конфиденциальность.
    Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.
    Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) – медленнее.
    Социальная (общественная) информация обладает еще и дополнительными свойствами: имеет семантический
    (смысловой) характер, т. е. понятийный, так как именно в понятиях обобщаются наиболее существенные признаки предметов, процессов и явлений окружающего мира.
    Информация имеет языковую природу (кроме некоторых видов эстетической информации, например изобразительного искусства). Одно и то же содержание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т. д.
    2.4 Количество информации
    Понятно, что измерить количество смысловой информации невозможно. Какое количество информации содержится, к примеру, в тексте романа «Война и мир», во http://profbeckman.narod.ru/InformLekc.htm
    фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и не даст.
    Тем не менее, в определенных условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащееся в различных группах данных. Физическую (термодинамическую, статистическую) и техническую
    (шенноновскую) информации, уменьшающие энтропию и неопределённость, измерить можно.
    Не только измерить, но «взвесить» и купить. Именно так я оплачиваю счёт за Интернет.
    И в физическом и в техническом подходах к определению количества информации не обсуждается ценность того или иного информационного сообщения.
    Смысловая информация всегда связана с материальным носителем: это может быть сигнал в любой материальной форме, числовой, символьный код на печатной основе и т.д. Поскольку, любой материальный объект можно измерить, то это относится и к информации. Количество информации, затраченное на описание конкретного объекта, можно оценить по количеству букв, затраченных на описание модели объекта. Поскольку, каждый символ естественного языка можно закодировать одним определённы числом информационных единиц (на один символ требуется 1 байт, т.е.8 бит), то легко вычислить полный объём информации, связанный с описанием любого объекта, процесса, явления. Это так называемый алфавитный
    подход
    измерения количества информации.
    Есть другой количественный подход – технический (кибернетический,шенноновский), изложенный в работах К.Шеннона и Н.Винера. Изучая системы передачи информации, К.Шеннон пришёл к выводу, что каждое элементарное сообщение на выходе системы уменьшает неопределённость исходного множества сообщений, при этом смысловой аспект сообщения не имеет никакого значения.
    За единицу количества информации было предложено принять «количество информации, передаваемое при одном выборе между равновероятными альтернативами». Эта наименьшая единица информации называется бит.
    Количество кодированной информации:
    - мера информации, сообщаемой появлением события определенной вероятности;
    - мера оценки информации, содержащейся в сообщении;
    - мера, характеризующая уменьшение неопределенности, содержащейся в одной случайной величине относительно другой.
    Единицами кодированной информации являются бит и байт.
    Бит - минимальная единица измерения количества передаваемой или хранимой информации, соответствующая одному двоичному разряду, способному принимать значений 0 или 1.
    Байт - в запоминающих устройствах - наименьшая адресуемая единица данных в памяти компьютера, обрабатываемая как единое целое. По умолчанию байт считается равным 8 битам. Обычно в системах кодирования данных байт представляет собой код одного печатного или управляющего символа.
    Информация в один бит уменьшает неопределённость информационной системы в два раза. Для вычисления средней величины количества информации, связанного с положительным исходом некоторого события x из множества m событий К.Шеннон предложил формулу:
    H
    x
    =−Σp
    i log p
    i
    , где p
    i
    -вероятность i-го события.
    Эта формула характеризует энтропию (меру неопределённости) системы. Изначально это понятие появилось в физике, и характеризует оно степень неупорядоченности, т.е. неопределённости микросостояния, в котором система (например, термодинамическая) может находиться в данный момент времени. Значение H
    x
    достигает максимума для равновероятных событий, т.е. при p
    i
    = 1⁄m формула
    К.Шеннона упрощается: http://profbeckman.narod.ru/InformLekc.htm

    H
    max
    = −log p = log m (формула Р.Хартли).
    Пример: Рассмотрим систему с 256 возможными состояниями, например, расширенную кодовую таблицу символов, тогда H
    max
    будет равно 8 битам (log
    2 256 = 8). Другими словами, восемь бит достаточно, чтобы точно описать исход любого события (например, выборку определённого символа из таблицы).
    Шеннон подошёл к проблеме как инженер и рассматривает просто количество битов передаваемой в течение некоторого времени информации, то есть её поток. Одной из особенностей такого подхода к определению понятия «информация» является то, что никак не учитываются энергетические или какие- нибудь иные ресурсные затраты, связанные с ее передачей, приемом и обработкой. В частности, процессы передачи и обработки информации и процессы, управляемые этой информацией, могут отличаться по энергетике во много раз. Другой особенностью такого подхода является то, что информация обсуждается как некоторая «надматериальная» субстанция, которая тем не менее упорядочена или, по крайней мере, может быть упорядочена в физическом времени. Это следствие таких неявно подразумеваемых в понятии информации свойств, как возможность её передачи и преобразования посредством материальных носителей, в частности, возможность её запоминания и извлечения из памяти. Следуя этой логике, можно сказать, что для сохранения информации необходимо «свёртывать» упорядоченную во времени последовательность сигналов (или, в физической терминологии - возмущений) в некоторые упорядоченные, структурные изменения в устройстве памяти. Извлечение же информации из памяти - это обратный процесс восстановления упорядоченной во времени последовательности сигналов, с использованием тех структурных изменений в памяти, которые произошли при запоминании.
    Передача информации через среду является частным случаем её преобразования: фактически, передача может рассматриваться как последовательное запоминание и восстановление сигналов от точки к точке пространства вдоль пути ее распространения.
    Самый высокий уровень информационной энтропии имеют случайные последовательности знаков.
    Поскольку часть данных при преобразованиях информации может теряться, то передаваемая и принимаемая последовательности сигналов, или в ином, нетехническом контексте, - последовательности знаков, могут отличаться по информационному содержанию. Это отражено в соответствующих соотношениях, где учтено увеличение информационной энтропии в случае искажения части знаков при преобразованиях.
    При термодинамическом подходе оценивается термодинамическая вероятность существования системы при каких-либо условиях до и после получения порции информации, а количество информации при этом оценивается через разность энтропий конечного и начального состояний, т. е. характеризует изменение уровня упорядоченности системы. Энтропия каждого состояния оценивается по формуле
    Больцмана:
    S=kln(N), где k - постоянная Больцмана, N - количество способов, которыми может быть реализовано данное состояние системы, а ln - натуральный логарифм.
    Следует отметить, что однозначная связь между шенноновской и больцмановской формулами энтропии не всегда возможна хотя бы потому, что в одном случае речь идёт о потоке знаков, а другом - об изменениях в некоторой структуре. В качестве примера, когда это все же так, можно привести какое-нибудь устройство памяти, запоминающее короткие информационные сообщения.
    Замечание. Существует ещё один способ определения количества информации, основанный на эпсилон- энтропии, предложен А.Н.Колмогоровым. Об алгоритмическом подходе Колмогорова к информации и о его теории сложности мы расскажем в одной из последующих лекций.
    Есть так же содержательный (субъективный) подход к измерению информации. Содержание информации кроме количественного параметра имеет ещё и смысловую характеристику, которая определяется способностью пользователя понимать поступившее сообщение. Эта способность зависит от тезауруса пользователя, т.е. совокупности сведений и знаний, которыми располагает пользователь. Если тезаурус пользователя близок к нулю, то любая новая информация им не воспринимается (он её не понимает) и в этом случае семантическая компонента информации для него равна нулю
    (для меня,
    например, любой текст, записанный китайскими иероглифами будет давать нулевую информацию, тогда
    http://profbeckman.narod.ru/InformLekc.htm

    как для китайца (если он грамотен, конечно) тот же текст будет крайне информативен).
    Таким образом, одно и то же сообщение может нести для пользователя разное количество смысловой информации.
    Подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте, не привели к особым успехам. Когда говорят о мере смысловой информации обычно подразумевают не количество, а ценность информации.
    2.5 Ценность информации
    Существует ещё один подход к измерению информации, идущий от «здравого смысла». Он связан с идеей о полезности, или ценности информации. Попытки определять ценность смысловой информации предпринимались с биологических и психологических позиций, но общепринятых подходов так пока и не существует.
    В биологическом аспекте полезность принимаемой информации связана с увеличением выживаемости организма или повышением успешности существования популяции. Получение организмом полезного информационного сообщения означает совершенствование соответствующих инструкций его взаимодействия с окружающей средой. В психологии поведение обсуждается иначе: не с точки зрения улучшения или ухудшения биовыживательных стратегий, а на языке мотиваций. Понятно, что в контекстах различных мотиваций, одно и то же информационное сообщение может иметь разную ценность. Вряд ли требует особого объяснения то обстоятельство, что далеко не любые мотивации подразумевают действия, объективно полезные с точки зрения выживания организма или эволюционного успеха популяции организмов.
    Так или иначе, но и в биологическом и в психологическом аспектах одно и то же информационное сообщение не может быть одинаково ценным для любых реципиентов. Его полезность связана с особенностями воспринимающей стороны, а эти особенности отличаются у разных организмов и могут меняться в течение времени. Поэтому вряд ли возможно предложить способ вычисления ценности того или иного информационного сообщения в общем случае. Однако несложно определить эту величину в биологическом контексте, если отвлечься от отдельных организмов и воспользоваться популяционным подходом.
    Под
    1   2   3   4   5


    написать администратору сайта