Главная страница

информация 1 курс. Определение понятия информация


Скачать 482.62 Kb.
НазваниеОпределение понятия информация
Анкоринформация 1 курс
Дата08.09.2022
Размер482.62 Kb.
Формат файлаdocx
Имя файлаInformatsia.docx
ТипДокументы
#668008
страница5 из 8
1   2   3   4   5   6   7   8

1.6. Количество информации


Понятно, что измерить количество смысловой информации невозможно. Какое количество информации содержится, к примеру, в тексте романа «Война и мир», во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и не даст.

Тем не менее, в определенных условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащееся в различных группах данных. Физическую (термодинамическую, статистическую) и техническую (шенноновскую) информации, уменьшающие энтропию и неопределённость, измерить можно.

И в физическом и в техническом подходах к определению количества информации не обсуждается ценность того или иного информационного сообщения.

Меры информации бывают семантического, синтактического и прагматического уровня.

Подход к измерению информации бывает содержательным (вероятностным), который осуществляется через неопределённость знаний с учётом вероятности событий, или алфавитным, который осуществляется через количество символов с учётом информационного веса символов.

Смысловая информация всегда связана с материальным носителем: это может быть сигнал в любой материальной форме, числовой, символьный код на печатной основе и т.д. Информацию можно измерить, как и любой материальный объект. Количество информации, затраченное на описание конкретного объекта, можно оценить по количеству букв, затраченных на описание модели объекта. Поскольку, каждый символ естественного языка можно закодировать одним определённым числом информационных единиц (на один символ требуется байт, т.е.8 бит), то легко вычислить полный объём информации, связанный с описанием любого объекта, процесса, явления. Это так называемый алфавитный подход измерения количества информации.

Есть другой количественный подход — технический (кибернетический, шенноновский), изложенный в работах К.Шеннона и Н.Винера. Изучая системы передачи информации, К.Шеннон пришёл к выводу, что каждое элементарное сообщение на выходе системы уменьшает неопределённость исходного множества сообщений, при этом смысловой аспект сообщения не имеет никакого значения. За единицу количества информации было предложено принять «количество информации, передаваемое при одном выборе между равновероятными альтернативами». Эта наименьшая единица информации называется бит.

Количество кодированной информации:

— мера информации, сообщаемой появлением события определенной вероятности;

— мера оценки информации, содержащейся в сообщении;

— мера, характеризующая уменьшение неопределенности, содержащейся в одной случайной величине относительно другой.

Единицами кодированной информации являются бит и байт

Битминимальная единица измерения количества передаваемой шли хранимой информации, соответствующая одному Двоичному разряду, способному принимать значений 0 или 1.

Байт в запоминающих устройствах — наименьшая адресуемая единица Данных в памяти компьютера, обрабатываемая как единое целое. По умолчанию байт считается равным 8 битам. Обычно в системах кодирования Данных байт представляет собой код одного печатного или управляющего символа.

Информация в один бит уменьшает неопределённость информационной системы в два раза. Для вычисления средней величины количества информации, связанного с положительным исходом некоторого события х из множества т событий К.Шеннон предложил формулу:

Hx = (1)

Где рi-вероятность i-го события.

Эта формула характеризует энтропию (меру неопределённости) системы. Изначально это понятие появилось в физике, и характеризует оно степень неупорядоченности, т.е. неопределённости микросостояния, в котором система (например, термодинамическая) может находиться в данный момент времени. Значение Hх достигает максимума для равновероятных событий, т.е. при pi=l/m формула К.Шеннона упрощается:

Hmax= — logp = logm(формула Р.Хартли).

Подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте, не привели к особым успехам. Когда говорят о мере смысловой информации, обычно подразумевают не количество, а ценность информации.
1   2   3   4   5   6   7   8


написать администратору сайта