лекция 4. Лекция 4 Подходы к понятию информации и измерение информации
Скачать 68.5 Kb.
|
Лекция № 4 Подходы к понятию информации и измерение информации Информация содержится везде. Дерево содержит собственную генетическую информацию, и только благодаря этой информации от семечка берёзы вырастает только берёза. Для деревьев источником информации является воздух, именно по уровню состояния воздуха дерево может определить время распускания почек. Перелетные птицы знают свой маршрут перелёта, и каждая стая идёт только своим заданным в генах маршрутом. Таким образом существует три основные интерпретации понятия "информация": Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям. Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя. Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п. Также существуют несколько концепций (теорий, подходов) информации. Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности события. Вторая концепция рассматривает информацию как свойство материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым. Третья концепция основана на логико-семантическом (семантика - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная, "работающая" часть знаний. Представитель этой концепции В.Г. Афанасьев. В настоящее время термин информация имеет глубокий и многогранный смысл. Во многом, оставаясь интуитивным, он получает разные смысловые наполнения в разных отраслях человеческой деятельности: в житейском аспекте под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами; в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов; в теории информации (по К.Шеннону) важны не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность; в кибернетике, по определению Н. Винера, информация - эта та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы; в семантической теории (смысл сообщения) - это сведения, обладающие новизной, и так далее... 1.2. Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений. За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа бит. Бит – наименьшая единица измерения информации. 1байт = 8 битов 1 Кбайт = 1 024 байт 1 Мбайт = 1 024 Кбайт 1 Гбайт = 1 024 Мбайт 1 Тбайт = 1 024 Гбайт Правила перевода: 1) Если из большего в меньшего, то умножаем поэтапно, проходя все единицы. 2) Если из меньшего в большее, то делим поэтапно, проходя все единицы Задание: Существует два подхода к измерению информации: 1) содержательный (вероятностный): Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой информации приводит к расширению знания или к уменьшению неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию. Пусть у нас имеется монета, которую мы бросаем. С равной вероятностью произойдет одно из двух возможных событий – монета окажется в одном из двух положений: «орел» или «решка». Можно говорить, что события равновероятны. Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим, что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска – только одно, то есть в два раза меньше. Чем больше неопределенна первоначальная ситуация (возможно большее количество информационных сообщений – например, бросаем немонету, а шестигранный кубик), тем больше мы получим новой информации при получении информационного сообщения (в большее количество раз уменьшится неопределенность знания). Главная формула информатики, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2I 2) объемный (алфавитный). Информация является предметом нашей деятельности: мы ее храним, передаем, принимаем, обрабатываем. Нам часто необходимо знать, достаточно ли места на носителе, чтобы разместить нужную нам информацию, сколько времени потребуется, чтобы передать информацию по каналу связи и т.п. Величина, которая нас в этих ситуациях интересует, называется объемом информации. В таком случае говорят об объемном подходе к измерению информации. Язык – это система обозначений и правил для передачи сообщений. К формальным языкам относятся языки программирования. В основе языка лежит алфавит, т.е. набор символов (знаков). Число символов в алфавите называется Мощностью алфавита и обозначается -N. Различают языки естественные, на которых общаются люди, и искусственные (или формальные) - системы счисления, язык алгебры, языки программирования и др.. Основное отличие формальных языков от естественных состоит в наличии строгих правил грамматики и синтаксиса. Например, системы счисления можно рассматривать как формальные языки, имеющие алфавит (цифры) и позволяющие не только именовать и записывать объекты (числа), но и выполнять над ними арифметические операции по строго определенным правилам. Некоторые языки используют в качестве знаков не буквы и цифры, а другие символы, например химические формулы, ноты, изображения элементов электрических или логических схем, дорожные знаки, точки и тире (код азбуки Морзе и др.). Представление информации может осуществляться с помощью языков, которые являются знаковыми системами. Каждая знаковая система строится на основе определенного алфавита и правил выполнения операций над знаками. Знаки могут иметь различную физическую природу. Например, для представления информации с использованием языка в письменной форме используются знаки, которые являются изображением на бумаге или других носителях; в устной речи в качестве знаков языка используются различные звуки (фонемы), а при обработке текста на компьютере знаки представляются в форме последовательностей электрических импульсов (компьютерных кодов). При хранении и передаче информации с помощью технических устройств информация рассматривается как последовательность символов – знаков (букв, цифр, кодов цветов точек изображения и т.д.) Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле N = 2I где N – это количество знаков в алфавите знаковой системы, можно рассчитать I – количество информации, которое несет каждый символ. Информационная емкость знаков зависит от их количества в алфавите. Так, информационная емкость буквы в русском алфавите, если не использовать букву «ё», составляет: 32 = 2I , т.е. I = 5 битов На основании алфавитного подхода можно подсчитать количество информации в сообщении Ic, для этого необходимо умножить количество информации, которое несет один символ I, на количество символов K в сообщении: Ic = I × K Например, в слове «информатика» 11 знаков (К=11), каждый знак в русском алфавите несет информацию 5 битов (I=5), тогда количество информации в слове «информатика» Iс=5х11=55 (битов). 2. Задачи № 1 Сообщение записано с помощью алфавита, содержащего 8 символов. Какое количество информации несет одна буква этого алфавита? Решение: I = log28 = 3 бита. Ответ: 3 бита. № 2 Информационный объем одного символа некоторого сообщения равен 6 битам. Сколько символов входит в алфавит, с помощью которого было составлено это сообщение? Решение: N = 2' = 26 = 64 символа. Ответ: 64 символа. № 3 Информационный объем одного символа некоторого сообщения равен 5 битам. Каковы пределы (максимальное и минимальное значение) мощности алфавита, с помощью которого составлено это сообщение? Решение: N = 21 = 2s = 32 - максимальное значение мощности алфавита. Если символов будет больше хотя бы на один, то для кодирования понадобится 6 бит. Минимальное значение - 17 символов, т.к. для меньшего количества символов будет достаточно 4 бит. Ответ: 4 бита. № 4 Сообщение, записанное буквами из 128-символьного алфавита, содержит 30 символов. Какой объем информации оно несет? Дано: N = 128, К =30. Найти: I - ? Решение: 1) I = K*i, неизвестно i; 2) i = log2N = log2128 = 7 бит - объем одного символа; 3) I = 30*7 = 210 бит - объем всего сообщения. Ответ: 210 бит объем всего сообщения. № 5 Для записи текста использовался 256-символьный алфавит. Каждая страница содержит 30 строк по 70 символов в строке. Какой объем информации содержат 5 страниц текста? Дано: N = 256, х = 30 - количество строк, у = 70 - количество символов в строке, М = 5 - количество страниц. Найти: I - ? Решение: 1) i = log2N = log2256 = 8 бит = 1 байт - объем одного символа; 2) К = х*у*М = 30*70*5 = 10500 символов - в тексте; 3) I = i*К = 1*10500 = 10500 байт = 10 Кбайт - объем всего текста. Ответ: объем всего текста 10 Кбайт. № 6
1)Т.к.N=64, то I = 6 бит 2) 7200*8:6 = 9600 символов в тексте; 3) 9600:4:40 = 60 символов в строке. № 9 Метеостанция ведет наблюдения за влажностью воздуха. Результатом одного измерения является целое число от 0 до 100, которое записывается при помощи минимально возможного количества битов. Станция сделала 80 измерений. Определите информационный объем результатов наблюдений. В данном случае алфавитом является множество чисел от 0 до 100, всего 101 значение. Поэтому информационный объем результатов одного измерения I=log2101. Но это значение не будет целочисленным, поэтому заменим число 101 ближайшей к нему степенью двойки, большей, чем 101. это число 128=27. Принимаем для одного измерения I=log2128=7 битов. Для 80 измерений общий информационный объем равен 80*7 = 560 битов = 70 байтов. |