информатика. Вопрос Понятие, структура и задачи информатики
Скачать 6.17 Mb.
|
Вопрос 2. Количественные характеристики информации.Кроме качественных характеристик информации, рассмотренных выше, информация обладает и количественными характеристиками. Их изучает специальная наука – теория информации. Важнейшим результатом теории информации является вывод о том, что в определенных, весьма широких условиях, можно, пренебрегая качественными особенностями информации, выразить ее количество числом, а следовательно, сравнивать количество информации, содержащейся в различных группах данных. Количеством информации называют числовую характеристику информации, отражающую ту степень неопределенности, которая исчезает после получения информации. Рассмотрим пример. Находясь осенним утром дома, мы предположили, что могут быть осадки, а могут и не быть, а если будут, то в виде снега или в виде дождя, то есть «то ли будет, то ли нет, то ли дождик, то ли снег». Затем, выглянув в окно, увидели пасмурное небо и с большой вероятностью предположили, в ближайшие часы осадки будут. То есть, после получения информации, у нас снизилось количество вариантов выбора. Далее, взглянув на наружный термометр, мы увидели, что температура отрицательная, значит, осадки следует ожидать в виде снега. Таким образом, получив последние данные о температуре, мы получили полную информацию о предстоящей погоде и исключили все варианты выбора, кроме одного. Приведенный пример показывает, что понятия «информация», «неопределенность», «возможность выбора» тесно связаны. Получаемая информация уменьшает число возможных вариантов выбора (т.е. неопределенность), а полная информация не оставляет вариантов вообще. Условно все подходы к определению количества информации можно разделить на пять видов: 1) энтропийный; 2) алгоритмический; 3) комбинаторный; 4) семантический; 5) прагматический. Первые три вида дают количественное определение сложности описываемого объекта или явления. Четвертый – описывает содержательность и новизну передаваемого сообщения для получателя (пользователя) сообщения. Наконец, пятый вид обращает внимание на полезность полученного сообщения для пользователя. Измерение информации: содержательный подход. Для человекаинформация тесно связана с его знаниями. Рассмотрим вопрос с этой точки зрения. Получение новой информации приводит к расширению знаний. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию. Отсюда следует вывод, что сообщение информативно (т.е. содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на завтра — информативное сообщение, а сообщение о вчерашней погоде неинформативно, так как нам это уже известно. Нетрудно понять, что информативность одного и того же сообщения может быть разной для разных людей. Например: «2 x 2=4» информативно для первоклассника, изучающего таблицу умножения, и неинформативно для старшеклассника. Но для того чтобы сообщение было информативно, оно должно быть еще понятно. Быть понятным – значит быть логически связанным с предыдущими знаниями человека. Определение «значение определенного интеграла равно разности значений первообразной подынтегральной функции на верхнем и на нижнем пределах», скорее всего, не пополнит знания и старшеклассника, так как оно ему непонятно. Для того чтобы понять данное определение, нужно закончить изучение элементарной математики и знать начала высшей. Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет в то же время понятным, а значит, будет нести информацию для человека. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными. Очевидно, что различать лишь две ситуации: «нет информации» — «есть информация» для измерения информации недостаточно. Нужна единица измерения, тогда мы сможем определять, в каком сообщении информации больше, а в каком – меньше. Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица носит название «бит». Ее определение звучит так: «Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации». Неопределенность знаний о некотором событии — это количество возможных результатов события. Рассмотрим классический пример – подбрасывание монеты. До эксперимента мы имеем неопределённость: либо выпадет «орел», либо «решка». То есть неопределённость – два возможных исхода. После подбрасывания монеты, неопределённость уменьшается вдвое и вообще исчезает – монета упала конкретной стороной. То есть, сообщение о том, что выпал, например, «орел» несёт информацию, количество которой равно 1 биту. Другой пример. После выполнения контрольной работы у студента имеется неопределенность, он не знает, какую оценку получил: «2», «3», «4» или «5». То есть количество возможных исходов равно 4. После объявления преподавателем результатов, он получает одно из четырех информационных сообщений: «2», «3», «4» или «5». Информационное сообщение об оценке за контрольную работу приводит к уменьшению неопределенности знания в четыре раза, так как получено одно из четырех возможных сообщений. То есть количество информации в сообщении равно 2 битам. Если обозначить возможное количество событий, или, другими словами, неопределенность знаний N, а буквой I количество информации в сообщении о том, что произошло одно из N событий, то можно записать формулу: 2I = N Итак, количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2I = N. Таким образом, при двух равновероятных исходах эксперимента N = 2, I = 1 (бит), а при N = 4, I = 2 (бита). Измерение информации: алфавитный подход. Алфавитный подход – это способ измерения информации, который не связывает количество информации с содержанием сообщения. При алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы. Применение алфавитного подхода удобно прежде всего при использовании технических средств работы с информацией. В этом случае теряют смысл такие понятия, как «новые — старые», «понятные — непонятные» сведения. Алфавитный подход является объективным способом измерения информации в отличие от субъективного содержательного подхода. Все множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел, т.е. пропуск между словами. Полное количество символов алфавита принято называть мощностью алфавита. Будем обозначать эту величину буквой N. Например, мощность алфавита из заглавных русских букв, цифр и дополнительных символов (( ) . , ! ? « « : - ; (пробел)) – равна 54. Рассмотрим вопрос: сколько информации несет один символ в русском языке? Для простоты предположим, что каждый символ в тексте с одинаковой вероятностью может быть любым символом алфавита. Тогда, согласно известной нам формуле 2I =N, каждый такой символ несет I бит информации, которое можно определить из решения уравнения: 2I = 54. Получаем: I = 5.755 бит. Вот сколько информации несет один символ в русском тексте. А теперь для того, чтобы найти количество информации во всем тексте, нужно посчитать число символов в нем и умножить на I. Посчитаем, например, количество информации на одной странице книги. Пусть страница содержит 50 строк. В каждой строке – 60 символов. Значит, на странице умещается 50 x 60=3000 знаков. Тогда объем информации будет равен: 5,755бит х 3000 = 17265 бит. Сформулируем полученный вывод. При алфавитном подходе к измерению информации количество информации зависит не от содержания, а от размера текста и мощности алфавита. А что если алфавит состоит только из двух символов 0 и 1? В этом случае: N = 2; 2I = N = 2; I = 1. Значит, при использовании двоичной системы (алфавит состоит из двух знаков: 0 и 1) каждый двоичный знак несет 1 бит информации. Интересно отметить, что сама единица измерения информации «бит» получила свое название от английского сочетания «binary digit» – «двоичная цифра». Удобнее всего измерять информацию, когда размер алфавита N равен целой степени двойки. Например, если N = 16, то каждый символ несет 4 бита информации, потому что 24 = 16. А если N = 32, то один символ «весит» 5 бит. Ограничения на максимальный размер алфавита теоретически не существует. Однако есть алфавит, который можно назвать достаточным. Это алфавит мощностью 256 символов. В алфавит такого размера можно поместить все практически необходимые символы: латинские и русские буквы, цифры, знаки арифметических операций, всевозможные скобки, знаки препинания. Поскольку 256 = 28, то один символ этого алфавита «весит» 8 бит. Причем 8 бит информации – это настолько характерная величина, что ей даже присвоили свое название – байт. 1 байт = 8 бит Сегодня очень многие люди для подготовки писем, документов, статей, книг и пр. используют компьютерные текстовые редакторы. Компьютерные редакторы, в основном, работают с алфавитом размером 256 символов. В этом случае легко подсчитать объем информации в тексте. Если 1 символ алфавита несет 1 байт информации, то надо просто сосчитать количество символов; полученное число даст информационный объем текста в байтах. Пример. Пусть текст небольшой книжки, набранный с помощью компьютера, содержит 150 страниц, на каждой странице – 40 строк, в каждой строке — 60 символов. Значит, страница содержит 40 x 60 = 2400 байт информации. Объем всей информации в книге: 2400 х 150 = 360 000 байт. |