Курсовая. Количественные характеристики информационных процессов
Скачать 493.72 Kb.
|
Количественные характеристики информационных процессов (Информация и её свойства. Измерение информации.) Цели: разобрать свойства информации, освоить основные подходы к измерению информации формулу вычисления количества информации; уметь решать задачи на нахождение количества информации с помощью алфавитного и содержательного подходов; иметь представление обо всех способах нахождения количества информации. Ход урока Организационный момент. Информация и её свойства Возможность эффективного использования информации обусловливается ее качественными характеристиками или свойствами: * понятность. Информация должна быть понятной всем участникам обмена информацией. Например, человек — существо социальное, для общения с другими людьми должен обмениваться ими информацией, причем обмен информацией всегда происходит на определенном языке (русском, английском и т.д.), поэтому участники дискуссии должны владеть тем языком, на котором ведется общение; * достоверность. Информация должна быть достоверной, т.е. она должна отражать истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, т.е. перестает отражать истинное положение дел; * полнота. Информация должна быть полной, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений и может повлечь ошибки; * ценность. Ценность информации зависит ос того, насколько важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека; * своевременность. Информация должна быть своевременной — только в этом случае она может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации, когда она еще не может быть усвоена, так и подача информации с задержкой. Измерение информации. Вероятностный метод измерения информации. Измерение информации. Вероятностный метод измерения информации Для того чтобы рассмотреть участие информации в информационном процессе, необходимо ввести количественные характеристики информации, т.е. научиться ее измерять. В теоретической информатике информация рассматривается как знания, т.е. процесс систематического научного познания окружающего мира приводит к накоплению информации в виде знаний (научных теорий, фактов и т.д.). Процесс познания можно наглядно изобразить в виде расширяющегося круга знания (такой способ придумали еще древние греки). Вне этого круга лежит область незнания, а окружность является границей между знанием и незнанием. Парадокс состоит в том, что чем большим объемом знаний обладает человек и чем шире круг его знаний, тем больше он ощущает недостаток знании и тем больше граница его незнания, мерой которого в этой модели является длина окружности. Например, объем знаний выпускника школы гораздо больше, чем объем знаний первоклассника или пятиклассника, однако и граница его незнания также существенно больше. Действительно, первоклассник совершенно ничего не знает о законах физики, химии или экономики и его это не смущает, тогда как выпускник школы, например, при подготовке к экзамену по физике может обнаружить, что есть законы, которых он не знает или не понимает. Можно считать, что ученик, получая информацию, уменьшает неопределенность знания (расширяет круг знания). Подход к информации как к мере уменьшения неопределенности знания позволяет количественно измерять информацию, что чрезвычайно важно для информатики, учитывая, что она имеет дело с процессами передачи и хранения информации. Информацию можно рассматривать как набор сообщений. Пример 1. В закрытом ящике лежат два шара — черный и белый. Вытаскиваем один шар. Перед вытаскиванием существовала неопределенность нашего знания, так как возможны два события: «черный шар» или «белый шар». После того как шар вытащен, наступает полная определенность: событие «черный шар», тогда в ящике остался белый, и наоборот. Вытаскивание одного из двух шаров приводит к уменьшению неопределенности нашего знания в 2 раза. Рассмотрим понятие «вероятность». Если N — это общее число возможных исходов какого-то процесса (например, вытаскивание шара), а из них интересующее нас событие (например, вытаскивание белого шара) может произойти k раз, то вероятность этого события р можно определить по формуле: р = k/N Вероятность выражается в долях единицы. Для примера 1 вероятность вытаскивания, как белого, так и черного шара равна 1/2, т.е. они равновероятны. Вероятность достоверного события равна 1 (из 50 белых шаров вытащен белый шар); вероятность невозможного события равна 0 (из 50 белых шаров вытащен черный шар). Пример 2. В ящике лежат четыре шара — три черных и один белый. Вытаскиваем один шар. Его цвет, скорее всего, будет черным, но может быть и белым. Посчитаем вероятность вытаскивания белого и черного шара: pбел = 1/4 = 0,25; pчерн = 3/4 = 0,75 Информация содержится в сообщении о цвете вытащенного шара. Какая информация в примере 2 ценнее: «белый шар» или «черный шар»? Конечно, информация о том, что вытащили белый шар, т.е. этим сообщением получено полное знание, что в коробке остались только черные шары. Информация о том, что вытащили черный шар, тоже уменьшает неопределенность знания (после этого события в ящике осталось три шара — один белый и два черных), но не дает полного знания, какой шар может быть вытащен следующим. Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии. Количественная зависимость между вероятностью события р и количеством информации в сообщении о нем выражается формулой i = log2(1/p), (1) или 2 i =1/р (2) Пример 3: Количество информации достигает max значения, если события равновероятны, поэтому количество информации можно расcчитать по формуле В корзине лежит 16 шаров разного цвета. Сколько информации несет сообщение, что достали белый шар? т.к. N = 16 шаров, то I = log2 N = log2 16 = 4 бит. Если событие достоверно, его вероятность равна 1, то оно неинформативно, т.е. количество информации в нем равно 0, но чем меньше вероятность какого-то события, тем большую ценность имеет информация об этом событии и тем больше будет значение i. Единицей измерения количества информации является бит (от англ, bit — binary digit — двоичная цифра). количественный метод измерения информации Рассмотренный выше подход к информации как мере уменьшения неопределенности знания позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2i Бит. Для количественного выражения любой величины необходимо сначала определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы - килограмм и т. д. Аналогично, для определения количества информации необходимо ввести единицу измерения. За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом. Если вернуться к рассмотренному выше получению информационного сообщения о результатах зачета, то здесь неопределенность как раз уменьшается в два раза и, следовательно, количество информации, которое несет сообщение, равно 1 биту. Производные единицы измерения количества информации. Минимальной единицей измерения количества информации является бит, а следующей по величине единицей - байт, причем: 1 байт = 8 битов = 23 битов. В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам "Кило" (103), "Мега" (106), "Гига" (109) и т. д. В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2n Так, кратные байту единицы измерения количества информации вводятся следующим образом: 1 килобайт (Кбайт) = 210 байт = 1024 байт; 1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт; 1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт. Совместное решение задач. 1)Сообщение, записанное буквами 64-символьного алфавита, содержит 20 символов. Какой объем информации оно несет? Решение: Один символ алфавита несет в себе 6 бит информации (2^6=64), Соответственно сообщение из 20 символов несет 6 х 20 = 120 бит. Ответ: 120 бит 2) Жители планеты Принтер используют алфавит из 256 знаков, а жители планеты Плоттер — из 128 знаков. Для жителей какой планеты сообщение из 10 знаков несет больше информации и на сколько? Решение: Один символ алфавита жителей планеты Принтер несет в себе 8 бит информации (2^8=256), а жителей планеты Плоттер — 7 бит информации (2^7=128). Соответственно сообщение из 10 знаков для жителей Принтер несет 10 х 8 = 80 бит, а для жителей Плоттер — 10 х 7 = 70 бит 80 — 70 = 10 бит. Ответ: Больше для жителей Принтер на 10 бит. 3. 3) Для кодирования нотной записи используется 7 значков-нот. Каждая нота кодируется одним и тем же минимально возможным количеством бит. Чему равен информационный объем сообщения, состоящего из 180 нот? Каждая нота кодируется 3 битами (2^2=4<7<2^3=8). Информационный объем сообщения равен 180 х 3 = 540 бит. Ответ: 540 бит. 4) Цветное растровое графическое изображение, палитра которого включает в себя 65 536 цветов, имеет размер 100Х100 точек (пикселей). Какой объем видеопамяти компьютера (в Кбайтах) занимает это изображение в формате BMP? Решение: 65536 = 2^16, I = 16 бит на кодирование 1 цвета. Все изображение состоит из 10х10=10 000 точек. Следовательно, количество информации, необходимое для хранения изображения целиком 16*10 000=160 000 бит = 20 000 байт = 19,5 Кб. Ответ: 19,5 килобайт 5) В велокроссе участвуют 119 спортсменов. Специальное устройство регистрирует прохождение каждым из участников промежуточного финиша, записывая его номер с использованием минимально возможного количества бит, одинакового для каждого спортсмена. Каков информационный объем сообщения, записанного устройством, после того как промежуточный финиш прошли 70 велосипедистов? Решение: N=119 (2^6=64<7<2^7=128), I ≈7 бит необходимо для кодирования одного спортсмена, поскольку была записана информация о 70 спортсменах, объем сообщения составил: 7 х 70 = 490 бит. Ответ: 490 бит. Самостоятельная работа 1)В некоторой стране автомобильный номер длиной 7 символов составляется из заглавных букв (всего используется 26 букв) и десятичных цифр в любом порядке. Каждый символ кодируется одинаковым и минимально возможным количеством бит, а каждый номер – одинаковым и минимально возможным количеством байт. Определите объем памяти, необходимый для хранения 20 автомобильных номеров. Решение: всего используется 26 букв + 10 цифр = 36 символов для кодирования 36 вариантов необходимо использовать 6 бит, так как 2^5=32<36<2^6=64, т.е. пяти бит не хватит (они позволяют кодировать только 32 варианта), а шести уже достаточно таким образом, на каждый символ нужно 6 бит (минимально возможное количество бит). полный номер содержит 7 символов, каждый по 6 бит, поэтому на номер требуется 6 x 7 = 42 бита. По условию каждый номер кодируется целым числом байт (в каждом байте – 8 бит), поэтому требуется 6 байт на номер (5x8=40<42<6x8=48), пяти байтов не хватает, а шесть – минимально возможное количество на 20 номеров нужно выделить 20x6=120 байт. Ответ: 120 байт. 2)Каждая клетка поля 8×8 кодируется минимально возможным и одинаковым количеством бит. Решение задачи о прохождении 'конем' поля записывается последовательностью кодов посещенных клеток . Каков объем информации после 11 сделанных ходов? (Запись решения начинается с начальной позиции коня). Решение: Всего клеток 8х8 = 64. Для кодирования 1 клетки необходимо 6 бит (2^6=64). В записи решения будет описано 12 клеток (11 ходов+начальная позиция). Объем информации записи 12х6 = 72 бита = 72:8 = 9 байт. Ответ: 9 байт. 3) Информационное сообщение объемом 1,5 килобайта содержит 3072 символа. Сколько символов содержит алфавит, с помощью которого было записано это сообщение? Решение: 1,5 Кбайта = 1,5*1024*8 = 12288 бит. 12288/3072 = 4 бита — информационный вес одного символа. Мощность алфавита равна 2^4=16 символов. Ответ: 16 символов. 4)Мощность алфавита равна 64. Сколько Кбайт памяти потребуется, чтобы сохранить 128 страниц текста, содержащего в среднем 256 символов на каждой странице? Решение: Всего требуется сохранить 128 х 256 = 32768 символов. Информационный вес 1 символа 6 бит (2^6=64). Чтобы сохранить весь текст, потребуется 32768 х 6 = 196608 бит = 196608 : 8 =24576 байт = 24576 : 1024 = 24 Кб. Ответ: 24 Кб. Подведение итогов, выставление отметок. объявление оценок за урок. Домашнее задание: |