Главная страница
Навигация по странице:

  • Ход урока Организационный момент.Информация и её свойства

  • Измерение информации. Вероятностный метод измерения информации.

  • Рассмотрим понятие «вероятность».

  • . N = 16 шаров, то I = log2 N = log2 16 = 4 бит.

  • Единицей измерения количества информации является бит

  • Совместное решение задач.

  • Самостоятельная работа

  • Курсовая. Количественные характеристики информационных процессов


    Скачать 493.72 Kb.
    НазваниеКоличественные характеристики информационных процессов
    АнкорКурсовая
    Дата26.03.2022
    Размер493.72 Kb.
    Формат файлаdocx
    Имя файла000e143e-ddafc8c5.docx
    ТипУрок
    #418579

    Количественные характеристики информационных процессов

    (Информация и её свойства. Измерение информации.)

    Цели: разобрать свойства информации, освоить основные подходы к измерению информации формулу вычисления количества информации; уметь решать задачи на нахождение количества информации с помощью алфавитного и содержательного подходов; иметь представление обо всех способах нахождения количества информации.

    Ход урока

    Организационный момент.

    Информация и её свойства

    Возможность эффективного использования информации обусловливается ее качественными характеристиками или свойствами:

    * понятность. Информация должна быть понятной всем участникам обмена информацией. Например, человек — существо социальное, для общения с другими людьми должен обмениваться ими информацией, причем обмен информацией всегда происходит на определенном языке (русском, английском и т.д.), поэтому участники дискуссии должны владеть тем языком, на котором ведется общение;

    * достоверность. Информация должна быть достоверной, т.е. она должна отражать истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, т.е. перестает отражать истинное положение дел;

    * полнота. Информация должна быть полной, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений и может повлечь ошибки;

    * ценность. Ценность информации зависит ос того, насколько важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека;

    * своевременность. Информация должна быть своевременной — только в этом случае она может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации, когда она еще не может быть усвоена, так и подача информации с задержкой.

    Измерение информации. Вероятностный метод измерения информации.

    Измерение информации. Вероятностный метод измерения информации Для того чтобы рассмотреть участие информации в информационном процессе, необходимо ввести количественные характеристики информации, т.е. научиться ее измерять.

    В теоретической информатике информация рассматривается как знания, т.е. процесс систематического научного познания окружающего мира приводит к накоплению информации в виде знаний (научных теорий, фактов и т.д.).

    Процесс познания можно наглядно изобразить в виде расширяющегося круга знания (такой способ придумали еще древние греки). Вне этого круга лежит область незнания, а окружность является границей между знанием и незнанием. Парадокс состоит в том, что чем большим объемом знаний обладает человек и чем шире круг его знаний, тем больше он ощущает недостаток знании и тем больше граница его незнания, мерой которого в этой модели является длина окружности.

    Например, объем знаний выпускника школы гораздо больше, чем объем знаний первоклассника или пятиклассника, однако и граница его незнания также существенно больше. Действительно, первоклассник совершенно ничего не знает о законах физики, химии или экономики и его это не смущает, тогда как выпускник школы, например, при подготовке к экзамену по физике может обнаружить, что есть законы, которых он не знает или не понимает. Можно считать, что ученик, получая информацию, уменьшает неопределенность знания (расширяет круг знания). Подход к информации как к мере уменьшения неопределенности знания позволяет количественно измерять информацию, что чрезвычайно важно для информатики, учитывая, что она имеет дело с процессами передачи и хранения информации.

    Информацию можно рассматривать как набор сообщений.



    Пример 1. В закрытом ящике лежат два шара — черный и белый. Вытаскиваем один шар. Перед вытаскиванием существовала неопределенность нашего знания, так как возможны два события: «черный шар» или «белый шар». После того как шар вытащен, наступает полная определенность: событие «черный шар», тогда в ящике остался белый, и наоборот.

    Вытаскивание одного из двух шаров приводит к уменьшению неопределенности нашего знания в 2 раза.

    Рассмотрим понятие «вероятность».

    Если N — это общее число возможных исходов какого-то процесса (например, вытаскивание шара), а из них интересующее нас событие (например, вытаскивание белого шара) может произойти k раз, то вероятность этого события р можно определить по формуле:

    р = k/N

    Вероятность выражается в долях единицы. Для примера 1 вероятность вытаскивания, как белого, так и черного шара равна 1/2, т.е. они равновероятны. Вероятность достоверного события равна 1 (из 50 белых шаров вытащен белый шар); вероятность невозможного события равна 0 (из 50 белых шаров вытащен черный шар).

    Пример 2. В ящике лежат четыре шара — три черных и один белый. Вытаскиваем один шар. Его цвет, скорее всего, будет черным, но может быть и белым.

    Посчитаем вероятность вытаскивания белого и черного шара:

    pбел = 1/4 = 0,25; pчерн = 3/4 = 0,75

    Информация содержится в сообщении о цвете вытащенного шара. Какая информация в примере 2 ценнее: «белый шар» или «черный шар»? Конечно, информация о том, что вытащили белый шар, т.е. этим сообщением получено полное знание, что в коробке остались только черные шары.

    Информация о том, что вытащили черный шар, тоже уменьшает неопределенность знания (после этого события в ящике осталось три шара — один белый и два черных), но не дает полного знания, какой шар может быть вытащен следующим.

    Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

    Количественная зависимость между вероятностью события р и количеством информации в сообщении о нем выражается формулой

    i = log2(1/p), (1) или

    2 i =1/р (2)

    Пример 3: Количество информации достигает max значения, если события равновероятны, поэтому количество информации можно расcчитать по формуле

    В корзине лежит 16 шаров разного цвета. Сколько информации несет сообщение, что достали белый шар?

    т.к. N = 16 шаров, то I = log2 N = log2 16 = 4 бит.

    Если событие достоверно, его вероятность равна 1, то оно неинформативно, т.е. количество информации в нем равно 0, но чем меньше вероятность какого-то события, тем большую ценность имеет информация об этом событии и тем больше будет значение i.

    Единицей измерения количества информации является бит (от англ, bit — binary digit — двоичная цифра).



    количественный метод измерения информации

    Рассмотренный выше подход к информации как мере уменьшения неопределенности знания позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение:

    N = 2i

    Бит. Для количественного выражения любой величины необходимо сначала определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы - килограмм и т. д. Аналогично, для определения количества информации необходимо ввести единицу измерения.

    За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом.

    Если вернуться к рассмотренному выше получению информационного сообщения о результатах зачета, то здесь неопределенность как раз уменьшается в два раза и, следовательно, количество информации, которое несет сообщение, равно 1 биту.

    Производные единицы измерения количества информации. Минимальной единицей измерения количества информации является бит, а следующей по величине единицей - байт, причем:

    1 байт = 8 битов = 23 битов.

    В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам "Кило" (103), "Мега" (106), "Гига" (109) и т. д.

    В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2n

    Так, кратные байту единицы измерения количества информации вводятся следующим образом:

    1 килобайт (Кбайт) = 210 байт = 1024 байт;

    1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт;

    1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт.

    Совместное решение задач.

    1)Сообщение, записанное буквами 64-символьного алфавита, содержит 20 символов. Какой объем информации оно несет?

    Решение: Один символ алфавита несет в себе 6 бит информации (2^6=64), Соответственно сообщение из 20 символов несет 6 х 20 = 120 бит. Ответ: 120 бит

    2) Жители планеты Принтер используют алфавит из 256 знаков, а жители планеты Плоттер — из 128 знаков. Для жителей какой планеты сообщение из 10 знаков несет больше информации и на сколько?

    Решение: Один символ алфавита жителей планеты Принтер несет в себе 8 бит информации (2^8=256), а жителей планеты Плоттер — 7 бит информации (2^7=128). Соответственно сообщение из 10 знаков для жителей Принтер несет 10 х 8 = 80 бит, а для жителей Плоттер — 10 х 7 = 70 бит 80 — 70 = 10 бит.

    Ответ: Больше для жителей Принтер на 10 бит. 3.

    3) Для кодирования нотной записи используется 7 значков-нот. Каждая нота кодируется одним и тем же минимально возможным количеством бит. Чему равен информационный объем сообщения, состоящего из 180 нот?

    Каждая нота кодируется 3 битами (2^2=4<7<2^3=8).

    Информационный объем сообщения равен 180 х 3 = 540 бит.

    Ответ: 540 бит.

    4) Цветное растровое графическое изображение, палитра которого включает в себя 65 536 цветов, имеет размер 100Х100 точек (пикселей). Какой объем видеопамяти компьютера (в Кбайтах) занимает это изображение в формате BMP?

    Решение: 65536 = 2^16, I = 16 бит на кодирование 1 цвета. Все изображение состоит из 10х10=10 000 точек. Следовательно, количество информации, необходимое для хранения изображения целиком 16*10 000=160 000 бит = 20 000 байт = 19,5 Кб.

    Ответ: 19,5 килобайт

    5) В велокроссе участвуют 119 спортсменов. Специальное устройство регистрирует прохождение каждым из участников промежуточного финиша, записывая его номер с использованием минимально возможного количества бит, одинакового для каждого спортсмена. Каков информационный объем сообщения, записанного устройством, после того как промежуточный финиш прошли 70 велосипедистов?

    Решение: N=119 (2^6=64<7<2^7=128), I ≈7 бит необходимо для кодирования одного спортсмена, поскольку была записана информация о 70 спортсменах, объем сообщения составил: 7 х 70 = 490 бит.
    Ответ: 490 бит.

    Самостоятельная работа

    1)В некоторой стране автомобильный номер длиной 7 символов составляется из заглавных букв (всего используется 26 букв) и десятичных цифр в любом порядке. Каждый символ кодируется одинаковым и минимально возможным количеством бит, а каждый номер – одинаковым и минимально возможным количеством байт. Определите объем памяти, необходимый для хранения 20 автомобильных номеров.

    Решение: 

    всего используется 26 букв + 10 цифр = 36 символов для кодирования 36 вариантов необходимо использовать 6 бит, так как 2^5=32<36<2^6=64, т.е. пяти бит не хватит (они позволяют кодировать только 32 варианта), а шести уже достаточно таким образом, на каждый символ нужно 6 бит (минимально возможное количество бит).
    полный номер содержит 7 символов, каждый по 6 бит, поэтому на номер требуется 6 x 7 = 42 бита.
    По условию каждый номер кодируется целым числом байт (в каждом байте – 8 бит), поэтому требуется 6 байт на номер (5x8=40<42<6x8=48), пяти байтов не хватает, а шесть – минимально возможное количество на 20 номеров нужно выделить 20x6=120 байт.
    Ответ: 120 байт.

    2)Каждая клетка поля 8×8 кодируется минимально возможным и одинаковым количеством бит. Решение задачи о прохождении 'конем' поля записывается последовательностью кодов посещенных клеток . Каков объем информации после 11 сделанных ходов? (Запись решения начинается с начальной позиции коня).

    Решение:

    Всего клеток 8х8 = 64. Для кодирования 1 клетки необходимо 6 бит (2^6=64). В записи решения будет описано 12 клеток (11 ходов+начальная позиция). Объем информации записи 12х6 = 72 бита = 72:8 = 9 байт.
    Ответ: 9 байт.

    3) Информационное сообщение объемом 1,5 килобайта содержит 3072 символа. Сколько символов содержит алфавит, с помощью которого было записано это сообщение?

    Решение:

    1,5 Кбайта = 1,5*1024*8 = 12288 бит. 12288/3072 = 4 бита — информационный вес одного символа. Мощность алфавита равна 2^4=16 символов. Ответ: 16 символов.

    4)Мощность алфавита равна 64. Сколько Кбайт памяти потребуется, чтобы сохранить 128 страниц текста, содержащего в среднем 256 символов на каждой странице?

    Решение:

    Всего требуется сохранить 128 х 256 = 32768 символов.
    Информационный вес 1 символа 6 бит (2^6=64). Чтобы сохранить весь текст, потребуется 32768 х 6 = 196608 бит = 196608 : 8 =24576 байт = 24576 : 1024 = 24 Кб.
    Ответ: 24 Кб.

    Подведение итогов, выставление отметок.

    объявление оценок за урок.

    Домашнее задание:


    написать администратору сайта