Главная страница
Навигация по странице:

  • Пример 2.

  • 2.2. алфавитный подход к измерению информации

  • Отнт. А. Ю. Босова Москва бином. Лаборатория знаний 10 класс Базовый уровень Учебник


    Скачать 6.18 Mb.
    НазваниеА. Ю. Босова Москва бином. Лаборатория знаний 10 класс Базовый уровень Учебник
    Дата01.12.2022
    Размер6.18 Mb.
    Формат файлаpdf
    Имя файлаinformatika_10kl_bu_bosovall.pdf
    ТипУчебник
    #823257
    страница2 из 21
    1   2   3   4   5   6   7   8   9   ...   21
    Глава1.Информацияиинформационныепроцессы
    которых придумал британский психолог Тони Бьюзен. Строгих правил построения интеллект-карт не существует, но при их создании можно учитывать следующие рекомендации 1. В центре листа картинкой или несколькими словами обозначьте основное понятие, возьмите его в рамку или в кружок.
    2. От центрального объекта нарисуйте в разные стороны цветные ветви — основные связанные с ним понятия, свойства, ассоциации. Подпишите каждую ветвь одним-двумя словами надпись должна быть разборчивой 3. Рисуя интеллект-карту, применяйте как можно больше цветов и как можно чаще используйте рисунки.
    4. От каждой ветви нарисуйте несколько более тонких веточек развитие ассоциаций, уточнение понятий, детализация свойств, конкретизация направлений.
    5. Смысловые блоки отделяйте линиями, берите в рамку.
    6. Связи между элементами интеллект-карты показывайте стрелками разного цвета и толщины 7. Сначала оформляйте основные идеи, а затем уже их редактируйте, делая карту более понятной и красивой.
    На рисунке 1.6 представлена интеллект-карта, дающая развёр- нутое представление о понятии «объект».
    рис. 1.6. Пример интеллект-карты

    15
    Информация
    §1
    самое ГЛаВное
    Информация (от лат. informatio — осведомление, разъяснение, изложение) — одно из фундаментальных понятий современной науки, не объясняемых через другие понятия. Информация обладает такими характеристиками, как объективность, достоверность, полнота, актуальность, полезность, понятность и др.
    Информационная культура — готовность человека к жизни и деятельности в современном высокотехнологичном информационном обществе, умение эффективно использовать возможности этого общества и защищаться от его негативных воздействий. Информационная грамотность — способность человека идентифицировать потребность в информации, умение её эффективно искать, оценивать и использовать. Работу человека с информацией можно разделить на несколько этапов стартовый этап, этап поиска информации, этап осмысления полученной информации, этап рефлексии.
    Основная часть накопленной человечеством информации зафиксирована в текстовой форме. Умение эффективно работать с текстовой информацией — важное условие успешной учёбы и профессиональной деятельности в современном мире.
    Вопросы и задания 1. Почему нельзя дать строгое и однозначное определение термину информация В чём состоит принципиальное отличие информации от вещества и энергии 2. Какие существуют основные философские концепции, связанные с понятием информации 3. Что такое информационная культура человека Каковые основные составляющие 4. Перечислите и охарактеризуйте основные этапы работы человека с информацией.
    5. Объясните значение слов идентификация, организация, реорганизация, интерпретация, рефлексия. Представьте один из перечисленных процессов с помощью сиквей- на — пятистрочника, строящегося последующей схеме) название темы сиквейна (в данном случае название процесса) одним словом или словосочетанием) описание темы двумя прилагательными или причастиями
    3) описание действий, связанных с темой, тремя словами) фраза из четырёх слов, показывающая отношение к теме, объекту

    16
    Глава1.Информацияиинформационныепроцессы
    5) синоним, выраженный одним словом, повторяющий суть темы ассоциация с темой 6. В какой ситуации вам могут пригодиться вопросы, образующие ромашку Блума? Попробуйте сформулировать хотя бы по одному вопросу из каждой группы 7. Какие слова называют ключевыми Перечислите ключевые слова этого параграфа 8. Поясните суть смыслового свёртывания информации 9. Какие текстовые формы представления свёрнутой информации вам известны Используйте одну из них для представления содержания этого параграфа. Какие графические формы представления свёрнутой информации вам известны Используйте одну из них для представления содержания этого параграфа. Используйте интеллект-карту (рис. 1.6) для того, чтобы сделать краткое сообщение об объектах. Используйте денотатный граф (рис. 1.5) для того, чтобы сделать краткое сообщение о системах.
    § подходы к измерению информации
    Информация и её свойства являются объектом исследования целого ряда научных дисциплин, таких как
    • теория информации (математическая теория систем передачи информации
    • кибернетика (наука об общих закономерностях процессов управления и передачи информации в машинах, живых организмах и обществе информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки
    • семиотика (наука о знаках и знаковых системах
    • теория массовой коммуникации (исследование средств массовой информации и их влияния на общество) и др.
    Рассмотрим более детально подходы к определению понятия информации, важные с позиций её измерения 1) определение К. Шеннона, применяемое в математической теории информации
    подходы к измерению информации 2) определение АН. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров содержательный подход
    к измерению информации
    Клод Шеннон, разрабатывая теорию связи, предложил характеризовать информативность сообщения содержащейся в нём полезной информацией, те. той частью сообщения, которая снимает полностью или уменьшает существующую до её получения неопределённость какой-либо ситуации.
    Клод Элвуд Шеннон (1916–2001) — американский инженер и математик. Является основателем теории информации, нашедшей применение в современных высокотехнологических системах связи. В 1948 году предложил использовать слово бит для обозначения наименьшей единицы информа- ции.
    Информация — это снятая неопределённость. Величина неопре- делённости некоторого события — это количество возможных результатов (исходов) данного события.
    Сообщение, уменьшающее неопределённость знания в 2 раза, нес т 1 бит информации.
    Такой подход к измерению информации называют содержательным.
    Пример 1. Допустим, вы подбрасываете монету, загадывая, что выпадет «орёл» или решка. Перед подбрасыванием монеты неопределённость знания о результате равна двум. Действительно, есть всего два возможных результата этого события (бросания монеты. Эти результаты мы считаем равновероятными, ткни один из них не имеет преимущества перед другим. После того как конкретный исход стал известен (например, подброшенная монета упала орлом вверх, неопределённость уменьшилась в 2 раза. Таким образом, сообщение о том, что подброшенная монета упала орлом вверх, несёт в себе 1 бит информации.
    Пример 2. Предположим, в книжном шкафу восемь полок. Книга может быть поставлена на любую из них. Сколько бит

    18
    Глава1.Информацияиинформационныепроцессы
    информации несёт сообщение о том, что книга поставлена на третью полку?
    Ответ на этот вопрос можно получить, если дополнить исходное сообщение ещё несколькими сообщениями так, чтобы каждое из них уменьшало неопределённость знания в 2 раза.
    Итак, количество возможных результатов (исходов) события, состоящего в том, что книга поставлена в шкаф, равно восьми
    1, 2, 3, 4, 5, 6, 7 и Сообщение Книга поставлена на полку не выше четвёртой» уменьшает неопределённость знания о результате в два раза. Действительно, после такого сообщения остаётся всего четыре варианта и 4. Получен один бит информации.
    Сообщение Книга поставлена на полку выше второй уменьшает неопределённость знания о результате в два раза после этого сообщения остаётся всего два варианта 3 и 4. Получен ещё один (второй) бит информации.
    Сообщение Книга поставлена на третью полку также уменьшает неопределённость знания о результате в два раза. Получен третий бит информации.
    Итак, мы построили цепочку сообщений, каждое из которых уменьшало неопределённость знания о результате в два раза, те. несло 1 бит информации. Всего было набрано 3 бита информации. Именно столько информации и содержится в сообщении Книга поставлена на третью полку».
    Подумайте, сколько информации содержится в сообщении о том, что книга поставлена на пятую полку. Обоснуйте свой ответ, построив соответствующую цепочку сообщений.
    Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления. Этот метод широко используется в компьютерных науках.
    Пример 3. О результатах футбольного матча между клубами Спартак и Динамо известно, что больше трёх мячей никто не забил. Всего возможных вариантов счёта матча — 16:
    0 : 0 0 : 1 0 : 2 0 : 3 1 : 0 1 : 1 1 : 2 1 : 3 2 : 0 2 : 1 2 : 2 2 : 3 3 : 0 3 : 1 3 : 2 3 : 3
    подходы к измерению информации
    §2
    Здесь первая цифра в каждой паре соответствует количеству мячей, забитых командой Спартак, вторая — командой Динамо Будем считать все варианты равновероятными и отгадывать счёт, задавая вопросы, на которые можно ответить только да или нет. Вопросы будем формулировать так, чтобы количество возможных вариантов счёта каждый раз уменьшалось вдвое. Это позволит нам 1) обойтись минимальным количеством вопросов 2) подсчитать, сколько бит информации содержит сообщение о счёте матча.
    Вопрос 1. Спартак забил больше одного мяча Предположим, получен ответ Нет. Такой ответ позволяет не рассматривать варианты, расположенные в нижней части таблицы, те. сокращает количество возможных исходов в 2 раза : 0 0 : 1 0 : 2 0 : 3 1 : 0 1 : 1 1 : 2 1 : 3 2 : 0 2 : 1 2 : 2 2 : 3 3 : 0 3 : 1 3 : 2 3 : Вопрос 2. Спартак забил один мяч Предположим, получен ответ Да. Такой ответ позволяет не рассматривать варианты, расположенные в верхней строке таблицы, те. сокращает количество возможных исходов ещё в 2 раза : 0 0 : 1 0 : 2 0 : 3 1 : 0 1 : 1 1 : 2 1 : Вопрос 3. Спартак пропустил больше одного мяча Предположим, получен ответ Нет. Можно отбросить ещё два варианта : 0 1 : 1 1 : 2 1 : Вопрос 4. Спартак пропустил один мяч Предположим, получен ответ Да. Получаем единственный вариант : 0 1 : 1

    20
    Глава1.Информацияиинформационныепроцессы
    Итак, нам удалось выяснить счёт матча, задав четыре вопроса, ответ на каждый из которых уменьшал неопределённость результата в два раза, те. нёс 1 бит информации. Сообщение о счёте матча несёт четыре бита информации.
    Выясните, какому счёту матча будут соответствовать следующие цепочки ответов на поставленные выше вопросы) Да – Да – Да – Да) Нет – Нет – Нет – Нет) Да – Нет – Да – Нет.
    Попробуйте придумать такие вопросы, чтобы цепочка ответов Нет – Да – Нет – Да приводила к счёту 2 : Вычислять количество информации, содержащееся в сообщении о том, что имел место один из множества равновероятных результатов некоторого события, с помощью метода половинного деления возможно, но затруднительно. Гораздо проще воспользоваться следующей закономерностью.
    Количество информации i, содержащееся в сообщении об одном из
    N равновероятных результатов некоторого события, определяется из решения уравнения 2
    i
    = При N, равном целой степени двойки (2, 4, 8, 16, 32 и т. д, это уравнение легко решается в уме. Решать такие уравнения при других N вы научитесь чуть позже, в курсе математики
    11 класса.
    Пример 4. Петя и Вася заинтересовались игрой «Крестики-но- лики на поле n × n. Количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 бит. Требуется выяснить размеры поляна котором играют Петя и
    Вася.
    Дано:
    i = 6 2
    i
    = N
    n × n = N
    2 6
    = 64 64 = 8 × 8
    n — Ответ 8 × 8.
    2.2. алфавитный подход к измерению информации
    Определение количества информации на основе уменьшения неопределённости наших знаний рассматривает информацию сточки зрения её содержания, понятности и новизны для чело
    подходы к измерению информации
    §2
    века. С этой точки зрения в примере о подбрасывании монеты одинаковое количество информации содержит и зрительный образ упавшей монеты, и короткое сообщение «Орёл», и длинная фраза В результате подбрасывания монета упала так, что на её видимой части изображён орёл». Однако при хранении и передаче информации с помощью технических устройств целесообразно отвлечься от её содержания и рассматривать информацию как последовательность символов букв, цифр, кодов цвета точек изображения и т. д) некоторого алфавита.
    Информация — последовательность символов (букв, цифр, кодов цвета точек изображения и т. д) некоторого алфавита.
    Минимальная мощность алфавита, пригодного для кодирования информации, равна 2. Такой алфавит называется двоичным. Один символ двоичного алфавита несёт 1 бит информации.
    Согласно Колмогорову, количество информации, содержащейся в последовательности символов, определяется минимально возможным количеством двоичных знаков, необходимых для кодирования этой последовательности, безотносительно к содержанию представленного ею сообщения. Данный подход к определению количества информации называют алфавитным.
    Андрей Николаевич Колмогоров (1903–1987) — один из крупнейших математиков ХХ века. Им получены основополагающие результаты в математической логике, теории сложности алгоритмов, теории информации, теории множеств и ряде других областей математики и её приложений.
    Информационным объёмом сообщения называется количество двоичных символов, которое используется для кодирования этого сообщения. В двоичном коде один двоичный разряд несёт 1 бит ин- формации.
    В отличие от определения количества информации по Колмогорову в определении информационного объёма не требуется,

    22
    Глава1.Информацияиинформационныепроцессы
    чтобы число двоичных символов было минимально возможным. При оптимальном кодировании понятия количества информации и информационного объёма совпадают.
    Из курса информатики основной школы вызнаете, что двоичные коды бывают равномерные и неравномерные. Равномерные коды в кодовых комбинациях содержат одинаковое число символов, неравномерные — разное.
    Первый равномерный двоичный код был изобретён французом Жаном Морисом Бодов году. В коде Бодо используются сигналы двух видов, имеющие одинаковую длительность и абсолютную величину, но разную полярность. Длина кодов всех символов алфавита равна пяти (рис. Таблица букв. o..
    B
    .o ..o
    K
    oo o..
    S
    o. ..o
    EÉ
    .. oo.
    C
    .o o.o
    L
    oo oo.
    T
    o. o.o
    E
    .. .o.
    D
    .o ooo
    M
    oo .o.
    V
    o. ooo
    I
    .. .oo
    F
    .o .oo
    N
    oo .oo
    W
    o. .oo
    O
    .. ooo
    G
    .o .o.
    P
    oo ooo
    X
    o. .o.
    U
    .. o.o
    H
    .o oo.
    Q
    oo o.o
    Z
    o. oo.
    Y
    .. ..o
    J
    .o o..
    R
    oo ..o

    o. рис 1.7. Фрагмент кодовой таблицы кода Бодо
    Всего с помощью кода Бодо можно составить 2 5
    = 32 комби- нации.
    Пример 5. Слово WORD, закодированное с помощью кода
    Бодо, будет выглядеть так o
    o o
    o o
    o o
    o o
    o Информационный объём такого сообщения равен 20 битам таково количество двоичных символов, которое используется для кодирования этого сообщения
    подходы к измерению информации
    §2
    Пример 6. Для двоичного представления текстов в компьютере чаще всего используется равномерный восьмиразрядный код. Сего помощью можно закодировать алфавит из 256 символов
    (2 8
    = 256). Фрагмент кодовой таблицы ASCII представлен на рисунке 76
    L
    01001100 89
    Y
    01011001 77
    M
    01001101 рис 1.8. Фрагмент кодовой таблицы Слово WORD, закодированное с помощью таблицы ASCII:
    0 1 0 1 0 1 1 1 0 1 0 0 1 1 1 1 0 1 0 1 0 0 1 0 0 1 0 0 0 1 0 Информационный объём такого сообщения равен 32 битам.
    Из курса информатики основной школы вам известно, что с помощью разрядного двоичного кода можно закодировать алфавит, мощность N которого определяется из соотношения 2
    i
    = N. Иными словами, зная мощность используемого алфавита всегда можно вычислить информационный вес символа — минимально возможное количество бит, требуемое для кодирования символов этого алфавита. При этом информационный вес символа должен быть выражен целым числом

    24
    Глава1.Информацияиинформационныепроцессы
    Соотношение для определения информационного веса символа алфавита можно получить и из следующих соображений.
    Пусть N — мощность алфавита, используемого для кодирования сообщений. При этом в каждом конкретном сообщении какие-то символы алфавита будут использоваться чаще, какие-то — реже, а какие-то — не будут использоваться вообще. Не станем обращать на это внимание, наоборот, будем считать, что любой из символов может появиться в сообщении с равной вероятностью. Другими словами, появление в сообщении очередного символа — одно из
    N равновероятных событий. Но количество информации i, содержащееся в сообщении об одном из N равновероятных результатов некоторого события, определяется из решения уравнения 2
    i
    = Алгоритм вычисления информационного объёма сообщения выглядит так 1) определить мощность используемого алфавита N
    ;
    2) из соотношения 2
    i
    = N определить i — информационный вес символа алфавита в битах (длину двоичного кода символа из используемого алфавита мощности N);
    3) вычислить информационный объём сообщения I, умножив информационный вес символа i на количество символов в сообщении При алфавитном подходе информационный объём сообщения I, состоящего из K символов, вычисляется по формуле = K · где i — информационный вес символа в битах, связанный с мощностью используемого алфавита N соотношением 2
    i
    = Пример 7. Для регистрации на некотором сайте пользователю надо придумать пароль, состоящий из 10 символов. В качестве символов можно использовать десятичные цифры и шесть первых букв латинского алфавита, причём буквы используются только заглавные. Пароли кодируются посимвольно. Все символы кодируются одинаковыми минимально возможным количеством бит. Для хранения сведений о каждом пользователе в системе отведено одинаковое и минимально возможное целое число байт.
    Необходимо выяснить, какой объём памяти потребуется для хранения 100 паролей
    подходы к измерению информации
    §2
    Дано:
    N = 10 + 6 = 16
    K = 10
    I
    100
    = 100 · I
    I = K · i
    N = 2
    i
    16 = 2
    i
    , i = 4 бита = 10 · 4 = 40 бит = 5 байт = 100 · 5 = 500 байт — Ответ 500 байт единицы измерения информации
    Итак, в двоичном коде один двоичный разряд несёт 1 бит информации бит образуют один байт. Помимо бита и байта, для измерения информации используются более крупные единицы Кбайт (Килобайт) = 2 10
    байт Мбайт (Мегабайт) = 2 10 Кбайт = 2 20
    байт Гбайт (Гигабайт) = 2 10
    Мбайт = 2 20 Кбайт = 2 30
    байт Тбайт (Терабайт) = 2 10
    Гбайт = 2 20
    Мбайт = 2 30 Кбайт =
    = 2 40
    байт Пбайт (Петабайт) = 2 10
    Тбайт = 2 20
    Гбайт = 2 30
    Мбайт =
    = 2 40 Кбайт = 2 50
    байт.
    Исторически сложилось так, что приставки кило, «мега», «гига»,
    «тера» и др. в информатике трактуются не так, как в математике, где кило соответствует 10 3
    , «мега» — 10 6
    , «гига» — 10 9
    , «тера» —
    10 12
    и т. д.
    Это произошло потому, что 2 10
    = 1024 ≈ 1000 = 10 3
    . Поэтому
    1024 байта и стали называть килобайтом, 2 10
    килобайта стали называть мегабайтом и т. д.
    Чтобы избежать путаницы с различным использованием одних и тех же приставок, в 1999 г. Международная электротехническая комиссия ввела новый стандарт наименования двоичных приставок. Согласно этому стандарту, 1 килобайт равняется 1000 байта величина байта получила новое название — 1 кикибайт (Кибайт).
    У нас в стране в 2009 году принято Положение о единицах величин, допускаемых к применению в Российской Федерации. В нём сказано, что наименование и обозначение единицы количества информации байт (1 байт = 8 бит) применяются с двоичными приставками Кило, «Мега», «Гига», которые соответствуют множителями Кбайт = 1024 байт,
    1 Мбайт = 1024 Кбайт, 1 Гбайт = 1024 Мбайт). Данные приставки пишутся с большой буквы

    26
    1   2   3   4   5   6   7   8   9   ...   21


    написать администратору сайта