Главная страница
Навигация по странице:

  • 1. Теоретический материал

  • 2. Пример Задача

  • 3. Задания 1. Задача

  • 2. Пример 1. Задача

  • Рабочая тетрадь 1 СоколоваАС. Рабочая тетрадь 1


    Скачать 359.49 Kb.
    НазваниеРабочая тетрадь 1
    Дата06.10.2022
    Размер359.49 Kb.
    Формат файлаdocx
    Имя файлаРабочая тетрадь 1 СоколоваАС.docx
    ТипДокументы
    #717369
    страница1 из 5
      1   2   3   4   5

    Рабочая тетрадь № 1

    «Информатика – это наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий, обеспечивающих возможность ее использования для принятия решений».

    Большая российская энциклопедия, 2008.




    «Информация – это сведения, независимо от формы их представления, воспринимаемые человеком или специальными устройствами как отражение фактов материального мира в процессе коммуникации».

    ГОСТ 7.0-99.




    1. Теоретический материал

    Бит – это минимальная единица измерения информации. Бит может принимать только два значения 0 или 1 [1, 2].

    В вычислительных системах приняты следующие единицы измерения представления цифровых данных:

    8 бит = 1 байт (1 Б),

    1024 байт (1024 Б ) = 1 килобайт (1 Кбайт),

    1024 килобайт (1024 Кбайт) = 1 мегабайт (1 Мбайт),

    1024 мегабайт (1024 Мбайт) = 1 гигабайт (1 Гбайт),

    1024 гигабайт (1024 Гбайт) = 1 терабайт (1 Тбайт).


    2. Пример

    Задача:




    Сколько битов в 3 Мбайт?


    Решение:




    3 Мбайт = 3 * 1024 Кбайт = 3* 1024 * 1024 Б =

    = 3* 1024 * 1024 * 8 бит = 25165824 бит


    Ответ:




    25165824 бит





    3. Задания

    1.

    Задача:




    Сколько битов в 4 Мбайт?


    Решение:




    4 Мбайт = 4* 1024 * 1024 * 8 = 33554432 бит

    Ответ:





    33554432 бит

    2.

    Задача:




    Сколько байтов в 2 Гбайт?


    Решение:




    2 Гбайт = 2 * 1024 * 1024 * 1024 = 2147483648 байт


    Ответ:




    2147483648 байт





    Задача:




    Переведите 6291456 байт в Мбайт?


    Решение:




    6291456 / 1024 / 1024 = 6 Мбайт


    Ответ:




    6 Мбайт




    1. Теоретический материал

    Формула N = log2K, где K – количество возможных состояний, а
    N – минимальное количество информации в битах, необходимое для описания состояний системы – формула Хартли [1, 2]. При вычислении по формуле Хартли может получено нецелое значение N. В этом случаезначение необходимо округлить вверх до целого значения.




    2. Пример

    1.

    Задача:




    Сколько бит нужно отвести на кодирование букв русского алфавита, если НЕ различать буквы Е и Ё?






    Решение:




    Если не различать буквы Е и Ё, то в русском алфавите 32 буквы. Тогда: log232= 5 . Получилось целое число.


    Ответ:




    5 бит


    2.

    Задача:




    Сколько бит нужно отвести на кодирование букв русского алфавита, если различать буквы Е и Ё?


    Решение:




    Если различать буквы Е и Ё, то в русском алфавите 33 буквы. Тогда: log233 = 5,044 . Получилось не целое число. Поэтому округлим в верхнюю сторону до 6.


    Ответ:




    6 бит





    3. Задания

    1.

    Задача:




    Сколько бит нужно отвести на кодирование букв английского алфавита?












    Решение:




    log226

    26 не целое число при логарифмировании, поэтому берем ближайший больший log232 = 5

    Ответ:




    5 бит




    Задача:




    Сколько бит нужно отвести на кодирование гласных букв английского алфавита?


    Решение:




    log25

    5 не целое число при логарифмировании, поэтому берем ближайший больше log28 = 3

    Ответ:




    3 бит


    3.

    Задача:




    Сколько бит нужно отвести на кодирование согласных букв английского алфавита?


    Решение:




    log223

    23 не возьмётся целый, поэтому берем ближайший больше log232 = 5

    Ответ:




    5 бит





    1. Теоретический материал

    Пусть теперь система может находиться в одном из K состояний с разными вероятностями [1]. В состоянии 1 с вероятностью , в состоянии 2 с вероятностью и продолжая рассуждения в состоянии K с вероятностью , где . Тогда ценность знания, что система находится в состоянии зависит от распределения вероятностей [1].

    Фундаментальное понятие теории информации – энтропия информации. Под энтропией понимается мера неопределенности системы. Энтропией по Шеннону называется число



    Прирост информации – это уменьшение энтропии.


    2. Пример

    Задача:




    Если двоечник не поступил в РТУ МИРЭА, то тут мало информации, потому что «мы это и так знали», а вот если он поступил, то это «новость»!

    Полагая, что двоечник не поступает с вероятностью 0,9, а поступает с вероятностью 0,1,найдите энтропию по Шеннону [1].


    Решение:




    Частная энтропия для не поступления равна:

    -0,9 * log20,9 = 0,137,

    а для поступления равна:

    -0,1 * log20,1 = 0,332.

    А общая энтропия равна:

    H = 0,137 + 0,332 = 0,469.


    Ответ:




    H = 0,469.





    3. Задания

    1.

    Задача:




    Найти энтропию подбрасывания одной монеты.


    Решение:




    -0,5 * log20,5 = 0,5, - частная энтропия для решки

    -0,5 * log20,5 = 0,5.- частная энтропия для орла

    общая энтропия: H = 0,5 + 0,5 = 1







    Ответ:




    1


    2.

    Задача:




    Найти энтропию подбрасывания игральной кости.


    Решение:




    Частная энтропия для кости:

    -1/6 * log2(1/6) = 2,585

    Ответ:




    -1/6 * log2(1/6) = 2,585


    3.

    Задача:




    Имеется очень загруженный сервер. Из-за этого с вероятностью сервер принимает запрос на обработку данных и с вероятностью отвергает его. Найти частные энтропиии общую энтропию системы.

    Решение:




    Частная энтропия для не поступления равна:

    -0,6 * log20,6 = 0,442,

    для поступления равна:

    -0,4 * log20,4 = 0,529.

    общая энтропия:

    H = 0,442 + 0,529 = 0,971.

    Ответ:





    0,971
      1   2   3   4   5


    написать администратору сайта