Главная страница
Навигация по странице:

  • 1. Теоретический материал

  • 2. Пример Задача

  • 2. Пример 1. Задача

  • 3. Задания 1. Задача

  • Рабочая тетрадь 1. Рабочая тетрадь 1


    Скачать 374.5 Kb.
    НазваниеРабочая тетрадь 1
    Дата06.10.2022
    Размер374.5 Kb.
    Формат файлаdocx
    Имя файлаРабочая тетрадь 1.docx
    ТипДокументы
    #718788
    страница1 из 4
      1   2   3   4

    Рабочая тетрадь № 1

    «Информатика – это наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий, обеспечивающих возможность ее использования для принятия решений».

    Большая российская энциклопедия, 2008.




    «Информация – это сведения, независимо от формы их представления, воспринимаемые человеком или специальными устройствами как отражение фактов материального мира в процессе коммуникации».

    ГОСТ 7.0-99.




    1. Теоретический материал

    Бит – это минимальная единица измерения информации. Бит может принимать только два значения 0 или 1 [1, 2].

    В вычислительных системах приняты следующие единицы измерения представления цифровых данных:

    8 бит = 1 байт (1 Б),

    1024 байт (1024 Б ) = 1 килобайт (1 Кбайт),

    1024 килобайт (1024 Кбайт) = 1 мегабайт (1 Мбайт),

    1024 мегабайт (1024 Мбайт) = 1 гигабайт (1 Гбайт),

    1024 гигабайт (1024 Гбайт) = 1 терабайт (1 Тбайт).


    2. Пример

    Задача:




    Сколько битов в 3 Мбайт?


    Решение:




    3 Мбайт = 3 * 1024 Кбайт = 3* 1024 * 1024 Б =

    = 3* 1024 * 1024 * 8 бит = 25165824 бит


    Ответ:




    25165824 бит





    3. Задания

    1.

    Задача:




    Сколько битов в 4 Мбайт?


    Решение:




    3 Мбайт = 3*1024 Кбайт = 3*1024*1024 Б = 3* 1024 * 1024 * 8 бит =

    25165824 бит

    Ответ:




    25165824 бит


    2.

    Задача:




    Сколько байтов в 2 Гбайт?


    Решение:




    2 Гбайт = 2*1024 Мбайт = 2*1024*1024 Кбайт = 2*1024*1024*1024 Б


    Ответ:






    3.

    Задача:




    Переведите 6291456 байт в Мбайт?


    Решение:




    6291456 байт = 6291456 / 1024 Кбайт = 6291456 / (1024*1024) Мбайт = 6 Мбайт


    Ответ:




    6 Мбайт





    1. Теоретический материал

    Формула N = log2K, где K – количество возможных состояний, а
    N – минимальное количество информации в битах, необходимое для описания состояний системы ­– формула Хартли [1, 2]. При вычислении по формуле Хартли может получено нецелое значение N. В этом случаезначение необходимо округлить вверх до целого значения.




    2. Пример

    1.

    Задача:




    Сколько бит нужно отвести на кодирование букв русского алфавита, если НЕ различать буквы Е и Ё?






    Решение:




    Если не различать буквы Е и Ё, то в русском алфавите 32 буквы. Тогда: log232= 5 . Получилось целое число.


    Ответ:




    5 бит


    2.

    Задача:




    Сколько бит нужно отвести на кодирование букв русского алфавита, если различать буквы Е и Ё?


    Решение:




    Если различать буквы Е и Ё, то в русском алфавите 33 буквы. Тогда: log233 = 5,044 . Получилось не целое число. Поэтому округлим в верхнюю сторону до 6.


    Ответ:




    6 бит





    3. Задания

    1.

    Задача:




    Сколько бит нужно отвести на кодирование букв английского алфавита?












    Решение:




    26 букв


    Ответ:




    5 бит


    2.

    Задача:




    Сколько бит нужно отвести на кодирование гласных букв английского алфавита?


    Решение:




    5 гласных


    Ответ:




    3 бита


    3.

    Задача:




    Сколько бит нужно отвести на кодирование согласных букв английского алфавита?


    Решение:




    21 буква


    Ответ:




    5 бит





    1. Теоретический материал

    Пусть теперь система может находиться в одном из K состояний с разными вероятностями [1]. В состоянии 1 с вероятностью , в состоянии 2 с вероятностью и продолжая рассуждения в состоянии K с вероятностью , где . Тогда ценность знания, что система находится в состоянии зависит от распределения вероятностей [1].

    Фундаментальное понятие теории информации – энтропия информации. Под энтропией понимается мера неопределенности системы. Энтропией по Шеннону называется число



    Прирост информации – это уменьшение энтропии.


    2. Пример

    Задача:




    Если двоечник не поступил в РТУ МИРЭА, то тут мало информации, потому что «мы это и так знали», а вот если он поступил, то это «новость»!

    Полагая, что двоечник не поступает с вероятностью 0,9, а поступает с вероятностью 0,1,найдите энтропию по Шеннону [1].


    Решение:




    Частная энтропия для не поступления равна:

    -0,9 * log20,9 = 0,137,

    а для поступления равна:

    -0,1 * log20,1 = 0,332.

    А общая энтропия равна:

    H = 0,137 + 0,332 = 0,469.


    Ответ:




    H = 0,469.





    3. Задания

    1.

    Задача:




    Найти энтропию подбрасывания одной монеты.


    Решение:




    Для решки : -0,5 * log20,5 = 0,5

    Для орла: -0.5 * log20,5 = 0,5

    Общая = 1







    Ответ:




    1


    2.

    Задача:




    Найти энтропию подбрасывания игральной кости.


    Решение:




    Для каждой стороны: -1/6 * log21/6 = 0.431

    Общая = 0.431*6 = 2,586

    Ответ:




    2,586


    3.

    Задача:




    Имеется очень загруженный сервер. Из-за этого с вероятностью сервер принимает запрос на обработку данных и с вероятностью отвергает его. Найти частные энтропиии общую энтропию системы.

    Решение:




    Энтропия принятия: -0.6 * log20,6 = 0.442

    Энтропия отказа: -0.4* log20,4 = 0.529

    Общая: 0.442 + 0.529 = 0.971

    Ответ:




    0.442;

    0.529;

    0.971;
      1   2   3   4


    написать администратору сайта