Главная страница
Навигация по странице:

  • 3. Как оценивается количество информации по Хартли

  • 4. Как оценивается количество информации по Шеннону

  • Лекция 4. 1. Перечислить основные единицы измерения количества информации и соотношения между ними


    Скачать 11.88 Kb.
    Название1. Перечислить основные единицы измерения количества информации и соотношения между ними
    Дата09.01.2023
    Размер11.88 Kb.
    Формат файлаdocx
    Имя файлаЛекция 4.docx
    ТипДокументы
    #878523


    1. Перечислить основные единицы измерения количества информации и 

        соотношения между ними.
         - Бит - наименьшая (элементарная) единица количества информации,

            соответствующая одному разряду двоичного кода.
         - Байт - основная единица количества информации в компьютерной технике,

            соответствующая восьми битам: 1 байт = 8 бит.
         Единицы измерения информации:

         - 1 б (1 байт);

         - 1 Кб (1 килобайт или часто просто 1 К);

         - 1 Мб (1 мегабайт или часто просто 1 М);

         - 1 Гб (1 гигабайт).

         Между ними существуют следующие соотношения:
         1 Кб = 210 б = 1024 б =

    1000 б.
         1 Мб = 220 б = 1024 Кб = 1048576 б = 1 000 000 б.
         1 Гб = 230 б = 1024 Мб = 109 б = 1 000 000 000 б.

    2. Определить понятия «глубина сообщения» и «длина сообщения».
         - Глубина сообщения q - количество различных элементов (символов, знаков),

           принятых для представления сообщений. В каждый момент времени реализуется

           только один какой-либо элемент.
         - Длина сообщения n - количество позиций, необходимых и достаточных для

           представления сообщений заданной величины.


    3. Как оценивается количество информации по Хартли?
         Чтобы измерить количество информации, содержащееся в сообщении или сигнале, можно воспользоваться так называемой аддитивной мерой Хартли, где N = q n
     


    4. Как оценивается количество информации по Шеннону?
         Количество информации определяется по формуле:
         I= - сумма pi log2 pi,
             где I - количество информации,
         N - количество возможных событий,
         pi - вероятности отдельных событий.


    написать администратору сайта