Решение Вычислим какое количество времени занимает передача файла по каналу связи без архивации
Скачать 1.16 Mb.
|
Задача 8 Закодировать символ методом Шеннона-Фано, который соответствует требованию оптимального кодирования. Провести анализ текста, определить вероятность наличия символа в тексте, включая пробелы и построить таблицу кодов символов методом Шеннона-Фано. Способ решения Алгоритм построения кода Шеннона-Фано состоит в том, что кодируемые символы (буквы) разделяются на две равновероятные подгруппы: для символов 1-й подгруппы на втором месте ставится 0, а для 2-й подгруппы – 1 и т.д. Для каждой буквы определяется вероятность ее появления в тексте. Вероятности сортируются по убыванию. Берутся первые n букв до тех пор, пока n+1 не станет больше 0,5. Первые n букв будут иметь на первом месте 0, остальные 1. Далее каждой из групп производится нормировка вероятностей исходя из их суммы и для каждой из двух групп повторяется предыдущий шаг. Процесс продолжается до тех пор, пока в каждом подразделении не окажется ровно одна буква, которая и будет закодирована определенным двоичным кодом. Пример Пусть, исходя из анализа текста была выявлена вероятность появления каждой буквы, равная отношению количества появления отдельной буквы, к общему количеству символов (Таблица 9): Таблица 9. Вероятность появления буквы
Исходя из исходных данных Таблицы 9 и Способа решения все исходные символы были закодированы методом Шеннона-Фано (Таблица 10). Таблица 10. Кодировка исходных символов методом Шеннона-Фано
Исходный текст, который используется для решения Задачи 8 Энтропия в теории информации есть мера или степень неопределенности ситемы В теории информации под энтропией понимается мера неопределенности источника сообщений определяемая вероятностями появления тех или иных символов при их передаче В математике и кибернетике информация является мерой устранения неопределенности энтропии мерой организации системы Соотношение между понятиями энтропия и информация в известном смысле напоминает соотношение между физическими понятиями потенциала и разности потенциалов Энтропия это количественная мера неопределенности Уничтоженная сведениями энтропия и есть информация В этом смысле информация выступает как мера отношения взаимосвязи между системами явлениями процессами а не как показатель состояния систем Пространство событий играет важную роль в геометрической интерпретации теории относительности Каждое событие характеризуется положением координатами и временем поэтому множество всевозможных событий оказывается четырёхмерным Пространством где точка событие определяется четырьмя координатами Пространство связано со временем через событие а исходя из того что пространство и время всеобщие формы существования материи и пространство и время не существуют вне материи и независимо от неё то событие существует всегда там где есть пространство и время Событие познается человеком через информацию Совокупность информации формирует событие то есть является точкой в событии Исходя из этого информация также имеет как пространственную так и временную координаты и так же является мерой соотношения между пространством и временем Таблица 11. Исходные данные для решения Задачи 8
Задача 9 Код Шеннона-Фано - неравномерный код. Чтобы он был оптимальным, необходимо, чтобы средняя длина кодовой комбинации для определенного алфавита, закодированного этим кодом, была меньше длины кодовой комбинации равномерного двоичного кода, которым можно закодировать этот алфавит. Оценить оптимальность кода для сообщения, построенного по методу Шеннона-Фано исходя из: Алфавита сообщения, см. Задачу 8 для своего варианта; Алфавита русского языка. Решение Решим задачу для примера сообщения: ВИСЕЛАСЛИВА Рассчитаем энтропию источника сообщений Воспользуемся данными из Таблицы 9: Воспользуемся данными из Таблицы 10: Определим среднее число элементарных символов на символ сообщения как произведение количества символов кода, которым закодирован символ, на вероятность появления данного символа. Рассчитаем количество информации на один элементарный символ: Таким образом, информация, приходящаяся на один символ, рассчитанная исходя из вероятности появления символа в наборе символов меньше чем исходя из вероятности появления символа русского алфавита. Исходя из того, что оба значения близки к своему верхнему пределу 1, и оба кода отвечают принципу оптимальности, код, базирующийся на частоте букв русского алфавита, является более оптимальным. Таблица 12. Вероятность появления букв в русском алфавите
Таблица 13. Код Шеннона-Фано для букв русского алфавита исходя из данных Таблицы 12
|