|
Рабочая тетрадь 1 СоколоваАС. Рабочая тетрадь 1
Рабочая тетрадь № 1
«Информатика – это наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий, обеспечивающих возможность ее использования для принятия решений».
Большая российская энциклопедия, 2008.
|
«Информация – это сведения, независимо от формы их представления, воспринимаемые человеком или специальными устройствами как отражение фактов материального мира в процессе коммуникации».
ГОСТ 7.0-99.
|
1. Теоретический материал
| Бит – это минимальная единица измерения информации. Бит может принимать только два значения 0 или 1 [1, 2].
В вычислительных системах приняты следующие единицы измерения представления цифровых данных:
8 бит = 1 байт (1 Б),
1024 байт (1024 Б ) = 1 килобайт (1 Кбайт),
1024 килобайт (1024 Кбайт) = 1 мегабайт (1 Мбайт),
1024 мегабайт (1024 Мбайт) = 1 гигабайт (1 Гбайт),
1024 гигабайт (1024 Гбайт) = 1 терабайт (1 Тбайт).
| 2. Пример
| Задача:
|
| Сколько битов в 3 Мбайт?
| Решение:
|
| 3 Мбайт = 3 * 1024 Кбайт = 3* 1024 * 1024 Б =
= 3* 1024 * 1024 * 8 бит = 25165824 бит
| Ответ:
|
| 25165824 бит
|
3. Задания
| 1.
| Задача:
|
| Сколько битов в 4 Мбайт?
| Решение:
|
| 4 Мбайт = 4* 1024 * 1024 * 8 = 33554432 бит
| Ответ:
|
|
33554432 бит
| 2.
| Задача:
|
| Сколько байтов в 2 Гбайт?
| Решение:
|
| 2 Гбайт = 2 * 1024 * 1024 * 1024 = 2147483648 байт
| Ответ:
|
| 2147483648 байт
|
| Задача:
|
| Переведите 6291456 байт в Мбайт?
| Решение:
|
| 6291456 / 1024 / 1024 = 6 Мбайт
| Ответ:
|
| 6 Мбайт
|
1. Теоретический материал
| Формула N = log2K, где K – количество возможных состояний, а N – минимальное количество информации в битах, необходимое для описания состояний системы – формула Хартли [1, 2]. При вычислении по формуле Хартли может получено нецелое значение N. В этом случаезначение необходимо округлить вверх до целого значения.
|
2. Пример
| 1.
| Задача:
|
| Сколько бит нужно отвести на кодирование букв русского алфавита, если НЕ различать буквы Е и Ё?
|
|
| Решение:
|
| Если не различать буквы Е и Ё, то в русском алфавите 32 буквы. Тогда: log232= 5 . Получилось целое число.
| Ответ:
|
| 5 бит
| 2.
| Задача:
|
| Сколько бит нужно отвести на кодирование букв русского алфавита, если различать буквы Е и Ё?
| Решение:
|
| Если различать буквы Е и Ё, то в русском алфавите 33 буквы. Тогда: log233 = 5,044 . Получилось не целое число. Поэтому округлим в верхнюю сторону до 6.
| Ответ:
|
| 6 бит
|
3. Задания
| 1.
| Задача:
|
| Сколько бит нужно отвести на кодирование букв английского алфавита?
|
|
|
| Решение:
|
| log226
26 не целое число при логарифмировании, поэтому берем ближайший больший log232 = 5
| Ответ:
|
| 5 бит
|
| Задача:
|
| Сколько бит нужно отвести на кодирование гласных букв английского алфавита?
| Решение:
|
| log25
5 не целое число при логарифмировании, поэтому берем ближайший больше log28 = 3
| Ответ:
|
| 3 бит
| 3.
| Задача:
|
| Сколько бит нужно отвести на кодирование согласных букв английского алфавита?
| Решение:
|
| log223
23 не возьмётся целый, поэтому берем ближайший больше log232 = 5
| Ответ:
|
| 5 бит
|
1. Теоретический материал
| Пусть теперь система может находиться в одном из K состояний с разными вероятностями [1]. В состоянии 1 с вероятностью , в состоянии 2 с вероятностью и продолжая рассуждения в состоянии K с вероятностью , где . Тогда ценность знания, что система находится в состоянии зависит от распределения вероятностей [1].
Фундаментальное понятие теории информации – энтропия информации. Под энтропией понимается мера неопределенности системы. Энтропией по Шеннону называется число
Прирост информации – это уменьшение энтропии.
| 2. Пример
| Задача:
|
| Если двоечник не поступил в РТУ МИРЭА, то тут мало информации, потому что «мы это и так знали», а вот если он поступил, то это «новость»!
Полагая, что двоечник не поступает с вероятностью 0,9, а поступает с вероятностью 0,1,найдите энтропию по Шеннону [1].
| Решение:
|
| Частная энтропия для не поступления равна:
-0,9 * log20,9 = 0,137,
а для поступления равна:
-0,1 * log20,1 = 0,332.
А общая энтропия равна:
H = 0,137 + 0,332 = 0,469.
| Ответ:
|
| H = 0,469.
|
3. Задания
| 1.
| Задача:
|
| Найти энтропию подбрасывания одной монеты.
| Решение:
|
| -0,5 * log20,5 = 0,5, - частная энтропия для решки
-0,5 * log20,5 = 0,5.- частная энтропия для орла
общая энтропия: H = 0,5 + 0,5 = 1
|
| Ответ:
|
| 1
| 2.
| Задача:
|
| Найти энтропию подбрасывания игральной кости.
| Решение:
|
| Частная энтропия для кости:
-1/6 * log2(1/6) = 2,585
| Ответ:
|
| -1/6 * log2(1/6) = 2,585
| 3.
| Задача:
|
| Имеется очень загруженный сервер. Из-за этого с вероятностью сервер принимает запрос на обработку данных и с вероятностью отвергает его. Найти частные энтропиии общую энтропию системы.
| Решение:
|
| Частная энтропия для не поступления равна:
-0,6 * log20,6 = 0,442,
для поступления равна:
-0,4 * log20,4 = 0,529.
общая энтропия:
H = 0,442 + 0,529 = 0,971.
| Ответ:
|
|
0,971
| |
|
|