|
Рабочая тетрадь 1. Рабочая тетрадь 1
Рабочая тетрадь № 1
«Информатика – это наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий, обеспечивающих возможность ее использования для принятия решений».
Большая российская энциклопедия, 2008.
|
«Информация – это сведения, независимо от формы их представления, воспринимаемые человеком или специальными устройствами как отражение фактов материального мира в процессе коммуникации».
ГОСТ 7.0-99.
|
1. Теоретический материал
| Бит – это минимальная единица измерения информации. Бит может принимать только два значения 0 или 1 [1, 2].
В вычислительных системах приняты следующие единицы измерения представления цифровых данных:
8 бит = 1 байт (1 Б),
1024 байт (1024 Б ) = 1 килобайт (1 Кбайт),
1024 килобайт (1024 Кбайт) = 1 мегабайт (1 Мбайт),
1024 мегабайт (1024 Мбайт) = 1 гигабайт (1 Гбайт),
1024 гигабайт (1024 Гбайт) = 1 терабайт (1 Тбайт).
| 2. Пример
| Задача:
|
| Сколько битов в 3 Мбайт?
| Решение:
|
| 3 Мбайт = 3 * 1024 Кбайт = 3* 1024 * 1024 Б =
= 3* 1024 * 1024 * 8 бит = 25165824 бит
| Ответ:
|
| 25165824 бит
|
3. Задания
| 1.
| Задача:
|
| Сколько битов в 4 Мбайт?
| Решение:
|
| 3 Мбайт = 3*1024 Кбайт = 3*1024*1024 Б = 3* 1024 * 1024 * 8 бит =
25165824 бит
| Ответ:
|
| 25165824 бит
| 2.
| Задача:
|
| Сколько байтов в 2 Гбайт?
| Решение:
|
| 2 Гбайт = 2*1024 Мбайт = 2*1024*1024 Кбайт = 2*1024*1024*1024 Б
| Ответ:
|
|
| 3.
| Задача:
|
| Переведите 6291456 байт в Мбайт?
| Решение:
|
| 6291456 байт = 6291456 / 1024 Кбайт = 6291456 / (1024*1024) Мбайт = 6 Мбайт
| Ответ:
|
| 6 Мбайт
|
1. Теоретический материал
| Формула N = log2K, где K – количество возможных состояний, а N – минимальное количество информации в битах, необходимое для описания состояний системы – формула Хартли [1, 2]. При вычислении по формуле Хартли может получено нецелое значение N. В этом случаезначение необходимо округлить вверх до целого значения.
|
2. Пример
| 1.
| Задача:
|
| Сколько бит нужно отвести на кодирование букв русского алфавита, если НЕ различать буквы Е и Ё?
|
|
| Решение:
|
| Если не различать буквы Е и Ё, то в русском алфавите 32 буквы. Тогда: log232= 5 . Получилось целое число.
| Ответ:
|
| 5 бит
| 2.
| Задача:
|
| Сколько бит нужно отвести на кодирование букв русского алфавита, если различать буквы Е и Ё?
| Решение:
|
| Если различать буквы Е и Ё, то в русском алфавите 33 буквы. Тогда: log233 = 5,044 . Получилось не целое число. Поэтому округлим в верхнюю сторону до 6.
| Ответ:
|
| 6 бит
|
3. Задания
| 1.
| Задача:
|
| Сколько бит нужно отвести на кодирование букв английского алфавита?
|
|
|
| Решение:
|
| 26 букв
| Ответ:
|
| 5 бит
| 2.
| Задача:
|
| Сколько бит нужно отвести на кодирование гласных букв английского алфавита?
| Решение:
|
| 5 гласных
| Ответ:
|
| 3 бита
| 3.
| Задача:
|
| Сколько бит нужно отвести на кодирование согласных букв английского алфавита?
| Решение:
|
| 21 буква
| Ответ:
|
| 5 бит
|
1. Теоретический материал
| Пусть теперь система может находиться в одном из K состояний с разными вероятностями [1]. В состоянии 1 с вероятностью , в состоянии 2 с вероятностью и продолжая рассуждения в состоянии K с вероятностью , где . Тогда ценность знания, что система находится в состоянии зависит от распределения вероятностей [1].
Фундаментальное понятие теории информации – энтропия информации. Под энтропией понимается мера неопределенности системы. Энтропией по Шеннону называется число
Прирост информации – это уменьшение энтропии.
| 2. Пример
| Задача:
|
| Если двоечник не поступил в РТУ МИРЭА, то тут мало информации, потому что «мы это и так знали», а вот если он поступил, то это «новость»!
Полагая, что двоечник не поступает с вероятностью 0,9, а поступает с вероятностью 0,1,найдите энтропию по Шеннону [1].
| Решение:
|
| Частная энтропия для не поступления равна:
-0,9 * log20,9 = 0,137,
а для поступления равна:
-0,1 * log20,1 = 0,332.
А общая энтропия равна:
H = 0,137 + 0,332 = 0,469.
| Ответ:
|
| H = 0,469.
|
3. Задания
| 1.
| Задача:
|
| Найти энтропию подбрасывания одной монеты.
| Решение:
|
| Для решки : -0,5 * log20,5 = 0,5
Для орла: -0.5 * log20,5 = 0,5
Общая = 1
|
| Ответ:
|
| 1
| 2.
| Задача:
|
| Найти энтропию подбрасывания игральной кости.
| Решение:
|
| Для каждой стороны: -1/6 * log21/6 = 0.431
Общая = 0.431*6 = 2,586
| Ответ:
|
| 2,586
| 3.
| Задача:
|
| Имеется очень загруженный сервер. Из-за этого с вероятностью сервер принимает запрос на обработку данных и с вероятностью отвергает его. Найти частные энтропиии общую энтропию системы.
| Решение:
|
| Энтропия принятия: -0.6 * log20,6 = 0.442
Энтропия отказа: -0.4* log20,4 = 0.529
Общая: 0.442 + 0.529 = 0.971
| Ответ:
|
| 0.442;
0.529;
0.971;
| |
|
|