введение. ВВЕДЕНИЕ. Учебник по высшей математике содержит знания, но они не доступны 1класснику Алфавитный подход
Скачать 14.02 Kb.
|
Введение Любая наука рано или поздно приходит к необходимости как-то измерять то, что она изучает. Измерение информации – это одна из важнейших задач теоретической информатики. На бытовом уровне, информация- это сообщения, знания, которые человек получает из окружающего мира: общаясь с другими людьми, из книг, Интернета, СМИ и т.д. Понятие отличается от определения тем, что не дается однозначно, а вводится на примерах. Компьютеры не могут обрабатывать смысл, они работают только с данными, а не с информацией. Поэтому чаще всего используют объёмный подход к измерению. Он заключается в том, что количество информации оценивается просто по числу символов, используемых для её кодировки. В информатике используются различные подходы к измерению информации. Содержательный подход к измерению информации. Сообщение – это информативный поток, который в процессе передачи информации поступает к приемнику. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными. Сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0. (Пример: вузовский учебник по высшей математике содержит знания, но они не доступны 1-класснику) Алфавитный подход Алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1 символ несет в тексте 8 бит информации. Вероятностный подход Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон. Единицы измерения информации В компьютере все данные хранятся и обрабатываются в виде знаков. Обычно используются всего два знака – цифры 0 и 1. Совокупность этих двух цифр называется двоичный код, а сами цифры принято называть двоичными цифрами или коротко битами. Компьютер различает 0 и 1 благодаря электрическим импульсам в электронных цепях. Если в цепи нет импульса – это цифра 0, если импульс есть, то это 1. Бит – это минимальная единица измерения информации, соответствующая одной двоичной цифре («0» или «1»). Совокупность компьютерных данных из 8 бит называется байтом. Для современных компьютеров байт состоит из 8 элементов, каждый из которых хранит 1 бит данных. Это связано с тем, что с недавнего времени при обработке текста используют набор из 256 символов, так что для кодировки каждого символа было нужно 8 бит. Изучение компьютерной грамотности предполагает рассмотрение и других, более крупных единиц измерения информации. Бит и байт - это довольно маленькие величины, поэтому их используют с приставками кило, мега и гига. Так сложилось, что при измерении информации приставка «кило» обозначает увеличение в 1024 раз или в 2 в 10 степени, что отличается от системы СИ. Аналогично другие приставки. |