Главная страница

аптионш. Материалы для изучения темы 1.1. Лекции по теме 1 Понятие информации, кодирование, декодировании. Измерение информации. Системы счисления


Скачать 114.83 Kb.
НазваниеЛекции по теме 1 Понятие информации, кодирование, декодировании. Измерение информации. Системы счисления
Анкораптионш
Дата28.05.2020
Размер114.83 Kb.
Формат файлаdocx
Имя файлаМатериалы для изучения темы 1.1.docx
ТипЛекции
#126159
страница2 из 10
1   2   3   4   5   6   7   8   9   10

Передача информации


Передача, хранение и обработка информации представляют собой информационные процессы, протекающие в социальных, биологических и технических системах.

Передача информации производится путем посылки сообщений, которые, в свою очередь передаются сигналами, способными распространяться в различных физических средах. В компьютерной технике сообщения передаются с помощью электрических сигналов. Если есть физическая возможность передать сигнал от источника к приемнику, то говорят, что между ними существует канал связи. Основными характеристиками канала связи являются надежность передачи информации и его пропускная способность, то есть скорость передачи информации по каналу.

Пропускная способность канала – это отношение количества переданной информации ко времени,  затраченному на передачу. Она измеряется в битах в секунду (бод)и кратных единицах:

1 байт /с = 23 бит/с = 8 бит/с

1 Кбит/с = 210 бит/с = 1024 бит/с

1 Мбит/с =  210Кбит/с  = 1024 Кбит/с = 1048576  бит/си так далее.

Пример 1. Пусть по каналу передается 30 Кбит информации за 13сек. Найдем пропускную способность канала. По определению она равна отношению количества переданной информации ко времени,  затраченному на передачу, или 30 Кбит/13сек = 2,307Кбит/с

Пример 2. Пусть по каналу с пропускной способностью 2048 бит/с требуется передать 2Кбайта информации. Определим время, необходимое для передачи. Оно равно

2Кбайта/ 2048 бит/с =2*1024*8 /2048[ бит/ бит/с ] =8сек.

Алфавитный подход


Если информация представлена в виде дискретного сообщения, то логично считать количеством информации его длину, то есть общее число знаков в сообщении. Но длина сообщения зависит не только от содержащейся в нем информации. На нее влияет мощность алфавита используемого языка. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи.

Пример: (SOS) - 3 знака в латинском алфавите;

(··· пауза – – – пауза ···) – это же слово из11 знаков в алфавите Морзе:

Для упорядочивания измерений информационный объем сообщений принято измерять в битах. Один бит соответствует одному знаку двоичного алфавита. Итак, чтобы измерить длину сообщения, его нужно представить в двоичном виде и подсчитать количество двоичных знаков – битов.

Пример: Сообщение в двоичном алфавите выглядит следующим образом:

00010110010001.

Мы не знаем, какая информация была заложена в этом сообщении, но его длина - 14 двоичных знаков, т.е.информационный объем 14бит.

Такой способ измерения количества информации называется алфавитным подходом. При этом измеряется не содержание информации с точки зрения его новизны и полезности, а размер несущего информацию сообщения. При алфавитном подходе к определению количества информации одни и те же сведения, закодированные по-разному, будут иметь различный информационный объем.  Сообщения одинаковой длины могут нести совершенно как совершенно бесполезные  сведения, так и нужную информацию.

Пример: Применяя алфавитный подход, получаем, что информационный объем слов “лпгнорьтлпа” и “информатика” совершенно одинаков, а слов “кино” и “кинофильм” – различен.

Если алфавит содержит 2n знаков, то каждый из его знаков можно закодировать с помощью n знаков двоичного алфавита. Таким образом, объем информации, содержащейся в сообщении длиной m при использовании алфавита мощностью 2n , равен m·n бит.

Пример:Найдем информационный объем слова SOS, записанного в компьютерной кодировке. При кодировании букв в компьютере используется либо алфавит ASCII (AmericanStandardCodeforInformationInterchange — американский стандартный код обмена информацией), состоящий из 28=256 знаков (один знак можно закодировать с помощью 8 знаков двоичного алфавита или 8 бит), либо алфавит Unicode, мощность которого 216 = 65536(16 бит один знак). В слове SOS три буквы, следовательно, его информационный объем 3·8=24 битв кодировке ASCIIили 3·16=48 битв кодировке Unicode.

Алфавитный подход удобен при подсчете количества информации, хранимого, передаваемого и обрабатываемого техническими устройствами, потомучтокомпьютеры, принтеры, модемы работают не с самой информацией, а с ее представлением в виде сообщений.
1   2   3   4   5   6   7   8   9   10


написать администратору сайта