1 Информация. Понятие информации. Концепции информации
Скачать 0.93 Mb.
|
4 Информация. Формы сигналовФормы сигналов: а) Неприрывные(аналоговые). Аналоговым сигналом называется, если его параметр в заданных пределах может принимать любые промежуточные значения. б) Прерывистые(дискретные). Дискретным называется сигнал, если его параметр в заданных пределах принимает отдельное фиксированное значение. Замена точного значения его приближенной дискретной величиной при условии, что два ближайших дискретных значения могут различаться не на сколь угодно малую величину, а лишь на конкретную минимальную величину квант, называется квантование, обратный процесс, называется сглаживание. 5 Информация. Количество информации, равновероятностные события. ЭнтропияФормула Хартли, выведенная из вероятностно-статистического подхода К.-Э. Шеннона N=2i, i=log2N, где i – количество информации (в битах), N – количество информационных сообщений (событий). В одном случае рассматриваются равновероятностные события, в другом – мощность алфавита. Количеством информации называют числовую характеристику сигнала, отражающую степень неопределенности, которая исчезает после получения данного сигнала. Эту меру неопределенности к теории информации называют энтропия. Энтропия – мера внутренней неупорядоченности системы. Уменьшая неопределенность мы получаем информацию. 6 Информация. Количество информации, неравновероятностные события. ЭнтропияДля не равновероятностных событий применяют следующую формулу:, где I-это количество информации, р- вероятность события. Вероятность события выражается в долях единицы и вычисляется по формуле: р=К/N, где К- величина, показывающая , сколько раз произошло интересующее событие, N –общее число возможных исходов какого-то процесса. Существует общая формула вычисления количества информации для событий с различными вероятностями. Эту формулу в 1948 г. Предложил американский учёный Клод Шеннон. Количество информации в этом случае вычисляется по формуле: где I- количество информации; N- количество возможных событий4 Рi-вероятность отдельных событий. Количеством информации называют числовую характеристику сигнала, отражающую степень неопределенности, которая исчезает после получения данного сигнала. Эту меру неопределенности к теории информации называют энтропия. Энтропия – мера внутренней неупорядоченности системы. Уменьшая неопределенность мы получаем информацию. \ 7 Информация. Количество информации, Алфавитный подход к измерению информацииАлфавитный подход – объективный подход к измерению информации, не зависит от содержания событий, зависит от объема текста и мощности алфавита. Информационная емкость символов определяется количеством символов в алфавите, чем больше количество символов, тем больше информации несет один символ. Порядок определения:
Единицей измерения информации является 1 бит. 8 Кодирование числовой и графической информацииКодирование – замена одних символов другими. Кодирование целых чисел Целые числа кодируются следующим образом: переводятся в двоичный код. Кодирование вещественных чисел Вещественные числа кодируются следующим образом:
Кодирование графической информации Растровый способ Растр – минимальный элемент графического изображения. Точность передачи изображения зависит от количества точек и их размера. Объем растрового изображения зависит от количества точек, умноженного на информационный объем одной точки, зависящий от количества возможных цветов. Поскольку индивидуальные свойства каждой точки можно выразить с помощью целых чисел, то можно сказать, что растровое кодирование использует двоичный код для представления графических данных. При цветном изображении используется принцип декомпозиции произвольного цвета на основные составляющие. Существует несколько систем кодирования: HSB(удобная для человека, используется, если изображение не нужно выводить на печать),RGB(используется при работе на компьютере) и CMYK(используется для печати)
- оттенок цвета (Hue) – значение цвета выбирается как вектор, выходящий из центра окружности, его направление указывается в градусах и определяет цветовой оттенок. - насыщенность(Saturation) – определяется длиной вектора - яркость цвета (brightness) – задается на отдельной оси, нулевая точка имеет черный цвет, точка в центре соответствует белому цвету, а промежуточные точки соответствуют насыщенным, чистым цветам
Принцип этого метода заключается в точ, что любой цвет можно разделить на составляющие: RED, GREEN, BLUE. Каждый из этих цветов кодируется 256 оттенками 0, 0, 0 – черный 255, 255, 255 – белый
Эта модель использует следующий принцип: каждому из основных цветов ставится в дополнение дополнительный цвет (дополняющий до белого) RED – CYAN(голубой) = GREEN+BLUE = БЕЛЫЙ-КРАСНЫЙ GREEN – MAGENTA(пурпурный) = RED+BLUE = БЕЛЫЙ–ЗЕЛЕНЫЙ BLUE – YELLOW = RED+GREEN = БЕЛЫЙ-СИНИЙ BLACK Различают несколько цветов отображения цветной графики: - полноцветный(TrueColor) – для кодирования яркости каждой составляющей используются 256 значений тонов. При кодировании 1 пикселя в этом режиме используют 16 разрядов (16 оттенков) - HighColor – кодирование при помощи шестнадцатиразрядных двоичных чисел, следовательно уменьшается объем, и как следствие, диапазон кодируемых цветов. - Индексный– Код точки растра означает не сам по себе цвет, а его индекс (номер) в таблице (палитре). Таблицы содержат образцы цветов и используются только в тех редакторах, для которых они написаны Векторный способ кодирования изображений Используется для изображения формализованной графики (карты, схемы, чертежи, графики и т.д.) В этом формате информация хранится практически в текстовом файле в виде команд. Преимущества: легкомасштабируемость: при масштабировании меняются только параметры команд; маленький объем. |