Информатика. Информатика это дисциплина, изучающая структуру и общие свойства информации, закономерности и методы е создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.
Скачать 0.74 Mb.
|
Теория информации. Основные определения и понятия Информатика – это дисциплина, изучающая структуру и общие свойства информации, закономерности и методы еѐ создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности. Информацию сложно определить, но для количественного определения имеющейся информации самым удобным оказалось такое: это сведения, которые уменьшают неопределенность об окружающем мире и являются объектом хранения, преобразования, передачи и использования. Энтропия – это мера неопределѐнности наших знаний об объекте или явлении. Знания – это осознанные и запомненные людьми свойства предметов, явлений и связей между ними, а также способов выполнения тех или иных действий для достижения нужных результатов. Сигнал (сообщение) – информационный поток, который в процессе передачи информации поступает к приѐмнику. Данные – это зарегистрированные на материальном носителе сигналы. Информационная революция – это преобразование общественных отношений из-за кардинальных изменений в сфере обработки информации. появление человеческой речи; изобретение письменности; изобретение книгопечатания; изобретение радио, телефона, телевидения; изобретение микропроцессорных технологий и появление персональных компьютеров. Создание компьютерных сетей и, в частности, глобальной компьютерной сети Интернет. Основные свойства информацииСвойства информации: Полнота Репрезентативность Адекватность (достоверность) Актуальность Доступность (понятность) Ценность полнота – достаточность набора данных для понимания информации и принятия правильных решений или для создания но- вых данных на еѐ основе. репрезентативность– имеющаяся информация и способ еѐ представления позволяет сформировать адекватное отражение свойств объекта. Непременным условием репрезентативности ин- формации является поступление похожей информации из разных ис- точников. адекватность (достоверность) – степень соответствия реальному состоянию дел; актуальность – степень соответствия текущему моменту времени; доступность (понятность) –возможности получить нуж- ную информацию и способ ее представления должен быть понятен еѐ получателю; ценность – степень важности для решения текущей задачи или дальнейшего применения в каких-либо видах деятельности чело- века. Классификация информации 1. По форме представления: дискретная - Определяется прерывистой величиной аналоговая(иначе непрерывная). 2. По области возникновения выделяют : механическую биологическую социальную 3. По способу передачи и восприятия: Визуальная Аудиальная Тактильная Органолептическую-запахи вкусы Машинная 4. По способам кодирования: Символьная Текстовая: Основана на использовании комбинаций символов.В текстовой информации особенно важен не только состав, но и порядок следования символов. Графическая Количество информации как мера уменьшения неопределенности знанийТакой подход позволяет измерять количество информации. Например, результат зачета (зачет\не зачет) приводит к уменьшению неопределенности нашего знания в 2 раза. И, таким образом, чем больше неопределенна первоначальная ситуация-тем больше инфы мы получим, когда узнаем как она разрешилась. Клод Шеннон предложил формулу для определения количества информации, которую мы получаем после получения одного из N возможных сообщений: Здесь p i – вероятность того, что будет получено именно i-е со- общение. Если все сообщения равновероятны, то все p i =1/N, и из этой формулы получается формула Хартли: Из этой формулы следует, что, если I=1, то N=2. Поэтому, в качестве единицы измерения приняли объем информации, который мы получаем при принятии сигнала о том, что же произошло в ситуации с двумя возможными исходами. Ее назвали битом. На практике, может пригодится та же формула, но записанная в решенном от-но N виде: Алфавитный подход к определению количества информации При алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы. Если мощность знаковой системы равна N и вероятности появления каждого знака в сообщении равны, то кол-во информации, которое несет каждое сообщение можно рассчитать по формуле Хартли: Эта величина называется информационной емкостью знака Единицы измерения информации Бит – это минимальная единица измерения количества информации. Первой более крупной, чем бит, единицей измерения информации, выбран байт: 1 байт = 8 бит = 23 бит В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используют коэффициент 2^n, а не 10^n . Так как 10^3 приблизительно равен 2^10 для крупных единиц информации используются те же приставки, что и в системе СИ: 1 Килобайт (Кбайт) = 2^10 байт = 1024 байт; 1 Мегабайт (Мбайт) = 2^10 Кбайт = 1024 Кбайт=1 048 576 байт; 1 Гигабайт (Гбайт) = 2^10 Мбайт = 1024 Мбайт = 1 073 741 824 байт; 1 Терабайт (Тбайт) = 2^10 Гбайт = 1024 Гбайт 1 Петабайт (Пбайт) = 2^10 Тбайт = 1024 Тбайт Алгоритмизация и программирование Алгоритм – это чѐтко определѐнная последовательность действий, описывающих процесс преобразования объекта из начального состояния в конечное с помощью понятной исполнителю последовательности команд. Свойства: – дискретность, т. е. представлен в виде последовательности команд, которые исполнитель должен выполнять одну за другой; – понятностью, т. е. должен содержать только те команды, которые входят в систему выполняемых команд исполнителя; – детерминированность, т. е. алгоритм должен быть представлен таким образом, чтобы, выполняя очередную команду, исполнитель точно знал, какую команду следует выполнять следующей; – результативность, т. е. алгоритм должен обеспечить преобразование от начальных данных к результату за конечное число команд. |