Лекции по информатике учебно методическое пособие
Скачать 0.99 Mb.
|
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ САНКТ - ПЕТЕРБУРГСКИЙ НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ УНИВЕРСИТЕТ ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ, МЕХАНИКИ И ОПТИКИ ИНСТИТУТ ХОЛОДА И БИОТЕХНОЛОГИЙ Е.Б. Петрунина ЛЕКЦИИ ПО ИНФОРМАТИКЕ Учебно - методическое пособие Санкт - Петербург 2014 УДК 681.3 Петрунина Е.Б. Лекции по информатике: Учеб.-метод. пособие. – СПб.: НИУ ИТМО; ИХиБТ, 2014. – 105 с. Излагается теоретический материал по дисциплине «Информатика». В конце каждого раздела приведены вопросы для самопроверки. Предназначено для студентов всех направлений (бакалавриат) очной и заочной форм обучения. Рецензент: кандидат техн. наук, проф. А.В. Зайцев Рекомендовано к печати редакционно-издательским советом Института холода и биотехнологий В 2009 году Университет стал победителем многоэтапного конкурса, в результате которого определены 12 ведущих университетов России, которым присвоена категория «Национальный исследовательский университет». Министерством образования и науки Российской Федерации была утверждена программа его развития на 2009–2018 годы. В 2011 году Университет получил наименование «Санкт-Петербургский национальный исследовательский университет информационных техно- логий, механики и оптики». Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики, 2014 Петрунина Е.Б., 2014 3 ВВЕДЕНИЕ Цели и задачи дисциплины Целями учебной дисциплины «Информатика» являются фор- мирование представлений о сущности информации и информацион- ных процессов, развитие алгоритмического мышления, представ- ляющего собой необходимую часть научного взгляда на мир, изуче- ние современных информационных технологий, демонстрация воз- можности использования полученных знаний в различных сферах деятельности человека. Знание основных разделов дисциплины способствует повыше- нию эффективности учебной деятельности студентов и их будущей профессиональной деятельности, а также положительному воспри- ятию процесса информатизации общества. Требования к уровню освоения содержания дисциплины В результате изучения дисциплины студенты должны: знать: – основные понятия и определения информатики; – основные принципы работы современного компьютера; – технические средства обработки информации; – программные средства обработки информации; – основные понятия и способы моделирования; уметь: – использовать основные программные средства и информаци- онные системы; – моделировать различные процессы на компьютере; владеть: – способами и методами представления информации; – технологиями решения задач с использованием компьютера. 4 1. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ 1.1. Основные определения Информатика – это дисциплина, изучающая структуру и об- щие свойства информации, закономерности и методы еѐ создания, хранения, поиска, преобразования, передачи и применения в различ- ных сферах человеческой деятельности. В настоящее время большинство операций с информацией со- вершается с помощью ЭВМ. Поэтому сведения о компьютерах и компьютерные технологии обработки информации являются важ- ной составной частью дисциплины «информатика». Понятие информация точно и однозначно не определяется, хотя используется повсеместно. Оно вводится путѐм объяснения, ко- торое опирается на интуицию, здравый смысл или бытовое примене- ние этого термина. В Федеральном законе Российской Федерации от 27 июля 2006г. №149-ФЗ «Об информации, информационных технологиях и о защите информации» (http://www.rg.ru/2006/07/29/informacia- dok.html) дается следующее определение этого термина: «информа- ция — сведения (сообщения, данные) независимо от формы их пред- ставления». Толковый словарь русского языка Ожегова приводит 2 опре- деления слова «информация»: 1. Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройст- вом. 2. Сообщения, осведомляющие о положении дел, о состоя- нии чего-нибудь. (Научно-техническая и газетная информация, сред- ства массовой информации — печать, радио, телевидение, кино). Для количественного определения имеющейся информации самым удобным оказалось такое: это сведения, которые уменьшают неопределенность об окружающем мире и являются объектом хране- ния, преобразования, передачи и использования. Энтропия – это мера неопределѐнности наших знаний об объ- екте или явлении. Энтропию иногда называют антиинформацией. Например. Если мы интересуемся сведениями о полностью засекре- ченном объекте или явлении, или получили зашифрованное сообще- 5 ние, а ключа к расшифровке не знаем, то для нас информация о нѐм равна нулю, а энтропия – максимальна. Знания – это осознанные и запомненные людьми свойства предметов, явлений и связей между ними, а также способов выполне- ния тех или иных действий для достижения нужных результатов. Сигнал (сообщение) – информационный поток, который в процессе передачи информации поступает к приѐмнику. Данные – это зарегистрированные на материальном носителе сигналы. Одна и та же информация может передаваться с помощью раз- ных сообщений. Например, сведения о выпуске книги могут быть пе- реданы с помощью телевидения, устного разговора, рекламных щи- тов и т. д. И, наоборот, одно и то же сообщение может нести различ- ную информацию. Пример: сообщение на китайском языке несѐт ка- кую-то информацию только для тех, кто этот язык знает. Сведения, факты, данные – это знания, выраженные в сигна- лах, сообщениях, известиях, уведомлениях и т.д. Информационные процессы – это хранение, передача и обра- ботка данных. Информационная революция – это преобразование общест- венных отношений из-за кардинальных изменений в сфере обработки информации. Другими словами информационная революция означает скачок в развитии общества, новый уровень использования принципиально новых методов и средств переработки информации и процессов ин- формационного взаимодействия в обществе, что создает основу для объединения интеллектуальных способностей человечества. В настоящее время выделяется шесть основных информацион- ных революций в истории развития человеческого общества. Они связываются со следующими событиями: появление человеческой речи; изобретение письменности; изобретение книгопечатания; изобретение радио, телефона, телевидения; изобретение микропроцессорных технологий и появление персональных компьютеров. Создание компьютерных сетей и, в частности, глобальной компьютерной сети Интернет. 6 1.2. Основные свойства информации Свойства информации можно рассматривать в трех аспектах: технический – это точность, надежность, скорость пере- дачи сигналов и т. д.; семантический – это передача смысла текста с помощью кодов. Например, при семантической отладке программы проверяют- ся типы переменных, входящих в выражение: если переменная А тек- стовая, переменная В – числовая, то выражение А/В не имеет смысла, если же А и В – числовые переменные, то это выражение становится осмысленным; прагматический – это насколько эффективно информация влияет на поведение объекта. С учетом этих факторов к основным свойствам информации относятся: полнота – достаточность набора данных для понимания информации и принятия правильных решений или для создания но- вых данных на еѐ основе. О полноте информации можно говорить, если какая-либо дополнительная информация об объекте будет уже избыточна; репрезентативность – имеющаяся информация и способ еѐ представления позволяет сформировать адекватное отражение свойств объекта. Непременным условием репрезентативности ин- формации является поступление похожей информации из разных ис- точников. Конечно полного совпадения информации, поступившей из разных источников, никогда не будет. Однако самые важные ха- рактеристики объекта весь объѐм поступившей информации будет отражать правильно; адекватность(достоверность) – степень соответствия реальному состоянию дел; Свойства информации Актуальность Адекватность (достоверность) Репрезентативность Полнота Ценность Доступность (понятность) 7 актуальность – степень соответствия текущему моменту времени; доступность (понятность) –возможности получить нуж- ную информацию и способ ее представления должен быть понятен еѐ получателю; ценность – степень важности для решения текущей задачи или дальнейшего применения в каких-либо видах деятельности чело- века. 1.3. Классификация информации Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические или социаль- ные процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения те- ла, количество людей на предприятии, имеющих высшее образова- ние, продуктивность работы ученых и т. д. Сигналом, передающим информацию, служит значение одного или нескольких параметров регистрируемого процесса. В связи с этим существуют разные вари- анты классификации информации. 1. По форме представления: дискретная информация: характеризуется прерывистой, изменяющейся величиной, например, количество дорожно- транспортных происшествий, количество символов в том или ином алфавите, количество занятых байт в памяти компьютера и т. п. Сиг- нал, переносящий информацию, представляется последовательно- стью символов алфавита, принятого в данной предметной области; аналоговая информация: (непрерывная) представляется сигналом, измеряемый параметр которого может принимать любые промежуточные значения в определенных пределах. Например, тем- пература тела человека, скорость автомобиля на определенном участ- ке пути, воспроизведение звука на виниловой пластинке, так как зву- ковая дорожка на ней изменяет свою форму непрерывно, плавные пе- реходы цветов на живописном полотне и т. п. Аналоговую информа- цию можно преобразовать в дискретную с некоторой потерей проме- жуточных значений. Для цифровой техники наиболее удобна дискретная форма представления информации. 2. По области возникновения выделяют информацию: 8 механическую, которая отражает процессы и явления не- одушевленной природы; биологическую, которая отражает процессы животного и растительного мира; социальную, которая отражает процессы человеческого общества. 3. По способу передачи и восприятия различают следующие виды информации: визуальную, передаваемую видимыми образами и символа- ми; аудиальную, передаваемую звуками; тактильную, передаваемую ощущениями прикосновений; органолептическую, передаваемую запахами и вкусами; машинную, выдаваемую и воспринимаемую средствами вычислительной техники. 4.Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три вида: личную, предназначенную для конкретного человека; массовую, предназначенную для любого желающего ею пользоваться (общественно-политическая, научно-популярная и т.д.); специальную, предназначенную для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики. 5. По способам кодирования выделяют следующие типы ин- формации: символьную, основанную на использовании символов – букв, цифр, знаков и т. д. Она является наиболее простой, но приме- няется только для передачи несложных сигналов о различных собы- тиях. Примером может служить зеленый свет уличного светофора, который сообщает пешеходам и водителям автотранспорта о воз- можности начала движения; текстовую, основанную на использовании комбинаций символов. Здесь так же, как и в предыдущей форме, используются символы: буквы, цифры, математические знаки. При этом в тексто- вой информации принципиально важен не только состав, но и поря- док следования символов. Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию. Текстовая информация 9 чрезвычайно удобна и широко используется в деятельности человека: книги, брошюры, журналы, различного рода документы, аудиозаписи кодируются в текстовой форме; графическую, основанную на использовании произвольно- го сочетания графических примитивов. К этой форме относятся фо- тографии, схемы, чертежи, рисунки, играющие большое значение в деятельности человека. 1.4. Количество информации как мера уменьшения неопределенности знаний Подход к информации как к мере уменьшения неопределѐнно- сти наших знаний позволяет количественно измерять информацию, полученную через некоторое сообщение. Например, после сдачи зачета Вы получаете одно из двух ин- формационных сообщений: "зачет" или "незачет", а после сдачи эк- замена одно из четырех информационных сообщений: "2", "3", "4" или "5". Информационное сообщение об оценке за зачет приводит к уменьшению неопределенности вашего знания в два раза, так как реализуется один из двух возможных вариантов. Информационное сообщение об оценке за экзамен приводит к уменьшению неопреде- ленности вашего знания в четыре раза, так как получено одно из че- тырех возможных информационных сообщений. Ясно, что чем более неопределенна первоначальная ситуация, тем больше мы получим новой информации при получении инфор- мационного сообщения о том, как она разрешилась (тем в большее количество раз уменьшится неопределенность знания). Клод Шеннон предложил в 1948 году формулу для определе- ния количества информации, которую мы получаем после получения одного из N возможных сообщений: I = – (p 1 log 2 p 1 + p 2 log 2 p 2 +… p i log 2 p i +…+ p N log 2 p N ) Здесь p i – вероятность того, что будет получено именно i-е со- общение. Если все сообщения равновероятны, то все p i =1/N, и из этой формулы получается формула Хартли: I = log 2 N Для количественного выражения любой величины необходимо сначала определить единицу измерения. Так, для измерения длины 10 в качестве единицы выбран метр, для измерения массы - килограмм и т. д. Аналогично, для определения количества информации необхо- димо ввести единицу измерения. Из формулы Хартли следует: если I=1, то N=2, то есть в каче- стве единицы измерения информации можно взять тот объѐм инфор- мации, который мы получаем при принятии сигнала о том, что же произошло в ситуации с двумя возможными исходами. Такая едини- ца названа битом. Наряду с единицей бит иногда используют в качестве единиц информации количества, взятые по логарифмам с другими основа- ниями: дит – по десятичному логарифму (за единицу информации выбирается количество информации, необходимой для различения десяти равновероятных сообщений), нат – по натуральному основа- нию. Используя формулу Хартли можно, также, зная количество информации, пришедшее с одним из равновероятных сообщений, оп- ределить, сколько сообщений вообще можно было ожидать в данной ситуации. Решив это уравнение относительно N, получим при равно- вероятных исходах: I = log 2 N N = 2 I Например, на экзамене вы берете экзаменационный билет, и учитель сообщает, что зрительное информационное сообщение о его номере несет 5 бит информации. Если вы хотите определить ко- личество экзаменационных билетов, то достаточно определить коли- чество возможных информационных сообщений об их номерах из формулы Хартли: 5 = log 2 N N = 2 5 = 32. Таким образом, количество экзаменационных билетов равно 32. Задача: Представьте себе, что вы управляете движением ро- бота и можете задавать направление его движения с помощью ин- формационных сообщений: "север", "северо-восток", "восток", "юго- восток", "юг", "юго-запад", "запад" и "северо-запад" (рис. 1.1). Какое количество информации будет получать робот после каждого сооб- щения? 11 Рис. 1.1. Управление роботом с использова- нием информационных сообщений В этой задаче робот может получить 8 разных информацион- ных сообщений. Формула Хартли принимает вид уравнения относи- тельно I: 8 = 2 I Так как 8 = 2 3 , получаем 2 3 = 2 I I = 3 Количество информации, которое несет роботу каждое инфор- мационное сообщение, равно 3 битам. 1.5. Алфавитный подход к определению количества информации При алфавитном подходе к определению количества информа- ции отвлекаются от содержания информации и рассматривают ин- формационное сообщение как последовательность знаков определен- ной знаковой системы. Представим себе, что необходимо передать информационное сообщение по каналу передачи информации от отправителя к получа- телю. Пусть сообщение кодируется с помощью знаковой системы, алфавит которой состоит из N знаков {1, ..., N} и вероятности появ- ления каждого знака в сообщении равны. В простейшем случае, когда длина кода сообщения составляет один знак, отправитель может послать N разных сообщений. Количе- ство информации I, которое несет каждое сообщение, то есть один знак, можно рассчитать по формуле Хартли. I = log 2 N 12 Эта величина называется информационной емкостью знака. С помощью этой формулы можно, например, определить информа- ционную емкость знака двоичной знаковой системы: I = log 2 2 = 1 бит Интересно, что сама единица измерения количества информа- ции "бит" (bit) получила свое название от английского словосочета- ния "binary digit" – "двоичная цифра". Чем большее количество знаков содержит алфавит знаковой системы, тем большее количество информации несет один знак. В качестве примера определим количество информации, которое несет буква русского алфавита. В русский алфавит входят 33 буквы, однако на практике часто для передачи сообщений используются только 32 буквы (исключается буква "ѐ"). С помощью формулы Хартли определим количество информа- ции, которое несет буква русского алфавита: N = 32 I = log 2 32 I = log 2 2 5 I=5 бит. Таким образом, информационная емкость буквы русского ал- фавита равна 5 битам (если считать, что все буквы используются в сообщении с равной вероятностью). Количество информации, которое несет знак, зависит от веро- ятности его получения. Если получатель заранее точно знает, какой знак придет, то полученное количество информации будет равно 0. Наоборот, чем менее вероятно получение знака, тем больше его ин- формационная емкость. Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации. Если знаки не- сут одинаковое количество информации, то количество информации I c в сообщении можно подсчитать, умножив количество информации I з, которое несет один знак, на длину кода К (количество знаков в со- общении): I c = I з * K Например, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры - в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода (табл. 1.1). 13 Таблица 1.1. Количество информации, которое несет двоичный компьютерный код Двоичный компьютерный код 111 01 11 011 0001 Количество информации 3 бит 2 бит 2 бит 3 бит 4 бит В русской письменной речи частота использования букв в тек- сте различна, так в среднем на 1000 знаков осмысленного текста при- ходится 200 букв "а" и в сто раз меньшее количество буквы "ф" (все- го 2). Таким образом, с точки зрения теории информации, информа- ционная емкость знаков русского алфавита различна (у буквы "а" она наименьшая, а у буквы "ф" - наибольшая) и информацию, которое несѐт текстовое сообщение, надо рассчитывать с учетом вероятности появления букв, входящих в него. |