Главная страница
Навигация по странице:

  • САНКТ - ПЕТЕРБУРГСКИЙ НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ УНИВЕРСИТЕТ ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ, МЕХАНИКИ И ОПТИКИ ИНСТИТУТ ХОЛОДА И БИОТЕХНОЛОГИЙ

  • ЛЕКЦИИ ПО ИНФОРМАТИКЕ Учебно- методическое пособиеСанкт - Петербург 2014 УДК 681.3 Петрунина Е.Б.

  • Рецензент: кандидат техн. наук, проф. А.В. Зайцев Рекомендовано к печати редакционно-издательским советом Института холода и биотехнологий

  • ВВЕДЕНИЕ Цели и задачи дисциплины

  • Требования к уровню освоения содержания дисциплины В результате изучения дисциплины студенты должны: знать

  • Сигнал (сообщение)

  • Сведения, факты, данные

  • Информационная революция

  • 1.2. Основные свойства информации Свойства информации можно рассматривать в трех аспектах: технический

  • 1.4. Количество информации как мера уменьшения неопределенности знаний

  • 1.5. Алфавитный подход к определению количества информации

  • Лекции по информатике учебно методическое пособие


    Скачать 0.99 Mb.
    НазваниеЛекции по информатике учебно методическое пособие
    Дата16.11.2018
    Размер0.99 Mb.
    Формат файлаpdf
    Имя файла1599.pdf
    ТипЛекции
    #56701
    страница1 из 10
      1   2   3   4   5   6   7   8   9   10

    МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ
    САНКТ
    -
    ПЕТЕРБУРГСКИЙ НАЦИОНАЛЬНЫЙ
    ИССЛЕДОВАТЕЛЬСКИЙ УНИВЕРСИТЕТ
    ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ, МЕХАНИКИ И ОПТИКИ
    ИНСТИТУТ ХОЛОДА И БИОТЕХНОЛОГИЙ
    Е.Б. Петрунина
    ЛЕКЦИИ ПО ИНФОРМАТИКЕ
    Учебно
    - методическое пособие
    Санкт
    -
    Петербург
    2014

    УДК 681.3
    Петрунина Е.Б. Лекции по информатике: Учеб.-метод. пособие. –
    СПб.: НИУ ИТМО; ИХиБТ, 2014. – 105 с.
    Излагается теоретический материал по дисциплине «Информатика». В конце каждого раздела приведены вопросы для самопроверки.
    Предназначено для студентов всех направлений (бакалавриат) очной и заочной форм обучения.
    Рецензент: кандидат техн. наук, проф. А.В. Зайцев
    Рекомендовано к печати редакционно-издательским советом
    Института холода и биотехнологий
    В 2009 году Университет стал победителем многоэтапного конкурса, в результате которого определены 12 ведущих университетов России, которым присвоена категория «Национальный исследовательский университет». Министерством образования и науки Российской
    Федерации была утверждена программа его развития на 2009–2018 годы.
    В 2011 году Университет получил наименование «Санкт-Петербургский национальный исследовательский университет информационных техно- логий, механики и оптики».
    Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики, 2014
    Петрунина Е.Б., 2014

    3
    ВВЕДЕНИЕ
    Цели и задачи дисциплины
    Целями учебной дисциплины «Информатика» являются фор- мирование представлений о сущности информации и информацион- ных процессов, развитие алгоритмического мышления, представ- ляющего собой необходимую часть научного взгляда на мир, изуче- ние современных информационных технологий, демонстрация воз- можности использования полученных знаний в различных сферах деятельности человека.
    Знание основных разделов дисциплины способствует повыше- нию эффективности учебной деятельности студентов и их будущей профессиональной деятельности, а также положительному воспри- ятию процесса информатизации общества.
    Требования к уровню освоения содержания дисциплины
    В результате изучения дисциплины студенты должны:
    знать:
    – основные понятия и определения информатики;
    – основные принципы работы современного компьютера;
    – технические средства обработки информации;
    программные средства обработки информации;
    – основные понятия и способы моделирования;
    уметь:
    – использовать основные программные средства и информаци- онные системы;
    – моделировать различные процессы на компьютере;
    владеть:
    – способами и методами представления информации;
    – технологиями решения задач с использованием компьютера.

    4
    1.
    ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
    1.1.
    Основные определения
    Информатика – это дисциплина, изучающая структуру и об- щие свойства информации, закономерности и методы еѐ создания, хранения, поиска, преобразования, передачи и применения в различ- ных сферах человеческой деятельности.
    В настоящее время большинство операций с информацией со- вершается с помощью ЭВМ. Поэтому сведения о компьютерах и компьютерные технологии обработки информации являются важ- ной составной частью дисциплины «информатика».
    Понятие информация точно и однозначно не определяется, хотя используется повсеместно. Оно вводится путѐм объяснения, ко- торое опирается на интуицию, здравый смысл или бытовое примене- ние этого термина.
    В Федеральном законе Российской Федерации от 27 июля
    2006г. №149-ФЗ «Об информации, информационных технологиях и о защите информации» (http://www.rg.ru/2006/07/29/informacia- dok.html) дается следующее определение этого термина: «информа- ция — сведения (сообщения, данные) независимо от формы их пред- ставления».
    Толковый словарь русского языка Ожегова приводит 2 опре- деления слова «информация»:
    1.
    Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройст- вом.
    2.
    Сообщения, осведомляющие о положении дел, о состоя- нии чего-нибудь. (Научно-техническая и газетная информация, сред- ства массовой информации — печать, радио, телевидение, кино).
    Для количественного определения имеющейся информации самым удобным оказалось такое: это сведения, которые уменьшают неопределенность об окружающем мире и являются объектом хране- ния, преобразования, передачи и использования.
    Энтропия – это мера неопределѐнности наших знаний об объ- екте или явлении. Энтропию иногда называют антиинформацией.
    Например. Если мы интересуемся сведениями о полностью засекре- ченном объекте или явлении, или получили зашифрованное сообще-

    5 ние, а ключа к расшифровке не знаем, то для нас информация о нѐм равна нулю, а энтропия – максимальна.
    Знания – это осознанные и запомненные людьми свойства предметов, явлений и связей между ними, а также способов выполне- ния тех или иных действий для достижения нужных результатов.
    Сигнал (сообщение) – информационный поток, который в процессе передачи информации поступает к приѐмнику.
    Данные – это зарегистрированные на материальном носителе сигналы.
    Одна и та же информация может передаваться с помощью раз- ных сообщений. Например, сведения о выпуске книги могут быть пе- реданы с помощью телевидения, устного разговора, рекламных щи- тов и т. д. И, наоборот, одно и то же сообщение может нести различ- ную информацию. Пример: сообщение на китайском языке несѐт ка- кую-то информацию только для тех, кто этот язык знает.
    Сведения, факты, данные – это знания, выраженные в сигна- лах, сообщениях, известиях, уведомлениях и т.д.
    Информационные процессы – это хранение, передача и обра- ботка данных.
    Информационная революция – это преобразование общест- венных отношений из-за кардинальных изменений в сфере обработки информации.
    Другими словами информационная революция означает скачок в развитии общества, новый уровень использования принципиально новых методов и средств переработки информации и процессов ин- формационного взаимодействия в обществе, что создает основу для объединения интеллектуальных способностей человечества.
    В настоящее время выделяется шесть основных информацион- ных революций в истории развития человеческого общества. Они связываются со следующими событиями: появление человеческой речи; изобретение письменности; изобретение книгопечатания; изобретение радио, телефона, телевидения; изобретение микропроцессорных технологий и появление персональных компьютеров.
    Создание компьютерных сетей и, в частности, глобальной компьютерной сети Интернет.

    6
    1.2.
    Основные свойства информации
    Свойства информации можно рассматривать в трех аспектах:
    технический – это точность, надежность, скорость пере- дачи сигналов и т. д.;
    семантический – это передача смысла текста с помощью кодов. Например, при семантической отладке программы проверяют- ся типы переменных, входящих в выражение: если переменная А тек- стовая, переменная В – числовая, то выражение А/В не имеет смысла, если же А и В – числовые переменные, то это выражение становится осмысленным;
    прагматический – это насколько эффективно информация влияет на поведение объекта.
    С учетом этих факторов к основным свойствам информации относятся:
    полнота – достаточность набора данных для понимания информации и принятия правильных решений или для создания но- вых данных на еѐ основе. О полноте информации можно говорить, если какая-либо дополнительная информация об объекте будет уже избыточна;
    репрезентативность – имеющаяся информация и способ еѐ представления позволяет сформировать адекватное отражение свойств объекта. Непременным условием репрезентативности ин- формации является поступление похожей информации из разных ис- точников. Конечно полного совпадения информации, поступившей из разных источников, никогда не будет. Однако самые важные ха- рактеристики объекта весь объѐм поступившей информации будет отражать правильно;
    адекватность(достоверность) – степень соответствия реальному состоянию дел;
    Свойства
    информации
    Актуальность
    Адекватность
    (достоверность)
    Репрезентативность
    Полнота
    Ценность
    Доступность
    (понятность)

    7
    актуальность – степень соответствия текущему моменту времени;
    доступность (понятность) –возможности получить нуж- ную информацию и способ ее представления должен быть понятен еѐ получателю;
    ценность – степень важности для решения текущей задачи или дальнейшего применения в каких-либо видах деятельности чело- века.
    1.3.
    Классификация информации
    Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические или социаль- ные процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения те- ла, количество людей на предприятии, имеющих высшее образова- ние, продуктивность работы ученых и т. д. Сигналом, передающим информацию, служит значение одного или нескольких параметров регистрируемого процесса. В связи с этим существуют разные вари- анты классификации информации.
    1. По форме представления:
    дискретная информация: характеризуется прерывистой, изменяющейся величиной, например, количество дорожно- транспортных происшествий, количество символов в том или ином алфавите, количество занятых байт в памяти компьютера и т. п. Сиг- нал, переносящий информацию, представляется последовательно- стью символов алфавита, принятого в данной предметной области;
    аналоговая информация: (непрерывная) представляется сигналом, измеряемый параметр которого может принимать любые промежуточные значения в определенных пределах. Например, тем- пература тела человека, скорость автомобиля на определенном участ- ке пути, воспроизведение звука на виниловой пластинке, так как зву- ковая дорожка на ней изменяет свою форму непрерывно, плавные пе- реходы цветов на живописном полотне и т. п. Аналоговую информа- цию можно преобразовать в дискретную с некоторой потерей проме- жуточных значений.
    Для цифровой техники наиболее удобна дискретная форма представления информации.
    2. По области возникновения выделяют информацию:

    8
    механическую, которая отражает процессы и явления не- одушевленной природы;
    биологическую, которая отражает процессы животного и растительного мира;
    социальную, которая отражает процессы человеческого общества.
    3. По способу передачи и восприятия различают следующие
    виды информации:
    визуальную, передаваемую видимыми образами и символа- ми;
    аудиальную, передаваемую звуками;
    тактильную, передаваемую ощущениями прикосновений;
    органолептическую, передаваемую запахами и вкусами;
    машинную, выдаваемую и воспринимаемую средствами вычислительной техники.
    4.Информацию, создаваемую и используемую человеком, по
    общественному назначению можно разбить на три вида:
    личную, предназначенную для конкретного человека;
    массовую, предназначенную для любого желающего ею пользоваться (общественно-политическая, научно-популярная и т.д.);
    специальную, предназначенную для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики.
    5. По способам кодирования выделяют следующие типы ин-
    формации:
    символьную, основанную на использовании символов – букв, цифр, знаков и т. д. Она является наиболее простой, но приме- няется только для передачи несложных сигналов о различных собы- тиях. Примером может служить зеленый свет уличного светофора, который сообщает пешеходам и водителям автотранспорта о воз- можности начала движения;
    текстовую, основанную на использовании комбинаций символов. Здесь так же, как и в предыдущей форме, используются символы: буквы, цифры, математические знаки. При этом в тексто- вой информации принципиально важен не только состав, но и поря- док следования символов. Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию. Текстовая информация

    9 чрезвычайно удобна и широко используется в деятельности человека: книги, брошюры, журналы, различного рода документы, аудиозаписи кодируются в текстовой форме;
    графическую, основанную на использовании произвольно- го сочетания графических примитивов. К этой форме относятся фо- тографии, схемы, чертежи, рисунки, играющие большое значение в деятельности человека.
    1.4.
    Количество информации как мера уменьшения
    неопределенности знаний
    Подход к информации как к мере уменьшения неопределѐнно- сти наших знаний позволяет количественно измерять информацию, полученную через некоторое сообщение.
    Например, после сдачи зачета Вы получаете одно из двух ин- формационных сообщений: "зачет" или "незачет", а после сдачи эк- замена одно из четырех информационных сообщений: "2", "3", "4" или "5".
    Информационное сообщение об оценке за зачет приводит к уменьшению неопределенности вашего знания в два раза, так как реализуется один из двух возможных вариантов. Информационное сообщение об оценке за экзамен приводит к уменьшению неопреде- ленности вашего знания в четыре раза, так как получено одно из че- тырех возможных информационных сообщений.
    Ясно, что чем более неопределенна первоначальная ситуация, тем больше мы получим новой информации при получении инфор- мационного сообщения о том, как она разрешилась (тем в большее количество раз уменьшится неопределенность знания).
    Клод Шеннон предложил в 1948 году формулу для определе- ния количества информации, которую мы получаем после получения одного из N возможных сообщений:
    I = – (p
    1
    log
    2
    p
    1
    + p
    2
    log
    2
    p
    2
    +… p i
    log
    2
    p i
    +…+ p
    N
    log
    2
    p
    N
    )
    Здесь p i
    – вероятность того, что будет получено именно i-е со- общение. Если все сообщения равновероятны, то все p i
    =1/N, и из этой формулы получается формула Хартли:
    I = log
    2
    N
    Для количественного выражения любой величины необходимо сначала определить единицу измерения. Так, для измерения длины

    10 в качестве единицы выбран метр, для измерения массы - килограмм и т. д. Аналогично, для определения количества информации необхо- димо ввести единицу измерения.
    Из формулы Хартли следует: если I=1, то N=2, то есть в каче- стве единицы измерения информации можно взять тот объѐм инфор- мации, который мы получаем при принятии сигнала о том, что же произошло в ситуации с двумя возможными исходами. Такая едини- ца названа
    битом.
    Наряду с единицей бит иногда используют в качестве единиц информации количества, взятые по логарифмам с другими основа- ниями: дит – по десятичному логарифму (за единицу информации выбирается количество информации, необходимой для различения десяти равновероятных сообщений), нат – по натуральному основа- нию.
    Используя формулу Хартли можно, также, зная количество информации, пришедшее с одним из равновероятных сообщений, оп- ределить, сколько сообщений вообще можно было ожидать в данной ситуации. Решив это уравнение относительно N, получим при равно- вероятных исходах:
    I = log
    2
    N
    N = 2
    I
    Например, на экзамене вы берете экзаменационный билет, и учитель сообщает, что зрительное информационное сообщение о его номере несет 5 бит информации. Если вы хотите определить ко- личество экзаменационных билетов, то достаточно определить коли- чество возможных информационных сообщений об их номерах из формулы Хартли:
    5 = log
    2
    N
    N = 2 5
    = 32.
    Таким образом, количество экзаменационных билетов равно
    32.
    Задача: Представьте себе, что вы управляете движением ро- бота и можете задавать направление его движения с помощью ин- формационных сообщений: "север", "северо-восток", "восток", "юго- восток", "юг", "юго-запад", "запад" и "северо-запад" (рис. 1.1). Какое количество информации будет получать робот после каждого сооб- щения?

    11
    Рис. 1.1. Управление роботом с использова- нием информационных сообщений
    В этой задаче робот может получить 8 разных информацион- ных сообщений. Формула Хартли принимает вид уравнения относи- тельно I:
    8 = 2
    I
    Так как 8 = 2 3
    , получаем
    2 3
    = 2
    I
    I = 3
    Количество информации, которое несет роботу каждое инфор- мационное сообщение, равно 3 битам.
    1.5.
    Алфавитный подход к определению количества
    информации
    При алфавитном подходе к определению количества информа- ции отвлекаются от содержания информации и рассматривают ин- формационное сообщение как последовательность знаков определен- ной знаковой системы.
    Представим себе, что необходимо передать информационное сообщение по каналу передачи информации от отправителя к получа- телю. Пусть сообщение кодируется с помощью знаковой системы, алфавит которой состоит из N знаков {1, ..., N} и вероятности появ- ления каждого знака в сообщении равны.
    В простейшем случае, когда длина кода сообщения составляет один знак, отправитель может послать N разных сообщений. Количе- ство информации I, которое несет каждое сообщение, то есть один знак, можно рассчитать по формуле Хартли.
    I = log
    2
    N

    12
    Эта величина называется информационной емкостью знака.
    С помощью этой формулы можно, например, определить информа- ционную емкость знака двоичной знаковой системы:
    I = log
    2 2 = 1 бит
    Интересно, что сама единица измерения количества информа- ции "бит" (bit) получила свое название от английского словосочета- ния "binary digit" – "двоичная цифра".
    Чем большее количество знаков содержит алфавит знаковой системы, тем большее количество информации несет один знак. В качестве примера определим количество информации, которое несет буква русского алфавита. В русский алфавит входят 33 буквы, однако на практике часто для передачи сообщений используются только 32 буквы (исключается буква "ѐ").
    С помощью формулы Хартли определим количество информа- ции, которое несет буква русского алфавита:
    N = 32
    I = log
    2 32
    I = log
    2 2
    5
    I=5 бит.
    Таким образом, информационная емкость буквы русского ал- фавита равна 5 битам (если считать, что все буквы используются в сообщении с равной вероятностью).
    Количество информации, которое несет знак, зависит от веро- ятности его получения. Если получатель заранее точно знает, какой знак придет, то полученное количество информации будет равно 0.
    Наоборот, чем менее вероятно получение знака, тем больше его ин- формационная емкость.
    Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации. Если знаки не- сут одинаковое количество информации, то количество информации
    I
    c в сообщении можно подсчитать, умножив количество информации
    I
    з,
    которое несет один знак, на длину кода К (количество знаков в со- общении):
    I
    c
    = I
    з
    * K
    Например, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в
    2 бита, три цифры - в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода (табл. 1.1).

    13
    Таблица 1.1.
    Количество информации, которое несет двоичный компьютерный код
    Двоичный компьютерный код
    111 01 11 011 0001
    Количество информации
    3 бит 2 бит 2 бит 3 бит 4 бит
    В русской письменной речи частота использования букв в тек- сте различна, так в среднем на 1000 знаков осмысленного текста при- ходится 200 букв "а" и в сто раз меньшее количество буквы "ф" (все- го 2). Таким образом, с точки зрения теории информации, информа- ционная емкость знаков русского алфавита различна (у буквы "а" она наименьшая, а у буквы "ф" - наибольшая) и информацию, которое несѐт текстовое сообщение, надо рассчитывать с учетом вероятности появления букв, входящих в него.
      1   2   3   4   5   6   7   8   9   10


    написать администратору сайта