Главная страница
Навигация по странице:

  • Правовые основы информатизации

  • Природа, сущность и свойства информации. Основные определения понятия информации.

  • Меры информации, понятие энтропии.

  • Законы алгебры логики.

  • Логические основы построения ЭВМ. Базовые логические элементы

  • Системы счисления. Перевод из одной системы счисления в другую.

  • Кодирование и представление информации в ЭВМ.

  • Информатика. Ответы на билеты. Предмет информатики, ее связь с другими


    Скачать 329.5 Kb.
    НазваниеПредмет информатики, ее связь с другими
    АнкорИнформатика. Ответы на билеты.doc
    Дата08.02.2018
    Размер329.5 Kb.
    Формат файлаdoc
    Имя файлаИнформатика. Ответы на билеты.doc
    ТипДокументы
    #15334
    КатегорияИнформатика. Вычислительная техника
    страница1 из 6
      1   2   3   4   5   6

    1. Предмет информатики, ее связь с другими дисциплинами.

    Информатика - комплексная научная и инженерная дисциплина, изучающая все аспекты разработки, проектирования, создания, оценки, функционирования основанных на ЭВМ систем переработки информации, их применения и воздействия на различные области социальной практики. Информатика существует не сама по себе, а является комплексной научно-технической дисциплиной, призванной создавать новые информационные техники и технологии для решения проблем в других областях.

    Наиболее тесно информатика связана с кибернетикой - наукой о закономерностях управления сложными динамическими системами. В качестве таких сложных динамических систем рассматриваются и живые организмы, и социальные сообщества, и технические системы. Другой наукой, с которой тесно связана информатика является семиотика, исследующая свойства знаковых систем (естественных и искусственных языков). Поскольку знак есть носитель информации, семиотика получает большое прикладное значение при исследовании и проектировании знаковых систем, используемых в процессах передачи и обработки информации. Тесно связана с наукой о языке - лингвистикой. Информатика использует такие понятия, как язык, слово, алфавит, предложение, текст. Одной из важнейших задач лингвистики является изучение структуры текста. Развитие информатики тесно связано с достижениями психологии, которые активно используются при изучении мыслительных процессов создания и использования информации, природы информационных потребностей и их формулировании в запросы, при разработке эффективных методов чтения, машинных систем информационного обслуживания, конструировании информационных устройств.


    1. Правовые основы информатизации

    Процесс внедрения информатики в различные сферы деятельности человека и есть отражение информатизации общества.

    Информатизация – это системный, междисциплинарный процесс внедрения достижений методов информатики и новых информационных технологий в общественную жизнь, в научно-технические, социально–экономические, правовые и другие институты государства с целью повышения их эффективности, всестороннего развития личности.

    Правовые основы информатизации – правовые нормы и законы, регулирующие актуализацию информации и информационных систем, технологий.

    В процессе информатизации общества необходимо:

    создать алгоритмическую и техническую базу;

    создать индустрию информационных потоков, технологий;

    подготовить системы информатизации и совершенствования управления;

    обеспечить информационную безопасность и правовое обеспечение;

    воспитать информационно грамотных членов общества.

    Нужно учитывать регулятивная функция права, воздействие ее на информатизацию.

    Нужно учитывать трансформирующая роль информатизации, воздействие ее на правовую систему.

    Информатизация правовых систем направлена, в основном, на правотворческую, правоприменительную и правоохранительную деятельность.


    1. Природа, сущность и свойства информации. Основные определения понятия информации.

    Подходы:

    * традиционный (обыденный) - используется в информатике: Информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

    * вероятностный - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
    Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция – носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.

    В случае когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов -дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной.
    Свойство запоминаемости – одно из самых важных. Запоминаемую информацию будем называть макроскопической (имея ввиду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.

    Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К. Шеннона. В данном случае имеется ввиду несколько иной аспект – способность информации к копированию, т.е. к тому, что она может быть “запомнена” другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.

    Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.

    Фундаментальное свойство информации – преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Свойство стираемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.

    Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это наддисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассматривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.


    1. Меры информации, понятие энтропии.

    Теория информации как самостоятельная научная дисциплина была основана американским ученым К.Шенноном в конце 40-х годов 20-го века. Предложенная им теория основывалась на фундаментальном понятии количественной меры неопределенности – энтропии – и связанного с нею понятия – количества информации. На основе понятий энтропии и количества информации в теории информации введены важные характеристики сигналов и информационных систем: Скорость создания информации, Скорость передачи информации, Избыточность, Пропускная способность каналов связи. Базисным понятием всей теории информации является понятие энтропии. Энтропия – мера неопределенности некоторой ситуации. Можно также назвать ее мерой рассеяния и в этом смысле она подобна дисперсии.

    Хартли:

    H =log2 2 = 1 бит (1 двоичная единица).

    К. Шеннон:

    Введя в формулу Р. Хартли указанные вероятностные значения (p), К. Шеннон получил новые выражения для определения количества информации. Для одного символа это выражение приобретает вид:

    H= -p log2 p,


    1. Законы алгебры логики.

    При решении логических задач часто приходится упрощать формулы. Упрощение формул в булевой алгебре производится на основе эквивалентных преобразований, опирающихся на основные законы.

    Законы логики высказываний - это такие выражения, которым всегда соответствует истинное высказывание, какие бы подстановки значений мы ни делали вместо переменных. В алгебре высказываний логические законы выражаются в виде формул.

    1.1. Закон тождества: А = А

    - всякая мысль тождественна самой себе, то есть "А есть А", где А – любое высказывание.

    2. Закон исключенного третьего: А V ¬А = 1

    - в один и тот же момент времени высказывание может быть либо истинным, либо ложным, третьего не дано. Истинно либо А, либо не А.

    3. Закон непротиворечия: ¬(¬ А ^ А) = 1

    - не могут быть одновременно истинными суждение и его отрицание. То есть, если высказывание А - истинно, то его отрицание ¬А должно быть ложным (и наоборот). Тогда их произведение будет всегда ложным.

    3a. А ^ ¬А =0.

    Именно эта формула часто используется при упрощении сложных логических выражений.

    Иногда этот закон формулируется так: два противоречащих друг другу высказывания не могут быть одновременно истинными.
    ¬ ¬А = А

    СВОЙСТВА КОНСТАНТ

    5. ¬0 = 1

    6. ¬ 1 = 0

    7. А V 0 = А

    8. А ^ 0 = 0

    9. А V 1 = 1

    10. А ^ 1 = А

    ЗАКОНЫ ИДЕМПОТЕНТНОСТИ

    11. А V А = А

    Отсутствие коэффициентов

    12. А ^ А = А

    Отсутствие степеней

    12. А ^ А = А

    Отсутствие степеней

    Сколько бы раз мы ни повторяли "на улице тепло и на улице тепло" ни на один градус теплее от этого не станет, аналогично, от повторения “телевизор включен или телевизор включен” значение высказывания не меняется.

    ЗАКОНЫ КОММУТАТИВНОСТИ

    13. А V В = В V А

    14. А ^ В = В ^ А

    ЗАКОНЫ АССОЦИАТИВНОСТИ

    15. А V (В V С) = (А V В) V С

    16. А ^ (В ^ С) = (А ^ В) ^ С

    ЗАКОНЫ ДИСТРИБУТИВНОСТИ

    17. А V (В^С) = (АVВ) ^ (АVС)

    дизъюнкции относительно конъюнкции

    18. А ^ (ВVС) = (А ^ В) V (А ^ С)

    конъюнкции относительно дизъюнкции

    Закон 18 аналогичен дистрибутивному закону в алгебре, а закон 17 аналога не имеет, он справедлив только в логике. Доказательство его удобнее всего провести по таблице истинности.

    1 2 3 4 5 6 7 8 9

    А B C 2  3 1 V 4 1 V 2 1 V 3 6  7 5 = 8

    0 0 0 0 0 0 0 0 1

    0 0 1 0 0 0 1 0 1

    0 1 0 0 0 1 0 0 1

    0 1 1 1 1 1 1 1 1

    1 0 0 0 1 1 1 1 1

    1 0 1 0 1 1 1 1 1

    1 1 0 0 1 1 1 1 1

    1 1 1 1 1 1 1 1 1

    ЗАКОНЫ ПОГЛОЩЕНИЯ

    19. А V А ^ В = А

    20. А ^(А V В) = А

    ЗАКОНЫ де МОРГАНА

    21. ¬(А V В) = ¬ А ^¬ В

    Отрицание вариантов

    22. ¬(А ^ В) = ¬А V ¬В

    Отрицание одновременной истинности

    Мнемоническое правило. В левой части тождества операция отрицания стоит над всем высказыванием. В правой части она как бы разрывается и отрицание стоит над каждым из простых высказываний, но одновременно меняется операция дизъюнкция на конъюнкцию и наоборот.

    Операций импликации и эквивалентности иногда нет среди логических операций конкретного компьютера или транслятора с языка, а при решении задач они требуются. Существуют формулы замены данных операций с использованием только операций отрицания, дизъюнкции и конъюнкции. Так, вместо операции импликации можно использовать следующее тождественное выражение:

    A → B = ¬A V B

    Для замены операции эквивалентности существует два выражения:

    A <=> B = (A ^ B) V (¬A ^ ¬B)

    A <=> B = (A V ¬B) ^ (¬A V B)

    Знание данных формул помогает, например, правильно построить отрицание импликации.

    Рассмотрим следующий пример.

    Пусть дано высказывание:

    Е = "Неверно, что если я выиграю конкурс, то получу приз"

    Пусть А = "Я выиграю конкурс", В = " Я получу приз", тогда

    Е = ¬(A → B) = ¬(¬A V B) = ¬¬A ^ ¬B = A ^ ¬B,

    то есть Е = "Возможно, что я выиграю конкурс, но приз не получу".

    Интерес представляют и следующие формулы:

    А → B = ¬B → ¬A

    A <=> B = (A → B) ^ (B → A)

    • Доказать их справедливость можно также с помощью таблиц истинности. Интересно их выражение в разговорном языке.

    Для того, чтобы использовать какие-либо законы в практике, необходимо быть уверенным в их правильности. Доказать закон алгебры высказываний можно:

    построив таблицу истинности для правой и левой части закона;

    выполнив эквивалентные преобразования над правой и левой частью формулы для приведения их к одному виду;

    с помощью диаграмм Эйлера-Венна;

    путем правильных логических рассуждений.

    Упрощение сложных высказываний - это замена их на равносильные им на основе законов алгебры высказываний.

    При упрощении сложных высказываний используются следующие основные приемы:

    по свойству констант

    X = Х ^ 1, Х = X V 0

    по закону исключенного третьего

    1= A V ¬A

    по закону противоречия

    Z ^ ¬Z = 0

    по закону идемпотентности

    В = В V В = B V B V B V B,

    C = C ^ C = C ^ C ^ C ^ C

    по закону двойного отрицания

    Е = ¬ ¬Е


    1. Логические основы построения ЭВМ. Базовые логические элементы

    Логические основы построения ЭВМ. Базовые логические элементы.
    В основе обработки компьютером информации лежит алгебра логики, разработанная Дж. Булем. Было доказано, что все электронные схемы ЭВМ могут быть реализованы с помощью логических элементов И, ИЛИ, НЕ.

    Элемент НЕ

    A
    0 1

    1 0

    При подаче на вход схемы сигнала низкого уровня (0) транзистор будет заперт, т.е. ток через него проходить не будет, и на выходе будет сигнал высокого уровня (1). Если же на вход схемы подать сигнал высокого уровня (1), то транзистор “откроется”, начнет пропускать электрический ток. На выходе за счет падения напряжения установится напряжение низкого уровня. Таким образом, схема преобразует сигналы одного уровня в другой, выполняя логическую функцию.

    Элемент ИЛИ

    А В С

    0 0 0

    0 1 1

    1 0 1

    1 1 1

    Функция “ИЛИ” - логическое сложение (дизъюнкция), ее результат равен 1, если хотя бы 1 из аргументов равен 1.

    Здесь транзисторы включены параллельно друг другу. Если оба закрыты, то их общее сопротивление велико и на выходе будет сигнал низкого уровня (логический “0”). Достаточно подать сигнал высокого уровня (“1”) на один из транзисторов, как схема начнет пропускать ток, и на сопротивлении нагрузки установится также сигнал высокого уровня (логическая “1”).

    Элемент И

    A B C

    0 0 0

    0 1 0

    1 0 0

    1 1 1

    Если на входы Вх1 и Вх2 поданы сигналы низкого уровня (логические “0”), то оба транзистора закрыты, ток через них не проходит, выходное напряжение на Rн близко к нулю.

    Пусть на один из входов подано высокое напряжение (“1”). Тогда соответствующий транзистор откроется, однако другой останется закрытым, и ток через транзисторы и сопротивление проходить не будет. Следовательно, при подаче напряжения высокого уровня лишь на один из транзисторов, схема не переключается и на выходе остается напряжение низкого уровня.

    И лишь при одновременной подаче на входы сигналов высокого уровня (“1”) на выходе мы также получим сигнал высокого уровня.


    1. Системы счисления. Перевод из одной системы счисления в другую.

    Система счисления — символический метод записи чисел, представление чисел с помощью письменных знаков. Системы счисления подразделяются на позиционные, непозиционные и смешанные. В позиционных системах счисления один и тот же числовой знак (цифра) в записи числа имеет различные значения в зависимости от того места (разряда), где он расположен. К числу таких систем относится современная десятичная система счисления. В непозиционных системах счисления величина, которую обозначает цифра, не зависит от положения в числе. При этом система может накладывать ограничения на положение цифр, например, чтобы они были расположены в порядке убывания. Смешанная система счисления является обобщением b-ричной системы счисления и также зачастую относится к позиционным системам счисления. Алгоритм перевода из одной системы счисления в другую: 1)основание новой сист.счисления выразить цифрами исходной сист.счисления и все последующие действия производить в исходной сист.счисления; 2)последовательно выполнять деление данного числа и получаемых целых частных делим на основание новой сист.счисления пока не получим частное меньше делителя; 3)полученные остатки, являющиеся цифрами числа в новой сист.счисления привести в соответствие с алфавитом новой сист.счисления; 4)составить число в новой сист.счисления, записывая его, начиная с последнего остатка.


    1. Кодирование и представление информации в ЭВМ.

    Для обмена информацией с другими людьми человек использует естественные языки (русский, английский, китайский и др.), то есть информация представляется с помощью естественных языков.

    Наряду с естественными языками были разработаны формальные языки (системы счисления, язык алгебры, языки программирования и др.). Основное отличие формальных языков от естественных состоит в наличии строгих правил грамматики и синтаксиса.

    Представление информации может осуществляться с помощью языков, которые являются знаковыми системами. Каждая знаковая система строится на основе определенного алфавита и правил выполнения операций над знаками.

    Кодирование информации

    Представление информации происходит в различных формах в процессе восприятия окружающей среды живыми организмами и человеком, в процессах обмена информацией между человеком и человеком, человеком и компьютером, компьютером и компьютером и так далее. Преобразование информации из одной формы представления (знаковой системы) в другую называется кодированием.

    Средством кодирования служит таблица соответствия знаковых систем, которая устанавливает взаимно однозначное соответствие между знаками или группами знаков двух различных знаковых систем. В дальнейшем будет приведена такая таблица, которая устанавливает соответствие между графическими изображениями знаков алфавита и их компьютерными кодами.

    В процессе обмена информацией часто приходится производить операции кодирования и декодирования информации. При вводе знака алфавита в компьютер путем нажатия соответствующей клавиши на клавиатуре происходит кодирование знака, то есть преобразование его в компьютерный код. При выводе знака на экран монитора или принтер происходит обратный процесс - декодирование, когда из компьютерного кода знак преобразуется в его графическое изображение.

    Кодирование - это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.
    Двоичное кодирование информации в компьютере

    В компьютере для представления информации используется двоичное кодирование, так как удалось создать надежно работающие технические устройства, которые могут со стопроцентной надежностью сохранять и распознавать не более двух различных состояний (цифр):

    • электромагнитные реле (замкнуто/разомкнуто), широко использовались в конструкциях первых ЭВМ;

    • участок поверхности магнитного носителя информации (намагничен/размагничен);

    • участок поверхности лазерного диска (отражает/не отражает);

    • триггер (см. п. 3.7.3), может устойчиво находиться в одном из двух состояний, широко используется в оперативной памяти компьютера.
    Информация в компьютере представлена в двоичном коде, алфавит которого состоит из двух цифр (0 и 1).

    Цифры двоичного кода можно рассматривать как два равновероятных состояния (события). При записи двоичной цифры реализуется выбор одного из двух возможных состояний (одной из двух цифр) и, следовательно, она несет количество информации, равное 1 биту.

    Даже сама единица измерения количества информации бит (bit) получила свое название от английского словосочетания Binary digiT (двоичная цифра).

    Важно, что каждая цифра машинного двоичного кода несет информацию в 1 бит. Таким образом, две цифры несут информацию в 2 бита, три цифры - в 3 бита и так далее. Количество информации в битах равно количеству цифр двоичного машинного кода.

    Каждая цифра машинного двоичного кода несет количество информации, равное одному биту.

      1   2   3   4   5   6


    написать администратору сайта