Главная страница
Навигация по странице:

  • Энтропия

  • Сигнал

  • Информационная революция

  • Свойства информации

  • Информатика. Информатика это дисциплина, изучающая структуру и общие свойства информации, закономерности и методы е создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.


    Скачать 0.74 Mb.
    НазваниеИнформатика это дисциплина, изучающая структуру и общие свойства информации, закономерности и методы е создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.
    АнкорИнформатика
    Дата29.05.2022
    Размер0.74 Mb.
    Формат файлаdocx
    Имя файлаИнформатика.docx
    ТипЗакон
    #556121
    страница1 из 6
      1   2   3   4   5   6




    1. Теория информации. Основные определения и понятия

    Информатика – это дисциплина, изучающая структуру и общие свойства информации, закономерности и методы еѐ создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.
    Информацию сложно определить, но для количественного определения имеющейся информации самым удобным оказалось такое: это сведения, которые уменьшают неопределенность об окружающем мире и являются объектом хранения, преобразования, передачи и использования. Энтропия – это мера неопределѐнности наших знаний об объекте или явлении.
    Знания – это осознанные и запомненные людьми свойства предметов, явлений и связей между ними, а также способов выполнения тех или иных действий для достижения нужных результатов.

    Сигнал (сообщение) – информационный поток, который в процессе передачи информации поступает к приѐмнику.

    Данные – это зарегистрированные на материальном носителе сигналы.
    Информационная революция – это преобразование общественных отношений из-за кардинальных изменений в сфере обработки информации.


    • появление человеческой речи;

    • изобретение письменности;

    • изобретение книгопечатания;

    • изобретение радио, телефона, телевидения;

    • изобретение микропроцессорных технологий и появление персональных компьютеров.

    • Создание компьютерных сетей и, в частности, глобальной компьютерной сети Интернет.
    1. Основные свойства информации



    Свойства информации:

    • Полнота

    • Репрезентативность

    • Адекватность (достоверность)

    • Актуальность

    • Доступность (понятность)

    • Ценность




    • полнота – достаточность набора данных для понимания

    информации и принятия правильных решений или для создания но-

    вых данных на еѐ основе.


    • репрезентативность– имеющаяся информация и способ

    еѐ представления позволяет сформировать адекватное отражение

    свойств объекта. Непременным условием репрезентативности ин-

    формации является поступление похожей информации из разных ис-

    точников.


    • адекватность (достоверность) – степень соответствия

    реальному состоянию дел;


    времени;


    • доступность (понятность) –возможности получить нуж-

    ную информацию и способ ее представления должен быть понятен еѐ

    получателю;


    • ценность – степень важности для решения текущей задачи

    или дальнейшего применения в каких-либо видах деятельности чело-

    века.


    1. Классификация информации


    1. По форме представления:

    • дискретная - Определяется прерывистой величиной

    • аналоговая(иначе непрерывная).


    2. По области возникновения выделяют :

    • механическую

    • биологическую

    • социальную

    3. По способу передачи и восприятия:

    • Визуальная

    • Аудиальная

    • Тактильная

    • Органолептическую-запахи вкусы

    • Машинная

    4. По способам кодирования:

    • Символьная

    • Текстовая: Основана на использовании комбинаций символов.В текстовой информации особенно важен не только состав, но и порядок следования символов.

    • Графическая


    1. Количество информации как мера уменьшения неопределенности знаний


    Такой подход позволяет измерять количество информации. Например, результат зачета (зачет\не зачет) приводит к уменьшению неопределенности нашего знания в 2 раза. И, таким образом, чем больше неопределенна первоначальная ситуация-тем больше инфы мы получим, когда узнаем как она разрешилась.
    Клод Шеннон предложил формулу для определения количества информации, которую мы получаем после получения одного из N возможных сообщений:



    Здесь p i – вероятность того, что будет получено именно i-е со-

    общение. Если все сообщения равновероятны, то все p i =1/N, и из

    этой формулы получается формула Хартли:



    Из этой формулы следует, что, если I=1, то N=2. Поэтому, в качестве единицы измерения приняли объем информации, который мы получаем при принятии сигнала о том, что же произошло в ситуации с двумя возможными исходами. Ее назвали битом. На практике, может пригодится та же формула, но записанная в решенном от-но N виде:



    1. Алфавитный подход к определению количества информации

    При алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы.
    Если мощность знаковой системы равна N и вероятности появления каждого знака в сообщении равны, то кол-во информации, которое несет каждое сообщение можно рассчитать по формуле Хартли:
    Эта величина называется информационной емкостью знака


    1. Единицы измерения информации

    Бит – это минимальная единица измерения количества информации.

    Первой более крупной, чем бит, единицей измерения информации, выбран байт:

    1 байт = 8 бит = 23 бит



    В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используют коэффициент 2^n, а не 10^n . Так как 10^3 приблизительно равен 2^10 для крупных единиц информации используются те же приставки, что и в системе СИ:

    1 Килобайт (Кбайт) = 2^10 байт = 1024 байт;

    1 Мегабайт (Мбайт) = 2^10 Кбайт = 1024 Кбайт=1 048 576 байт;

    1 Гигабайт (Гбайт) = 2^10 Мбайт = 1024 Мбайт = 1 073 741 824 байт;

    1 Терабайт (Тбайт) = 2^10 Гбайт = 1024 Гбайт

    1 Петабайт (Пбайт) = 2^10 Тбайт = 1024 Тбайт


    1. Алгоритмизация и программирование

    Алгоритм – это чѐтко определѐнная последовательность действий, описывающих процесс преобразования объекта из начального состояния в конечное с помощью понятной исполнителю последовательности команд.

    Свойства:

    дискретность, т. е. представлен в виде последовательности команд, которые исполнитель должен выполнять одну за другой;

    понятностью, т. е. должен содержать только те команды, которые входят в систему выполняемых команд исполнителя;

    детерминированность, т. е. алгоритм должен быть представлен таким образом, чтобы, выполняя очередную команду, исполнитель точно знал, какую команду следует выполнять следующей;

    результативность, т. е. алгоритм должен обеспечить преобразование от начальных данных к результату за конечное число команд.
    1.   1   2   3   4   5   6


    написать администратору сайта