Главная страница
Навигация по странице:

  • Представление информации в двоичной системе счисления. Информатика

  • Научная интерпретация. Информация

  • Абстрактная интерпретация. Информация

  • Конкретная интерпретация.

  • Существуют несколько концепций (теорий) информации. Первая концепция

  • Необходимо различать понятия информация и информативность

  • Количество информации зависит от информативности.

  • Достоинства дискретного (цифрового) представления информации

  • Система счисления

  • Лекция 1.1 - Подходы к понятию и измерению информации. Подходы к понятию информации и измерению информации. Информационные объекты


    Скачать 96.8 Kb.
    НазваниеПодходы к понятию информации и измерению информации. Информационные объекты
    АнкорЛекция 1.1 - Подходы к понятию и измерению информации
    Дата16.09.2022
    Размер96.8 Kb.
    Формат файлаpdf
    Имя файлаЛекция 1.1 - Подходы к понятию и измерению информации.pdf
    ТипДокументы
    #679697

    Подходы к понятию информации и измерению информации. Информационные объекты
    различных видов. Универсальность дискретного (цифрового) представления информации.
    Представление информации в двоичной системе счисления.
    Информатика - это наука об организации процессов получения, хранения, обработки и передачи информации в системах различной природы.
    Персональный компьютер - один из видов компьютеров наряду с многопроцессорными и мультисистемными компьютерами. Сущность же компьютера - это транзисторная технология, которая реализована во всей современной радиотехнике. Более того, процессор как основа компьютера также не является уникальным явлением, так как процессоры сегодня могут иметь как телефоны, телевизоры, так и другие бытовые устройства.
    Информация (в переводе с латинского informatio - разъяснение, изложение) - это ключевое понятие современной науки, которое стоит в одном ряду с такими как "вещество" и "энергия". Существует три основные интерпретации понятия "информация".
    Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям.
    Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя.
    Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п.
    Существуют несколько концепций (теорий) информации.
    Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем.
    Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым.
    Третья концепция основана на логико-семантическом (семантика - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная, "работающая" часть знаний. Представитель этой концепции В.Г. Афанасьев.
    В настоящее время термин информация имеет глубокий и многогранный смысл. Во многом, оставаясь интуитивным, он получает разные смысловые наполнения в разных отраслях человеческой деятельности:
    − в житейском аспекте под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами;
    − в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;
    − в теории информации (по К.Шеннону) важны не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность;
    − в кибернетике, по определению Н. Винера, информация - эта та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;
    − в семантической теории (смысл сообщения) - это сведения, обладающие новизной, и так далее...

    Оказывается, информацию также можно измерять и находить ее количество.

    Существуют два подхода к измерению информации.

    Один из них называется содержательный или вероятностный. Из названия подхода можно сделать вывод, что количество информации зависит от ее содержания.
    Необходимо различать понятия информация и информативность.
    Содержит ли информацию учебник физики за 10 класс? (Да). Для кого он будет информативным - для ученика 10 класса или 1 класса? (Для ученика 10 класса он будет информативным, так как в нем содержится новая и понятная ему информация, а для ученика 1 класса она информативной не будет, так как информация для него непонятна.)
    Количество информации зависит от информативности.

    Количество информации в некотором сообщении равно нулю, если оно с точки зрения конкретного человека неинформативно.
    Для того чтобы количество информации имело положительное значение, необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных. Такое количество информации, которое находится в сообщении о том, что произошло одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту.
    Огромное количество способов кодирования информации неизбежно привело пытливый ум человека к попыткам создать универсальный язык или азбуку для кодирования. Эта проблема была достаточно успешно реализована лишь в отдельных областях техники, науки и культуры. Своя система кодирования информации существует и в вычислительной технике. Она называется двоичным кодированием. Всю информацию, с которой работает вычислительная техника, можно представить в виде последовательности всего двух знаков

    1 и 0. Эти два символа называются двоичными цифрами, по-английски – binary digit или сокращенно bit – бит.
    1 бит кодирует 2 понятия или сообщения (0 или 1)
    2 бита – 4 разных сообщения (00 или 01 или 10 или 11)
    3 бита – 8 разных сообщений
    4 бита – 16 разных сообщений и т.д.
    Общая формула
    i
    N
    2
    =
    ,
    где N – количество значений информации, i – количество бит.
    Почему именно двоичное кодирование используется в вычислительной технике? Оказывается такой способ кодирования легко реализовать технически: 1 – есть сигнал, 0 – нет сигнала. Для человека такой способ кодирования неудобен тем, что двоичные последовательности получаются достаточно длинными. Но технике легче иметь дело с большим числом однотипных элементов, чем с небольшим числом сложных.
    С точки зрения вероятности 1 бит — это такое количество информации, которое позволяет выбрать одно событие из двух равновероятных.
    1 бит - это количество информации, уменьшающее неопределенность знаний в два раза.
    Существует два принципиально отличных способа представления информации: непрерывный и дискретный. Если некоторая величина, несущая информацию, в пределах заданного интервала может принимать любое значение, то она называется непрерывной. Наоборот, если величина способна принимать только конечное число значений в пределах интервала, она называется дискретной. Хорошим примером, демонстрирующим различия между непрерывными и дискретными величинами, могут служить целые и вещественные числа. В частности, между значениями 2 и 4 имеется всего одно целое число, но бесконечно много вещественных (включая знаменитое p).
    Сама по себе информация не является непрерывной или дискретной: таковыми являются лишь способы ее представления. Например, давление крови можно с одинаковым успехом измерять аналоговым или цифровым прибором.
    Принципиально важным отличием дискретных данных от непрерывных является конечное число их возможных значений. Благодаря этому каждому из них может быть поставлен в соответствие некоторый знак
    (символ) или, что для компьютерных целей гораздо лучше, определенное число. Иными словами, все значения дискретной величины могут быть тем или иным способом пронумерованы.
    Достоинства дискретного (цифрового) представления информации:
    • простота
    • удобство физической реализации
    • универсальность представления любого вида информации
    • уменьшение избыточности сообщения
    • обеспечение защиты от случайных искажений или нежелательного доступа.
    Теоретической основой кодирования чисел является подробным образом развитая в математике теория систем счисления. Система счисления — это способ записи чисел с помощью фиксированного числа знаков.
    Системы счисления весьма разнообразны. Прежде всего они делятся на позиционные и
    непозиционные. Позиционной называется система счисления, в которой количественный эквивалент цифры зависит от ее положения в записи числа; в противном случае система является непозиционной. Большинство используемых на практике систем позиционно, поскольку именно для них обеспечивается наиболее простая арифметика.


    написать администратору сайта