Главная страница
Навигация по странице:

  • Свойства

  • Объективность информации.

  • Достоверность информации.

  • Актуальность информации

  • Количественные

  • Информационный объем сообщения

  • Информационная энтропия

  • Учебник для вузов Общие сведения Аппаратное обеспечение


    Скачать 5.31 Mb.
    НазваниеУчебник для вузов Общие сведения Аппаратное обеспечение
    Дата13.02.2023
    Размер5.31 Mb.
    Формат файлаdocx
    Имя файлаa.s.-groshev.-informatika.-uchebnik-2015 (1)-1-200.docx
    ТипУчебник
    #935763
    страница2 из 31
    1   2   3   4   5   6   7   8   9   ...   31

    Введение







    На сайте Министерства образования и науки Российской Федерации приведена «Примерная программа по информатике и информационным технологиям» для среднего (полного) общего образования (http://window.edu.ru/window_catalog/files/r37206/09-1-s.pdf ) и «Примерная программа дисциплины информатика», составленная в соответствии с гос- ударственными образовательными стандартами высшего профес- сионального образования для направлений «Технические науки», «Образо- вание» и пр. (http://www.edu.ru/db/portal/spe/prog/htm/mf0201.htm). Обе программы содержат разделы:

    • общие сведения об информации,

    • аппаратное и программное обеспечение информационных систем,

    • технологии обработки текстовой, числовой, графической и муль- тимедийной информации,

    • работа с базами данных,

    • алгоритмизация и программирование,

    • локальные и глобальные компьютерные сети.

    Сравнение двух программ показывает, что школьный и вузовский курсы информатики достаточно близки по содержанию. Следовательно, задача вуза – углубить знания по информатике, полученные в школе, по- знакомить студентов со всеми новостями в области технического и про- граммного обеспечения информационных процессов, а также с использо- ванием информационных технологий в их будущей профессиональной де- ятельности. При выполнении практических работ студент должен усовер- шенствовать свои навыки в работе на компьютере в процессах обработки, поиска и хранения всех видов информации.

    Компьютер для грамотного специалиста должен стать привычным инструментом автоматизации его интеллектуального труда.

    Глава 1. Общие сведения об информационных процессах




      1. Понятие информации, ее виды и свойства


    В литературе можно найти достаточно много определений термина информация, отражающих различные подходы к толкованию этого поня- тия.

    В Федеральном законе Российской Федерации «Обинформации,информатизацииизащитеинформации»(http://www.bnti.ru/dbtexts/analmat/06_2003/licenz/1.htm) дается следующее определение этого термина: «информация – сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления».

    Толковый словарь русского языка Ожегова приводит 2 определения слова информация:

        1. Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.

        2. Сообщения, осведомляющие о положении дел, о состоянии чего- нибудь. (Научно-техническая и газетная информации, средства мас- совой информации – печать, радио, телевидение, кино).


    В информатикенаиболее часто используется следующее опре- деление этого термина:

    Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации), кибернетика(наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах), семиотика(наука о знаках и знаковых системах), теориямассовой коммуникации (исследование средств массовой информации и их влияния на общество), информатика, соционика (теория информаци- онного метаболизма индивидуальной и социальной психики), информоди-намика(наука об открытых информационных системах), информациоло-

    гия (наука о получении, сохранении и передаче информации для различ- ных множеств объектов) и т.д.

    Каждого человека в мире окружает море информации различных ви- дов. Стремление зафиксировать, сохранить надолго свое восприятие ин- формации было всегда свойственно человеку. Мозг человека хранит мно- жество информации, и использует для хранения ее свои способы, основа которых – двоичный код, как и у компьютеров. Человек всегда стремился иметь возможность поделиться своей информацией с другими людьми и найти надежные средства для ее передачи и долговременного хранения. Для этого в настоящее время изобретено множество способов хранения информации на внешних (относительно мозга человека) носителях и ее пе- редачи на огромные расстояния.

    Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информа- тики, это:

    • графическая или изобразительная – первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изоб- ражающих картины реального мира;

    • звуковая – мир вокруг нас полон звуков и задача их хранения и ти- ражирования была решена с изобретение звукозаписывающих устройств в 1877 г. (см., например, историю звукозаписи на сайте – http://radiomuseum.ur.ru/index9.html); ее разновидностью является музыкальная информация – для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;

    • текстовая – способ кодирования речи человека специальными сим- волами – буквами, причем разные народы имеют разные языки и ис- пользуют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;

    • числовая количественная мера объектов и их свойств в окру- жающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой ин- формации для ее отображения используется метод кодирования спе- циальными символами цифрами, причем системы кодирования (счисления) могут быть разными;



    • видеоинформация – способ сохранения движущихся картин окру- жающего мира, появившийся с изобретением кино.

    Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения – это тактильная ин- формация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и другие виды, для которых современная наука даже не нашла признанных всеми терминов определения (например, экстрасен- сорная информация).

    Для передачи информации на большие расстояния первоначально использовались кодированные световые сигналы, с изобретением электри- чества передача закодированного определенным образом сигнала по проводам, позднее с использованием радиоволн.

    Создателем общей теории информации и основоположником циф- ровой связи считается Клод Шеннон (Claude Shannon). Всемирную извест- ность ему принес фундаментальный труд 1948 года – «Математическая теория связи» (A Mathematical Theory of Communication), в котором впер- вые обосновывается возможность применения двоичного кода для переда- чи информации.

    Хранение информации при использовании компьютеров осуще- ствляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются новые устройства и носители информации. Обработку информации (воспроизве- дение, преобразование, передача, запись на внешние носители) выполняет процессор компьютера. С помощью компьютера возможно создание и хра- нение новой информации любых видов, для чего служат специальные про- граммы, используемые на компьютерах, и устройства ввода информации.

    Особым видом информации в настоящее время можно считать ин- формацию, представленную в глобальной сети Интернет. Здесь ис- пользуются особые приемы хранения, обработки, поиска и передачи рас- пределенной информации больших объемов и особые способы работы с различными видами информации.

    Постоянно совершенствуется программное обеспечение ведущих разработчиков (например, Microsoft Corporation), обеспечивающее коллек- тивную работу с корпоративной информацией всех видов.
    Свойстваинформации

    Как и всякий объект, информация обладает свойствами. Характерной отличительной особенность информации от других объектов природы и

    общества, является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информации.

    С точки зрения информатики наиболее важными представляются следующие общиекачественныесвойства: объективность, достовер- ность, полнота, точность, актуальность, полезность, ценность, своевремен- ность, понятность, доступность, краткость и пр.

          1. Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зави- сит от методов ее фиксации, чьего-либо мнения, суждения.

    Пример. Сообщение «На улице тепло» несет субъективную ин- формацию, а сообщение «На улице 22oС» – объективную, но с точностью, зависящей от погрешности средства измерения.

    Объективную информацию можно получить с помощью измеритель- ных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний кон- кретного субъекта.

          1. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда до- стоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение.

    Недостоверной информация может быть по следующим причинам:

      • преднамеренное искажение (дезинформация) или непреднаме- ренное искажение субъективного свойства;

      • искажение в результате воздействия помех и недостаточно точных средств измерений.

          1. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

          2. Точность информации определяется степенью ее близости к ре- альному состоянию объекта, процесса, явления (погрешностью средства измерения).

          3. Актуальность информации – важность для настоящего времени, злободневность, насущность. Иногда только вовремя полученная ин- формация может быть полезна.



          1. Полезность (ценность) информации. Полезность может быть оце- нена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

    Самая ценная информация – объективная, достоверная, полная, и ак- туальная. При этом следует учитывать, что и необъективная, не- достоверная информация (например, художественная литература), имеет большую значимость для человека.

    Социальная (общественная) информация обладает еще и допол- нительными свойствами:

      • имеет семантический (смысловой) характер, т. е. понятийный, так как именно в понятиях обобщаются наиболее существенные признаки предметов, процессов и явлений окружающего мира.

      • имеет языковую природу (кроме некоторых видов эстетической ин- формации, например изобразительного искусства). Одно и то же содер- жание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т. д.

    С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации. (Кумуляция – от лат; cumulatio увеличение, скопление).

    Старение информации заключается в уменьшении ее ценности с те- чением времени. Старит информацию появление новой информации, кото- рая уточняет, дополняет или отвергает полностью или частично более ран- нюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) – медленнее.

    Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.
    Количественныехарактеристикиинформации

    Измерение информации в технике


    В технике (теория кодирования и передачи сообщений) под ко- личеством информации понимают количество кодируемых, передаваемых или хранимых символов. При этом используют простой способ определе- ния количества информации, который может быть назван объемным. Он основан на подсчете числа символов в сообщении, т. е. связано с его дли- ной и не учитывает содержания.

    В вычислительной технике применяются две стандартные единицы измерения: бит (binary digit) и байт (byte).

    Бит – минимальная единица измерения информации – величина, ко- торая может принимать одно из двух значений (в математическом пред- ставлении 0 или 1).

    Байт – единица количества информации в системе СИ. Байт - вось- миразрядный двоичный код, с помощью которого наиболее часто пред- ставляют один символ текста.

    Информационный объем сообщения (информационная емкость со- общения) количество информации в сообщении, измеренное в битах, байтах или производных единицах (Кбайтах, МБайтах и т. д.).

    1 килобайт (Кбайт) = 210 байт = 1024 байт,

    1 мегабайт (МБайт) = 210 Кбайт = 1024 Кбайт = 1048576 байт,

    1 гигабайт (ГБайт) = 210 МБайт = 1024 МБайт = 1073741824 байт,

    1 терабайт (Тбайт) = 210 ГБайт = 1024 ГБайт = 1099511627776 байт и т. д.

    Измерение информации в теории информации (информация как снятая неопределенность)


    В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания и ха- рактеризующую неопределенность, которая исчезает после получения со- общения в виде данного сигнала – в этом случае количество информации зависит от вероятности получения сообщения о том или ином событии. Оценка количества информации основывается на законах теории инфор- мации.

    Клод Шеннон ввел понятие информационной энтропии – меры хао- тичности информации, определяющей неопределённость появления како- го-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

    Информационная энтропия для независимых случайных событий xс n возможными состояниями (от 1 до n) рассчитывается по формуле Шен- нона:



    где p(i)вероятность i-го события.

    Информация, в том числе графическая и звуковая, может быть пред- ставлена в аналоговой и дискретной форме. При аналоговом представле- нии информации физическая величина может принимать бесконечное

    множество значений. При дискретном представлении информации физиче- ская величина может принимать конечное множество значений, при этом она изменяется скачкообразно. Преобразование графической и звуковой информации из аналоговой формы в дискретную производится путем дис- кретизации, т. е. разбиения непрерывного графического изображения или непрерывного (аналогового) звукового сигнала на отдельные элементы. В процессе дискретизации производится кодирование, т. е. присвоение каж- дому элементу конкретного значения в форме кода.

      1. 1   2   3   4   5   6   7   8   9   ...   31


    написать администратору сайта