|
Теоретическая информатика часть информатики, занимающаяся изучением структуры и общих свойств информации и информационных процессов, разработкой общих принципов построения информационной техники и технологии. Средства информатизации
Лекция 1 Информатика как научная дисциплина. Место информатики в научном мировоззрении. Понятие информации. Человек и информация. Информационные процессы: получение, передача, преобразование, хранение и использование информации. Информационные процессы в живой природе, обществе, технике. Количество информации и единицы измерения». - Первый информационный «прорыв» связан с изобретением письменности.
- Второй информационный «прорыв» (в середине XVI в.) был связан с изобретением книгопечатания.
- Третьим информационным «прорывом» (в конце XIX в.) считается стремительный прогресс средств связи.
- Четвертый «информационный прорыв» обусловлен в первую очередь созданием электронных вычислительных машин (ЭВМ)
Определение Информатика – комплексная научно-техническая дисциплина, занимающаяся изучением структуры и общих свойств информации, информационных процессов, разработкой на этой основе информационной техники и технологии, а также решением научных и инженерных проблем создания, внедрения и эффективного использования компьютерной техники и технологии во всех сферах общественной практики. - Теоретическая информатика – часть информатики, занимающаяся изучением структуры и общих свойств информации и информационных процессов, разработкой общих принципов построения информационной техники и технологии.
- Средства информатизации (технические и программные) – раздел, занимающийся изучением общих принципов построения вычислительных устройств и систем обработки и передачи данных, а также вопросов, связанных с разработкой систем программного обеспечения.
- Информационные системы и технологии – раздел информатики, связанный решением вопросов анализа потоков информации, их оптимизации, структурирования в различных сложных системах, с разработкой принципов реализации в данных системах информационных процессов.
Как комплексная научная дисциплина информатика связана: - с философией и психологией – через учение об информации и теорию познания;
- с математикой – через теорию математического моделирования, дискретную математику, математическую логику и теорию алгоритмов;
- с лингвистикой – через учение о формальных языках и о знаковых системах;
- с кибернетикой – через теорию информации и теорию управления;
Свойства информации: - полнота — свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект или процесс;
- актуальность— способность информации соответствовать нуждам потребителя в нужный момент времени;
- достоверность — свойство информации не иметь скрытых ошибок. Достоверная информация со временем может стать недостоверной, если устареет и перестанет отражать истинное положение дел;
- доступность — свойство информации, характеризующее возможность ее получения данным потребителем;
Свойства информации: - релевантность — способность информации соответствовать нуждам (запросам) потребителя;
- защищенность — свойство, характеризующее невозможность несанкционированного использования или изменения информации;
- эргономичность — свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.
- запоминаемость — одно из самых важных свойств. Запоминаемую информацию будем называть макроскопической (имея в виду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.
Свойства информации: - передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К.Шеннона.
- воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством, характеризуется неиссякаемостью и неистощимостью информации.
- преобразуемость означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется.
- стираемость информации также не является независимым, оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.
Задание: приведите примеры информации - в неживой природе
- в биологических системах
- в технических устройствах
- в жизни общества
Основные информационные процессы - Хранение информации
- Передача информации
- Обработка информации
- Внутренняя память (основная) – память, к которой ПК обращается в процессе работы.
ПЗУ ( постоянное запоминающее устройство), ОЗУ (оперативное запоминающее устройство) , КЭШ - Внешняя память – долговременная независимая память.
Жесткие диски, flash-карты , диски, облачные хранилища Характеристики передачи информации - В передаче информации всегда участвуют две стороны: есть источник и есть приемник информации.
- Источник передает (отправляет) информацию, а приемник ее получает (воспринимает).
Разновидности обработки информации - Кодирование — это преобразование представления информации из одной символьной формы в другую, удобную для ее хранения, передачи или обработки.
- Шифрование
- Сортировка (упорядочивание)
Роботы В конце XX века были созданы роботы — автоматические механизмы, управляемые компьютерами. Их используют на предприятиях для выполнения монотонных или опасных операций. Они применяются для работ в космосе, где человек не может самостоятельно работать. Эти роботы получают информацию о состоянии космического корабля и устраняют неполадки. Роботы Для исследования поверхности Венеры в 1990 году был запущен специальный космический корабль — «Магеллан», который с помощью радара исследовал планету. Данные радиометрии и высотометрии, полученные роботом, передавались на Землю, с их помощью были проведены интересные исследования. 10 апреля 2001 года в США запущен автоматический робот «Lander 2001» для изучения поверхности Марса. Робот оснащен специальным оборудованием: видеокамерами для съемки ландшафта, приборами для изучения климата. Единицей измерения количества информации является бит. 1 бит — это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо. Связь между количеством возможных событий N и количеством информации I определяется формулой Хартли: . Например, пусть шарик находится в одной из четырех коробок. Таким образом, имеется четыре равновероятных события (N = 4). Тогда по формуле Хартли 4 = . Отсюда = 2. То есть сообщение о том, в какой именно коробке находится шарик, содержит 2 бита информации. Алфавитный подход При алфавитном подходе к определению количества информации отвлекаются от содержания (смысла) информации и рассматривают ее как последовательность знаков определенной знаковой системы. Набор символов языка (алфавит) можно рассматривать как различные возможные события. Тогда, если считать, что появление символов в сообщении равновероятно, по формуле Хартли можно рассчитать, какое количество информации несет каждый символ: Пример В русском языке 32 буквы (буква ё обычно не используется), т.е. количество событий будет равно 32. Тогда информационный объем одного символа будет равен: = 5 битов. Если N не является целой степенью 2, то число N не является целым числом, и для надо выполнять округление в большую сторону. Формулы, которые используются при решении типовых задач: Информационный вес символа алфавита и мощность алфавита связаны между собой соотношением: Информационный объём сообщения определяется по формуле: I = К · i, - I – объём информации в сообщении;
- К – количество символов в сообщении;
- i – информационный вес одного символа.
Самостоятельная работа https://forms.gle/tWTHGEB2PUmHpBVSA |
|
|