лекции по биостатистике+. Лекциях по направлению подготовки Ветеринария
Скачать 355.81 Kb.
|
В лекциях по направлению подготовки «Ветеринария» изложены базовые понятия по информатике, современным компьютерным аппаратным средствам. Рассмотрены вопросы организации размещения, обработки, хранения и передачи информации. Раскрыты назначение, возможности применения и дана классификация программного обеспечения. Рассмотрена операционная система, ее назначение и состав. Приведены эффективные приемы работы с табличным процессором, текстовым процессором и мультимедийными презентациями. Описаны услуги компьютерных сетей, сети Интернет. Уделено внимание законодательной и технической защите от несанкционированного доступа, средствам антивирусной защиты. Приведены основы биостатистики: основные понятия теории вероятностей, случайные величины и их характеристики, отсев грубых погрешностей, построение вариационных рядов, проверка статистических гипотез. Указан словарь компьютерных терминов. Представлены контрольные вопросы и примеры тестовых заданий. Для студентов по направлению подготовки 36.05.01 «Ветеринария» очной формы обучения. ВВЕДЕНИЕ Цели освоения дисциплины: Дать студенту – будущему ветеринарному врачу – основные сведения по информатике и вычислительной технике, научить использовать современные пакеты прикладных программ на уровне квалифицированного пользователя и обеспечить его необходимыми знаниями по статистической обработке биологической информации. Направление подготовки - 36.05.01 Ветеринария Квалификация (степень) выпускника - Специалист Форма обучения - Очная Курс изучения - 1 Лекция 1 Тема: ОСНОВЫ ИНФОРМАТИКИ ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАТИКИ Вопросы: 1. Определение информатики. Понятие информации 2. Информационные процессы 3. Измерение информации 4. Кодирование информации Продолжительность - 2 часа 1. Определение информатики. Понятие информации Слово «информатика» в современном значении образовано в результате объединения двух слов: «информация» и «автоматика». Таким образом, получается «автоматическая работа с информацией». Информатика – это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими. Современная информатика включает следующие научные направления: . теоретическую информатику (теорию информации, теорию кодирования, математическую логику, теорию систем и др.); . кибернетику (теорию управления в природе, технике и обществе); . искусственный интеллект (распознавание образов, понимание речи, машинный перевод, логические выводы, алгоритмы самообучения); . вычислительную технику (устройство компьютеров и компьютерных сетей); . программирование (методы создания новых программ); . прикладную информатику (персональные компьютеры, прикладные программы, информационные системы и т.д.). Это дисциплина комплексная, тесно связанная с другими науками, у которых есть общий объект исследования – информация. Понятие информации является основополагающим понятием информатики. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. Термин «информация» происходит от латинского informatio – разъяснение, изложение, осведомление. Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают степень неопределенности и неполноты имеющихся о них знаний. С понятием информации связаны такие понятия, как сигнал, сообщение и данные. Сигнал (от латинского signum - знак) представляет собой любой процесс, несущий информацию. Сообщение - это информация, представленная в определенной форме и предназначенная для передачи. Данные - это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами. Все многообразие окружающей нас информации можно сгруппировать по различным признакам, т.е. классифицировать по видам. Так, например, в зависимости от области возникновения информацию, отражающую процессы и явления неодушевленной природы называют элементарной, процессы животного и растительного мира – биологической, человеческого общества – социальной. По способу передачи и восприятия различают следующие виды информации: визуальную – передаваемую видимыми образами и символами, аудиальную – звуками, тактильную – ощущениями, органолептическую – запахами и вкусом, машинную – выдаваемую и воспринимаемую средствами вычислительной техники. По форме представления – текстовая, числовая, графическая, звуковая, видеоинформация. По общественному значению – массовая, специальная, личная. Свойства информации Объективность и субъективность информации. Та информация, которая отражает явление или объекты материального мира, является объективной. Информация, которую создают люди (то есть субъекты), является субъективной. Объективная информация может преобразовываться в субъективную, если в ее обработке или преобразовании участвуют люди. В ходе информационного процесса степень объективности информации всегда понижается. Полнота информации характеризует качество информации и определяет достаточность данных для принятия решений или создания новых данных на основе имеющихся. Достоверность информации – отражает реально существующие объекты с необходимой точностью. Адекватность информации – это степень соответствия реальному состоянию дела. Доступность информации – мера возможности получить ту или иную информацию. Актуальность информации – это степень соответствия информации текущему моменту времени. 2. Информационные процессы Информационный процесс – это совокупность последовательных действий, производимых над информацией с целью получения результата. Любая информационная деятельность человека сводится к выполнению основных видов информационных процессов: передачи и получения, хранения, обработки и использования информации. Передача информации. При передаче информации всегда есть два объекта – источник и приемник информации. ПОТРЕБИТЕЛЬ ИНФОРМАЦИИ ИСТОЧНИК ИНФОРМАЦИИ СИГНАЛ Эти роли могут меняться, например, во время диалога каждый из участников выступает то в роли источника, то в роли приемника информации. Передача информации может происходить при непосредственном разговоре между людьми, через переписку, с помощью технических средств связи. Такие средства связи называются каналами передачи информации. В процессе передачи информация может искажаться или теряться, если информационные каналы плохого качества. Получение информации – это, прежде всего реализация способности к отражению различных свойств объектов, явлений и процессов в окружающем мире. Обработка информации – это преобразование информации из одного вида в другой, проводимое по строго формальным правилам. Хранение информации. Для хранения информации человек, прежде всего, использует свою память. Память человека можно условно назвать оперативной. Сохраненные в памяти знания воспроизводятся человеком мгновенно. Свою память мы еще можем назвать внутренней памятью. Тогда информацию, сохраненную на внешних носителях (в записных книжках, справочниках, телефонах, магнитных записях), можно назвать нашей внешней памятью. Чтобы воспользоваться такой информацией, ее сначала нужно поместить во внутреннюю память. Например, прочитать номер телефона в записной книжке, а потом использовать эту информацию по назначению (набрать номер на аппарате). Наша внутренняя память не всегда надежна. Человек нередко что-то забывает. Информация на внешних носителях хранится дольше и надежнее. Именно с помощью внешних носителей (перфокарты и перфоленты, магнитные ленты и магнитные диски, лазерные диски, флэшпамять) люди передают свои знания из поколения в поколение. Использование информации – это обязательный элемент формирования целенаправленной деятельности. Защита информации – контроль и разграничение доступа, дублирование каналов связи. 3. Измерение информации Любая наука рано или поздно приходит к необходимости как-то измерять то, что она изучает. Измерение информации – это одна из важнейших задач теоретической информатики. Чтобы измерить информацию, нужно выбрать какую-то единицу измерения, эталон. В качестве такого эталона принимают информацию, полученную при выборе одного из двух вариантов. Например, электрическая лампочка может находиться в двух состояниях: «горит» и «не горит». Тогда на вопрос «Горит ли сейчас лампочка» есть два возможных варианта ответа, которые можно обозначить цифрами 1 («горит») и 0 («не горит»). Поэтому ответ на этот вопрос может быть записан как 0 или 1. Цифры 0 и 1 называют двоичными и с этим связано название единицы измерения количества информации – бит. Английское слово bit– это сокращение от выражения binary digit, «двоичная цифра». Впервые слово бит в этом значении использовал американский инженер и математик Клод Шеннон в 1948 г. Бит – это количество информации, соответствующее выбору одного из двух равновозможных вариантов. Рассмотрим другие единицы измерения. Считать большие объемы информации в битах неудобно, хотя бы потому, что придется работать с очень большими числами (миллиардами, триллионами, и т.д.). Поэтому стоит ввести более крупные единицы. Измерение количества информации тесно связано с устройством компьютерной памяти. Память строится из элементов, которые могут находиться в двух состояниях (0 или 1, включено или выключено). Поэтому информация о состоянии такого элемента равна 1 биту. Чтобы обращаться к ячейкам памяти, нужно каждой из них присвоить адрес (номер). Если каждый отдельный бит будет иметь свой адрес, адреса будут очень большие, и для их хранения потребуется много места. Кроме того, реальные данные состоят из нескольких битов, и каждый раз «собирать» число или символ из нескольких отдельных ячеек памяти неудобно. Поэтому группы соседних битов памяти объединяют в ячейки, каждая из которых имеет свой адрес и считывается (или записывается) как единое целое. Такие ячейки называются байтами. Байт – это группа битов, имеющая собственный адрес в памяти. Компьютер оперирует числами в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n. Так кратные байту единицы измерения количества информации вводятся следующим образом: 1Кбайт = 1024 байта = 210 байт 1Мбайт = 1024 Кбайта = 220 байт 1Гбайт = 1024 Мбайта = 230 байт 1Тбайт = 1024 Гбайта = 240 байт 1Пбайт = 1024 Тбайт = 250 байт (петабайт) 1Эбайт=1024 Пбайт (эксабайт) 1Збайт=1024 Эбайт (зеттабайт) 1Йбайт=1024 Збайт (йоттабайт) В информатике используются различные подходы к измерению информации. Содержательный подход к измерению информации Информация – это знания человека. Сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека и неинформативно (количество информации равно нулю), если сведения старые, известные. Можно различить две ситуации: «нет информации» - «есть информация» (т.е. количество информации равно нулю или не равно нулю). Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации. Неопределенность знаний о некотором событии – это количество возможных результатов события. Что такое «неопределенность знаний» рассмотрим на примере. Допустим, вы бросаете монету, загадывая, что выпадет: орел или решка? Есть всего два варианта возможного результата бросания монеты. Причем не один из вариантов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны. Так вот, в этом случае перед подбрасыванием монеты неопределенность знаний о результате равна двум. После того, как вы бросили монету и посмотрели на нее, вы получили зрительное сообщение, что выпал, например, орел. Произошло одно из двух возможных событий. Неопределенность знаний уменьшилась в два раза: было два варианта, остался один. Значит, узнав результат бросания монеты, вы получили 1 бит информации. Равновероятные события Алфавитный подход к измерению информации Объективным способом измерения информации является алфавитный подход. Только этот подход пригоден при использовании технических средств работы с информацией. Алфавит – это все множество символов, используемых в некотором языке для представления информации. Мощность алфавита – это число символов в алфавите. Количество информации I, которое несет один символ в тексте и мощность алфавита N связаны формулой: 2I = N Например, если считать, что появление символов в сообщении равновероятно, по формуле N = 2I можно рассчитать, какое количество информации несет каждый символ. Так в русском алфавите, если не использовать букву ё, количество событий (букв) будет равно 32. Тогда: 32 = 2I , откуда I = 5 битов. Каждый символ несет 5 битов информации. Количество информации в сообщении можно подсчитать, умножив количество информации, которое несет один символ. На количество символов. Количество информации зависит от объема текста и от мощности алфавита. Вероятностный подход к измерению информации Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой, которую предложил К. Шеннон в 1948 году. Формула Шеннона I – количество информации (бит) N – количество возможных событий pi - вероятность i-го события 4. Кодирование информации Для передачи и обработки информации ее всегда кодируют, то есть записывают в другой знаковой системе (на другом языке). Язык – это система знаков, используемая для хранения, передачи и обработки информации. Кодирование – это операция преобразование информации из одной формы представления (знаковой системы) в другую. Правило такого преобразования называется кодом. Компьютер с точки зрения пользователя работает с информацией самой различной формы представления: числовой, текстовой, графической, звуковой, видео. Все виды информации в компьютере кодируются на машинном языке, в виде логических последовательностей нулей и единиц. Такое кодирование называют двоичным (кодирование с помощью двух знаков). Декодирование – это восстановление сообщения из последовательности кодов. Кодирование числовой информации Для записи информации о количестве объектов используются числа. Числа записываются с использованием особых знаковых систем, которые называются системами счисления. Система счисления – это правила записи чисел с помощью специальных знаков – цифр, а также соответствующие правила выполнения операций с этими числами. Кодирование текстовой информации Для кодирования букв и ряда специальных знаков достаточно использовать 256 различных символов. По формуле, связывающей количество сообщений N и количество информации I, можно вычислить, какое количество информации необходимо, чтобы закодировать каждый знак: N = 2I ; 256 = 2I ; 28 = 2I; I = 8 битов = 1 байт Традиционно для кодирования одного символа используется количество информации, равное 1 байту, то есть I = 1 байт = 8 битов. Кодирование заключается в том, что каждому символу ставится в соответствие уникальный десятичный код от 0 до 255 или соответствующий ему двоичный код от 00000000 до 11111111. Таким образом, человек различает символы по их начертанию, а компьютер – по их коду. При вводе в компьютер текстовой информации происходит ее двоичное кодирование, изображение символа преобразуется в его двоичный код. Пользователь нажимает на клавиатуре клавишу с символом, и в компьютер поступает определенная последовательность из восьми электрических импульсов (двоичный код символа). Код символа хранится в оперативной памяти компьютера, где занимает одну ячейку – 1 байт. Кодирование графической информации Графическая информация на экране монитора представляется в виде растрового изображения, которое формируется из определенного количества точек – пикселей (англ. pixel образовано от словосочетания picture element, что означает элемент изображения). Качество изображения определяется разрешающей способностью монитора, то есть количеством точек, из которых оно складывается. Чем больше разрешающая способность, то есть чем больше количество строк растра и точек в строке, тем выше качество изображения. В современных персональных компьютерах обычно используются три основные разрешающие способности экрана: 800 . 600, 1024 . 768 и 1280 . 1024 точки. Для хранения черно-белого изображения используется 1 бит. Цветные изображения формируются в соответствии с двоичным кодом цвета каждой точки, хранящимся в видеопамяти. Цветные изображения имеют различную глубину цвета, которая задается количеством битов, используемым для кодирования цвета точки. Наиболее распространенными значениями глубины цвета являются 8, 16, 24 или 32 бита. Качество двоичного кодирования изображения определяется разрешающей способностью экрана и глубиной цвета. Каждый цвет можно рассматривать как возможное состояние точки, тогда количество цветов, отражаемых на экране монитора, может быть вычислено по формуле: N = 2I, где I – глубина цвета. Цветное изображение на экране формируется за счет смешивания трех базовых цветов: красного, зеленого и синего. Такая цветовая модель называется RGB-моделью по первым буквам английских названий цветов (Red, Green, Blue). Кодирование звуковой информации Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой. Чем больше амплитуда сигнала, тем он громче для человека, чем больше частота сигнала, тем выше тон. Для того чтобы компьютер мог обрабатывать звук, непрерывный звуковой сигнал должен быть превращен в последовательность электрических импульсов (двоичных нулей и единиц). В процессе кодирования непрерывного звукового сигнала производится его временная дискретизация. Непрерывная звуковая волна разбивается на отдельные маленькие временные участки, причем для каждого такого участка устанавливается определенная величина амплитуды. Таким образом, непрерывная зависимость амплитуды сигнала от времени заменяется на дискретную последовательность уровней громкости. Уровни громкости звука можно рассматривать как набор возможных состояний, соответственно, чем больше количество уровней громкости будет выделено в процессе кодирования, тем больше количество информации будет нести значение каждого уровня и тем более качественным будет звучание. Современные звуковые карты обеспечивают 16-битную глубину кодирования звука. При двоичном кодировании непрерывного звукового сигнала он заменяется последовательностью дискретных уровней сигнала. Качество кодирования зависит от количества измерений уровня сигнала в единицу времени, то есть частоты дискретизации. Чем больше количество измерений производится за 1 секунду (чем больше частота дискретизации), тем точнее процедура двоичного кодирования. Качество двоичного кодирования звука определяется глубиной кодирования и частотой дискретизации. Стандартное приложение Звукозапись играет роль цифрового магнитофона и позволяет записывать звук, то есть дискретизировать звуковые сигналы, и сохранять их в звуковых файлах в формате WAV. Эта программа позволяет редактировать звуковые файлы, микшировать их (накладывать друг на друга), а также воспроизводить. Контрольные вопросы 1. Какие сферы человеческой деятельности, и в какой степени затрагивает информатика? 2. Назовите основные составные части информатики и основные направления её применения. 3. Приведите примеры обработки информации человеком. Что является результатами этой обработки? 4. Как вы понимаете динамический характер информации? 5. От чего зависит информативность сообщения, принимаемого человеком? Примеры тестовых заданий Информацию, отражающую истинное положение дел, называют… . понятной . полезной . объективной . достоверной Количество информации, которое содержит сообщение, уменьшающее неопределенность знания в 2 раза, называется ... . бод . пиксель . бит . байт Характеристика качества информации, заключающаяся в достаточности данных для принятия решений - это ... . актуальность . доступность . полнота . адекватность Свойства информации: . актуальность . достоверность . адекватность . доступность . результативность . полнота . определенность . массовость Информацией называется: . мера устранения неопределенности в отношении исхода некоторого события . зарегистрированные сигналы . знаки, зафиксированные в определенной форме . цифровые данные определенного формата, предназначенные для передачи Лекция 2 |