Главная страница

Математика. матан ш. Матан Понятие функции, свойства функций, способы задания функций. Взаимно


Скачать 1.66 Mb.
НазваниеМатан Понятие функции, свойства функций, способы задания функций. Взаимно
АнкорМатематика
Дата11.07.2022
Размер1.66 Mb.
Формат файлаpdf
Имя файламатан ш.pdf
ТипДокументы
#628585
страница4 из 8
1   2   3   4   5   6   7   8
t-критерий. t-критерий служит для сравнения двух средних значений из нормально распределенных генеральных совокупностей в предположении, что дисперсии σX и σY равны, хотя и неизвестны. Таким образом, проверяемая гипотеза Н0 утверждает, что mX = mY. Пусть {x1, x2 ,..., xn1 } ,{y1, y2,..., yn2 } - независимые случайные выборки из обеих генеральных совокупностей; в общем случае они могут иметь совершенно разные объемы. В качестве критерия используем величину
При сделанных предпосылках (нормальная распределенность X и Y и равенство дисперсий) и в предположении, что гипотеза Н0 верна, величина Т удовлетворяет распределению Стьюдента с k = n1 +n2 −2 степенями свободы.
Поэтому критическая область может быть установлена следующим образом. Для заданного уровня значимости α по таблице распределения
Стьюдента определяем значение t1−α,n−1. Если вычисленное (согласно (16.10)) значение T удовлетворяет неравенству T > t1−α ,n−1 , то гипотезу Н0 отвергают.
По отношению к предпосылке «нормальной распределенности» t-критерий не очень чувствителен. Его можно применять, если статистические распределения обеих выборок не имеют нескольких вершин (т.е. унимодальные) и не слишком
ассиметричны. Предпосылка σX = σY во многих случаях может быть обоснована на содержательном уровне; а гипотезу σX = σY можно проверить по F-критерию (см. ниже).
F-критерий.
Гипотезы о дисперсии имеют в технике большое значение, так как σ X2 есть мера таких характеристик, как точность машин, ошибки измерительных приборов, точность технологических процессов и т. п.
F-
критерий служит для проверки гипотезы о равенстве дисперсий при условии, что X и Y распределены нормально. Проверяемая гипотеза Н0 утверждает, что σX = σY . Из каждой генеральной совокупности производятся выборки объема n1 и n2. В качестве критерия используем величину причем, большую дисперсию выбирают в качестве числителя.
Величина F удовлетворяет F-распределению с (n1 -1, n2 -1) степенями свободы.
Критическая область выбирается следующим образом. Для уровня значимости α по таблице F-распределения определяем критическое значение
/ 2;n1 −1,n2 −1 . Если F, вычисленное по выборке, больше, чем это критическое значение/ 2;n1 −1,n2 −1 , то гипотеза Н0 должна быть отклонена.
Критерий Уилкоксона. Данный критерий служит для проверки, относятся ли две выборки к одной и той же генеральной совокупности; другими словами, гипотеза Н0 утверждает, что FX (x) ≡FY (y). Относительно закона распределений величин X и Y никаких предположений не делается. Способы проверки, при которых не делается предположений о распределении в генеральной совокупности, называются способами, свободными от параметров, в противоположность рассматривавшимся выше параметрическим критериям, в которых предполагалась нормальная распределенность X и Y.
В порядке их возрастания. Пара значений (хi yj;) образует инверсию, если yj < хi .
Пусть, например, для n1 = 4 и n2 = 5 получилась такая последовательность: y5 x3 x4 y1
y2 x2 y4 y3 x1
. В нашем примере x3 и x4 образуют по одной инверсии
y5), x2 образует три инверсии (с y5 y1 y2), а x1 образует пять инверсий (со всеми у).
В качестве критерия используется величина U — полное число инверсий. Если гипотеза верна, значение U не должно слишком сильно отклоняться от своего математического ожидания M U = n12n2 . Данная величина распределена по закону Уилкоксона и от гипотезы Н0 отказываются, если U больше критического значения , взятого из таблицы Уилкоксона для заданного уровня значимости α. Для больших объемов выборки (n1 и n2 больше 25) критическое значение определяется по формуле
Рис.1
Статистическая гипотеза – это предположение о свойствах случайных величин или событий, которое мы хотим проверить по имеющимся данным.
Примеры статистических гипотез в педагогических исследованиях:
Гипотеза 1. Успеваемость класса стохастически (вероятностно) зависит от уровня обучаемости учащихся.
Гипотеза 2. Усвоение начального курса математики не имеет существенных различий у учащихся , начавших обучение с 6 или 7 лет.
Гипотеза 3. Проблемное обучение в первом классе эффективнее по сравнению с традиционной методикой обучения в отношении общего развития учащихся.

Нулевая гипотеза – это основное проверяемое предположение, которое обычно формулируется как отсутствие различий, отсутствие влияние фактора, отсутствие эффекта, равенство нулю значений выборочных характеристик и т.п. Примером нулевой гипотезы в педагогике является утверждение о том, что различие в результатах выполнения двумя группами учащихся одной и той же контрольной работы вызвано лишь случайными причинами.
Другое проверяемое предположение (не всегда строго противоположное или обратное первому) называется конкурирующей или альтернативной гипотезой. Так, для упомянутого выше примера гипотезы Н0 в педагогике одна из возможных альтернатив
Н1 будет определена как: уровни выполнения работы в двух группах учащихся различны и это различие определяется влиянием неслучайных факторов, например, тех или других методов обучения.
Выдвинутая гипотеза может быть правильной или неправильной, поэтому возникает необходимость проверить ее. Так как проверку производят статистическими методами, то данная проверка называется статистической.
При проверке статистических гипотез возможны ошибки (ошибочные суждения) двух видов:
— можно отвергнуть нулевую гипотезу, когда она на самом деле верна (так называемая ошибка первого рода);
можно принять нулевую гипотезу, когда она на самом деле не верна (так называемая ошибка второго рода).
Ошибка, состоящая в принятии нулевой гипотезы, когда она ложна, качественно отличается от ошибки, состоящей в отвержении гипотезы, когда она истинна. Эта разница очень существенна вследствие того, что различна значимость этих ошибок

27. Виды измерений. Оценки случайных погрешности прямых измерений.
Прямые измерения, такие, что результат- истинное значение измеряемой величины x получают непосредственно при помощи измерительного прибора. В случае прямых или косвенных измерений используют разные способы расчета погрешностей:

28. Виды измерений. Оценки случайных погрешности косвенных измерений
Косвенные измерения, такие, что необходим этап вычисления, т.е. истинное значение измеряемой величины y это результат вычислений по формуле, в которую подставляют результаты прямых измерений, например нахождение объемов или площадей геометрических фигур.
Пусть результат косвенного измерения величины y вычисляется по формуле: y=f(x1, x2, x3…,xl) где x1, x2, x3…,xl- результаты прямых измерений.
Тогда обычно используют следующий способ расчета случайной погрешности у:

Информатика
29.Основы общей информатики: понятие информации, измерение информации
(вероятностный подход, алфавитный подход), единицы измерения. Формула
Шеннона. Двоичная система счисления.
Понятие информатика.
Информатика - наука изучающая, методологию создания информационного обеспечения для управления различными системами и выявления закономерностей, наблюдаемых в различных информационных процессах.
Информатика - комплекс научно-практических дисциплин, изучающих все аспекты получения, хранения, преобразования, передачи и использования информации. В рамках этого подхода формулируют и частные определения информатики, например медицинской информатики:
Медицинская информатика – научная дисциплина занимающаяся исследованием процессов получения, передачи, обработки, хранения, распространения, представления информации с использование информационной технологии в медицине и здравоохранении. Объект изучения медицинской информатики – информационные технологии используемые в медицине и здравоохранении.
Понятие информации.
Не существует единого и однозначного определения информации, в разных отраслях знания она описывается по разному:
− Информация – это обозначение содержания, полученного от внешнего мира в процессе приспособления к нему (Н. Винер).
− Информация – отрицательная энтропия (Л. Бриллюэн).
− Информация – вероятность выбора (А. М. Яглом, И. М. Яглом).
− Информация – снятая неопределенность (К. Шеннон).
− Информация – мера сложности структур, мера упорядоченности материальных систем (А. Моль).
− Информация – мера неоднородности распределения материи и энергии в пространстве и времени (В. М. Глушков)
- Информация - сведения (сообщения, данные) независимо от формы их представления. (в российском федеральном законе)
Из-за отсутствия точного определения обычно описывается через свои свойства:
1) Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы и т.д.
2) Предполагается, что имеются «источник информации» и «получатель информации».
3) Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае «каналом связи». Так, при передаче речевого сообщения в качестве такого канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения
(например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст.
4) Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция - носитель информации.

5) Сообщение, передаваемое с помощью носителя, назовем сигналом.
Измерение информации (алфавитный и вероятностный подход)
Вероятностный подход: Пусть проводится опыт, у которого может быть N равновероятных исходов, тогда величина Н, называемая энтропией H=log2N является максимальным количеством информации, которое могло бы приходиться на один исход (ответ да-нет).
Imax=H=log2(N)
Важным при введение какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N = 2. Иначе говоря, в
качестве единицы принимается количество информации, связанное с
проведением опыта, состоящего в получении одного из двух равновероятных
исходов. Такая единица количества информации называется «бит».
Рис.1
Алфавитный подход основан на подсчете числа символов в сообщении. Этот подход не связывает количество информации с содержанием сообщения, позволяет реализовать передачу, хранение и обработку информации с помощью технических устройств, не теряя при этом содержания (смысла) сообщения.
Алфавит любого языка включает в себя конечный набор символов. Исходя из вероятностного подхода к определению количества информации, появление символов алфавита в тексте можно рассматривать как различные возможные события.
Количество таких событий (символов) N называют мощностью алфавита. Тогда количество информации (, которое несет каждый из N символов, согласно вероятностному подходу определяется из формулы:
2i = N.
Формула Шеннона
Рис.2
Двоичная система счисления
Особая значимость двоичной системы счисления в информатике определяется тем, что внутреннее представление любой информации в компьютере является
двоичным,т.е. описываемым наборами только из двух знаков (0 и 1).
Двоичная система счисления является основной системой представления информации в памяти компьютера.
Для перевода целого числа необходимо разделить его на основание системы счисления и продолжать делить частные от деления до тех пор, пока частное не станет равным 0. Значения получившихся остатков, взятые в обратной последовательности, образуют искомое двоичное число. Например, переведем число 25:
Рис.3
Для перевода дробной части (или числа, у которого «0» целых) надо умножить ее на
2. Целая часть произведения будет первой цифрой числа в двоичной системе. Затем, отбрасывая у результата целую часть, вновь умножаем на 2 и т.д. Заметим, что конечная десятичная дробь при этом вполне может стать бесконечной
(периодической) двоичной. Например:
Рис.4
Над числами, записанными в любой системе счисления, можно производить различные арифметические операции.


30.Архитектура ЭВМ, магистрально-модульный принцип организации.
Принципы фон Неймана.
Архитектура ЭВМ
Архитектура ЭВМ – это общее описание структуры и функций электронно вычислительной машины, ее ресурсов.
Огромный вклад в теорию и практику создания электронной вычислительной техники на начальном этапе ее развития внес один из крупнейших американских математиков
Джон фон Нейман. В историю науки вошли «принципы фон Неймана». Совокупность этих принципов породила классическую (фон-неймановскую) архитектуру ЭВМ.
Магистрально-модульный принцип организации
В основу архитектуры современных персональных компьютеров положен магистрально-модульный принцип. Модульный принцип позволяет потребителю самому комплектовать нужную ему конфигурацию компьютера и производить при необходимости её модернизацию.
Модульная организация компьютера опирается на магистральный (шинный) принцип обмена информацией между устройствами.
Магистраль (системная шина) - обмен информацией между отдельными устройствами компьютера производится по магистрали, соединяющей все устройства компьютера.
Магистраль (системная шина) включает в себя три многоразрядные шины: шину данных, шину адреса и шину управления. Шины представляют собой многопроводные линии.
Шина данных. По этой шине данные передаются между различными устройствами.
Например, считанные из оперативной памяти данные могут быть переданы процессору для обработки, а затем полученные данные могут быть отправлены обратно в оперативную память для хранения. Таким образом, данные по шине данных могут передаваться от устройства к устройству в любом направлении.
Шина адреса. Выбор устройства или ячейки памяти, куда пересылаются или откуда считываются данные по шине данных, производит процессор. Каждое устройство или ячейка оперативной памяти имеет свой адрес. Адрес передается по адресной шине, причем сигналы по ней передаются в одном направлении от процессора к оперативной памяти и устройствам (однонаправленная шина).
Шина управления. По шине управления передаются сигналы, определяющие характер обмена информацией по магистрали. Сигналы управления определяют какую операцию считывание или запись информации из памяти нужно производить, синхронизируют обмен информацией между устройствами и т. д.
Основные принципы фон Неймана:
1- Компьютер состоит из нескольких основных устройств (блоков), связанных
между собой.
2- Принцип программного управления - программа, записанная в память компьютера состоит из набора команд, которые выполняются автоматически друг за другом в определенной последовательности.
3- Принцип двоичного кодирования - программы и данные кодируются в двоичной системе счисления в памяти компьютера.
4- Принцип однородности памяти - память компьютера используется не только для хранения данных, но и программ. При этом и команды программы и данные кодируются в двоичной системе счисления в памяти компьютера, т.е. их способ
записи одинаков. Поэтому в определенных ситуациях над командами можно выполнять те же действия, что и над данными.
5- Принцип адресуемости памяти - ячейки памяти имеют адреса, которые последовательно пронумерованы. В любой момент можно обратиться к любой ячейке памяти по ее адресу.
6- Принцип последовательного программного управления - команды в программе выполняются последовательно друг за другом.
7- Принцип условного перехода. Не смотря на то, что команды выполняются последовательно, в программах можно реализовать возможность перехода к любому участку кода.

31.Поколения ЭВМ. Виды программного обеспечения.
Поколения ЭВМ.
По мере развития техники в двадцатом веке, компьютеры все более совершенствовались и улучшали свою производительность. Традицинонно принято выделять 5 условных поколений ЭВМ, отличающихся как конструкционнно, так и по быстродействию:
Картинка
Виды программного обеспечения.
Программное обеспечение (ПО) – это все компьютерные программы и данные, находящиеся в данной компьютерной системы или доступные ей дистанционно.
Всё программное обеспечение можно разделить на следующие виды:
1. Базовое ПО – базовый уровень
2. Системное ПО – системный уровень
3. Служебное (сервисное) ПО
4. Прикладное ПО
Каждый вышележащий уровень повышает функциональность всей системы
Картинка
Базовое ПО
Базовое ПО– самый низкий уровень ПО. Базовое ПО отвечает за взаимодействие с базовыми аппаратными средствами. Как правило, базовые программные средства непосредственно входят в состав базового оборудования и хранятся в специальных микросхемах, называемых постоянными запоминающими устройствами (ПЗУ).
Базовое ПО в архитектуре компьютера занимает особое положение. С одной стороны, его можно рассматривать как составную часть аппаратных средств, с другой стороны, оно является одним из программных модулей операционной системы. Функцией базового программного обеспечения является проверка состава и работоспособности вычислительной системы.
1   2   3   4   5   6   7   8


написать администратору сайта