Главная страница
Навигация по странице:

  • 2. Ограничения в использовании различных типов шкал. Понятие генеральной совокупности и выборки.

  • 3. Репрезентативность. Классификация выборок по способу отбора, объему, схеме испытаний и репрезентативности.

  • 4. Научная и статистическая гипотеза. Нулевая и альтернативная гипотезы.

  • 5. Определение статистического критерия. Параметрические и непараметрические критерии.

  • 6. Числовые характеристики распределения данных. Методы описательной статистики. Оценка средних

  • 7. Нормальный закон распределения случайной величины. Понятие распределения признака и нормального распределения признака; основные характеристики нормального распределения.

  • 8. Проверка нормальности распределения результативного признака (привести примет). Формулы для расчета критических значений А s (асимметрия) и Е x

  • (эксцесс) Пустыльника Е.И.

  • 9. Меры связи между признаками. Понятие корреляционного анализа; корреляционной связи и корреляционной зависимости.

  • 10. Методы для расчета коэффициента корреляции: метод ранговой корреляции Спирмена; метод Браве- Пирсона. Условия применимости методов (достоинства и недостатки).

  • 11. Интерпретация корреляции.

  • 12. F-критерий Фишера (для сравнения дисперсий)

  • 13. Выявление различий в уровне исследуемого признака. Q-критерий Розенбаума

  • 14. Т-критерий Вилкоксона

  • 15. Выявление различий в распределении признака. χ2-критерий Пирсона.

  • Управление данными. Экзаменационные ответы. Ответы Управление Данными. 1. Виды данных в статистике, их определения. Характеристика типов шкал, применяемых в психологии


    Скачать 458.36 Kb.
    Название1. Виды данных в статистике, их определения. Характеристика типов шкал, применяемых в психологии
    АнкорУправление данными. Экзаменационные ответы
    Дата30.05.2021
    Размер458.36 Kb.
    Формат файлаpdf
    Имя файлаОтветы Управление Данными.pdf
    ТипДокументы
    #211626

    1. Виды данных в статистике, их определения. Характеристика типов шкал, применяемых в психологии.
    Данные в статистике – это основные элементы, подлежащие анализу.
    Существуют три типа данных:
    1. Количественные данные, получаемые при измерениях (например, данные о весе, размерах, температуре, времени, результатах тестирования и т.п.). Их можно распределить по шкале с равными интервалами.
    2. Порядковые данные, соответствующие местам этих элементов в последовательности, полученной при их расположении в возрастающем порядке.
    3. Качественные данные, представляющие собой какие-то свойства элементов выборки или популяции. Их нельзя измерить, и единственной их количественной оценкой служит частота встречаемости.
    Из всех этих типов данных только количественные данные можно анализировать с помощью методов, в основе которых лежат параметры (такие, например, как средняя арифметическая, мода, дисперсия и т.д.). Но даже к количественным данным такие методы можно применить лишь в том случае, если число этих данных достаточно, чтобы проявилось нормальное распределение.
    С. Стивенсом предложена классификация из 4 типов шкал измерения:
    1) номинативная, или номинальная, или шкала наименований;
    2) порядковая, или ординальная, шкала;
    3) интервальная, или шкала равных интервалов;
    4) шкала равных отношений.
    Номинативная шкала – это шкала, классифицирующая по названию. Название же не измеряется количественно, оно лишь позволяет отличить один объект от другого или одного субъекта от другого. Номинативная шкала – это способ классификации объектов или субъектов, распределения их по ячейкам классификации.
    Простейший случай номинативной шкалы – дихотомическая шкала, состоящая всего лишь из двух ячеек.
    Порядковая шкала – это шкала, классифицирующая по принципу «больше – меньше». Если в шкале наименований было безразлично, в каком порядке расположены классификационные ячейки, то в порядковой шкале они образуют последовательность от ячейки «самое малое значение» к ячейке «самое большое значение» (или наоборот).
    Интервальная шкала – это шкала, классифицирующая по принципу «больше на определенное количество единиц – меньше на определенное количество единиц». Каждое из возможных значений признака отстоит от другого на равном расстоянии.
    Шкала интервалов представляет собой полностью упорядоченный ряд с измеренными интервалами между пунктами, причем отсчет начинается с произвольно от выбранной величины (нет абсолютного нуля).
    Шкала равных отношений – это шкала, классифицирующая объекты или субъектов пропорционально степени выраженности измеряемого свойства. В шкалах отношений классы обозначаются числами, которые пропорциональны друг другу: 2 так относится к 4, как 4 к 8. Это предполагает наличие абсолютной нулевой точки отсчета. Считается, что в психологии примерами шкал равных отношений являются шкалы порогов абсолютной чувствительности.

    2. Ограничения в использовании различных типов шкал. Понятие генеральной совокупности и выборки.
    1) Первое ограничение – соразмерность количественных показателей, фиксированных разными шкалами в рамках одного исследования. Более сильная шкала отличается от слабой тем, что допускает более широкий диапазон математических операций с числами. Все, что допустимо для слабой шкалы допустимо и для более сильной, но не наоборот. Поэтому, смешение в анализе мерительных эталонов разного типа приводит к тому, что не используются возможности сильных шкал.
    2) Второе ограничение связано с формой распределения величины фиксированных описанными выше шкалами, которое предполагается нормальным. Для нормального распределения оценки меры рассеяния совпадают: Мо=Ме=М, в скошенном хвосты распределения не влияют на среднюю (М).
    В математической статистике выделяют два фундаментальных понятия: генеральная совокупность и выборка.
    Совокупностью – называется практически счетное множество некоторых объектов или элементов, интересующих исследователя;
    Свойством совокупности называется реальное или воображаемое качество.
    Параметром совокупности называется свойство, которое можно квантифицировать в виде константы или переменной величины.
    Простая совокупность характеризуется: • отдельным свойством (например: все студенты России); • отдельным параметром в виде константы или переменной (Все студенты женского пола); • системой непересекающихся
    (несовместных) свойств, к примеру: Все учителя и ученики школ г. Владивостока.
    Сложная совокупность характеризуется: • системой, хотя бы частично пересекающихся свойств (Студенты психологического и математических факультетов ДВГУ, окончивших школу с золотой медалью); • системой параметров независимых и зависимых в совокупности; при комплексном исследовании личности.
    Гомогенной (однородной) называется совокупность, все характеристики которой присущи каждому ее элементу;
    Гетерогенной (неоднородной) называется совокупность, характеристики которой сосредоточены в отдельных подмножествах элементов.
    Выборкой называется некоторая часть генеральной совокупности, то, что непосредственно изучается.

    3. Репрезентативность. Классификация выборок по способу отбора, объему, схеме испытаний и
    репрезентативности.
    Выборкой называется некоторая часть генеральной совокупности, то, что непосредственно изучается.
    Выборки классифицируются по репрезентативности, объему, способу отбора и схеме испытаний.
    Репрезентативная – выборка адекватно отображающая генеральную совокупность в качественном и количественном отношениях.
    Выборка должна адекватно отображать генеральную совокупность, иначе результаты не совпадут с целями исследования.
    Репрезентативность зависит от объема, чем больше объем, тем выборка репрезентативней.
    По способу отбора.
    Случайная – если элементы отбираются случайным образом. Так как большинство методов математической статистики основывается на понятии случайной выборки, то естественно выборка должна быть случайной.
    Неслучайная выборка:
    • механический отбор, когда вся совокупность делится на столько частей, сколько единиц планируется в выборке и затем из каждой части отбирается один элемент;
    • типический отбор – совокупность делится на гомогенные части, и из каждой осуществляется случайная выборка;
    • серийный отбор – совокупность делят на большое число разновеликих серий, затем делают выборку одной какой- либо серии;
    • комбинированный отбор – сочетаются рассматриваемые виды отбора, на разных этапах.
    По схеме испытаний – выборки могут быть независимые и зависимые.
    По объему выборки делят на малые и большие.
    К малым относят выборки, в которых число элементов n ≤ 30. Понятие большой выборки не определено, но большой считается выборка в которой число элементов > 200 и средняя выборка удовлетворяет условию 30≤ n≤ 200. Это деление условно.
    Малые выборки используются при статистическом контроле известных свойств уже изученных совокупностей.
    Большие выборки используются для установки неизвестных свойств и параметров совокупности.

    4. Научная и статистическая гипотеза. Нулевая и альтернативная гипотезы.
    Гипотеза – это научное предположение, вытекающее из теории, которое еще не подтверждено и не опровергнуто.
    Научная гипотеза должна удовлетворять: • принципам фальсифицируемости (быть опровергаемой в эксперименте); • принципам верифицируемости (быть подтверждаемой в эксперименте).
    Различают научные и статистические гипотезы. Научные гипотезы формулируются как предполагаемое решение проблемы. Статистическая гипотеза – утверждение в отношении неизвестного параметра, сформулированное на языке математической статистики. Любая научная гипотеза требует перевода на язык статистики.
    Экспериментальная гипотеза служит для организации эксперимента, а статистическая – для организации процедуры сравнения регистрируемых параметров. Статистическая гипотеза необходима на этапе математической интерпретации данных эмпирических исследований
    Статистическая гипотеза – это предположение о распределении вероятностей, которое мы хотим проверить по имеющимся данным.
    Гипотезы различают простые и сложные: • простая гипотеза полностью задает распределение вероятностей; • сложная гипотеза указывает не одно распределение, а некоторое множество распределений.
    Статистические гипотезы подразделяются на нулевые и альтернативные.
    Нулевая гипотеза (Н0) – это гипотеза об отсутствии различий. Х1-Х2=0
    Нулевая гипотеза – это то, что мы хотим опровергнуть, если перед нами стоит задача доказать значимость различий.
    Альтернативная гипотеза (Н1) – гипотеза о значимости различий. Альтернативная гипотеза – это то, что мы хотим доказать, называют иногда экспериментальной.

    5. Определение статистического критерия. Параметрические и непараметрические критерии.
    ″Статистический критерий – это решающее правило, обеспечивающее надежное поведение, то есть принятие истинной и отклонение ложной гипотезы с высокой вероятностью″ (Суходольский Г.В.). Статистические критерии обозначают также метод расчета определенного числа и само это число.
    Параметрические критерии – это некоторые функции от параметров совокупности, они служат для проверки гипотез об этих параметрах или для их оценивания. Параметрические критерии включают в формулу расчета параметры распределения, т.е. средние и дисперсии.
    Непараметрические критерии – это некоторые функции от функций распределения или непосредственно от вариационного ряда наблюдавшихся значений изучаемого случайного явления. Они служат только для проверки гипотез о функциях распределения или рядах наблюдавшихся значений.
    Непараметрические критерии не включают в формулу расчета параметров распределения и основанные на оперировании частотами или рангами.
    Параметрические критерии могут оказаться несколько более мощными, чем непараметрические, но только в том случае, если признак измерен по интервальной шкале и нормально распределен. Проверка распределения «на нормальность» требует достаточно сложных расчетов, результат которых заранее не известен. Может оказаться, что распределение признака отличается от нормального, и нам так или иначе все равно придется обратиться к непараметрическим критериям.
    Непараметрические критерии лишены всех этих ограничений и не требуют таких длительных и сложных расчетов.
    По сравнению с параметрическими критериями они ограничены лишь в одном – с их помощью невозможно оценить взаимодействие двух или более условий или факторов, влияющих на изменение признака.

    6. Числовые характеристики распределения данных. Методы описательной статистики. Оценка средних
    величин. Мода, медиана и средняя арифметическая. Оценка разброса данных. Асимметрия и эксцесс.
    К характеристикам распределения, описывающим количественно его структуру и строение, относятся: • характеристики положения; • рассеивания; • асимметрии и эксцесса
    Оценка центральной тенденции
    К характеристикам положения относятся следующие оценки центральной тенденции: мода (Мо), медиана (Ме) и среднее арифметическое ( Mср ).
    Величина признака, которая встречается чаще всего в изучаемом ряду, в совокупности - мода (Мо). В дискретном ряду Мо определяется без вычисления, как значение признака с наибольшей частотой.
    При расчете моды может возникнуть несколько ситуаций:
    1. Два значения признака, стоящие рядом, встречаются одинаково часто. В этом случае мода равна среднему арифметическому этих двух значений
    2. Два значения, встречаются также одинаково часто, но не стоят рядом. В этом случае говорят, что ряд данных имеет две моды, т.е. он бимодальный.
    3. Если все значения данных встречаются одинаково часто, то говорят, что ряд не имеет моды.
    Если в ряду данных встречается два или более равных значений признака, то говорят о неоднородности совокупности.
    Вторая числовая характеристика ряда данных называется медианой (Ме) – это такое значение признака, которое делит ряд пополам. Иначе, медиана обладает тем свойством, что половина всех выборочных значений признака меньше еѐ, половина больше. При нечетном числе элементов в ряду данных, медиана равна центральному члену ряда, а при четном среднему арифметическому двух центральных значений ряда.
    Среднее арифметическое значение признака:
    , где xi – значения признака, n – количество данных в ряду.
    Среднее арифметическое значение признака, вычисленное для какой-либо группы, интерпретируется как значение наиболее типичного для этой группы человека. Однако бывают случаи, когда подобная интерпретация несостоятельна (в случае, если существует большая разница между минимальным и максимальным значениями признака).
    Характеристики рассеивания
    Основными характеристиками рассеивания являются: размах (R), дисперсия (D), среднеквадратическое
    (стандартное) отклонение (σ – сигма), коэффициент вариации(V).
    Размах – это разность между максимальным и минимальным значениями признака: R = xmax – xmin.
    Дисперсия показывает разброс значений признака относительно своего среднего арифметического значения, то есть насколько плотно значения признака группируются вокруг M ; чем больше разброс, тем сильнее варьируются результаты испытуемых в данной группе, тем больше индивидуальные различия между испытуемыми:
    Среднеквадратическое отклонение, его размерность соответствует размерности измеряемой величины:
    Коэффициент вариации вообще не имеет размерности, что позволяет сравнивать вариативность случайных величин, имеющих различную природу:
    Характеристики ассиметрии и эксцесса
    Мера асимметрии – коэффициент асимметрии (As), рассчитываемый по формуле
    Асимметрия характеризует степень асимметричности распределения. Коэффициент асимметрии изменяется от минус до плюс бесконечности (-∞Мера эксцесса (островершинности) – коэффициент эксцесса (Еx), рассчитываемый по формуле:
    Коэффициент эксцесса также изменяется от минус до плюс бесконечности (-∞

    7. Нормальный закон распределения случайной величины. Понятие распределения признака и нормального
    распределения признака; основные характеристики нормального распределения.
    Распределением признака называется закономерность встречаемости разных его значений.
    Нормальное распределение характеризуется тем, что крайние значения признака в нем встречаются достаточно редко, а значения, близкие к средней величине – достаточно часто. Нормальным такое распределение называется потому, что оно очень часто встречалось в естественно-научных исследованиях и казалось "нормой" всякого массового случайного проявления признаков. Это распределение следует закону, открытому тремя учеными в разное время:
    Муавром, Гауссом и Лапласом.
    Мо=Ме=Мср
    График нормального распределения представляет собой так называемую колоколообразную кривую.
    Свойством нормальных распределений является наличие определенного количества случайной величины (случаев, испытуемых), приходящегося на интервалы между значениями σ, обычно это количество измеряют в процентах от общего числа случаев, испытуемых.
    Стандартное отклонение позволяет сказать, что большая часть исследуемой выборки располагается в пределах σ от средней. Статистики показали, что при нормальном распределении «большая часть» результатов, располагающаяся в пределах одного стандартного отклонения по обе стороны от средней, в процентном отношении всегда одна и та же и не зависит от величины стандартного отклонения: она соответствует 68% популяции (т.е. 34% ее элементов располагается слева и 34%-справа от средней)
    Точно так же рассчитали, что 94,45% элементов популяции при нормальном распределении не выходит за пределы двух стандартных отклонений от средней.

    8. Проверка нормальности распределения результативного признака (привести примет). Формулы для
    расчета критических значений А
    s
    (асимметрия) и Е
    x
    (эксцесс) Пустыльника Е.И.
    Если мы применяем параметрические методы (к примеру, формулу для расчета коэффициента корреляции Браве-
    Пирсона или дисперсионный анализ) которые следует применять только тогда, когда известно или доказано, что распределение признака является нормальным (Суходольский Г.В., 1972; Шеффе Г., 1980 и др.), то в этом случае нам необходимо убедиться в нормальности распределения результативного признака. Нормальность распределения результативного признака можно проверить путем расчета показателей асимметрии и эксцесса и сопоставления их с критическими значениями (Пустыльник Е.И., 1968, Плохинский Н.А.. 1970 и др.). Рассмотрим применение метода Е.И.
    Пустыльника на примере.
    Действовать будем по следующему алгоритму:
    1) рассчитаем критические значения показателей асимметрии и эксцесса по формулам Е.И. Пустыльника и сопоставим с ними эмпирические значения;
    2) если эмпирические значения показателей окажутся ниже критических, сделаем вывод о том, что распределение признака не отличается от нормального.
    Нормальным считается распределение, если выполняются оба неравенства:
    As эмпир < As крит
    Ex эмпир < Ex крит
    Расчет критических показателей асимметрии и эксцесса будем производить по формулам.

    9. Меры связи между признаками. Понятие корреляционного анализа; корреляционной связи и
    корреляционной зависимости.
    Корреляционный анализ помогает установить, можно ли предсказывать возможные значения одного показателя, зная величину другого.
    Корреляционная связь – это согласованные изменения двух признаков или большего количества признаков
    (множественная корреляционная связь). Корреляционная связь отражает тот факт, что изменчивость одного признака находится в некотором соответствии с изменчивостью другого
    Корреляционная зависимость – это изменения, которые вносят значения одного признака в вероятность появления разных значений другого признака.
    Оба термина – корреляционная связь и корреляционная зависимость – часто используются как синонимы. Между тем, согласованные изменения признаков и отражающая это корреляционная связь между ними может свидетельствовать не о зависимости этих признаков между собой, а зависимости обоих этих признаков от какого-то третьего признака или сочетания признаков, не рассматриваемых в исследовании.
    Зависимость подразумевает влияние, связь – любые согласованные изменения, которые могут объясняться сотнями причин. Корреляционные связи не могут рассматриваться как свидетельство причинно-следственной связи, они свидетельствуют лишь о том, что изменениям одного признака, как правило, сопутствуют определенные изменения другого, но находится ли причина изменений в одном из признаков или она оказывается за пределами исследуемой пары признаков, нам неизвестно.
    Говорить в строгом смысле о зависимости мы можем только в тех случаях, когда сами оказываем какое-то контролируемое воздействие на испытуемых или так организуем исследование, что оказывается возможным точно определить интенсивность не зависящих от нас воздействий. Воздействия, которые мы можем качественно определить или даже измерить, могут рассматриваться как независимые переменные. Признаки, которые мы измеряем и которые, по нашему предположению, могут изменяться под влиянием независимых переменных, считаются зависимыми переменными. Согласованные изменения независимой и зависимой переменной действительно могут рассматриваться как зависимость.
    Корреляционные связи различаются по форме, направлению и степени (силе).
    По форме корреляционная связь может быть прямолинейной или криволинейной. Прямолинейной может быть, например, связь между количеством тренировок на тренажере и количеством правильно решаемых задач в контрольной сессии. Криволинейной может быть, например, связь между уровнем мотивации и эффективностью выполнения задачи
    По направлению корреляционная связь может быть положительной ("прямой") и отрицательной ("обратной"). При положительной прямолинейной корреляции более высоким значениям одного признака соответствуют более высокие значения другого, а более низким значениям одного признака – низкие значения другого (см. Рис. 4.2). При отрицательной корреляции соотношения обратные. При положительной корреляции коэффициент корреляции имеет положительный знак, например r=+0,207, при отрицательной корреляции – отрицательный знак, например r=-0,207.
    Степень, сила или теснота корреляционной связи определяется по величине коэффициента корреляции. Сила связи не зависит от ее направленности и определяется по абсолютному значению коэффициента корреляции. Коэффициент корреляции – это величина, которая может варьировать в пределах от +1 до –1.

    10. Методы для расчета коэффициента корреляции: метод ранговой корреляции Спирмена; метод Браве-
    Пирсона. Условия применимости методов (достоинства и недостатки).
    В психологических исследованиях чаще всего применяется коэффициент линейной корреляции r – Пирсона и методы ранговой корреляции Спирмена и Кендала. Однако метод Пирсона является параметрическим и поэтому не лишен недостатков, свойственных параметрическим методам (необходимо, чтобы данные были измерены в интервальных шкалах или распределение не отличалось от нормального).
    Метод ранговой корреляции Спирмена, является непараметрическим методом, он является универсальным и работает с данными измеренными в любых шкалах и прост в применении.
    Метод ранговой корреляции Спирмена позволяет определить тесноту (силу) и направление корреляционной связи между двумя признаками или двумя профилями (иерархиями) признаков.
    Для подсчета ранговой корреляции необходимо располагать двумя рядами значений, которые могут быть проранжированы. Такими рядами значений могут быть:
    1) два признака, измеренные в одной и той же группе испытуемых;
    2) две индивидуальные иерархии признаков, выявленные у двух испытуемых по одному и тому же набору признаков;
    3) две групповые иерархии признаков,
    4) индивидуальная и групповая иерархии признаков.
    Вначале показатели ранжируются отдельно по каждому из признаков. Как правило, меньшему значению признака начисляется меньший ранг.
    Ограничения коэффициента ранговой корреляции
    1. По каждой переменной должно быть представлено не менее 5 наблюдений. Верхняя граница выборки определяется имеющимися таблицами критических значений.
    2. Коэффициент ранговой корреляции Спирмена rs при большом количестве одинаковых рангов по одной или обеим сопоставляемым переменным дает огрубленные значения. В идеале оба коррелируемых ряда должны представлять собой две последовательности несовпадающих значений. В случае, если это условие не соблюдается, необходимо вносить поправку на одинаковые ранги.
    Коэффициент ранговой корреляции Спирмена подсчитывается по формуле:
    Если в обоих сопоставляемых ранговых рядах присутствуют группы одинаковых рангов, перед подсчетом коэффициента ранговой корреляции необходимо внести поправки на одинаковые ранги Та и Тв: где а – объем каждой группы одинаковых рангов в ранговом ряду А, в – объем каждой группы одинаковых рангов в ранговом ряду В.
    Коэффициент корреляции Браве-Пирсона
    Для вычисления этого коэффициента применяют следующую формулу (у разных авторов она может выглядеть по- разному): где: Σxiyi – сумма произведений данных из каждой пары, n – число пар, M 1 – средняя для данных переменной X, M
    2 – средняя для данных переменной Y, σх – стандартное отклонение для распределения х, σy – стандартное отклонение для распределения у.

    11. Интерпретация корреляции.
    Причинность и корреляция.
    Наличие корреляции двух переменных отнюдь не означает, что между ними существует причинная связь. Во- первых, даже в тех случаях, когда можно предположить существование причинной связи между двумя переменными, которые коррелированы, r сам по себе ничего не говорит о том, вызывает ли х появление y или y вызывает появление x.
    Во-вторых, часто наблюдаемая связь существует благодаря другим переменным, а не двум рассматриваемым. В-третьих, взаимосвязи переменных в педагогике и общественных науках почти всегда слишком сложны, чтобы их объяснением могла служить единственная причина.
    Хотя корреляция прямо не указывает на причинную связь, она может служить ключом к разгадке причин. При благоприятных условиях на ее основе можно сформулировать гипотезы, проверяемые экспериментально, когда возможен контроль других влияний, помимо тех немногочисленных, которые подлежат исследованию.
    Иногда отсутствие корреляции может иметь более глубокое воздействие на нашу гипотезу о причинной связи, чем наличие сильной корреляции. Нулевая корреляция двух переменных может свидетельствовать о том, что никакого влияния одной переменной на другую не существует, при условии, что мы доверяем результатам измерений и что произведение моментов r Пирсона, измеряющее только частный тип связи, подходит для измерения более общего типа связи, называемой «причинной».
    Используется две системы классификации корреляционных связей по их силе: общая и частная. Общая классификация корреляционных связей:
    Частная классификация корреляционных связей:
    1) высокая значимая корреляция при r, соответствующем уровню статистической значимости ρ≤0.01 2) значимая корреляция при r, соответствующем уровню статистической значимости ρ≤0,05;
    3) тенденция достоверной связи при r, соответствующем уровню статистической значимости ρ≤0,10;
    4) незначимая корреляция при r, не достигающем уровня статистической значимости.
    Две эти классификации не совпадают. Первая ориентирована только на величину коэффициента корреляции, а вторая определяет, какого уровня значимости достигает данная величина коэффициента корреляции при данном объеме выборки. Чем больше объем выборки, тем меньшей величины коэффициента корреляции оказывается достаточно, чтобы корреляция была признана достоверной.

    12. F-критерий Фишера (для сравнения дисперсий)
    F-критерий Фишера используется для: 1) установления сходства-различия дисперсий в двух независимых выборках
    (D1↔D2); 2) установления отличия от нуля коэффициента детерминации (η2 ↔"О"); 3) установления наличия- отсутствия влияния фактора в дисперсионном анализе. Случай 1 Эмпирическое значение F-критерия для сравнения двух дисперсий в независимых выборках находят по очень простой формуле: где D1 – большая дисперсия, D2 – меньшая дисперсия
    Количество степеней свободы определяется отдельно для числителя и отдельно для знаменателя: df числ
    = n числ
    -1 df знам
    =n знам
    -1
    Так как эмпирическое значение меньше критического, то статистически значимых различий дисперсий в первой и второй группах нет.
    Замечание. Для сравнения дисперсий в зависимых выборках более строгим будет применение t-критерия Стьюдента.
    Случай 2
    В случае определения отличия от нуля коэффициента детерминации эмпирическое значение F-критерия рассчитывается так: где: N – общее число испытуемых, r-число интервалов квантования, исходя из которых рассчитывалось η2 .
    При определении критического значения число степеней свободы для числителя: dfчисл=r–1, для знаменателя: dfзнам=N–r.
    (Коэффициент детерминации – η2 , определяет общую меру связи – корреляционное отношение. Он определяется по формуле:
    Здесь: SSвнтр – сумма квадратов отклонений от внутригруппового (условного) среднего; SSобщ – сумма квадратов отклонений от общего для всех измерений среднего (безусловного среднего);
    Следует отметить, что в отличие от линейной корреляции коэффициент детерминации устанавливает два типа связей: зависимость х от у и зависимость у от х (η2 х/у, η2 у/х). То есть сначала одна переменная рассматривается как зависимая, другая – как независимая, затем наоборот).

    13. Выявление различий в уровне исследуемого признака. Q-критерий Розенбаума
    В психологии часто приходится проводить исследования на выявление различий между двумя, тремя и более выборками испытуемых.
    Иногда по выявленным в исследовании статистически достоверным различиям формируется "групповой профиль" или "усредненный портрет" человека той или иной профессии, статуса, соматического заболевания и др.
    В последние годы все чаще встает задача выявления психологического портрета специалиста новых профессий:
    "успешного менеджера", "успешного политика", "успешного торгового представителя", "успешного коммерческого директора" и др. Иногда обследуется одна, но достаточно представительная выборка численностью не менее 60 человек, а затем внутри, этой выборки выделяются группы более и менее успешных специалистов, и их данные по исследованным переменным сопоставляются между собой. В самом простом случае критерием для разделения выборки на "успешных" и "неуспешных" будет средняя величина по показателю успешности. Однако такое деление является довольно грубым.
    Чтобы избежать этого, можно попробовать выделить группы "успешных" и "неуспешных" специалистов, включая в первую из них только тех, чьи значения превышают среднюю величину не менее чем на 1/4 стандартного отклонения, а во вторую группу – только тех, чьи значения не менее чем на 1/4 стандартного отклонения ниже средней величины. При этом все, кто оказывается в зоне средних величин, М±1/4 σ, выпадают из дальнейших сопоставлений.
    Назначение критерия. Критерий используется для оценки различий между двумя выборками по уровню какого-либо признака, количественно измеренного. В каждой из выборок должно быть не менее 11 испытуемых.
    Описание критерия. Это очень простой непараметрический критерий, который позволяет быстро оценить различия между двумя выборками по какому-либо признаку. Однако если критерий Q не выявляет достоверных различий, это еще не означает, что их действительно нет.
    В этом случае стоит применить критерий ϕ* – Фишера. Если же Q-критерий выявляет достоверные различия между выборками с уровнем значимости ρ≤0,01, то можно ограничиться только им и избежать трудностей применения других критериев.
    Критерий применяется в тех случаях, когда данные представлены, по крайней мере, в порядковой шкале. Признак должен варьировать в каком-то диапазоне значений, иначе сопоставления с помощью Q-критерия просто невозможны.
    Метод Розенбаума требует достаточно тонко измеренных признаков.
    Применение критерия начинается с упорядочивания значений признака в обеих выборках по нарастанию (или убыванию) признака.
    Гипотезы.
    H0: Уровень признака в выборке 1 не превышает уровня признака в выборке 2.
    H1: Уровень признака в выборке 1 превышает уровень признака в выборке 2.
    Ограничения критерия Q
    1) В каждой из сопоставляемых выборок должно быть не менее 11 наблюдений. При этом объемы выборок должны примерно совпадать. Е.В. Гублером указываются следующие правила: а) если в обеих выборках меньше 50 наблюдений, то абсолютная величина разности между n1 и n2 не должна быть больше 10 наблюдений; б) если в каждой из выборок больше 51 наблюдения, но меньше 100, то абсолютная величина разности между n1 и n2 не должна быть больше 20 наблюдений; в) если в каждой из выборок больше 100 наблюдений, то допускается, чтобы одна из выборок была больше другой не более чем в 1,5-2 раза.
    2) Диапазоны разброса значений в двух выборках должны не совпадать между собой, в противном случае применение критерия бессмысленно. Между тем, возможны случаи, когда диапазоны разброса значений совпадают, но, вследствие разносторонней асимметрии двух распределений, различия в средних величинах признаков существенны

    14. Т-критерий Вилкоксона,
    Назначение критерия. Критерий применяется для сопоставления показателей, измеренных в двух разных условиях на одной и той же выборке испытуемых.
    Он позволяет установить не только направленность изменений, но и их выраженность. С его помощью мы определяем, является ли сдвиг показателей в каком-то одном направлении более интенсивным, чем в другом.
    Описание критерия Т.
    Этот критерий применим в тех случаях, когда признаки измерены по крайней мере по шкале порядка, и сдвиги между вторым и первым замерами тоже могут быть упорядочены. Для этого они должны варьировать в достаточно широком диапазоне.
    Суть метода состоит в сопоставлении выраженности сдвигов в том и ином направлениях по абсолютной величине.
    Для этого сначала ранжируются все абсолютные величины сдвигов, а потом суммируются ранги. Если сдвиги в положительную и в отрицательную сторону происходят случайно, то суммы рангов абсолютных значений их будут примерно равны. Если же интенсивность сдвига в одном из направлений перевешивает, то сумма рангов абсолютных значений сдвигов в противоположную сторону будет значительно ниже, чем это могло бы быть при случайных изменениях.
    Гипотезы
    H0: Интенсивность сдвигов в типичном направлении не превосходит интенсивности сдвигов в нетипичном направлении.
    HI: Интенсивность сдвигов в типичном направлении превышает интенсивность сдвигов в нетипичном направлении.
    Ограничения в применении критерия Т Вилкоксона
    1) Минимальное количество испытуемых, прошедших измерения в двух условиях – 5 человек. Максимальное количество испытуемых – 50 человек, что диктуется верхней границей имеющихся таблиц.
    2) Нулевые сдвиги из рассмотрения исключаются, и количество наблюдений n уменьшается на количество этих нулевых сдвигов. Можно обойти это ограничение, сформулировав гипотезы, включающие отсутствие изменений, например: "Сдвиг в сторону увеличения значений превышает сдвиг в сторону уменьшения значений и тенденцию сохранения их на прежнем уровне".

    15. Выявление различий в распределении признака. χ2-критерий Пирсона.
    Распределения могут различаться по средним, дисперсиям, асимметрии, эксцессу и по сочетаниям этих параметров.
    Традиционные для отечественной математической статистики критерии определения расхождения или согласия распределений – это метод χ2 – К. Пирсона и λ-критерий Колмогорова-Смирнова.
    Оба эти метода требуют тщательной группировки данных и довольно сложных вычислений. Кроме того, возможности этих критериев в полной мере проявляются на больших выборках (n>30).
    Они незаменимы в следующих двух случаях:
    1) в задачах, требующих доказательства неслучайности предпочтений в выборе из нескольких альтернатив;
    2) в задачах, требующих обнаружения точки максимального расхождения между двумя распределениями, которая затем используется для перегруппировки данных с целью применения критерия ϕ* (углового преобразования Фишера).
    Назначения критерия. Критерий χ2 применяется в двух целях:
    1) для сопоставления эмпирического распределения признака с теоретическим – равномерным, нормальным или каким-то иным;
    2) для сопоставления двух трех или более эмпирических распределений одного и того же признака
    Описание критерия.
    Критерий χ2 отвечает на вопрос о том, с одинаковой ли частотой встречаются разные значения признака в эмпирическом и теоретическом распределениях или в двух и более эмпирических распределениях.
    Преимущество метода состоит в том, что он позволяет сопоставлять распределения признаков, представленных в любой шкале, начиная от шкалы наименований.
    Чем больше расхождение между двумя сопоставляемыми распределениями, тем больше эмпирическое значение χ2 .
    Гипотезы.
    Возможны несколько вариантов гипотез, в зависимости от поставленных задач
    Первый вариант: H0: Полученное эмпирическое распределение признака не отличается от теоретического (например, равномерного) распределения. H1: Полученное эмпирическое распределение признака отличается от теоретического распределения.
    Второй вариант: H0: Эмпирическое распределение 1 не отличается от эмпирического распределения 2. H1: Эмпир. распределение 1 отличается от эмпирического распределения 2.
    Третий вариант: H0: Эмпир. распределения 1, 2, 3,... не различаются между собой. Н1: Эмпир. распределения 1, 2, 3,
    ... различаются между собой. Критерий χ2 позволяет проверить все три варианта гипотез.
    Ограничения критерия.
    1) Объем выборки должен быть достаточно большим: n>.30. При n>30 критерий χ2 дает весьма приближенные значения. Точность критерия повышается при больших п.
    2) Теоретическая частота для каждой ячейки таблицы не должна быть меньше 5: ƒ≥5. Это означает, что если число разрядов задано заранее и не может быть изменено, то мы не можем применять метод, χ2 не накопив определенного минимального числа наблюдений.
    3) Выбранные разряды должны "вычерпывать" все распределение, то есть охватывать весь диапазон вариативности признаков. При этом группировка на разряды должна быть одинаковой во всех сопоставляемых распределениях.
    4) Необходимо вносить "поправку на непрерывность" при сопоставлении распределений признаков, которые принимают всего 2 значения. При внесении поправки значение χ2 уменьшается.
    5) Разряды должны быть неперекрещивающимися: если наблюдение отнесено к одному разряду, то оно уже не может быть отнесено ни к какому другому разряду. Сумма наблюдений по разрядам всегда должна быть равна общему количеству наблюдений.


    написать администратору сайта