Главная страница
Навигация по странице:

  • Расчет стандартного отклонения для фона контрольной группы

  • Дополнение Б.3. Уровни достоверности (значимости)

  • Дополнение Б.4. Степени свободы

  • Контрольная группа. Сравнение результатов для фона и после воздействия

  • Непараметрические методы

  • Эмпирические частоты (Э)

  • Теоретические частоты (Т)

  • Результаты вычислений, которые предложено было сделать читателям

  • Дополнение Б.5. Таблицы

  • Годфруа Жо. Что такое психология - royallib. Годфруа Жо. Что такое психология - royallib.com. Жо Годфруа Что такое психология


    Скачать 1.93 Mb.
    НазваниеЖо Годфруа Что такое психология
    АнкорГодфруа Жо. Что такое психология - royallib.com
    Дата15.03.2021
    Размер1.93 Mb.
    Формат файлаdoc
    Имя файлаГодфруа Жо. Что такое психология - royallib.com.doc
    ТипЗакон
    #184821
    страница60 из 67
    1   ...   56   57   58   59   60   61   62   63   ...   67

    Среднее отклонение =

    ,

    где Σ (сигма) означает сумму; |d | — абсолютное значение каждого индивидуального отклонения от средней; n — число данных.

    Однако абсолютными значениями довольно трудно оперировать в алгебраических формулах, используемых в более сложном статистическом анализе. Поэтому статистики решили пойти по «обходному пути», позволяющему отказаться от значений с отрицательным знаком, а именно возводить все значения в квадрат , а затем делить сумму квадратов на число данных. В нашем примере это выглядит следующим образом:
    =

    =

    = 14.

    В результате такого расчета получают так называемую вариансу 203. Формула для вычисления вариансы, таким образом, следующая:

    Варианса =

    .

    204

    Наконец, чтобы получить показатель, сопоставимый по величине со средним отклонением, статистики решили извлекать из вариансы квадратный корень. При этом получается так называемое стандартное отклонение:

    Стандартное отклонение =

    .

    В нашем примере стандартное отклонение равно

    = 3,74.

    Следует еще добавить, что для того, чтобы более точно оценить стандартное отклонение для малых выборок (с числом элементов менее 30), в знаменателе выражения под корнем надо использовать не n , а n — 1:

    σ =

    . 205

    Вернёмся теперь к нашему эксперименту и посмотрим, насколько полезен оказывается этот показатель для описания выборок.

    На первом этапе, разумеется, необходимо вычислить стандартное отклонение для всех четырех распределений. Сделаем это сначала для фона опытной группы:
    Расчет стандартного отклонения для фона контрольной группы

    Сумма (Σ) d 2 = 131,94

    Варианса (s 2) =

    =

    = 9,42.

    Стандартное отклонение (s ) =

    =

    = 3,07.

    Примечание : Формула для расчетов и сами расчеты приведены здесь лишь в качестве иллюстрации. В наше время гораздо проще приобрести такой карманный микрокалькулятор, в котором подобные расчеты уже заранее запрограммированы, и для расчета стандартного отклонения достаточно лишь ввести данные, а затем нажать клавишу s .
    О чем же свидетельствует стандартное отклонение, равное 3,07? Оказывается, оно позволяет сказать, что бо льшая часть результатов (выраженных здесь числом пораженных мишеней) располагается в пределах 3,07 от средней, т. е. между 12,73 (15,8–3,07) и 18,87 (15,8 + 3,07).

    Для того чтобы лучше понять, что подразумевается под «бо льшей частью результатов», нужно сначала рассмотреть те свойства стандартного отклонения, которые проявляются при изучении популяции с нормальным распределением.

    Статистики показали, что при нормальном распределении «бо льшая часть» результатов, располагающаяся в пределах одного стандартного отклонения по обе стороны от средней, в процентном отношении всегда одна и та же и не зависит от величины стандартного отклонения : она соответствует 68 % популяции (т. е. 34 % ее элементов располагается слева и 34 % — справа от средней):

    Точно так же рассчитали, что 94,45 % элементов популяции при нормальном распределении не выходит за пределы двух стандартных отклонений от средней:

    и что в пределах трех стандартных отклонений умещается почти вся популяция — 99,73 %.

    Учитывая, что распределение частот фона контрольной группы довольно близко к нормальному, можно полагать, что 68 % членов всей популяции , из которой взята выборка, тоже будет получать сходные результаты, т. е. попадать примерно в 13–19 мишеней из 25. Распределение результатов остальных членов популяции должно выглядеть следующим образом:


    Гипотетическая популяция, из которой взята контрольная группа (фон)
    Что касается результатов той же группы после воздействия изучаемого фактора, то стандартное отклонение для них оказалось равным 4,25 (пораженных мишеней). Значит, можно предположить, что 68 % результатов будут располагаться именно в этом диапазоне отклонений от средней, составляющей 16 мишеней, т. е. в пределах от 11,75 (16 — 4,25) до 20,25 (16 + 4,25), или, округляя, 12–20 мишеней из 25. Видно, что здесь разброс результатов больше, чем в фоне. Эту разницу в разбросе между двумя выборками для контрольной группы можно графически представить следующим образом:

    Поскольку стандартное отклонение всегда соответствует одному и тому же проценту результатов, укладывающихся в его пределах вокруг средней, можно утверждать, что при любой форме кривой нормального распределения та доля ее площади, которая ограничена (с обеих сторон) стандартным отклонением, всегда одинакова и соответствует одной и той же доле всей популяции. Это можно проверить на тех наших выборках, для которых распределение близко к нормальному, — на данных о фоне для контрольной и опытной групп.

    Итак, ознакомившись с описательной статистикой, мы узнали, как можно представить графически и оценить количественно степень разброса данных в том или ином распределении. Тем самым мы смогли понять, чем различаются в нашем опыте распределения для контрольной группы до и после воздействия. Однако можно ли о чем-то судить по этой разнице — отражает ли она действительность или же это просто артефакт, связанный со слишком малым объемом выборки? Тот же вопрос (только еще острее) встаёт и в отношении экспериментальной группы, подвергнутой воздействию независимой переменной. В этой группе стандартное отклонение для фона и после воздействия тоже различается примерно на 1 (3,14 и 4,04 соответственно). Однако здесь особенно велика разница между средними — 15,2 и 11,3. На основании чего можно было бы утверждать, что эта разность средних действительно достоверна, т. е. достаточно велика, чтобы можно было с уверенностью объяснить ее влиянием независимой переменной, а не простой случайностью? В какой степени можно опираться на эти результаты и распространять их на всю популяцию, из которой взята выборка, т. е. утверждать, что потребление марихуаны и в самом деле обычно ведёт к нарушению глазодвигательной координации?

    На все эти вопросы и пытается дать ответ индуктивная статистика.

    Индуктивная статистика
    Задачи индуктивной статистики заключаются в том, чтобы определять, насколько вероятно, что две выборки принадлежат к одной популяции.

    Давайте наложим друг на друга, с одной стороны, две кривые — до и после воздействия — для контрольной группы и, с другой стороны, две аналогичные кривые для опытной группы. При этом масштаб кривых должен быть одинаковым.

    Видно, что в контрольной группе разница между средними обоих распределений невелика, и поэтому можно думать, что обе выборки принадлежат к одной и той же популяции. Напротив, в опытной группе большая разность между средними позволяет предположить, что распределения для фона и воздействия относятся к двум различным популяциям, разница между которыми обусловлена тем, что на одну из них повлияла независимая переменная.
    Проверка гипотез
    Как уже говорилось, задача индуктивной статистики — определять, достаточно ли велика разность между средними двух распределений для того, чтобы можно было объяснить ее действием независимой переменной, а не случайностью, связанной с малым объемом выборки (как, по-видимому, обстоит дело в случае с опытной группой нашего эксперимента).

    При этом возможны две гипотезы:

    1) нулевая гипотеза (H0), согласно которой разница между распределениями недостоверна; предполагается, что различие недостаточно значительно, и поэтому распределения относятся к одной и той же популяции, а независимая переменная не оказывает никакого влияния;

    2) альтернативная гипотеза (H1), какой является рабочая гипотеза нашего исследования. В соответствии с этой гипотезой различия между обоими распределениями достаточно значимы и обусловлены влиянием независимой переменной.

    Основной принцип метода проверки гипотез состоит в том, что выдвигается нулевая гипотеза H0, с тем чтобы попытаться опровергнуть ее и тем самым подтвердить альтернативную гипотезу H1. Действительно, если результаты статистического теста, используемого для анализа разницы между средними, окажутся таковы, что позволят отбросить H0, это будет означать, что верна H1, т. е. выдвинутая рабочая гипотеза подтверждается.

    В гуманитарных науках принято считать, что нулевую гипотезу можно отвергнуть в пользу альтернативной гипотезы, если по результатам статистического теста вероятность случайного возникновения найденного различия не превышает 5 из 100 206. Если же этот уровень достоверности не достигается, считают, что разница вполне может быть случайной и поэтому нельзя отбросить нулевую гипотезу.

    Для того чтобы судить о том, какова вероятность ошибиться, принимая или отвергая нулевую гипотезу, применяют статистические методы, соответствующие особенностям выборки.
    Так, для количественных данных (см. дополнение Б.1) при распределениях, близких к нормальным, используют параметрические методы, основанные на таких показателях, как средняя и стандартное отклонение. В частности, для определения достоверности разницы средних для двух выборок применяют метод Стьюдента, а для того чтобы судить о различиях между тремя или бо льшим числом выборок, — тест F, или дисперсионный анализ.

    Если же мы имеем дело с неколичественными данными или выборки слишком малы для уверенности в том, что популяции, из которых они взяты, подчиняются нормальному распределению, тогда используют непараметрические методы — критерий χ2 (хи -квадрат) для качественных данных и критерии знаков, рангов, Манна — Уитни, Вилкоксона и др. для порядковых данных.

    Кроме того, выбор статистического метода зависит от того, являются ли те выборки, средние которых сравниваются, независимыми (т. е., например, взятыми из двух разных групп испытуемых) или зависимыми (т. е. отражающими результаты одной и той же группы испытуемых до и после воздействия или после двух различных воздействий).
    Дополнение Б.3. Уровни достоверности (значимости)
    Тот или иной вывод с некоторой вероятностью может оказаться ошибочным, причем эта вероятность тем меньше, чем больше имеется данных для обоснования этого вывода. Таким образом, чем больше получено результатов, тем в большей степени по различиям между двумя выборками можно судить о том, что действительно имеет место в той популяции, из которой взяты эти выборки.

    Однако обычно используемые выборки относительно невелики, и в этих случаях вероятность ошибки может быть значительной. В гуманитарных науках принято считать, что разница между двумя выборками отражает действительную разницу между соответствующими популяциями лишь в том случае, если вероятность ошибки для этого утверждения не превышает 5 %, т. е. имеется лишь 5 шансов из 100 ошибиться, выдвигая такое утверждение. Это так называемый уровень достоверности (уровень надежности, доверительный уровень) различия. Если этот уровень не превышен, то можно считать вероятным , что выявленная нами разница действительно отражает положение дел в популяции (отсюда еще одно название этого критерия — порог вероятности).

    Для каждого статистического метода этот уровень можно узнать из таблиц распределения критических значений соответствующих критериев (t , χ2 и т. д.); в этих таблицах приведены цифры для уровней 5 % (0,05), 1 % (0,01) или еще более высоких. Если значение критерия для данного числа степеней свободы (см. дополнение Б.4) оказывается ниже критического уровня, соответствующего порогу вероятности 5 %, то нулевая гипотеза не может считаться опровергнутой, и это означает, что выявленная разница недостоверна.
    Дополнение Б.4. Степени свободы
    Для того чтобы свести к минимуму ошибки, в таблицах критических значений статистических критериев в общем количестве данных не учитывают те, которые можно вывести методом дедукции. Оставшиеся данные составляют так называемое число степеней свободы , т. е. то число данных из выборки, значения которых могут быть случайными.

    Так, если сумма трех данных равна 8, то первые два из них могут принимать любые значения, но если они определены, то третье значение становится автоматически известным. Если, например, значение первого данного равно 3, а второго — 1, то третье может быть равным только 4. Таким образом, в такой выборке имеются только две степени свободы. В общем случае для выборки в n данных существует n — 1 степень свободы.

    Если у нас имеются две независимые выборки, то число степеней свободы для первой из них составляет n 1 — 1, а для второй — n 2 — 1. А поскольку при определении достоверности разницы между ними опираются на анализ каждой выборки, число степеней свободы, по которому нужно будет находить критерий t в таблице, будет составлять (n 1 + n 2) — 2.

    Если же речь идет о двух зависимых выборках, то в основе расчета лежит вычисление суммы разностей, полученных для каждой пары результатов (т. е., например, разностей между результатами до и после воздействия на одного и того же испытуемого). Поскольку одну (любую) из этих разностей можно вычислить, зная остальные разности и их сумму, число степеней свободы для определения критерия t будет равно n — 1.
    Параметрические методы
    Метод Стьюдента (t-тест)
    Это параметрический метод, используемый для проверки гипотез о достоверности разницы средних при анализе количественных данных о популяциях с нормальным распределением и с одинаковой вариансой 207.
    Метод Стьюдента различен для независимых и зависимых выборок. Независимые выборки получаются при исследовании двух различных групп испытуемых (в нашем эксперименте это контрольная и опытная группы). В случае независимых выборок для анализа разницы средних применяют формулу

    t =

    ,

    где

    — средняя первой выборки;
    — средняя второй выборки;

    s 1 — стандартное отклонение для первой выборки;

    s 2 — стандартное отклонение для второй выборки;

    n 1 и n 2 — число элементов в первой и второй выборках.

    Теперь осталось лишь найти в таблице значений t (см. дополнение Б.5) величину, соответствующую n — 2 степеням свободы, где n — общее число испытуемых в обеих выборках (см. дополнение Б.4), и сравнить эту величину с результатом расчета по формуле.

    Если наш результат больше, чем значение для уровня достоверности 0,05 (вероятность 5 %), найденное в таблице, то можно отбросить нулевую гипотезу (H0) и принять альтернативную гипотезу (H1), т. е. считать разницу средних достоверной.

    Если же, напротив, полученный при вычислении результат меньше, чем табличный (для n — 2 степеней свободы), то нулевую гипотезу нельзя отбросить и, следовательно, разница средних недостоверна.

    В нашем эксперименте с помощью метода Стьюдента для независимых выборок можно было бы, например, проверить, существует ли достоверная разница между фоновыми уровнями (значениями, полученными до воздействия независимой переменной) для двух групп. При этом мы получим:

    t =

    =

    = 0,53.

    Сверившись с таблицей значений t , мы можем прийти к следующим выводам: полученное нами значение t = 0,53 меньше того, которое соответствует уровню достоверности 0,05 для 26 степеней свободы (η = 28); следовательно, уровень вероятности для такого t будет выше 0,05 и нулевую гипотезу нельзя отбросить; таким образом, разница между двумя выборками недостоверна, т. е. они вполне могут принадлежать к одной популяции.

    Сокращенно этот вывод записывается следующим образом:

    t = 0,53; η = 28; p > 0,05; недостоверно.

    Однако наиболее полезным t -тест окажется для нас при проверке гипотезы о достоверности разницы средней между результатами опытной и контрольной групп после воздействия 208. Попробуйте сами найти для этих выборок значения и сделать соответствующие выводы:

    t =

    =

    =
    Значение t …… чем табличное для 0,05 (….. степеней свободы). Следовательно, ему соответствует порог вероятности…… чем 0,05. В связи с этим нулевая гипотеза может (не может) быть отвергнута. Разница между выборками достоверная (недостоверна?):

    t = …..; η =…..; P ….. (<, =, >?) 0,05;…..
    Метод Стьюдента для зависимых выборок
    К зависимым выборкам относятся, например, результаты одной и той же группы испытуемых до и после воздействия независимой переменной. В нашем случае с помощью статистических методов для зависимых выборок можно проверить гипотезу о достоверности разницы между фоновым уровнем и уровнем после воздействия отдельно для опытной и для контрольной группы.

    Для определения достоверности разницы средних в случае зависимых выборок применяется следующая формула:

    t =

    ,

    где d — разность между результатами в каждой паре;

    Σd — сумма этих частных разностей;

    Σd 2 — сумма квадратов частных разностей.

    Полученные результаты сверяют с таблицей t , отыскивая в ней значения, соответствующие n — 1 степени свободы; n — это в данном случае число пар данных (см. дополнение Б.3).

    Перед тем как использовать формулу, необходимо вычислить для каждой группы частные разности между результатами во всех парах, квадрат каждой из этих разностей, сумму этих разностей и сумму их квадратов 209.
    Необходимо произвести следующие операции:
    Контрольная группа. Сравнение результатов для фона и после воздействия

    Σd = +3.

    Σd 2 = 55.

    t =

    =

    =

    = 0,39.
    Величина t = 0,39 ниже той, которая необходима для уровня значимости 0,05 при 14 степенях свободы. Иными словами, порог вероятности для такого t выше 0,05. Таким образом, нулевая гипотеза не может быть отвергнута, и разница между выборками недостоверна. В сокращенном виде это записывается следующим образом:

    t = 0,39; η = 14; P > 0,05; недостоверно.

    Теперь попробуйте самостоятельно применить метод Стьюдента для зависимых выборок к обоим распределениям опытной группы с учетом того, что вычисление частных разностей для пар дало следующие результаты:

    Σd = -59 и Σd 2 = 349;

    t =

    =

    =

    .

    Значение t …… чем то, которое соответствует уровню значимости 0,05 для….. степеней свободы. Значит, нулевая гипотеза…… а различие между выборками…..

    Запишите это в сокращенном виде.
    Дисперсионный анализ (тест F Снедекора)
    Метод Снедекора — это параметрический тест, используемый в тех случаях, когда имеются три или большее число выборок. Сущность этого метода заключается в том, чтобы определить, является ли разброс средних для различных выборок относительно общей средней для всей совокупности данных достоверно отличным от разброса данных относительно средней в пределах каждой выборки . Если все выборки принадлежат одной и той же популяции, то разброс между ними должен быть не больше, чем разброс данных внутри их самих.

    В методе Снедекора в качестве показателя разброса используют вариансу (дисперсию). Поэтому анализ сводится к тому, чтобы сравнить вариансу распределений между выборками с вариансами в пределах каждой выборки, или:

    t = …..; η =…..; p ….. (<, =, >?) 0,05; различие…..

    F =

    ,

    где

    — варианса средних каждой выборки относительно общей средней;
    — варианса данных внутри каждой выборки.

    Если различие между выборками недостоверно, то результат должен быть близок к 1. Чем больше будет F по сравнению с 1, тем более достоверно различие.

    Таким образом, дисперсионный анализ показывает, принадлежат ли выборки к одной популяции, но с его помощью нельзя выделить те выборки, которые отличаются от других. Для того чтобы определить те пары выборок, разница между которыми достоверна, следует после дисперсионного анализа применить метод Шеффе. Поскольку, однако, этот весьма ценный метод требует достаточно больших вычислений, а к нашему гипотетическому эксперименту он неприменим, мы рекомендуем читателю для ознакомления с ним обратиться к какому-либо специальному пособию по статистике.
    Непараметрические методы
    Метод χ 2 («хи-квадрат»)
    Для использования непараметрического метода χ2 не требуется вычислять среднюю или стандартное отклонение. Его преимущество состоит в том, что для применения его необходимо знать лишь зависимость распределения частот результатов от двух переменных; это позволяет выяснить, связаны они друг с другом или, наоборот, независимы. Таким образом, этот статистический метод используется для обработки качественных данных (см. дополнение Б.1). Кроме того, с его помощью можно проверить, существует ли достоверное различие между числом людей, справляющихся или нет с заданиями какого-то интеллектуального теста, и числом этих же людей, получающих при обучении высокие или низкие оценки; между числом больных, получивших новое лекарство, и числом тех, кому это лекарство помогло; и, наконец, существует ли достоверная связь между возрастом людей и их успехом или неудачей в выполнении тестов на память и т. п. Во всех подобных случаях этот тест позволяет определить число испытуемых, удовлетворяющих одному и тому же критерию для каждой из переменных.

    При обработке данных нашего гипотетического эксперимента с помощью метода Стьюдента мы убедились в том, что употребление марихуаны испытуемыми из опытной группы снизило у них эффективность выполнения задания по сравнению с контрольной группой. Однако к такому же выводу можно было бы прийти с помощью другого метода — χ2. Для этого метода нет ограничений, свойственных методу Стьюдента: он может применяться и в тех случаях, когда распределение не является нормальным, а выборки невелики.

    При использовании метода χ2 достаточно сравнить число испытуемых в той и другой группе, у которых снизилась результативность, и подсчитать, сколько среди них было получивших и не получивших наркотик; после этого проверяют, есть ли связь между этими двумя переменными.

    Из результатов нашего опыта, приведенных в таблице в дополнении Б.2, видно, что из 30 испытуемых, составляющих опытную и контрольную группы, у 18 результативность снизилась, а 13 из них получили марихуану. Теперь надо внести значение этих так называемых эмпирических частот (Э) в специальную таблицу:
    Эмпирические частоты (Э)


    Далее надо сравнить эти данные с теоретическими частотами (Т), которые были бы получены, если бы все различия были чисто случайными. Если учитывать только итоговые данные, согласно которым, с одной стороны, у 18 испытуемых результативность снизилась, а у 12 — повысилась, а с другой — 15 из всех испытуемых курили марихуану, а 15 — нет, то теоретические частоты будут следующими:
    Теоретические частоты (Т)

    Метод χ2 состоит в том, что оценивают, насколько сходны между собой распределения эмпирических и теоретических частот. Если разница между ними невелика, то можно полагать, что отклонения эмпирических частот от теоретических обусловлены случайностью. Если же, напротив, эти распределения будут достаточно разными, можно будет считать, что различия между ними значимы и существует связь между действием независимой переменной и распределением эмпирических частот.

    Для вычисления χ2 определяют разницу между каждой эмпирической и соответствующей теоретической частотой по формуле
    ,

    а затем результаты, полученные по всех таких сравнениях, складывают:

    χ2 = Σ

    .

    В нашем случае все это можно представить следующим образом:

    χ2 = Σ

    = 8,66
    Для расчета числа степеней свободы число строк в табл. 2 (в конце приложения Б) за вычетом единицы умножают на число столбцов за вычетом единицы. Таким образом, в нашем случае число степеней свободы равно (2–1) ∙ (2–1) = 1.

    Табличное значение χ2 (см. табл. 2 в дополнении Б.5) для уровня значимости 0,05 и 1 степени свободы составляет 3,84. Поскольку вычисленное нами значение χ2 намного больше, нулевую гипотезу можно считать опровергнутой. Значит, между употреблением наркотика и глазодвигательной координацией действительно существует связь 210.

    Критерий знаков (биномиальный критерий)
    Критерий знаков — это еще один непараметрический метод, позволяющий легко проверить, повлияла ли независимая переменная на выполнение задания испытуемыми. При этом методе сначала подсчитывают число испытуемых, у которых результаты снизились, а затем сравнивают его с тем числом, которого можно было ожидать на основе чистой случайности (в нашем случае вероятность случайного события 1:2). Далее определяют разницу между этими двумя числами, чтобы выяснить, насколько она достоверна.

    При подсчетах результаты, свидетельствующие о повышении эффективности, берут со знаком плюс, а о снижении — со знаком минус; случаи отсутствия разницы не учитывают.

    Расчет ведётся по следующей формуле:

    Z =

    ,

    где X — сумма «плюсов» или сумма «минусов»;

    n /2 — число сдвигов в ту или в другую сторону при чистой случайности (один шанс из двух 211);

    0,5 — поправочный коэффициент, который добавляют к X , если X < n /2, или вычитают, если X > n /2.
    Если мы сравним в нашем опыте результативность испытуемых до воздействия (фон) и после воздействия, то получим
    Опытная группа

    Итак, в 13 случаях результаты ухудшились, а в 2 — улучшились. Теперь нам остается вычислить Z для одного из этих двух значений X :

    либо Z =

    =

    = 1,83;

    либо Z =

    =

    = -1,83.

    Из таблицы значений Z можно узнать, что Z для уровня значимости 0,05 составляет 1,64. Поскольку полученная нами величина Z оказалась выше табличной, нулевую гипотезу следует отвергнуть; значит, под действием независимой переменной глазодвигательная координация действительно ухудшилась.

    Критерий знаков особенно часто используют при анализе данных, получаемых в исследованиях по парапсихологии. С помощью этого критерия легко можно сравнить, например, число так называемых телепатических или психокинетических реакций (X) (см. досье 5.1) с числом сходных реакций, которое могло быть обусловлено чистой случайностью (n /2).
    Другие непараметрические критерии
    Существуют и другие непараметрические критерии, позволяющие проверять гипотезы с минимальным количеством расчетов.

    Критерий рангов позволяет проверить, является ли порядок следования каких-либо событий или результатов случайным, или же он связан с действием какого-то фактора, не учтенного исследователем. С помощью этого критерия можно, например, определить, случаен ли порядок чередования мужчин и женщин в очереди. В нашем опыте этот критерий позволил бы узнать, не чередуются ли плохие и хорошие результаты каждого испытуемого опытной группы после воздействия каким-то определенным образом или не приходятся ли хорошие результаты в основном на начало или конец испытаний.

    При работе с этим критерием сначала выделяют такие последовательности, в которых подряд следуют значения меньше медианы, и такие, в которых подряд идут значения больше медианы. Далее по таблице распределения R (от англ. runs — последовательности) проверяют, обусловлены ли эти различные последовательности только случайностью.

    При работе с порядковыми данными 212 используют такие непараметрические тесты, как тест U (Манна — Уитни) и тест T Вилкоксона. Тест U позволяет проверить, существует ли достоверная разница между двумя независимыми выборками после того, как сгруппированные данные этих выборок классифицируются и ранжируются и вычисляется сумма рангов для каждой выборки. Что же касается критерия T , то он используется для зависимых выборок и основан как на ранжировании, так и на знаке различий между каждой парой данных.
    Чтобы показать применение этих критериев на примерах, потребовалось бы слишком много места. При желании читатель может подробнее ознакомиться с ними по специальным пособиям.

    Корреляционный анализ
    При изучении корреляций стараются установить, существует ли какая-то связь между двумя показателями в одной выборке (например, между ростом и весом детей или между уровнем IQ и школьной успеваемостью) либо между двумя различными выборками (например, при сравнении пар близнецов), и если эта связь существует, то сопровождается ли увеличение одного показателя возрастанием (положительная корреляция) или уменьшением (отрицательная корреляция) другого.

    Иными словами, корреляционный анализ помогает установить, можно ли предсказывать возможные значения одного показателя, зная величину другого.

    До сих пор при анализе результатов нашего опыта по изучению действия марихуаны мы сознательно игнорировали такой показатель, как время реакции. Между тем было бы интересно проверить, существует ли связь между эффективностью реакций и их быстротой. Это позволило бы, например, утверждать, что чем человек медлительнее, тем точнее и эффективнее будут его действия и наоборот.

    С этой целью можно использовать два разных способа: параметрический метод расчета коэффициента Браве —Пирсона (r ) и вычисление коэффициента корреляции рангов Спирмена (r s), который применяется к порядковым данным, т. е. является непараметрическим. Однако разберемся сначала в том, что такое коэффициент корреляции.
    Коэффициент корреляции
    Коэффициент корреляции — это величина, которая может варьировать в пределах от +1 до -1. В случае полной положительной корреляции этот коэффициент равен плюс 1, а при полной отрицательной — минус 1. На графике этому соответствует прямая линия, проходящая через точки пересечения значений каждой пары данных:


    Полная положительная корреляция (r = +1)


    Полная отрицательная корреляция (r = -1)
    В случае же если эти точки не выстраиваются по прямой линии, а образуют «облако», коэффициент корреляции по абсолютной величине становится меньше единицы и по мере округления этого облака приближается к нулю:

    В случае если коэффициент корреляции равен 0, обе переменные полностью независимы друг от друга.

    В гуманитарных науках корреляция считается сильной, если ее коэффициент выше 0,60; если же он превышает 0,90, то корреляция считается очень сильной. Однако для того, чтобы можно было делать выводы о связях между переменными, большое значение имеет объем выборки: чем выборка больше, тем достовернее величина полученного коэффициента корреляции. Существуют таблицы с критическими значениями коэффициента корреляции Браве — Пирсона и Спирмена для разного числа степеней свободы (оно равно числу пар за вычетом 2, т. е. n — 2). Лишь в том случае, если коэффициенты корреляции больше этих критических значений, они могут считаться достоверными. Так, для того чтобы коэффициент корреляции 0,70 был достоверным, в анализ должно быть взято не меньше 8 пар данных (η = n — 2 = 6) при вычислении r (табл. В.4) и 7 пар данных (η = n — 2 = 5) при вычислении r s (табл. 5 в дополнении Б.5).
    Коэффициент Браве — Пирсона
    Для вычисления этого коэффициента применяют следующую формулу (у разных авторов она может выглядеть по-разному):

    r =

    ,

    где ΣXY — сумма произведений данных из каждой пары;

    n — число пар;
    — средняя для данных переменной X ;
    — средняя для данных переменной Y ;

    s x — стандартное отклонение для распределения x ;

    s y — стандартное отклонение для распределения y .

    Теперь мы можем использовать этот коэффициент для того, чтобы установить, существует ли связь между временем реакции испытуемых и эффективностью их действий. Возьмём, например, фоновый уровень контрольной группы.

    ΣXY = 3142

    n

    = 15 ∙ 15,8 ∙ 13,4 = 3175,8;

    (n — 1)s xs y = 14 ∙ 3,07 ∙ 2,29 = 98,42;

    r =

    =

    = -0,34.
    Отрицательное значение коэффициента корреляции может означать, что чем больше время реакции, тем ниже эффективность. Однако величина его слишком мала для того, чтобы можно было говорить о достоверной связи между этим двумя переменными.

    Теперь попробуйте самостоятельно подсчитать коэффициент корреляции для экспериментальной группы после воздействия, зная, что ΣXY = 2953:

    n

    = …..

    (n — 1)s xs y = …..

    r =

    =

    = …..

    Какой вывод можно сделать из этих результатов? Если вы считаете, что между переменными есть связь, то какова она — прямая или обратная? Достоверна ли она (см. табл. 4 (в дополнении Б.5) с критическими значениями r )?
    Коэффициент корреляции рангов Спирмена r s
    Этот коэффициент рассчитывать проще, однако результаты получаются менее точными, чем при использовании r . Это связано с тем, что при вычислении коэффициента Спирмена используют порядок следования данных, а не их количественные характеристики и интервалы между классами.

    Дело в том, что при использовании коэффициента корреляции рангов Спирмена (r s) проверяют только, будет ли ранжирование данных для какой-либо выборки таким же, как и в ряду других данных для этой выборки, попарно связанных с первыми (например, будут ли одинаково «ранжироваться» студенты при прохождении ими как психологии, так и математики, или даже при двух разных преподавателях психологии?). Если коэффициент близок к +1, то это означает, что оба ряда практически совпадают, а если этот коэффициент близок к -1, можно говорить о полной обратной зависимости.

    Коэффициент r s вычисляют по формуле

    r s = 1 —

    ,

    где d — разность между рангами сопряженных значений признаков (независимо от ее знака), а n — число пар.

    Обычно этот непараметрический тест используется в тех случаях, когда нужно сделать какие-то выводы не столько об интервалах между данными, сколько об их рангах , а также тогда, когда кривые распределения слишком асимметричны и не позволяют использовать такие параметрические критерии, как коэффициент r (в этих случаях бывает необходимо превратить количественные данные в порядковые).

    Поскольку именно так обстоит дело с распределением значений эффективности и времени реакции в экспериментальной группе после воздействия, можно повторить расчеты, которые вы уже проделали для этой группы, только теперь не для коэффициента r , а для показателя r s. Это позволит посмотреть, насколько различаются эти два показателя.

    *) Следует помнить, что: 1) для числа попаданий 1-й ранг соответствует самой высокой, а 15-й — самой низкой результативности, тогда как для времени реакции 1-й ранг соответствует самому короткому времени, а 15-й — самому долгому; 2) данным ex aequo придается средний ранг.

    Σd 2 = 428

    r s = 1 —

    = 1 —

    = 0,24.
    Таким образом, как и в случае коэффициента r , получен положительный, хотя и недостоверный, результат. Какой же из двух результатов правдоподобнее: r = -0,48 или r s = +0,24? Такой вопрос может встать лишь в том случае, если результаты достоверны.

    Хотелось бы еще раз подчеркнуть, что сущность этих двух коэффициентов несколько различна. Отрицательный коэффициент r указывает на то, что эффективность чаще всего тем выше, чем время реакции меньше, тогда как при вычислении коэффициента r s требовалось проверить, всегда ли более быстрые испытуемые реагируют более точно, а более медленные — менее точно.

    Поскольку в экспериментальной группе после воздействия был получен коэффициент r s, равный 0,24, подобная тенденция здесь, очевидно, не прослеживается. Попробуйте самостоятельно разобраться в данных для контрольной группы после воздействия, зная, что Σd 2 = 122,5:

    r s = 1 —

    = 1 —

    = 1 — …..; достоверно ли?

    Каков ваш вывод?……….

    Итак, мы рассмотрели различные параметрические и непараметрические статистические методы, используемые в психологии. Наш обзор был весьма поверхностным, и главная задача его заключалась в том, чтобы читатель понял, что статистика не так страшна, как кажется, и требует в основном здравого смысла. Напоминаем, что данные «опыта», с которыми мы здесь имели дело, — вымышленные и не могут служить основанием для каких-либо выводов. Впрочем, подобный эксперимент стоило бы действительно провести. Поскольку для этого опыта была выбрана сугубо классическая методика, такой же статистический анализ можно было бы использовать во множестве различных экспериментов. В любом случае нам кажется, что мы наметили какие-то главные направления, которые могут оказаться полезны тем, кто не знает, с чего начать статистический анализ полученных результатов.

    Резюме
    Существуют три главных раздела статистики: описательная статистика, индуктивная статистика и корреляционный анализ.
    I. Описательная статистика
    1. Задачи описательной статистики — классификация данных, построение распределения их частот, выявление центральных тенденций этого распределения и оценка разброса данных относительно средних.

    2. Для классификации данных сначала располагают их в возрастающем порядке. Далее их разбивают на классы по величине, интервалы между которыми определяются в зависимости от того, что именно исследователь хочет выявить в данном распределении.

    3. К наиболее часто используемым параметрам, с помощью которых можно описать распределение, относятся, с одной стороны, такие величины, как мода, медиана и средняя арифметическая, а с другой — показатели разброса, такие как варианса (дисперсия) и стандартное отклонение.

    4. Мода соответствует значению, которое встречается чаще других или находится в середине класса, обладающего наибольшей частотой.

    Медиана соответствует значению центрального данного, которое может быть получено после того, как все данные будут расположены в возрастающем порядке.

    Средняя арифметическая равна частному от деления суммы всех данных на их число.

    Распределение считается нормальным , если кривая распределения имеет колоколообразный вид, а все показатели центральной тенденции совпадают, что свидетельствует о симметричности распределения.

    5. Диапазон распределения (размах вариаций) равен разности между наибольшим и наименьшим значениями результатов.

    6. Среднее отклонение — это более точный показатель разброса, чем диапазон распределения. Для расчета среднего отклонения вычисляют среднюю разность между всеми значениями данных и средней арифметической, или, упрощенно,

    Среднее отклонение =

    .

    7. Еще один показатель разброса, вычисляемый из среднего отклонения, — это варианса (дисперсия), равная среднему квадрату разностей между значениями всех данных и средней:

    Варианса =

    .

    8. Наиболее употребительным показателем разброса служит стандартное отклонение , равное квадратному корню из вариансы. Таким образом, это квадратный корень из суммы квадратов всех отклонений от средней:

    Стандартное отклонение =

    или

    .

    9. Важное свойство стандартного отклонения заключается в том, что независимо от его абсолютной величины в нормальном распределении оно всегда соответствует одинаковому проценту данных, располагающихся по обе стороны от средней: 68 % результатов располагаются в пределах одного стандартного отклонения в обе стороны от средней, 95 % — в пределах двух стандартных отклонений и 99,7 % — в пределах трех стандартных отклонений.

    10. С помощью перечисленных выше показателей можно осуществить оценку различий между двумя или несколькими распределениями, позволяющую проверить, насколько эти различия могут быть экстраполированы на популяцию, из которой взяты выборки. Для этого применяют методы индуктивной статистики.
    II. Индуктивная статистика
    1. Задача индуктивной статистики заключается в том, чтобы оценить значимость тех различий, которые могут быть между двумя распределениями, с целью выяснить, можно ли распространить найденную закономерность на всю популяцию, из которой были взяты выборки.

    2. Для того чтобы определить, достоверны ли различия между распределениями, следует выдвинуть гипотезу , которую нужно будет затем проверить статистическими методами. Нулевой гипотезой называют предположение, согласно которому различие между распределениями недостоверно, тогда как альтернативная гипотеза утверждает противоположное.

    3. В том случае, если данных достаточно , если эти данные количественные и подчиняются нормальному распределению , для проверки гипотез используют параметрические критерии . Если же данных мало либо они являются порядковыми или качественными (см. дополнение Б.1), используют непараметрические критерии.

    4. Из параметрических критериев наиболее эффективен и чаще всего используется критерий t Стьюдента. Этот критерий позволяет сравнить средние и стандартные отклонения для двух распределений. В случае если эти показатели принадлежат независимым выборкам, используют формулу

    t =

    .

    Для сопряженных выборок используют иную формулу:

    t =

    .

    5. Если необходимо сравнить три или большее число распределений, используют иной параметрический метод — дисперсионный анализ . При этом с помощью метода Шеффе можно выявить пары выборок, различия между которыми достоверны либо недостоверны.

    6. Критерий χ2 (хи-квадрат) — это непараметрический критерий, позволяющий проверить, являются ли две переменные независимыми друг от друга. По этому методу сравнивают, как распределяются эмпирические частоты в зависимости от критериев для каждой переменной, с тем, как они распределились бы теоретически, если бы переменные были независимыми. Далее с помощью таблицы, в которую сводятся все частоты, вычисляют критерий χ2. Для этого сначала находят разницу между каждой эмпирической (Э) и соответствующей теоретической (Т) частотой, а затем сумму этих разностей:

    χ2 = Σ

    .

    7. Критерий знаков (биномиальный тест) — еще один непараметрический метод, позволяющий легко определить, оказала ли независимая переменная существенное влияние по сравнению с исходным уровнем (фоном). Для этого сначала подсчитывают число «ухудшений» (-) или число «улучшений» (+), а затем сравнивают одно из этих двух чисел с тем, что могло бы получиться в результате чистой случайности (1 шанс из 2, или n /2). Для этого применяют формулу

    Z =

    .

    8. Существуют и другие непараметрические тесты, которые приходится использовать для проверки гипотез тогда, когда нельзя применить параметрические критерии. К этим методам, в частности, относится критерий рангов , позволяющий определить, случайна или нет очередность событий в той или иной последовательности, а также критерий U и критерий T . Последние два критерия используют в случае порядковых переменных соответственно для независимых и зависимых выборок.

    9. Какой бы критерий ни использовался, его вычисленное значение следует сравнить с табличным для уровня значимости 0,05 с учетом числа степеней свободы. Если при этом вычисленный результат окажется выше, нулевая гипотеза может быть отвергнута и можно, следовательно, утверждать, что разница достоверна.
    III. Корреляционный анализ
    1. Задача корреляционного анализа заключается в том, чтобы установить возможную связь между двумя показателями, полученными на одной и той же или на двух различных выборках. При этом устанавливается, приводит ли увеличение какого-либо показателя к увеличению или уменьшению другого показателя.

    2. Коэффициент корреляции колеблется в пределах от +1, что соответствует полной положительной корреляции, до -1 в случае полной отрицательной корреляции. Если этот коэффициент равен 0, то никакой корреляции между двумя рядами данных нет.

    3. Коэффициент корреляции Браве — Пирсона (r ) — это параметрический показатель, для вычисления которого сравнивают средние и стандартные отклонения результатов двух измерений. При этом используют формулу

    r =

    .

    4. Коэффициент корреляции рангов Спирмена (r s) — это непараметрический показатель, с помощью которого пытаются выявить связь между рангами соответственных величин в двух рядах измерений.

    5. Коэффициент корреляции может быть значимым лишь при достаточном числе пар данных, взятых в анализ. Это можно проверить с помощью таблицы пороговых значений r или r s для уровня значимости 0,05.
    Результаты вычислений, которые предложено было сделать читателям
    Различие между данными контрольной и опытной группы после воздействия (критерий t для независимых выборок):

    t = 3,11; η = 28; p < 0,05; достоверно.

    Различие между данными до и после воздействия для опытной группы (критерий t для зависимых выборок):

    t = - 8,14; η = 14; p < 0,05; достоверно.

    Сравнение показателей эффективности и времени реакции для опытной группы после воздействия (коэффициент r Браве — Пирсона):

    r = - 0,48; η = 13; p > 0,05; недостоверно.

    Сравнение показателей эффективности и времени реакции для контрольной группы после воздействия (коэффициент r s Спирмена):

    r s = +0,73; η = 13; p < 0,05; достоверно.
    Дополнение Б.5. Таблицы
    Таблица 1. Значения критерия t Стьюдента

    Таблица 2. Значения критерия χ 2

    Таблица 3. Достоверные значения Z

    Таблица 4. Достоверные (критические) значения r

    Таблица 5. Достоверные (критические) значения r s

    Примечания . 1) Для больших выборок или уровня значимости меньше 0,05 следует обратиться к таблицам в пособиях по статистике. 2) Таблицы значений других непараметрических критериев можно найти в специальных руководствах (см. библиографию).

    1   ...   56   57   58   59   60   61   62   63   ...   67


    написать администратору сайта