Текст книги "Что такое психология"
Автор книги: Жо Годфруа
Жанр:
Психология
сообщить о нарушении
Текущая страница: 50 (всего у книги 54 страниц)
7, 8, 9, 11, 12, 13, 14, 16;
то окажется, что медиана соответствует (11 + 12)/2 = 11,5 (видно, что медиана не соответствует здесь ни одному из полученных значений).
3. Средняя арифметическая () (далее просто «средняя») – это наиболее часто используемый показатель центральной тенденции. Ее применяют, в частности, в расчетах, необходимых для описания распределения и для его дальнейшего анализа. Ее вычисляют, разделив сумму всех значений данных на число этих данных. Так, для нашей опытной группы она составит 15,2 (228/15) для фона и 11,3 (169/15) для результатов воздействия.
Если теперь отметить все эти три параметра на каждой из кривых для экспериментальной группы, то будет видно, что при нормальном распределении они более или менее совпадают, а при асимметричном распределении – нет.
Прежде чем идти дальше, полезно будет вычислить все эти показатели для обеих распределений контрольной группы – они пригодятся нам в дальнейшем:
Оценка разброса
Как мы уже отмечали, характер распределения результатов после воздействия изучаемого фактора в опытной группе дает существенную информацию о том, как испытуемые выполняли задание. Сказанное относится и к обоим распределениям в контрольной группе:
Сразу бросается в глаза, что если средняя в обоих случаях почти одинакова, то во втором распределении результаты больше разбросаны, чем в первом. В таких случаях говорят, что у второго распределения больше диапазон, или размах вариаций, т. е. разница между максимальным и минимальным значениями.
Так, если взять контрольную группу, то диапазон распределения для фона составит 22–10 = 12, а после воздействия 25 – 8 = 17. Это позволяет предположить, что повторное выполнение задачи на глазодвигательную координацию оказало на испытуемых из контрольной группы определенное влияние: у одних показатели улучшились, у других ухудшились [210]210
Здесь мог проявиться эффект плацебо, связанный с тем, что запах дыма травы вызвал у испытуемых уверенность в том, что они находятся под воздействием наркотика. Для проверки этого предположения следовало бы повторить эксперимент со второй контрольной группой, в которой испытуемым будут давать только обычную сигарету.
[Закрыть]. Однако для количественной оценки разброса результатов относительно средней в том или ином распределении существуют более точные методы, чем измерение диапазона.
Чаще всего для оценки разброса определяют отклонение каждого из полученных значений от средней (M – ), обозначаемое буквой d, а затем вычисляют среднюю арифметическую всех этих отклонений. Чем она больше, тем больше разброс данных и тем более разнородна выборка. Напротив, если эта средняя невелика, то данные больше сконцентрированы относительно их среднего значения и выборка более однородна.
Итак, первый показатель, используемый для оценки разброса, – это среднее отклонение. Его вычисляют следующим образом (пример, который мы здесь приведем, не имеет ничего общего с нашим гипотетическим экспериментом). Собрав все данные и расположив их в ряд
3, 5, 6, 9, 11, 14;
находят среднюю арифметическую для выборки:
= = 8.
Затем вычисляют отклонения каждого значения от средней и суммируют их:
(3–8) + (5–8) + (6–8) + (9–8) + (11 – 8) + (14 – 8) = (-5) + (-3) + (-2) + (+1) + (+3) + (+6).
Однако при таком сложении отрицательные и положительные отклонения будут уничтожать друг друга, иногда даже полностью, так что результат (как в данном примере) может оказаться равным нулю. Из этого ясно, что нужно находить сумму абсолютных значений индивидуальных отклонений и уже эту сумму делить на их общее число. При этом получится следующий результат:
Среднее отклонение равно
= = = 33,3.
Общая формула:
Среднее отклонение = ,
где Σ (сигма) означает сумму; |d| – абсолютное значение каждого индивидуального отклонения от средней; n – число данных.
Однако абсолютными значениями довольно трудно оперировать в алгебраических формулах, используемых в более сложном статистическом анализе. Поэтому статистики решили пойти по «обходному пути», позволяющему отказаться от значений с отрицательным знаком, а именно возводить все значения в квадрат, а затем делить сумму квадратов на число данных. В нашем примере это выглядит следующим образом:
= = = 14.
В результате такого расчета получают так называемую вариансу [211]211
Варианса представляет собой один из показателей разброса, используемых в некоторых статистических методиках (например, при вычислении критерия F; см. следующий раздел). Следует отметить, что в отечественной литературе вариансу часто называют дисперсией. – Прим. перев.
[Закрыть]. Формула для вычисления вариансы, таким образом, следующая:
Варианса = .
[212]212
Варианса представляет собой один из показателей разброса, используемых в некоторых статистических методиках (например, при вычислении критерия F; см. следующий раздел). Следует отметить, что в отечественной литературе вариансу часто называют дисперсией. – Прим. перев.
[Закрыть]
Наконец, чтобы получить показатель, сопоставимый по величине со средним отклонением, статистики решили извлекать из вариансы квадратный корень. При этом получается так называемое стандартное отклонение:
Стандартное отклонение = .
В нашем примере стандартное отклонение равно = 3,74.
Следует еще добавить, что для того, чтобы более точно оценить стандартное отклонение для малых выборок (с числом элементов менее 30), в знаменателе выражения под корнем надо использовать не n, а n – 1:
σ = . [214]214
Стандартное отклонение для популяции обозначается маленькой греческой буквой сигма (σ), а для выборки – буквой s. Это касается и вариансы, т. е. квадрата стандартного отклонения: для популяции она обозначается σ2, а для выборки – s2.
[Закрыть]
Вернёмся теперь к нашему эксперименту и посмотрим, насколько полезен оказывается этот показатель для описания выборок.
На первом этапе, разумеется, необходимо вычислить стандартное отклонение для всех четырех распределений. Сделаем это сначала для фона опытной группы:
Расчет стандартного отклонения для фона контрольной группы
Сумма (Σ) d2 = 131,94
Варианса (s2) = = = 9,42.
Стандартное отклонение (s) = = = 3,07.
Примечание: Формула для расчетов и сами расчеты приведены здесь лишь в качестве иллюстрации. В наше время гораздо проще приобрести такой карманный микрокалькулятор, в котором подобные расчеты уже заранее запрограммированы, и для расчета стандартного отклонения достаточно лишь ввести данные, а затем нажать клавишу s.
О чем же свидетельствует стандартное отклонение, равное 3,07? Оказывается, оно позволяет сказать, что большая часть результатов (выраженных здесь числом пораженных мишеней) располагается в пределах 3,07 от средней, т. е. между 12,73 (15,8–3,07) и 18,87 (15,8 + 3,07).
Для того чтобы лучше понять, что подразумевается под «большей частью результатов», нужно сначала рассмотреть те свойства стандартного отклонения, которые проявляются при изучении популяции с нормальным распределением.
Статистики показали, что при нормальном распределении «большая часть» результатов, располагающаяся в пределах одного стандартного отклонения по обе стороны от средней, в процентном отношении всегда одна и та же и не зависит от величины стандартного отклонения: она соответствует 68 % популяции (т. е. 34 % ее элементов располагается слева и 34 % – справа от средней):
Точно так же рассчитали, что 94,45 % элементов популяции при нормальном распределении не выходит за пределы двух стандартных отклонений от средней:
и что в пределах трех стандартных отклонений умещается почти вся популяция – 99,73 %.
Учитывая, что распределение частот фона контрольной группы довольно близко к нормальному, можно полагать, что 68 % членов всей популяции, из которой взята выборка, тоже будет получать сходные результаты, т. е. попадать примерно в 13–19 мишеней из 25. Распределение результатов остальных членов популяции должно выглядеть следующим образом:
Гипотетическая популяция, из которой взята контрольная группа (фон)
Что касается результатов той же группы после воздействия изучаемого фактора, то стандартное отклонение для них оказалось равным 4,25 (пораженных мишеней). Значит, можно предположить, что 68 % результатов будут располагаться именно в этом диапазоне отклонений от средней, составляющей 16 мишеней, т. е. в пределах от 11,75 (16 – 4,25) до 20,25 (16 + 4,25), или, округляя, 12–20 мишеней из 25. Видно, что здесь разброс результатов больше, чем в фоне. Эту разницу в разбросе между двумя выборками для контрольной группы можно графически представить следующим образом:
Поскольку стандартное отклонение всегда соответствует одному и тому же проценту результатов, укладывающихся в его пределах вокруг средней, можно утверждать, что при любой форме кривой нормального распределения та доля ее площади, которая ограничена (с обеих сторон) стандартным отклонением, всегда одинакова и соответствует одной и той же доле всей популяции. Это можно проверить на тех наших выборках, для которых распределение близко к нормальному, – на данных о фоне для контрольной и опытной групп.
Итак, ознакомившись с описательной статистикой, мы узнали, как можно представить графически и оценить количественно степень разброса данных в том или ином распределении. Тем самым мы смогли понять, чем различаются в нашем опыте распределения для контрольной группы до и после воздействия. Однако можно ли о чем-то судить по этой разнице – отражает ли она действительность или же это просто артефакт, связанный со слишком малым объемом выборки? Тот же вопрос (только еще острее) встаёт и в отношении экспериментальной группы, подвергнутой воздействию независимой переменной. В этой группе стандартное отклонение для фона и после воздействия тоже различается примерно на 1 (3,14 и 4,04 соответственно). Однако здесь особенно велика разница между средними – 15,2 и 11,3. На основании чего можно было бы утверждать, что эта разность средних действительно достоверна, т. е. достаточно велика, чтобы можно было с уверенностью объяснить ее влиянием независимой переменной, а не простой случайностью? В какой степени можно опираться на эти результаты и распространять их на всю популяцию, из которой взята выборка, т. е. утверждать, что потребление марихуаны и в самом деле обычно ведёт к нарушению глазодвигательной координации?
На все эти вопросы и пытается дать ответ индуктивная статистика.
Индуктивная статистика
Задачи индуктивной статистики заключаются в том, чтобы определять, насколько вероятно, что две выборки принадлежат к одной популяции.
Давайте наложим друг на друга, с одной стороны, две кривые – до и после воздействия – для контрольной группы и, с другой стороны, две аналогичные кривые для опытной группы. При этом масштаб кривых должен быть одинаковым.
Видно, что в контрольной группе разница между средними обоих распределений невелика, и поэтому можно думать, что обе выборки принадлежат к одной и той же популяции. Напротив, в опытной группе большая разность между средними позволяет предположить, что распределения для фона и воздействия относятся к двум различным популяциям, разница между которыми обусловлена тем, что на одну из них повлияла независимая переменная.
Проверка гипотез
Как уже говорилось, задача индуктивной статистики – определять, достаточно ли велика разность между средними двух распределений для того, чтобы можно было объяснить ее действием независимой переменной, а не случайностью, связанной с малым объемом выборки (как, по-видимому, обстоит дело в случае с опытной группой нашего эксперимента).
При этом возможны две гипотезы:
1) нулевая гипотеза (H0), согласно которой разница между распределениями недостоверна; предполагается, что различие недостаточно значительно, и поэтому распределения относятся к одной и той же популяции, а независимая переменная не оказывает никакого влияния;
2) альтернативная гипотеза (H1), какой является рабочая гипотеза нашего исследования. В соответствии с этой гипотезой различия между обоими распределениями достаточно значимы и обусловлены влиянием независимой переменной.
Основной принцип метода проверки гипотез состоит в том, что выдвигается нулевая гипотеза H0, с тем чтобы попытаться опровергнуть ее и тем самым подтвердить альтернативную гипотезу H1. Действительно, если результаты статистического теста, используемого для анализа разницы между средними, окажутся таковы, что позволят отбросить H0, это будет означать, что верна H1, т. е. выдвинутая рабочая гипотеза подтверждается.
В гуманитарных науках принято считать, что нулевую гипотезу можно отвергнуть в пользу альтернативной гипотезы, если по результатам статистического теста вероятность случайного возникновения найденного различия не превышает 5 из 100 [215]215
Разумеется, риск ошибиться будет еще меньше, если окажется, что эта вероятность составляет 1 на 100 или, еще лучше, 1 на 1000.
[Закрыть]. Если же этот уровень достоверности не достигается, считают, что разница вполне может быть случайной и поэтому нельзя отбросить нулевую гипотезу.
Для того чтобы судить о том, какова вероятность ошибиться, принимая или отвергая нулевую гипотезу, применяют статистические методы, соответствующие особенностям выборки.
Так, для количественных данных (см. дополнение Б.1) при распределениях, близких к нормальным, используют параметрические методы, основанные на таких показателях, как средняя и стандартное отклонение. В частности, для определения достоверности разницы средних для двух выборок применяют метод Стьюдента, а для того чтобы судить о различиях между тремя или большим числом выборок, – тест F, или дисперсионный анализ.
Если же мы имеем дело с неколичественными данными или выборки слишком малы для уверенности в том, что популяции, из которых они взяты, подчиняются нормальному распределению, тогда используют непараметрические методы – критерий χ2 (хи-квадрат) для качественных данных и критерии знаков, рангов, Манна – Уитни, Вилкоксона и др. для порядковых данных.
Кроме того, выбор статистического метода зависит от того, являются ли те выборки, средние которых сравниваются, независимыми (т. е., например, взятыми из двух разных групп испытуемых) или зависимыми (т. е. отражающими результаты одной и той же группы испытуемых до и после воздействия или после двух различных воздействий).
Дополнение Б.3. Уровни достоверности (значимости)
Тот или иной вывод с некоторой вероятностью может оказаться ошибочным, причем эта вероятность тем меньше, чем больше имеется данных для обоснования этого вывода. Таким образом, чем больше получено результатов, тем в большей степени по различиям между двумя выборками можно судить о том, что действительно имеет место в той популяции, из которой взяты эти выборки.
Однако обычно используемые выборки относительно невелики, и в этих случаях вероятность ошибки может быть значительной. В гуманитарных науках принято считать, что разница между двумя выборками отражает действительную разницу между соответствующими популяциями лишь в том случае, если вероятность ошибки для этого утверждения не превышает 5 %, т. е. имеется лишь 5 шансов из 100 ошибиться, выдвигая такое утверждение. Это так называемый уровень достоверности (уровень надежности, доверительный уровень) различия. Если этот уровень не превышен, то можно считать вероятным, что выявленная нами разница действительно отражает положение дел в популяции (отсюда еще одно название этого критерия – порог вероятности).
Для каждого статистического метода этот уровень можно узнать из таблиц распределения критических значений соответствующих критериев (t, χ2 и т. д.); в этих таблицах приведены цифры для уровней 5 % (0,05), 1 % (0,01) или еще более высоких. Если значение критерия для данного числа степеней свободы (см. дополнение Б.4) оказывается ниже критического уровня, соответствующего порогу вероятности 5 %, то нулевая гипотеза не может считаться опровергнутой, и это означает, что выявленная разница недостоверна.
Дополнение Б.4. Степени свободы
Для того чтобы свести к минимуму ошибки, в таблицах критических значений статистических критериев в общем количестве данных не учитывают те, которые можно вывести методом дедукции. Оставшиеся данные составляют так называемое число степеней свободы, т. е. то число данных из выборки, значения которых могут быть случайными.
Так, если сумма трех данных равна 8, то первые два из них могут принимать любые значения, но если они определены, то третье значение становится автоматически известным. Если, например, значение первого данного равно 3, а второго – 1, то третье может быть равным только 4. Таким образом, в такой выборке имеются только две степени свободы. В общем случае для выборки в n данных существует n – 1 степень свободы.
Если у нас имеются две независимые выборки, то число степеней свободы для первой из них составляет n1 – 1, а для второй – n2 – 1. А поскольку при определении достоверности разницы между ними опираются на анализ каждой выборки, число степеней свободы, по которому нужно будет находить критерий t в таблице, будет составлять (n1 + n2) – 2.
Если же речь идет о двух зависимых выборках, то в основе расчета лежит вычисление суммы разностей, полученных для каждой пары результатов (т. е., например, разностей между результатами до и после воздействия на одного и того же испытуемого). Поскольку одну (любую) из этих разностей можно вычислить, зная остальные разности и их сумму, число степеней свободы для определения критерия t будет равно n – 1.
Параметрические методы
Метод Стьюдента (t-тест)
Это параметрический метод, используемый для проверки гипотез о достоверности разницы средних при анализе количественных данных о популяциях с нормальным распределением и с одинаковой вариансой [216]216
К сожалению, метод Стьюдента слишком часто используют для малых выборок, не убедившись предварительно в том, что данные в соответствующих популяциях подчиняются закону нормального распределения (например, результаты выполнения слишком легкого задания, с которым справились все испытуемые, или же, наоборот, слишком трудного задания не дают нормального распределения).
[Закрыть].
Метод Стьюдента различен для независимых и зависимых выборок. Независимые выборки получаются при исследовании двух различных групп испытуемых (в нашем эксперименте это контрольная и опытная группы). В случае независимых выборок для анализа разницы средних применяют формулу
t = ,
где – средняя первой выборки;
– средняя второй выборки;
s1 – стандартное отклонение для первой выборки;
s2 – стандартное отклонение для второй выборки;
n1 и n2 – число элементов в первой и второй выборках.
Теперь осталось лишь найти в таблице значений t (см. дополнение Б.5) величину, соответствующую n – 2 степеням свободы, где n – общее число испытуемых в обеих выборках (см. дополнение Б.4), и сравнить эту величину с результатом расчета по формуле.
Если наш результат больше, чем значение для уровня достоверности 0,05 (вероятность 5 %), найденное в таблице, то можно отбросить нулевую гипотезу (H0) и принять альтернативную гипотезу (H1), т. е. считать разницу средних достоверной.
Если же, напротив, полученный при вычислении результат меньше, чем табличный (для n – 2 степеней свободы), то нулевую гипотезу нельзя отбросить и, следовательно, разница средних недостоверна.
В нашем эксперименте с помощью метода Стьюдента для независимых выборок можно было бы, например, проверить, существует ли достоверная разница между фоновыми уровнями (значениями, полученными до воздействия независимой переменной) для двух групп. При этом мы получим:
t = = = 0,53.
Сверившись с таблицей значений t, мы можем прийти к следующим выводам: полученное нами значение t = 0,53 меньше того, которое соответствует уровню достоверности 0,05 для 26 степеней свободы (η = 28); следовательно, уровень вероятности для такого t будет выше 0,05 и нулевую гипотезу нельзя отбросить; таким образом, разница между двумя выборками недостоверна, т. е. они вполне могут принадлежать к одной популяции.
Сокращенно этот вывод записывается следующим образом:
t = 0,53; η = 28; p > 0,05; недостоверно.
Однако наиболее полезным t-тест окажется для нас при проверке гипотезы о достоверности разницы средней между результатами опытной и контрольной групп после воздействия [217]217
Как уже говорилось, поскольку объем выборок в данном случае невелик, а результаты опытной группы после воздействия не соответствуют нормальному распределению, лучше использовать непараметрический метод, например U-тест Манна – Уитни.
[Закрыть]. Попробуйте сами найти для этих выборок значения и сделать соответствующие выводы:
t = = =
Значение t…… чем табличное для 0,05 (….. степеней свободы). Следовательно, ему соответствует порог вероятности…… чем 0,05. В связи с этим нулевая гипотеза может (не может) быть отвергнута. Разница между выборками достоверная (недостоверна?):
t =…..; η =…..; P….. (<, =, >?) 0,05;…..
Метод Стьюдента для зависимых выборок
К зависимым выборкам относятся, например, результаты одной и той же группы испытуемых до и после воздействия независимой переменной. В нашем случае с помощью статистических методов для зависимых выборок можно проверить гипотезу о достоверности разницы между фоновым уровнем и уровнем после воздействия отдельно для опытной и для контрольной группы.
Для определения достоверности разницы средних в случае зависимых выборок применяется следующая формула:
t = ,
где d — разность между результатами в каждой паре;
Σd — сумма этих частных разностей;
Σd2 – сумма квадратов частных разностей.
Полученные результаты сверяют с таблицей t, отыскивая в ней значения, соответствующие n – 1 степени свободы; n – это в данном случае число пар данных (см. дополнение Б.3).
Перед тем как использовать формулу, необходимо вычислить для каждой группы частные разности между результатами во всех парах, квадрат каждой из этих разностей, сумму этих разностей и сумму их квадратов [218]218
Все эти расчеты необходимо сделать в чисто учебных целях. Сегодня существуют более быстрые методы, при которых основная работа сводится к вводу данных в программируемый микрокалькулятор или в компьютер, который автоматически выдаёт результат. Приведенная здесь таблица помогает понять все расчеты, которые осуществляются такими машинами.
[Закрыть].
Необходимо произвести следующие операции:
Контрольная группа. Сравнение результатов для фона и после воздействия
Σd = +3.
Σd2 = 55.
t = = = = 0,39.
Величина t = 0,39 ниже той, которая необходима для уровня значимости 0,05 при 14 степенях свободы. Иными словами, порог вероятности для такого t выше 0,05. Таким образом, нулевая гипотеза не может быть отвергнута, и разница между выборками недостоверна. В сокращенном виде это записывается следующим образом:
t = 0,39; η = 14; P > 0,05; недостоверно.
Теперь попробуйте самостоятельно применить метод Стьюдента для зависимых выборок к обоим распределениям опытной группы с учетом того, что вычисление частных разностей для пар дало следующие результаты:
Σd = -59 и Σd2 = 349;
t = = = .
Значение t…… чем то, которое соответствует уровню значимости 0,05 для….. степеней свободы. Значит, нулевая гипотеза…… а различие между выборками…..
Запишите это в сокращенном виде.
Дисперсионный анализ (тест F Снедекора)
Метод Снедекора – это параметрический тест, используемый в тех случаях, когда имеются три или большее число выборок. Сущность этого метода заключается в том, чтобы определить, является ли разброс средних для различных выборок относительно общей средней для всей совокупности данных достоверно отличным от разброса данных относительно средней в пределах каждой выборки. Если все выборки принадлежат одной и той же популяции, то разброс между ними должен быть не больше, чем разброс данных внутри их самих.
В методе Снедекора в качестве показателя разброса используют вариансу (дисперсию). Поэтому анализ сводится к тому, чтобы сравнить вариансу распределений между выборками с вариансами в пределах каждой выборки, или:
t =…..; η =…..; p….. (<, =, >?) 0,05; различие…..
F = ,
где – варианса средних каждой выборки относительно общей средней;
– варианса данных внутри каждой выборки.
Если различие между выборками недостоверно, то результат должен быть близок к 1. Чем больше будет F по сравнению с 1, тем более достоверно различие.
Таким образом, дисперсионный анализ показывает, принадлежат ли выборки к одной популяции, но с его помощью нельзя выделить те выборки, которые отличаются от других. Для того чтобы определить те пары выборок, разница между которыми достоверна, следует после дисперсионного анализа применить метод Шеффе. Поскольку, однако, этот весьма ценный метод требует достаточно больших вычислений, а к нашему гипотетическому эксперименту он неприменим, мы рекомендуем читателю для ознакомления с ним обратиться к какому-либо специальному пособию по статистике.
Непараметрические методы
Метод χ 2 («хи-квадрат»)
Для использования непараметрического метода χ2 не требуется вычислять среднюю или стандартное отклонение. Его преимущество состоит в том, что для применения его необходимо знать лишь зависимость распределения частот результатов от двух переменных; это позволяет выяснить, связаны они друг с другом или, наоборот, независимы. Таким образом, этот статистический метод используется для обработки качественных данных (см. дополнение Б.1). Кроме того, с его помощью можно проверить, существует ли достоверное различие между числом людей, справляющихся или нет с заданиями какого-то интеллектуального теста, и числом этих же людей, получающих при обучении высокие или низкие оценки; между числом больных, получивших новое лекарство, и числом тех, кому это лекарство помогло; и, наконец, существует ли достоверная связь между возрастом людей и их успехом или неудачей в выполнении тестов на память и т. п. Во всех подобных случаях этот тест позволяет определить число испытуемых, удовлетворяющих одному и тому же критерию для каждой из переменных.
При обработке данных нашего гипотетического эксперимента с помощью метода Стьюдента мы убедились в том, что употребление марихуаны испытуемыми из опытной группы снизило у них эффективность выполнения задания по сравнению с контрольной группой. Однако к такому же выводу можно было бы прийти с помощью другого метода – χ2. Для этого метода нет ограничений, свойственных методу Стьюдента: он может применяться и в тех случаях, когда распределение не является нормальным, а выборки невелики.
При использовании метода χ2 достаточно сравнить число испытуемых в той и другой группе, у которых снизилась результативность, и подсчитать, сколько среди них было получивших и не получивших наркотик; после этого проверяют, есть ли связь между этими двумя переменными.
Из результатов нашего опыта, приведенных в таблице в дополнении Б.2, видно, что из 30 испытуемых, составляющих опытную и контрольную группы, у 18 результативность снизилась, а 13 из них получили марихуану. Теперь надо внести значение этих так называемых эмпирических частот (Э) в специальную таблицу:
Эмпирические частоты (Э)
Далее надо сравнить эти данные с теоретическими частотами (Т), которые были бы получены, если бы все различия были чисто случайными. Если учитывать только итоговые данные, согласно которым, с одной стороны, у 18 испытуемых результативность снизилась, а у 12 – повысилась, а с другой – 15 из всех испытуемых курили марихуану, а 15 – нет, то теоретические частоты будут следующими:
Теоретические частоты (Т)
Метод χ2 состоит в том, что оценивают, насколько сходны между собой распределения эмпирических и теоретических частот. Если разница между ними невелика, то можно полагать, что отклонения эмпирических частот от теоретических обусловлены случайностью. Если же, напротив, эти распределения будут достаточно разными, можно будет считать, что различия между ними значимы и существует связь между действием независимой переменной и распределением эмпирических частот.
Для вычисления χ2 определяют разницу между каждой эмпирической и соответствующей теоретической частотой по формуле
,
а затем результаты, полученные по всех таких сравнениях, складывают:
χ2 = Σ.
В нашем случае все это можно представить следующим образом:
χ2 = Σ = 8,66
Для расчета числа степеней свободы число строк в табл. 2 (в конце приложения Б) за вычетом единицы умножают на число столбцов за вычетом единицы. Таким образом, в нашем случае число степеней свободы равно (2–1) ∙ (2–1) = 1.
Табличное значение χ2 (см. табл. 2 в дополнении Б.5) для уровня значимости 0,05 и 1 степени свободы составляет 3,84. Поскольку вычисленное нами значение χ2 намного больше, нулевую гипотезу можно считать опровергнутой. Значит, между употреблением наркотика и глазодвигательной координацией действительно существует связь [219]219
Следует, однако, отметить, что если число степеней свободы больше 1, то критерий χ2 нельзя применять, когда в 20 или более процентах случаев теоретические частоты меньше 5 или когда хотя бы в одном случае теоретическая частота равна 0 (Siegel, 1956).
[Закрыть].
Критерий знаков (биномиальный критерий)
Критерий знаков – это еще один непараметрический метод, позволяющий легко проверить, повлияла ли независимая переменная на выполнение задания испытуемыми. При этом методе сначала подсчитывают число испытуемых, у которых результаты снизились, а затем сравнивают его с тем числом, которого можно было ожидать на основе чистой случайности (в нашем случае вероятность случайного события 1:2). Далее определяют разницу между этими двумя числами, чтобы выяснить, насколько она достоверна.
При подсчетах результаты, свидетельствующие о повышении эффективности, берут со знаком плюс, а о снижении – со знаком минус; случаи отсутствия разницы не учитывают.
Расчет ведётся по следующей формуле:
Z = ,
где X – сумма «плюсов» или сумма «минусов»;
n/2 – число сдвигов в ту или в другую сторону при чистой случайности (один шанс из двух [220]220
Такая вероятность характерна, например, для n бросаний монеты. В случае же если n раз бросают игральную кость, то вероятность выпадения той или иной грани уже равна одному шансу из 6 (n/6).
[Закрыть]);
0,5 – поправочный коэффициент, который добавляют к X, если X < n/2, или вычитают, если X > n/2.
Если мы сравним в нашем опыте результативность испытуемых до воздействия (фон) и после воздействия, то получим
Опытная группа
Итак, в 13 случаях результаты ухудшились, а в 2 – улучшились. Теперь нам остается вычислить Z для одного из этих двух значений X:
либо Z = = = 1,83;
либо Z = = = -1,83.
Из таблицы значений Z можно узнать, что Z для уровня значимости 0,05 составляет 1,64. Поскольку полученная нами величина Z оказалась выше табличной, нулевую гипотезу следует отвергнуть; значит, под действием независимой переменной глазодвигательная координация действительно ухудшилась.
Критерий знаков особенно часто используют при анализе данных, получаемых в исследованиях по парапсихологии. С помощью этого критерия легко можно сравнить, например, число так называемых телепатических или психокинетических реакций (X) (см. досье 5.1) с числом сходных реакций, которое могло быть обусловлено чистой случайностью (n/2).
Другие непараметрические критерии
Существуют и другие непараметрические критерии, позволяющие проверять гипотезы с минимальным количеством расчетов.
Критерий рангов позволяет проверить, является ли порядок следования каких-либо событий или результатов случайным, или же он связан с действием какого-то фактора, не учтенного исследователем. С помощью этого критерия можно, например, определить, случаен ли порядок чередования мужчин и женщин в очереди. В нашем опыте этот критерий позволил бы узнать, не чередуются ли плохие и хорошие результаты каждого испытуемого опытной группы после воздействия каким-то определенным образом или не приходятся ли хорошие результаты в основном на начало или конец испытаний.
При работе с этим критерием сначала выделяют такие последовательности, в которых подряд следуют значения меньше медианы, и такие, в которых подряд идут значения больше медианы. Далее по таблице распределения R (от англ. runs — последовательности) проверяют, обусловлены ли эти различные последовательности только случайностью.
При работе с порядковыми данными [221]221
Такие данные чаще всего получаются при ранжировании количественных данных, которые нельзя обработать с помощью параметрических тестов.
[Закрыть] используют такие непараметрические тесты, как тест U (Манна – Уитни) и тест T Вилкоксона. Тест U позволяет проверить, существует ли достоверная разница между двумя независимыми выборками после того, как сгруппированные данные этих выборок классифицируются и ранжируются и вычисляется сумма рангов для каждой выборки. Что же касается критерия T, то он используется для зависимых выборок и основан как на ранжировании, так и на знаке различий между каждой парой данных.
Чтобы показать применение этих критериев на примерах, потребовалось бы слишком много места. При желании читатель может подробнее ознакомиться с ними по специальным пособиям.
Корреляционный анализ
При изучении корреляций стараются установить, существует ли какая-то связь между двумя показателями в одной выборке (например, между ростом и весом детей или между уровнем IQ и школьной успеваемостью) либо между двумя различными выборками (например, при сравнении пар близнецов), и если эта связь существует, то сопровождается ли увеличение одного показателя возрастанием (положительная корреляция) или уменьшением (отрицательная корреляция) другого.