рефераты курсовые

Понятие о корреляции и корреляционном анализе в психологии

Понятие о корреляции и корреляционном анализе в психологии

1

Московский государственный социальный университет

Филиал в г. Минске

ПОНЯТИЕ О КОРРЕЛЯЦИИ И КОРРЕЛЯЦИОННОМ АНАЛИЗЕ В ПСИХОЛОГИИ. ВИДЫ КОРРЕЛЯЦИЙ.

Контрольная работа №3 по предмету

«Основы психологического экспериментирования»

студентки 5 курса з/о

Минск 2005

СОДЕРЖАНИЕ

Введение

1. Понятие корреляции

2. Виды корреляций

3. Корреляционный анализ

3.1 Коэффициент корреляции рангов Спирмена

3.2 Коэффициент корреляции Пирсона

3.3 Случай одинаковых (равных) рангов

3.4 Расчет уровней значимости коэффициентов корреляции

3.5 Коэффициент корреляции «ц»

3.6 Коэффициент корреляции «ф» Кендалла

3.7 Бисериальный коэффициент корреляции

3.8 Рангово-бисериальный коэффициент корреляции

3.9 Корреляционное отношение Пирсона з

3.10 Множественная корреляция

3.11 Частная корреляция

Заключение

Список использованной литературы

ВВЕДЕНИЕ

Усиление интереса в психологической науке к потенциалу корреляционного анализа обусловлено целым рядом причин. Во-первых, становится допустимым изучение широкого круга переменных, экспериментальная проверка которых затруднена или невозможна. Ведь по этическим соображениям, к примеру, нельзя провести экспериментальные исследования самоубийств, наркомании, деструктивных родительских воздействий, влияния авторитарных сект. Во-вторых, возможно получение за короткое время ценных обобщений данных о больших количествах исследуемых лиц. В-третьих, известно, что многие феномены изменяют свою специфику во время строгих лабораторных экспериментов. А корреляционный анализ предоставляет исследователю возможность оперировать информацией, полученной в условиях, максимально приближенных к реальным. В-четвертых, осуществление статистического изучения динамики той или иной зависимости нередко создает предпосылки к достоверному прогнозированию психологических процессов и явлений.

Однако следует иметь в виду, что применение корреляционного метода связано и с весьма существенными принципиальными ограничениями.

Так, известно, что переменные вполне могут коррелировать и при отсутствии причинно-следственной связи между собой.

Это иногда возможно в силу действия случайных причин, при неоднородности выборки, из-за неадекватности исследовательского инструментария поставленным задачам. Такая ложная корреляция способна стать, скажем, «доказательством» того, что женщины дисциплинированнее мужчин, подростки из неполных семей более склонны к правонарушениям, экстраверты агрессивнее интровертов и т. п.

Необходимо запомнить: наличие корреляций не является показателем выраженности и направленности причинно-следственных отношений.

Другими словами, установив корреляцию переменных мы можем судить не о детерминантах и производных, а лишь о том, насколько тесно взаимосвязаны изменения переменных и каким образом одна из них реагирует на динамику другой (2).

1. ПОНЯТИЕ КОРРЕЛЯЦИИ.

Термин "корреляция" впервые применил французский палеонтолог Ж. Кювье, который вывел "закон корреляции частей и органов животных" (этот закон позволяет восстанавливать по найденным частям тела облик всего животного). В статистику указанный термин ввел в 1886 году английский биолог и статистик Френсис Гальтон (не просто связь - relation, а "как бы связь" - co-relation). Однако точную формулу для подсчёта коэффициента корреляции разработал его ученик - математик и биолог - Карл Пирсон (1857 - 1936).(7).

Корреляционным называется исследование, проводимое для подтверждения или опровержения гипотезы о статистической связи между несколькими (двумя и более) переменными. В психологии переменными могут выступать психические свойства, процессы, состояния и др.

"Корреляция" в прямом переводе означает "соотношение". Если изменение одной переменной сопровождается изменением другой, то можно говорить о корреляции этих переменных. Наличие корреляции двух переменных ничего не говорит о причинно-следственных зависимостях между ними, но дает возможность выдвинуть такую гипотезу. Отсутствие же корреляции позволяет отвергнуть гипотезу о причинно-следственной связи переменных. Различают несколько интерпретаций наличия корреляционной связи между двумя измерениями:

1. Прямая корреляционная связь. Уровень одной переменной непосредственно соответствует уровню другой. Примером является закон Хика: скорость переработки информации пропорциональна логарифму от числа альтернатив. Другой пример: корреляция высокой личностной пластичности и склонности к смене социальных установок.

2. Корреляция, обусловленная третьей переменной. Две переменные (а, с) связаны одна с другой через третью (в), не измеренную в ходе исследования. По правилу транзитивности, если есть R (а, Ь) и R (Ь, с), то R (а, с). Примером подобной корреляции является установленный психологами США факт связи уровня интеллекта с уровнем доходов. Если бы такое исследование проводилось в сегодняшней России, то результаты были бы иными. Очевидно, все дело в структуре общества. Скорость опознания изображения при быстром предъявлении и словарный запас испытуемых также положительно коррелируют. Скрытой переменной, обусловливающей эту корреляцию, является общий интеллект.

3. Случайная корреляция, не обусловленная никакой переменной.

4. Корреляция, обусловленная неоднородностью выборки. Представим себе, что выборка, которую мы будем обследовать, состоит из двух однородных групп. Например, мы хотим выяснить, связана ли принадлежность к полу с уровнем экстраверсии. Считаем, что "измерение" пола трудностей не вызывает, экстраверсию же измеряем с помощью опросником Айзенка ETI-1. У нас две группы: мужчины-математики и женщины-журналистки. Не удивительно, если мы получим линейную зависимость между полом и уровнем экстраверсии -- интроверсии: большинство мужчин будут интровертами, большинство женщин -- экстравертами (3, 4).

2. ВИДЫ КОРРЕЛЯЦИЙ

Виды корреляционной связи между измеренными переменными могут быть различны: так корреляция бывает линейной и нелинейной, положительной и отрицательной. Она линейна, если с увеличением или уменьшением одной переменной, вторая переменная также растёт, либо убывает. Она нелинейна, если при увеличении одной величины характер изменения второй не линеен, а описывается другими законами (полиномиальная, гиперболическая). (5).

Если повышение уровня одной переменной сопровождается повышением уровня другой, то речь идет о положительной корреляции. Чем выше личностная тревожность, тем больше риск заболеть язвой желудка. Возрастание громкости звука сопровождается ощущением повышения его тона.

Если рост уровня одной переменной сопровождается снижением уровня другой, то мы имеем дело с отрицательной корреляцией. По данным Зайонца, число детей в семье отрицательно коррелирует с уровнем их интеллекта. Чем боязливей особь, тем меньше у нее шансов занять доминирующее положение в группе.

Нулевой называется корреляция при отсутствии связи переменных. (2).

В психологии практически нет примеров строго линейных связей (положительных или отрицательных). Большинство связей -- нелинейные. Классический пример нелинейной зависимости -- закон Йеркса--Додсона:. возрастание мотивации первоначально повышает эффективность научения, а затем наступает снижение продуктивности (эффект "перемотивации"). Другим примером является связь между уровнем мотивации достижений и выбором задач различной трудности. Лица, мотивированные надеждой на успех, предпочитают задания среднего диапазона трудности -- частота выборов на шкале трудности описывается колоколообразной кривой.

Примеры распределений испытуемых в пространстве двух признаков.

а) строгая положительная корреляция, б) сильная положительная корреляция, в) слабая положительная корреляция, г) нулевая корреляция, д) отрицательная корреляция, е) строгая отрицательная корреляция, ж) нелинейная корреляция, з) нелинейная корреляция.

3. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ

Корреляционный анализ (от лат. «соотношение», «связь») применяется для проверки гипотезы о статистической зависимости значений двух или нескольких переменных в том случае, если исследователь может их регистрировать (измерять), но не контролировать (изменять).(2). Задача корреляционного анализа сводится к установлению направления (положительное или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимости полученных коэффициентов корреляции.

Графики корреляционных зависимостей строят по уравнениям следующих функций:

Yx= F(X) или Xy = F(Y),(формула 1)

которые называются уравнениями регрессии. Здесь Yx и Xy так называемые условные средние арифметические переменных Y и X.

Переменные X и Y могут быть измерены в разных шкалах, именно это определяет выбор соответствующего коэффициента корреляции. Представим соотношения между типами шкал, в которых могут быть измерены переменные X и Y и соответствующими мерами связи в виде таблицы:

Тип шкалы

Мера связи

Переменная X

Переменная Y

Интервальная или отношений

Интервальная или отношений

Коэффициент Пирсона rxy

Ранговая, интервальная или отношений

Ранговая, интервальная или отношений

Коэффициент Спирмена сxy

Ранговая

Ранговая

Коэффициент Кендалла ф

Дихотомическая

Дихотомическая

Коэффициент ц

Дихотомическая

Ранговая,

Рангово-бисериальный Rrb

Дихотомическая

Интервальная или отношений

Бисериальный Rбис

Интервальная

Ранговая

Не разработан

3.1 Коэффициент корреляции Пирсона

Формула расчета коэффициента корреляции построена таким образом, что, если связь между признаками имеет линейный характер, коэффициент Пирсона точно устанавливает тесноту этой связи. Поэтому он называется также коэффициентом линейной корреляции Пирсона. Если же связь между переменными X и Y не линейна, то Пирсон предложил для оценки тесноты этой связи так называемое корреляционное отношение.

Величина коэффициента линейной корреляции Пирсона не может превышать +1 и быть меньше чем -1. Эти два числа +1 и -1 -- являются границами для коэффициента корреляции. Когда при расчете получается величина большая +1 или меньшая -1 -- следовательно произошла ошибка в вычислениях.

Если коэффициент корреляции по модулю оказывается близким к 1, то это соответствует высокому уровню связи между переменными. Так, в частности, при корреляции переменной величины с самой собой величина коэффициента корреляции будет равна +1. Подобная связь характеризует прямо пропорциональную зависимость. Если же значения переменной Х будут распложены в порядке возрастания, а те же значения (обозначенные теперь уже как переменная Y) будут располагаться в порядке убывания, то в этом случае корреляция между переменными X и Y будет равна точно -1. Такая величина коэффициента корреляции характеризует обратно пропорциональную зависимость.

Знак коэффициента корреляции очень важен для интерпретации полученной связи. Подчеркнем еще раз, что если знак коэффициента линейной корреляции -- плюс, то связь между коррелирующими признаками такова, что большей величине одного признака (переменной) соответствует большая величина другого признака (другой переменной). Иными словами, если один показатель (переменная) увеличивается, то соответственно увеличивается и другой показатель (переменная). Такая зависимость носит название прямо пропорциональной зависимости.

Если же получен знак минус, то большей величине одного признака соответствует меньшая величина другого. Иначе говоря, при наличии знака минус, увеличению одной переменной (признака, значения) соответствует уменьшение другой переменной. Такая зависимость носит название обратно пропорциональной зависимости. При этом выбор переменной, которой приписывается характер (тенденция) возрастания -- произволен. Это может быть как переменная X так и переменная Y. Однако если психолог будет считать, что увеличивается переменная X, то переменная Y будет соответственно уменьшаться, и наоборот. Эти положения очень важно четко усвоить для правильной интерпретации полученной корреляционной зависимости.

В общем виде формула для подсчета коэффициента корреляции такова:

(формула 2)

где хi -- значения, принимаемые переменной X,

yi - значения, принимаемые переменной Y;

x -- средняя по X,

у -- средняя по Y.

Расчет коэффициента корреляции Пирсона предполагает, что переменные X и Y распределены нормально.

Для применения коэффициента корреляции Пирсона, необходимо соблюдать следующие условия:

1. Сравниваемые переменные должны быть получены в интервальной шкале или шкале отношений.

2. Распределения переменных X и Y должны быть близки к нормальному.

3. Число варьирующих признаков в сравниваемых переменных X и Y должно быть одинаковым.

4. Таблицы уровней значимости для коэффициента корреляции Пирсона рассчитаны от n = 5 до n = 1000. Оценка уровня значимости по таблицам осуществляется при числе степеней свободы k = n - 2.

3.2 Коэффициент корреляции рангов Спирмена

Коэффициент корреляции рангов, предложенный К. Спирменом, относится к непараметрическим показателям связи между переменными, измеренными в ранговой шкале. При расчете этого коэффициента не требуется никаких предположений о характере распределений признаков в генеральной совокупности. Этот коэффициент определяет степень тесноты связи порядковых признаков, которые в этом случае представляют собой ранги сравниваемых величин. Правила ранжирования варьирующих величин были описаны выше (см. 1.4.1.).

Величина коэффициента линейной корреляции Спирмена также лежит в интервале +1 и -1. Он, как и коэффициент Пирсона, может быть положительным и отрицательным, характеризуя направленность связи между двумя признаками, измеренными в ранговой шкале.

В принципе число ранжируемых признаков (качеств, черт и т.п.) может быть любым, но сам процесс ранжирования большего чем 20 числа признаков -- затруднителен. Возможно, что именно поэтому таблица критических значений рангового коэффициента корреляции рассчитана лишь для сорока ранжируемых признаков (n < 40, таблица 21 Приложения 1). В случае использования большего чем 40 числа ранжируемых признаков, уровень значимости коэффициента корреляции следует находить по таблице для коэффициента корреляции Пирсона.

Ранговый коэффициент линейной корреляции Спирмена подсчитывается по формуле:

(формула 3)

где n -- количество ранжируемых признаков (показателей, испытуемых)

D --разность между рангами по двум переменным для каждого испытуемого

?(D2) -- сумма квадратов разностей рангов.

3.3 Случай одинаковых (равных) рангов

При наличии одинаковых рангов формула расчета коэффициента линейной корреляции Спирмена будет несколько иной. В этом случае в формулу вычисления коэффициентов корреляции добавляются два новых члена, учитывающие одинаковые ранги. Они называются поправками на одинаковые ранги и добавляются в числитель расчетной формулы.

(формула 4.1)

(формула 4.2)

где n -- число одинаковых рангов в первом столбце,

k -- число одинаковых рангов во втором столбце.

Если имеется две группы одинаковых рангов в каком либо столбце то формула поправки несколько усложняется:

(формула 4.3)

где n -- число одинаковых рангов в первой группе ранжируемого столбца,

k - число одинаковых рангов в второй группе ранжируемого столбца. Модификация формулы в общем случае такова:

(формула 4.4)

Для применения коэффициента корреляции Спирмена, необходимо соблюдать следующие условия:

1. Сравниваемые переменные должны быть получены в порядковой (ранговой) шкале, но могут быть измерены также в шкале интервалов и отношений.

2. Характер распределения коррелируемых величин не имеет значения.

3. Число варьирующих признаков в сравниваемых переменных X и Y должно быть одинаковым.

4. Таблицы для определения критических значений коэффициента корреляции Спирмена рассчитаны от числа признаков равных n = 5 до n = 40 и при большем числе сравниваемых переменных следует использовать таблицу для пирсоновского коэффициента корреляции . Нахождение критических значений осуществляется при k = n.

3.4 Расчет уровней значимости коэффициентов корреляции

Все коэффициенты корреляции, которые будут рассмотрены ниже, не имеют стандартных таблиц для нахождения критических значений. В этих случаях поиск критических значений осуществляется с помощью t-критерия Стьюдента по формуле:

((формула 5)

где rэмп -- коэффициент корреляции,

n-- число коррелируемых признаков, а величина Тф проверяется на уровень значимости по таблице для t-критерия Стьюдента. Число степеней свободы в этом случае будет равно k = n -- 2.

Однако с помощью формулы можно проводить оценку уровней значимости и коэффициентов корреляции Пирсона и Спирмена.

3.5 Коэффициент корреляции «ц»

При сравнении двух переменных, измеренных в дихотомической шкале, мерой корреляционной связи служит так называемый коэффициент «ц», или, как назвал эту статистику ее автор К. Пирсон, -- «коэффициент ассоциации».

Величина коэффициента «ц»лежит в интервале +1 и -1. Он может быть как положительным, так и отрицательным, характеризуя направление связи двух дихотомически измеренных признаков.

В общем виде формула вычисления коэффициента корреляции «ц» выглядит так:

(формула 6)

где рх -- частота или доля признака, имеющего 1 по X,

(1 - рх) -- доля или частота признака, имеющего 0 по X;

ру -- частота или доля признака, имеющего 1 по Y,

(1 - ру) -- доля или частота признака, имеющего 0 по Y,

рху -- доля или частота признака, имеющая 1 одновременно как по X, так и по Y.

Частоты вычисляется следующим образом: подсчитывается количество 1 в переменной Х и полученная величина делится на общее число элементов этой переменной -- N. Аналогично подсчитываются частоты для переменной Y. Обозначение рху -- соответствует частоте или доле признаков, имеющих единицу как по Х так и по Y.

Второй способ вычисления коэффициента «ц»

Коэффициент «ц» можно вычислить, не применяя метод кодирования. В этом случае используется так называемая четырехпольная таблица, или таблица сопряженности. Каждую клетку таблицы обозначим соответствующими буквами а, b, с и d.

Приведем общую формулу расчета коэффициента «ц» по таблице сопряженности:

(формула 7)

Для применения коэффициента корреляции «ц» необходимо соблюдать следующие условия:

1. Сравниваемые признаки должны быть измерены в дихотомической шкале.

2. Число варьирующих признаков в сравниваемых переменных Х и Y должно быть одинаковым.

3. Для оценки уровня достоверности коэффициента «ц» следует пользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k = n - 2.

3.6 Коэффициент корреляции «ф» Кендалла

Коэффициент корреляции «ф» (тау) Кендалла относится к числу непараметрических, т.е. при вычислении этого коэффициента не играет роли характер распределения сравниваемых переменных. Коэффициент «ф» предназначен для работы с данными, полученными в ранговой шкале. Иногда этот коэффициент можно использовать вместо коэффициента корреляции Спирмена, поскольку способ его вычисления более прост. Он основан на вычислении суммы инверсий и совпадений.

Для применения коэффициента корреляции «т» Кендалла необходимо соблюдать следующие условия:

1. Сравниваемые признаки должны быть измерены в порядковой шкале.

2. Число варьирующих признаков в сравниваемых переменных Х и Y должно быть одинаковым.

3. Величина «ф» Кендалла независима от закона распределения величин Х и Y.

4. При расчетах этого коэффициента не допускается использование одинаковых рангов.

5. Для оценки уровня достоверности коэффициента «ф» следует пользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k= n -1.

3.7 Бисериальный коэффициент корреляции

В тех случаях, когда одна переменная измеряется в дихотомической шкале (переменная X), а другая в шкале интервалов или отношений (переменная Y), используется бисериальный коэффициент корреляции. Мы помним, что переменная X, полученная в дихотомической шкале, принимает только два значения (кода) 0 и 1. Особо подчеркнем, что несмотря на то, что этот коэффициент изменяется в диапазоне от - 1 до + 1 его знак для интерпретации результатов не имеет значения. Это исключение из общего правила.

Расчет этого коэффициента производится по формуле:

(формула 8)

где Х1 среднее по тем элементам переменной Y, которым соответствует код (признак) 1 в переменной X. Здесь n1 -- количество единичек в переменной X.

Х0 среднее по тем элементам переменной Y, которым соответствует код (признак) 0 в переменной X. Здесь n0 -- количество нулей в переменной X.

N = n1 + n0 -- общее количество элементов в переменной X.

Sy-- стандартное отклонение переменной Y, вычисляемое по формуле

Значимость бисериального коэффциента корреляции оценивается по величине Тф t-критерия Стьюдента с числом степеней свободы k = n - 2.

Для применения бисериального коэффициента корреляции необходимо соблюдать следующие условия:

1. Сравниваемые переменные должны быть измерены в разных шкалах: одна Х -- в дихотомической шкале; другая Y--в шкале интервалов или отношений.

2. Предполагается, что переменная Y имеет нормальный закон распределения.

3. Число варьирующих признаков в сравниваемых переменных Х и Y должно быть одинаковым.

4. Для оценки уровня достоверности бисериального коэффициента корреляции следует пользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k = n - 2.

3.8 Рангово-бисериальный коэффициент корреляции

В тех случаях, когда одна переменная измеряется в дихотомической шкале (переменная X), а другая в ранговой шкале (переменная Y), используется рангово-бисериальный коэффициент корреляции. Мы помним, что переменная X, измеренная в дихотомической шкале, принимает только два значения (кода) 0 и 1. Особо подчеркнем: несмотря на то что этот коэффициент изменяется в диапазоне от -1 до +1, его знак для интерпретации результатов не имеет значения. Это еще одно исключение из общего правила.

Расчет этого коэффициента производится по формуле:

(формула 9)

где Х1 -- средний ранг по тем элементам переменной Y, которым соответствует код (признак) 1 в переменной X;

Для применения рангово-бисериального коэффициента корреляции необходимо соблюдать следующие условия:

1. Сравниваемые переменные должны быть измерены в разных шкалах: одна X-- в дихотомической шкале; другая Y--в ранговой шкале.

2. Число варьирующих признаков в сравниваемых переменных Х и Y должно быть одинаковым.

3. Для оценки уровня достоверности рангово-бисериального коэффициента корреляции следует пользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k = n - 2.

3.9 Корреляционное отношение Пирсона з

Все рассмотренные выше коэффициенты корреляции служат для выявления только линейной зависимости между признаками. Для измерения нелинейной зависимости К. Пирсон предложил показатель, который он назвал корреляционным отношением. Напомним, что коэффициент корреляции rxy(формула 11.1), который был введен Пирсоном, характеризует связь между переменными Х и Y с точки зрения прямой или обратной пропорциональности, иными словами, получаемая связь между переменными является согласованной и такой, что с увеличением одной переменной другая (в среднем) либо только увеличивается, либо только уменьшается (в среднем). При этом в первом случае получается положительный коэффициент корреляции, во втором отрицательный.

Корреляционное отношение описывает искомую связь, условно говоря, с двух сторон: со стороны переменной Х по отношению к Y, и со стороны переменной Y по отношению к X. Соответственно этому корреляционное отношение представляет собой два показателя, обозначаемые как hyx и hxy. Они вычисляются отдельно друг от друга. Однако они связаны между собой, поскольку при строго линейной зависимости между переменными Х и Y имеет место равенство hyx = hxy В этом случае величины обоих показателей корреляционного отношения совпадают с величиной коэффициента корреляции Пирсона.

Показатели корреляционного отношения вычисляются по следующим двум формулам:

(формула 10.1)

(формула 10.2)

здесь х и у общие, а хy и уx -- групповые средние арифметические, fy и fx частоты рядов X и Y. Согласно этим формулам оба показателя всегда положительны и располагаются в интервале от 0 до +1.

Подчеркнем, что, как правило, hyx ? hxy. Равенство между этими коэффициентами возможно лишь при наличии строго линейной связи между коррелируемыми переменными. Именно поэтому различие между hyx и hxy убудет означать наличие не линейной, а связи более сложного типа между коррелируемыми признаками.

Для вычисления корреляционного соотношения hyx (Y по X) или hxy (X по Y) необходимо выполнить следующие действия:

1) расположить по порядку исходные данные по Х от меньшей величины к большей, при этом сохранив значения соответствующих величин У по отношению к Х;

2) определить частоты переменной Х -- обозначение fx;

3) подсчитать арифметические (частные) средние по переменной Y для соответствующей частоты fx -- обозначение уx ;

4) найти варианты (неповторяющиеся значения) величины Х -- обозначение хi;

5) расположить по порядку исходные данные по Y от меньшей величины к большей, при этом сохранив значения соответствующих величин Х по отношению к Y;

6) определить частоты переменной Y-- обозначение fy;

7) подсчитать арифметические (частные) средние по переменной Х для соответствующей частоты fy -- обозначение хy;

8) найти варианты (неповторяющиеся значения) переменной Y -- обозначение yi;

9) определить общие средние по переменной Х и Y обозначение x и у ;

10) произвести расчет по формулам (10.1) и (10.2);

11) определить уровень значимости полученных показателей корреляционного отношения но таблице критических значений для t-критерия Стьюдента при k = n -- 2.

Разумеется, корреляционное отношение Пирсона не дает возможности установить характер выявленной зависимости -- она может быть параболической, кубической, логарифмической и др. Из результатов анализа ясно только одно: связь между переменными Х и Y носит нелинейный характер. Более точно характер связи можно определить с помощью метода регрессионного анализа.

Для применения корреляционного отношения Пирсона необходимо соблюдать следующие условия:

1. Сравниваемые переменные должны быть измерены в шкале интервалов или отношений.

2. Предполагается, что обе переменные имеют нормальный закон распределения.

3. Число варьирующих признаков в сравниваемых переменных Х и У должно быть одинаковым.

4. Для оценки уровня достоверности корреляционного отношения Пирсона следует пользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k = n -- 2.

3.10 Множественная корреляция

Наряду с анализом связей между двумя рядами данных можно проводить анализ многомерных корреляционных связей. Наиболее простым случаем нахождения подобной зависимости является вычисление коэффициентов множественной корреляции между тремя переменными X, Y и Z. В соответствии с числом переменных вычисляются три коэффициента множественной корреляции. Собственно говоря, коэффициент множественной корреляции оценивает тесноту линейной связи одной переменной, например X, с двумя остальными, Y и Z, и обозначается как rx(yz) . При оценке тесноты линейной связи переменной Y с переменными Х и Z, коэффициент множественной корреляции обозначается как ry(xz)

Вычисление коэффициентов множественной корреляции базируется на коэффициентах линейной корреляции между переменными Х и Y -- rxy, Х и Z, -- rxz, У и Z, -- ryz. Для вычисления одного из коэффициентов множественной корреляции, например rx(yz) используется следующая формула:

(формула 11)

где rxy, rxz, ryz -- коэффициенты линейной корреляции между парами переменных Х и Y, Х и Z, Y и Z..

Коэффициент множественной корреляции принимает значения от 0 до 1. Значимость этого коэффициента оценивают по величине t-критерия Стьюдента с числом степеней свободы k = n - 3.

Для применения множественного коэффициента корреляции необходимо соблюдать следующие условия:

1. Сравниваемые переменные должны быть измерены в шкале интервалов или отношений.

2. Предполагается, что все переменные имеют нормальный закон распределения.

3. Число варьирующих признаков в сравниваемых переменных должно быть одинаковым.

4. Для оценки уровня достоверности корреляционного отношения Пирсона следует пользоваться формулой (5) и таблицей критических значений для t-критерия Стыодента при k = n - 3.

3.11 Частная корреляция

Название «частная корреляция» был впервые использовано в работе Д. Юла в 1907. Смысл этого понятия иллюстрирует следующий пример. Предположим, что при обработке некоторых данных удалось обнаружить значимую отрицательную корреляцию между длиной волос и ростом (т.е. люди низкого роста обладают более длинными волосами). На первый взгляд это может показаться странным: однако, если включить в расчет еще один признак -- переменную «пол» и использовать не линейную, а частную корреляцию, то результат получит закономерное объяснение. поскольку женщины в среднем имеют более длинные волосы, чем мужчины, а их рост в среднем ниже, чем у мужчин. После учета переменной «пол» частная корреляция между длиной волос и ростом может оказаться близкой к единице. Иными словами, если одна величина коррелирует с другой, то это может быть отражением того факта, что они обе коррелируют с третьей величиной или с совокупностью величин.

Если известна линейная связь между парами переменных X, Y и Z., то можно подсчитать частные коэффициенты корреляции, показывающие линейную корреляционную зависимость между двумя переменными при постоянной величине третьей переменной. Для определения частного коэффициента корреляции между переменными X и Y при постоянной величине переменной Z, используют формулу:

(формула 12.1)

Заключение (z) в скобки означает, что влияние переменной z па корреляцию между Х и Y постоянно. В том случае, если бы влияния переменной Z не было бы совсем, мы бы получили обычный коэффициент корреляции Пирсона между переменными Х и У.

Аналогично строят частые корреляционные зависимости между Х и Z (при постоянной Y) и Y и Z. (при постоянной Х).

(формула 12.2)

Значимость частного коэффициента корреляции оценивают по величине Тф, подсчитанной по формуле (5) для t-критерия Стьюдента с числом степеней свободы k = n - 2.

Для применения частного коэффициента корреляции необходимо соблюдать следующие условия:

1. Сравниваемые переменные должны быть измерены в шкале интервалов или отношений.

2. Предполагается, что все переменные имеют нормальный закон распределения.

3. Число варьирующих признаков в сравниваемых переменных должно быть одинаковым.

4. Для оценки уровня достоверности корреляционного отношения Пирсона следует пользоваться формулой (11.9) и таблицей критических значений для t-критерия Стьюдента с числом степеней свободы k = n - 2. (5).

ЗАКЛЮЧЕНИЕ

В заключение подчеркнем, что содержательное ограничение корреляционного анализа состоит в том, что он позволяет обнаружить только наличие связи и не дает оснований для установления причинно-следственных отношений. Например, можно обнаружить положительную корреляцию между уровнем умственного развития детей старшего дошкольного возраста и календарными сроками смены молочных зубов коренными. Другими словами, чем раньше происходит замена молочных зубов, тем выше показатели умственного развития детей. Следует ли делать вывод о том, что смена зубов способствует умственному развитию детей, или, напротив, ускоренное умственное развитие приводит к более быстрому изменению состава зубов. Оба предположения выглядят одинаково нелепо.

Причина в том, что оба показателя непосредственно отражают индивидуальный темп биологического созревания. Другими словами, они связаны с третьей -- латентной переменной, которая недоступна для прямого измерения, но благодаря этой связи оба показателя значимо коррелируют между собой. Формальная логика корреляционного анализа не позволяет исследовать эти аспекты взаимообусловленности статистических рядов данных.(5).

Список использованной литературы

1. Годфруа Ж. Что такое психология: В 2-х т. Т. 1: Пер. с франц.-М.: Мир, 1992.

2. Горбатов Д.С. Практикум по психологическому исследованию: Учеб. пособие. - Самара: «БАХРАХ - М», 2003. - 272 с.

3. Дружинин В.Н. Экспериментальная психология: Учебное пособие -- М.: ИНФРА-М, 1997.

4. Дружинин В.Н. Экспериментальная психология -- СПб: Питер, 2000. - 320с.

5. Ермолаев О.Ю. Математическая статистика для психологов. М.: Московский психолого-социальный институт: Флинта, 2003. - 366 с.

6. Корнилова Т.В. Введение в психологический эксперимент. Учебник для ВУЗов. М.: Изд-во ЧеРо, 2001.

7. Мельников В.М., Ямпольский Л.Т. Введение в экспериментальную психологию личности.- М.: Просвещение, 1985.


© 2010 Рефераты