Разное

Частная корреляция: Частная корреляция

Содержание

Частная корреляция. Коэффициенты частной корреляции. — Студопедия

Частные коэффициенты (или индексы) корреляции характеризуют тесноту связи между результатом и соответствующим фактором при устранении влияния других факторов, включенных в модель.

Частные показатели корреляции широко используются при отборе факторов, когда необходимо оценить целесообразность включения того или иного фактора в уравнение множественной регрессии. Кроме того, они позволяют ранжировать факторы по тесноте их связи с результатом.

Показатели частной корреляции представляют собой отношение сокращения остаточной дисперсии за счет включения в анализ нового фактора к остаточной дисперсии, имевшей место до введения его в модель.

В общем виде частный коэффициент корреляции, измеряющий влияние на у фактора хiпри неизменном уровне других факторов, можно определить по формуле:

,

где — коэффициент множественной детерминации для модели с полным набором факторов;

— тот же показатель, но без введения в модель фактора

xi.

При i=1 формула примет вид:

Коэффициенты частной корреляции могут быть первого, второго, третьего и т.д. порядка. Это зависит от того, влияние скольких факторов элиминируется.


Частная корреляция первого порядка – когда фиксируется теснота связи двух переменных при устранении влияния одного фактора: (точка отделяет фактор, значение которого элиминируется (закрепляется на неизменном уровне)).

Частная корреляция второго и т.д. порядка – когда фиксируется теснота связи двух переменных при устранении влияния двух и более факторов, например:

— частная корреляция второго порядка при постоянном действии факторов х2 и х3;

— частная корреляция четвертого порядка при постоянном действии факторов х2, х3, х4, х5.

Соответственно, коэффициенты парной корреляции называются коэффициентами нулевого порядка.

Коэффициенты частной корреляции более высоких порядков можно найти через коэффициенты частной корреляции более низких порядков

по рекуррентной формуле:

При i=1 и двух факторах формула примет вид:

При i=2 и двух факторах:

Частные коэффициенты корреляции, рассчитанные по рекуррентной формуле, изменяются в пределах от -1 до +1, а по формуле через множественный коэффициент детерминации – от 0 до 1.

Сравнение частных коэффициентов друг с другом позволяет ранжировать факторы по тесноте их связи с результатом. Обычно частные коэффициенты корреляции не имеют самостоятельного значения, они используются на стадии формирования модели, в частности в процедуре отсева факторов.

 

Контрольные вопросы:

1. В каких ситуациях применяется множественная регрессия?

2. Какие этапы включает в себя построение уравнения множественной регрессии?

3. Какие виды уравнений множественной регрессии различают?


4. Что означает построение модели множественной регрессии в стандартизированном масштабе?

5. Что показывают стандартизированные коэффициенты регрессии?

6. По какой формуле рассчитывается показатель множественной регрессии?

7. Что характеризуют частные коэффициенты корреляции?

 

Литература: [1], [2].

 

Множественная Корреляция, Её Коэффициент Частная Корреляция

Table of Contents Heading

Определяем критические значения для полученного коэффициента корреляции. Величины критических значений коэффициентов линейной корреляции Пирсона даны по абсолютной величине. Заметное отклонение некоторых наблюдаемых значений от линии регрессии объясняется малым числом наблюдений. При исследовании степени линейной зависимости Y от X число наблюдений учитывается. Сила зависимости определяется величиной коэффициента корреляции. Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными (возможна также ситуация отсутствия статистической взаимосвязи – например, для независимых случайных величин).

В случае, когда одна из двух переменных является дихотомической, используется точечная двухрядная корреляция, а если обе переменные являются дихотомическими— четырёхполевая корреляция. Расчёт коэффициента корреляции между двумя недихотомическими переменными не лишён смысла только тогда, когда связь между ними линейна (однонаправлена).

Корреляция Случайная Взаимосвязь Двух Факторов, Или Связь Через Третий Фактор Причинность

А вот коэффициент ранговой корреляции равен 1, поскольку увеличение одной переменной однозначно соответствует увеличению другой переменной. Во многих экономических задачах, например, при выборе инвестиционных проектов, достаточно кореляция это именно монотонной зависимости одной переменной от другой. Если предположение о двумерной нормальности не выполнено, то из равенства 0 теоретического коэффициента корреляции не вытекает независимость случайных величин.

Независимо от вашей торговой стратегии и вашего намерения диверсифицировать свои позиции или найти дополнительные валютные пары для торговли, очень важно иметь в виду корреляцию между различными валютными парами и тенденции их изменения. Трейдеру, работающему на форекс, необходимо быть уверенным в характеристиках валютного рынка Forex. Без знания основных тенденций той или иной валютной пары, трейдеры подвергают себя неоправданному Доходный курс Онлайн риску. Один из самых мощных инструментов для анализа конъюнктуры рынка, которым может вооружиться трейдер на форексе, это историческая корреляция между валютными парами. Понимание закономерностей корреляции позволяет трейдерами не только хеджировать позиции, но и может подсказать момент для открытия сделки. Чтобы быть эффективным трейдером, также важно понимать, как различные валютные пары двигаются относительно друг друга.

Коэффициент Корреляции В Excel И Формула Расчёта

Для графического представления подобной связи можно использовать прямоугольную систему координат с осями, которые соответствуют обеим переменным. Каждая пара значений маркируется при помощи определенного символа. Истинная причина корреляции порою скрыта под множеством факторов и внешних сил. Коэффициент корреляции определяет степень взаимозависимости одной переменной от другой. Определение причины корреляции – это очень сложная задача. Переплетаются тысячи различных факторов, часть из которых скрыта.

Во многих случаях снижение стоимости одной акции компенсируется ростом цены на другую. Фьючерс на нефть сорта WTI – углеводороды, что тут еще сказать. Сильное влияние оказывает на некоторые сектора, на отдельные индустрии, связанные с нефтедобычей и переработкой нефти, а также на те отрасли, где существенная инвестирование для начинающих статья издержек – топливо и ГСМ, например авиакомпании. По некоторой дисциплине два студента имеют соответственно оценки “отлично” и “удовлетворительно”. В этом случае можно утверждать, что уровень подготовки у первого студента выше, чем у другого, но нельзя сказать, на сколько или во сколько раз.

Коэффициент корреляции – это величина, которая может варьировать в пределах от +1 до -1. В случае полной положительной корреляции этот коэффициент равен плюс 1, а при полной отрицательной – минус 1. Корреляция – это вероятностная или статистическая зависимость. В отличие от функциональной зависимости корреляция возникает тогда, когда зависимость одного из признаков от другого осложняется наличием ряда случайных факторов. Поскольку всегда можно выбрать числа a и b так, чтобы (например, если , то берём произвольное a и ), то при этих a и b дисперсия , и значит почти наверное. Доказательство очевидным образом обобщается на случай величин X и Y с ненулевыми средними, только в вышеприведённых выкладках надо будет X заменить на , и Y — на .

Корреляция Курса Доллара И Цены На Нефть И Обратная Пропорциональность

Имея эти данные можно приступить к нахождению “эффективных портфелей”. На рисунке выше жирной линией отображена “эффективная граница”, а большими точками отмечены возможные комбинации портфелей. Фактически покупки по варианту 2 – это покупки против падения рынка.

Предоставим изобретательным читателям самим догадываться о возможных причинах такой корреляции, не прибегая к постулированию причинно-следственной связи между аистами и младенцами. Эти примеры служат достаточным предостережением от понимания корреляции как причинно-следственного отношения. Если между двумя переменными есть корреляция, изменение одной может вызывать изменения другой, но без специальных экспериментов такой вывод будет неоправданным. Степень соответствия стоимости fxtrand рубля к цене черного золота можно охарактеризовать коэффициентом корреляции, устанавливающим статистическую взаимосвязь этих величин. При решении каждой из названных задач нужно учитывать особенности и ограничения корреляционно-регрессионного метода. Всякий раз необходимо специально обосновать возможность причинной интерпретации уравнения как объясняющего связь между вариацией фактора и результата. Трудно обеспечить раздельную оценку влияния каждого из факторов.

Что Обозначает Термин “корреляция­”?

Например, к рисунку человека с большой головой прилагалась характеристика “обеспокоен уровнем своего интеллекта”. При этом, обратите внимание (!), одни и те же психологические характеристики прилагались к разным рисункам. Например, характеристика “относится к людям с недоверием и подозрением” прилагалась как к рисункам с выраженным акцентом на глазах, так и к рисункам, не имеющим каких либо особенностей изображения глаз. Причем таких сочетаний было, как и в уже рассмотренном эксперименте, одинаковое количество. Таким образом, испытуемые имели иллюзорные представления о том, что слово “бекон” теснее связано со словом “яйца”, а слово “лев” со словом “тигр”, чем другие слова друг с другом.

Вторая задача – прогнозирование поведения параметра, коррелирующего с опережающим его иным параметром. Следовательно, высокая корреляция между EUR/USD и NZD – USD указывает на то, что инвестиции и в эти пары приводят к удвоению позиций. Кроме того, не надо открывать длинную позицию по одной паре и короткую по другой, поскольку рост курса первой пары может спровоцировать рост курса второй.

Расчет Коэффициента Корреляции Пирсона

Вообще говоря, можно использовать метод корреляций, чтобы определить связана ли некоторая переменная, которую мы не можем контролировать, с другой интересующей нас переменной, или, иначе говоря, коррелируют ли они между собой. Это иногда возможно в силу действия случайных причин, при неоднородности выборки, из-за неадекватности исследовательского инструментария поставленным задачам.

Опрос экспертов проводят в несколько этапов, как правило – анонимно. После очередного этапа от эксперта требуется не просто ранжировка, но и ее обоснование. Эти обоснования сообщаются всем экспертам перед очередным этапом без указания авторов обоснований. Заметим, что торговля опционами полная сумма рангов составляет 84, что дает в среднем по 14 на фактор. Для общего случая n факторов и m экспертов среднее значение суммы рангов для любого фактора определится выражением. Определяют знаки отклонения (-,+) от среднего значения каждого из признаков.

Примеры

На первый взгляд, зависимость однозначная, но, как покажет последующий анализ, поверхностная. При рассмотрении влияния цены на нефть на курс доллара складывается довольно не однозначная ситуация ведь США являются одним из самых крупных производителей нефти, в тоже время выступают самым крупным приобретателем данного вида сырья. Между доходностями ценных бумаг может наблюдаться функциональная зависимость. Это означает, что существует строгое правило, которое связывает значения их доходностей. С точки зрения чистого экспортирования/импорта черного золота, наиболее торгуемой парой валют относительно цен на нефть становится канадский доллар против валюты Японии.

Во-первых, бюджет, который зависит от цен на нефть и курса доллара к рублю. Этому бюджету чем выше курс доллара и цены на нефть, тем лучше. Во-вторых, не только нефтяники хотят видеть более слабый рубль. Отчетности многих экспортеров “просят” более выгодный для них курс. В-четвертых, в курс доллара были еще заложены ожидания по покупке ЦБ РФ валюты для Минфина. В-пятых, доллар сейчас растет по отношению ко всем “слабым” валютам типа рубля (бразильскому риалу или индийской рупии). Ордера на покупку открываются в случае подорожания нефти, ордера на продажу – в случае падения цены на черное золото.

  • Если взять две произвольные величины, они могут быть сильно связаны между собой, никак не связаны, или слабо связаны.
  • В-пятых, доллар сейчас растет по отношению ко всем “слабым” валютам типа рубля (бразильскому риалу или индийской рупии).
  • Понятие корреляция лежит в основе многих прибыльных торговых стратегий рынка Forex.
  • Сложно переоценить значимость коэффициента корреляции в рыночной торговле.
  • По некоторой дисциплине два студента имеют соответственно оценки “отлично” и “удовлетворительно”.

Эти 3% возникают от начисления учетной ставки центрального банка Канады, которая добавляется на счет и вычитания 0%, за продажу японской иены. Это ставки без плеча, и понятно, что с плечом 10, например, доход был бы намного выше.

Связь, которая существует между случайными величинами разной природы, например, между величиной Х и величиной Y, не обязательно является следствием прямой зависимости одной величины от другой (так называемая функциональная связь). В некоторых случаях обе величины зависят от целой совокупности разных факторов, общих для обеих величин, в результате чего и формируется связанные друг с другом закономерности. Когда связь между случайными величинами обнаружена с помощью статистики, мы не можем утверждать, что обнаружили причину происходящего изменения параметров, скорее мы лишь увидели два взаимосвязанных следствия. Как правило, под этим термином подразумевают статистическую взаимосвязь двух или нескольких параметров. Если изменяется значение одного или нескольких из них, это неизбежно сказывается на величине остальных.

Суть в том, что взаимосвязь проявляется на сдвинутом по временной шкале наборе данных. То есть изменение курса пары A/B сейчас является предвестником изменения пары C/D в будущем. Если собрать информацию, достаточно детальную для формирования торговой стратегии, наличие таких корреляций может очень существенно повысить точность. Фактически, у вас появляется инструмент базового прогнозирования курса.

Сводка представляет собой второй этап статистического исследования. Целью сводки является получение на основе сведенных материалов обобщающих статистических показателей, отражающих сущность социально-экономических явлений и определенные статистические закономерности.

Криволинейная корреляция означает нелинейное изменение переменных – темпы изменения одной быстрее, чем у другой. При отсутствии ассоциации говорят, что переменные имеют статистическую независимость. Это значит, что изменение результативного признака у обусловлено влиянием факторного при-знака х лишь частично, т.к. возможно воздействие и иных факторов, вклад которых обозначен как s равно или меньше.

К тому же само по себе наличие сочетания, как правило, ничего не говорит о причинно-следственном отношении. Соответственно, критерием валидности теста должна служить высокая степень корреляции тестового балла со школьной успеваемостью. Действительно, такая корреляция имеет место, и это, казалось бы, позволяет без колебаний кореляция это интерпретировать тестовые баллы. Однако многолетние исследования этой проблемы заставили усомниться в однозначности таких толкований. Корреляция – это удобный и необходимый инструмент в различных сферах жизни. Она не является панацеей, но позволяет достаточно точно установить причинно-следственные связи между явлениями.

Положительная корреляция российских фондовых индексов с индексами развитых стран существует, в основном, в периоды относительной стабильности. Сохраняется положительная корреляция и в периоды кризисов. Из этого, в свою очередь, можно заключить, что фондовый рынок все более глобализуется и, фактически, представляет собой единое торговое пространство. Общие экономические процессы и представляют собой причину сходной динамики национальных индексов. В случае, если нет глобальных новостей по сектору или если нет отчетов у разных акций из этого сектора. их главенство имеет место быть в самый скучный понедельник, а не в день статистики, запасов газа, безработицы да еще с отчетом старших акций.

Парная и частная корреляция в КЛММР — Мегаобучалка

В случаях, когда имеется одна независимая и одна зависимая переменные, естественной мерой зависимости (в рамках линейного подхода) является выборочный (парный) коэффициент корреляции между ними.

Использование множественной регрессии позволяет обобщить это понятие на случай, когда имеется несколько независимых переменных. В этом случае необходима корректировка, так как высокое значение коэффициента корреляции между зависимой и какой-либо независимой переменной может означать высокую степень линейной зависимости, но может означать и то, что третья переменная, оказывает значительное влияние на две первых и, что именно она служит основной причиной их высокой корреляции. Поэтому необходимо найти «чистую» корреляцию между двумя переменными, исключив влияние других факторов путем расчета коэффициента частной корреляции.

Коэффициенты частной корреляции для уравнения регрессии с двумя независимыми переменными рассчитываются как:

, (3.13)

, (3.14)

, (3.15)

где — коэффициент частной корреляции между y и x1 при исключенном влиянии x2;

— коэффициент частной корреляции между y и x2 при исключенном влиянии x1;

— коэффициент частной корреляции между x1 и x2, исключающий влияние y.

Заметим, что парные линейные коэффициенты корреляции, стоящие в правых частях формул (3.13)-(3.15), могут быть рассчитаны с помощью формулы (2.9).

Коэффициенты частной корреляции более высоких порядков можно определить через коэффициенты частной корреляции более низких порядков по следующей рекуррентной формуле:

(3.16)

Коэффициенты частной корреляции широко используются на стадии формирования модели, при отборе факторов.

Так, например, при построении многофакторной модели применяется метод исключения переменных, в ходе которого строится уравнение регрессии с полным набором переменных, затем рассчитывается матрица частных коэффициентов корреляции. Далее проверяется статистическая значимость каждого из коэффициентов согласно t-критерию Стьюдента. Независимая переменная, имеющая наименьшую и несущественную корреляцию с зависимой переменной, исключается. Затем строится новое уравнение регрессии, и процедура продолжается до тех пор, пока не окажется, что все частные коэффициенты корреляции статистически значимы, то есть существенно отличаются от нуля.



Проверка статистической значимости частного коэффициента корреляции суть проверка гипотезы о том, что он равен нулю

Н0: .

Рассчитывается статистика:

(3.17)

Вывод о значимости частного коэффициента корреляции делается при |t|>te, где te соответствующее табличное значение t-распределения с (n— (k+1)) степенями свободы.

Пример (продолжение примера 1). Рассчитаем парные линейные коэффициенты корреляции, применяя формулу (2.9) и одновременно проверяя их статистическую значимость.

=3,68,

=3,60,

=2,80.

Составим матрицу парных линейных коэффициентов корреляции (в скобках значение t-статистик):

  y x1 x2
y 1,0 0,6553 (3,68) 0,6346 (3,60)
x1 0,6553 (3,68) 1,0 0,1247(2,80)
x2 0,6346(3,60) 0,1247(2,80) 1,0

Коэффициент корреляции между y и x1, свидетельствует о прямой статистически значимой связи между стоимостью перевозки и весом перевозимого груза. Коэффициент корреляции между y и x2 также свидетельствует о прямой и статистически значимой связи между стоимостью перевозки и расстоянием перевозки. Величина статистически значимого коэффициента корреляции между x1 и x2 означает практическое отсутствие взаимосвязи между расстоянием перевозки и весом груза, что не противоречит первоначальным предположениям о том, что расстояние перевозки не может быть обусловлено весом груза и наоборот.

Рассчитаем коэффициенты частной корреляции согласно формулам (3.13)-(3.15) и проверим их значимость согласно (3.17):

0,7513; =4,69, 0,7377; =4,51, -0,4987; =-2,37.

Составим матрицу частных коэффициентов корреляции (в скобках значение t-статистик):

  y x1 x2
y 1,0 0,7513 (4,69) 0,7377 (4,51)
x1 0,7513 (4,69) 1,0 -0,4987(-2,37)
x2 0,7377(4,51) -0,4987(-2,37) 1,0

 

Как уже говорилось ранее, частные коэффициенты корреляции показывают «чистую» корреляцию пары переменных, исключающую влияние прочих переменных, включенных в уравнение. Таким образом, наиболее сильной является взаимосвязь между стоимостью перевозки и весом груза. Однако заметим, что частные коэффициенты корреляции между y и x1, y и x2 свидетельствуют о более сильных взаимосвязях независимых переменных с зависимой, чем это показывают значения парных коэффициентов корреляции. Это произошло потому, что парный коэффициент корреляции завысил тесноту связи между x1 и x2, занизив при этом тесноту связи между y и x1, y и x2. Отметим также, что все частные коэффициенты корреляции статистически значимы. Ñ

 

Количественные методы в социологических исследованиях :: Федеральный образовательный портал

Введение 3
Глава I. Измерение и анализ распределений 8
1. Об измерении в социологии. Классификация социальных признаков по уровням измерения 8
2. Табулирование. Вариационные ряды. Графики. Приемы наглядного представления социологических данных 19
3. Меры центральной тенденции 38
4. Меры вариации 50

Глава II. Корреляции 65
1. Функциональная и корреляционная зависимости. Корреляционные таблицы. Критерий Пирсона 65
2. Коэффициенты, связанные с «Хи-квадрат» (таблицы k x l) 80
3. Таблицы 2×2. Коэффициенты ассоциации и контингенции, их связь с коэффициентами для таблиц k x l 84
4. Коэффициент ранговой корреляции Спирмена 93
5. Коэффициент парной корреляции и его связь с другими коэффициентами 97
6. Коэффициент ранговой корреляции Кендэла 107
7. Энтропийные меры в социологическом анализе 124
8. Некоторые другие коэффициенты 130

Глава III. Регрессия 141
1. Основные понятия. Прямая регрессия. Криволинейные связи. Корреляционное отношение 141
2. Частная корреляция. Случай трех признаков 152
3. Множественная регрессия. Случай трех признаков 156

Глава IV. Классификация статистических мер по уровню социологического измерения 159

Глава V. Статистические выводы: оценивание и проверка гипотез 167
1. Генеральная и выборочная совокупность. Оценка ошибки выборки 167
2. Выборочное распределение 175
3. Точечное и интервальное оценивание 181
4. Проверка статистических гипотез 185
5. Значимость различий долей (процентов) 191
6. Значимость различий средних арифметических 195
7. Значимость различий дисперсии 197
8. Значимость коэффициентов корреляции и коэффициентов, основанных на «Хи-квадрат» 199
9. Значимость различий r1 и r2 204

Глава VI. Классификация объектов (таксономия), классификация признаков (факторный анализ) и некоторые другие методы анализа информации 207

Глава VII. Использование программируемых микрокалькуляторов для анализа социологической информации 220
1. Организация обработки социологической информации. Классы задач, решаемых на ЭВМ и на программируемых микрокалькуляторах 220
2. Программы расчета статистических мер и уровней значимости 225

Приложение 1. О вероятности 248
Приложение 2. Суммы и некоторые задачи на суммирование 251
Приложение 3. Статистические таблицы 254
Список основных обозначений 269

Множественная и частная корреляция — КиберПедия

 

В предыдущем материале по теме рассматривалась зависимость между двумя признаками, т.е. речь шла о так называемой парной корреляции. На практике чаще всего приходится рассматривать корреляционную связь одновременно между тремя и более признаками. В таких случаях изучение корреляционной связи не может ограничиваться парными зависимостями; в анализ необходимо включить другие признаки-факторы, также существенно влияющие на формирование и развитие зависимого признака. Одновременное изучение корреляции нескольких признаков (больше двух) проводится на основании использования методов множественной корреляции. Например, уровень фондоотдачи, как известно, зависит от размеров предприятия, удельного веса активной части, форм воспроизводства основных производственных фондов, степени изношенности их и ряда других факторов-признаков.

Для измерения степени тесноты связи между изменениями величин результативного признака у и изменениями значений факториальных признаков вычисляется коэффициент множественной (совокупной) корреляции.

Величина совокупного коэффициента корреляции для случая зависимости результативного признака от двух факторных признаков исчисляется по формуле

.

 

В данной формуле символ «0» присвоен результативному признаку y, а символ «1», и «2» соответствует номерам факторов-признаков. Т.е. — коэффициенты корреляции между изменениями первого факторного признака и результативным признаком у, и результативным признаком у, между факторными признаками и . Как видели выше, эти коэффициенты в теории корреляции называются парными коэффициентами корреляции.

Величина называется коэффициентом детерминации для множественной корреляции и показывает в какой мере вариация результативного признака у обусловлена влиянием изучаемых признаков факторов (обычно в процентах после умножения на 100).

Величина коэффициента множественной корреляции изменяется в пределах от 0 до 1 и численно не может быть меньше, чем любой из образующих его парных коэффициентов корреляции. Чем ближе совокупный коэффициент корреляции к единице, тем меньше роль неучтенных в модели факторов и тем больше оснований считать, что данная модель эффективно отражает реальную действительность.

Для исчисления коэффициента множественной корреляции в общем случае (большом числе факторов) используются матрицы парных коэффициентов корреляции и коэффициент множественной детерминации. А коэффициент множественной детерминации определяется по следующей формуле



 

.

 

Взаимная зависимость между факторами-признаками называется мультиколлинеарностью и в качестве критерия мультиколлинеарности принимаются следующие неравенства

,

.

 

Если из этих неравенств не выполняется хотя бы одно, то из модели необходимо исключить один из признаков-факторов ( или ), связь которого с результативным признаком у будет менее тесной. Однако при этом необходимо помнить, что окончательный вывод о наличии или отсутствии мультиколлинеарности должен быть сделан в соответствии с теорией и логикой взаимосвязи между конкретными факторными признаками.

Для более глубокого исследования множественной корреляции необходимо установить степень тесноты связи между результативным признаком у и каждым из факторных признаков при исключении влияния других факторных признаков.

Для решения этой задачи определяются так называемые коэффициенты частной корреляции, выявляющие степень «чистого» влияния факторного признака на результативный признак. Для исчисления частных коэффициентов корреляции могут быть использованы парныекоэффициенты корреляции:

 

,

,

 

где и — соответственно частный коэффициент корреляции между результативным признаком у и фактором и при элиминировании влияния другого фактора ( или ).

Коэффициент частной корреляции, следовательно, отражает какую часть колеблемости у от влияния всех факторов вызывает рассматриваемый фактор при исключении влияния других.

Для общего случая частные коэффициенты корреляции можно определить по формуле

,

 

где — коэффициент детерминации результативного признака у с комплексом факторных признаков ;

— коэффициент детерминации результативного признака у с набором признаков-факторов ;

— частный коэффициент корреляции у с факторным признаком при исключении влияния других факторов .

При расчете набора всех частных коэффициентов корреляции m последовательно изменяется от первого до последнего фактора включительно.

Изложенные выше положения множественной корреляции рассмотрим на учебном примере. Необходимо отметить, что теория корреляции располагает рядом других подходов для решения задач изучения множественной корреляции: расчет коэффициента множественной корреляции как отношения дисперсии отклонений эмпирических значений от расчетных значений по уравнению множественной регрессии результативного признака к дисперсии эмпирических значений результативного признака (формула будет приведена ниже), расчеты коэффициентов эластичности , стандартизированных частных коэффициентов регрессии, — коэффициентов и — коэффициентов и др.



Итак, расчет коэффициента множественной корреляции между зависимым признаком у и многими независимыми признаками-факторами на базе уравнения множественной регрессии может осуществляться по формуле

 

,

 

где у – эмпирические значения результативного признака у;

— средняя величина результативного признака;

— теоретические значения результативного признака у, рассчитанные по уравнению множественной регрессии;

— дисперсия эмпирических значений результативного признака;

— дисперсия отклонений эмпирических значений относительно теоретических значений результативного признака.

 

Пример. Изучить производительность труда (выработки за смену) от продолжительности внутрисменных простоев и длительности производственного стажа.

Решение.

1) Исходные данные, расчет промежуточных результатов для определения парных коэффициентов корреляции, коэффициента множественной корреляции и коэффициентов частной корреляции представим таблично (см. ниже).

2) Расчет средних величин

шт; шт; года.

3) Расчет парных коэффициентов корреляции

Между факторами имеется значительная обратная взаимосвязь. Исходя из условия и видим нарушение первого условия и строго говоря фактор необходимо исключить из регрессионной модели.

Для учебных целей этого не сделаем. Сохраним модель в первоначальном виде по формальным соображениям.

4) Расчет коэффициента множественной корреляции

,

без учета знака.

 

 

, .

 

5) Расчет частных коэффициентов корреляции

 

;

 

.

 

13.6. Статистические исследования формы корреляционной связи.
Линия регрессии и уравнение регрессии

 

Как указывалось в параграфе 3, график корреляционной связи, построенный по групповым средним называется эмпирической линией связи (или эмпирической линией регрессии). Изломы эмпирической линии регрессии (т.е. ломаной, последовательно соединяющей точки с групповыми средними), как правило, обусловлены тем, что на результативный признак оказывают влияние кроме рассматриваемого факторного признака х и другие факторы.

Во многих случаях внешний вид эмпирической линии регрессии позволяет зрительно установить теоретическую форму зависимости у от х.

Даже и в этом случае главной в обосновании формы теоретической линии регрессии должна быть теория изучаемого явления и рассматриваемых признаков. Именно сущность (теория) явления с учетом природы изучаемых признаков должна служить основой для выбора формы взаимосвязи между данными признаками.

Здесь теоретической линией регрессии называется та линия, которая указывает основное направление (тенденцию) связи между рассматриваемыми признаками в «чистом виде», т.е. изменение средних величин результативного признака у в зависимости от изменения величины факторного признака х при условии полного взаимопогащения всех прочих причин.

Логически теоретическая линия регрессии должна быть расположена на поле графика так, чтобы сумма отклонений эмпирических точек (точек поля корреляции) от точек теоретической линии регрессии равнялась нулю, а сумма квадратов этих отклонений была бы минимальной по величине.

Формы уравнения связи может определяться также с использованием опыта предыдущих исследований, когда были получены приемлемые результаты количественного выражения направления изучаемой связи.

Даже при использовании теоретического анализа и опыта предыдущих статистических исследований данной корреляционной связи не следует отказываться от такого подхода к изучению корреляционной связи как использование конкурирующих вариантов модели регрессии и сопоставление различных уравнений связи.

Наиболее часто для характеристики связей экономических показателей используют следующие типы функций:

 

 

Для нахождения параметров а, b, c и т.д. для сложных моделей, как правило, используется метод наименьших квадратов. Критерий метода наименьших квадратов можно записать следующим образом:

 

.

 

Рассмотрим основные положения теории регрессии применительно к теоретической линии регрессии, представленной уравнением прямой

 

.

 

Для уравнения прямой метод наименьших квадратов записывается таким образом:

.

Определение параметров a и b прямой, наиболее соответствующей эмпирическим данным, сводится к математической задаче на экстремум.

Функция двух переменных S (a, b) может достигнуть экстремума в том случае, когда первые частные производные этой функции равняются нулю, т.е.

 

и .

 

Несложные преобразования этих частных производных приводит к системе нормальных уравнений для определения параметров модели регрессии.

Для уравнения прямолинейной корреляционной связи получается следующая система нормальных уравнений:

 
 

.

 

Обычно данная система решается относительно параметра b, которое приводит к следующей формуле для определения этого параметра:

 

.

 

Если разделить обе части (левую и правую) первого уравнения на n, можно получить формулу для определения параметра a:

 

.

 

Как видели из предыдущего материала данной темы, специфика корреляционных связей требует построения многофакторных моделей уравнений множественной регрессии.

При предположении наличия прямолинейной связи результативного признака от изменения двух факторов уравнение множественной корреляции может быть представлено в следующем виде

 

.

 

По способу наименьших квадратов для расчета параметров a, b, c необходимо решить следующую систему нормальных уравнений:

 

.

 

Параметры b, с и т.д. характеризуют изменение результативного признака при увеличении соответствующего фактора на единицу и фиксированном (среднем) значении других факторов.

Вместо параметров a, b, c, … обычно используются параметры

Например, допустим, что в качестве уравнения регрессии выбирается парабола второго порядка. Тогда она может быть записана в виде

 

.

 

По способу наименьших квадратов параметры уравнения будут находиться путем решения следующей системы нормальных уравнений:

 

.

 

Коэффициент корреляции

Коэффициент корреляции

Корреляция служит для оценки тесноты и направления линейной стохастической зависимости между изучаемыми переменными. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или убывать) по линейному закону. Эта тенденция к линейной зависимости может быть более или менее ярко выраженной, т.е. более или менее приближаться к функциональной.

Уравнение для коэффициента корреляции имеет следующий вид:

Где:

-1 ≤ ρx,y ≤ 1

— ковариация, то есть среднее произведений отклонений для каждой пары точек данных

x и y – выборочные средние значения.

Парные коэффициенты корреляции

Парные коэффициенты рассчитываются по формуле:

Частные коэффициенты корреляции

Корреляция между двумя переменными, вычисленная при фиксированных уровнях всех других переменных, называется частной корреляцией. Для трех переменных Y1, Y2, X3 частная корреляция между переменными Y1, Y2 рассчитывается по формуле:

Где ρ — парный коэффициент корреляции.

В данном случае, частный коэффициент корреляции является мерой линейной связи между переменными Y1, Y2, исключая вклад, который по отдельности вносят линейные связи Y1, Y2с третьей переменной X3.

В общем случае, пусть множество переменных поделено на две группы Y и X с nY переменными во множестве Y, и с nX во множестве X.

Представим ковариационную матрицу в виде:

Ковариация Y при фиксированных значениях X:

Матрица частных коэффициентов корреляции:

См. также:

Библиотека методов и моделей | IStatistics.Correl | IStatistics.Covar | ISmPairCorrelation | ISmPartialCorrelation

Коэффициент частной корреляции — Справочник по медицине PRO7

Обозначения коэффициент парной корреляции коэффициент частной корреляции. Указаны корреляции между матрицами генетических, лингвистических и географических расстояний. [Стр.138]

На основе рассчитанных коэффициентов парных корреляций можно вычислить соответствующие коэффициенты частной корреляции … [Стр.289]

Частные коэффициенты корреляции между значениями личностных показателей по методике Кеттелла у лиц II и III групп центральных механизмов саморегуляции… [Стр.64]

Таблица 11. Коэффициенты частной корреляции между аллелями ВМ локуса (устранено влияние аллеля 1)т 5)…
В данном случае применена модификация формулы для коэффициента частной корреляции.— Прим. ред. [Стр.25]

Звездочка указывает на произведенное нормирование У =(У— —У) /бу и т. д. Коэффициенты путей а=бА1бу и Ь = бв бу — это не что иное, как частные коэффициенты регрессии У на А и. соответственно. Коэффициент корреляции между А и В равен ковариации нормированных А и В. … [Стр.231]

Весовой индекс Частная корреляция Весовой индекс Частная корреляция Коэффициент регрессии… [Стр.19]

Номер параметра Климатические параметры Коэффициенты ранговой корреляции (в соответствии со Спирманом) Коэффициенты частной корреляции Без температурных параметров (номер параметра)… [Стр.336]

Аналогично можно оценить значимость коэффициента частной корреляции. Если изучается связь между тремя переменными х, у, и нужно оценить связь между, например, х и у без учета влияния , то коэффициент частной корреляции вычисляется по формуле… [Стр.135]

Квадрат коэффициента частной корреляции называется коэффициентом частной детерминации. Он определяет долю дисперсии, которая объясняется влиянием у на х (или х на у) при фиксированном значении . [Стр.346]

Коэффициент частной корреляции гх2.з также может быть выведен с помощью метода коэффициентов путей [703]. Используя систему 17—322… [Стр.257]

Коэффициенты частной корреляции более высоких порядков, например Г12.з4> можно получить таким же образом, вычисляя X ,34 и Х2.з4, где Х1.з4=Хх—613.4X3—644.3X4 и т. д. [711]. [Стр.257]


Смотреть другие источники с термином Коэффициент частной корреляции: [Стр.336]    [Стр.93]    [Стр.355]    [Стр.236]    [Стр.251]    [Стр.251]    [Стр.251]    [Стр.129]    [Стр.138]    [Стр.228]    [Стр.82]    [Стр.83]    [Стр.20]    [Стр.67]    [Стр.133]    [Стр.136]    [Стр.138]    [Стр.139]    [Стр.139]    [Стр.165]    [Стр.348]    [Стр.350]    [Стр.350]    [Стр.420]    [Стр.336]    [Стр.287]    [Стр.289]    [Стр.290]    [Стр.547]    [Стр.99]    [Стр.343]    [Стр.62]    [Стр.177]    [Стр.222]    [Стр.257]    [Стр.366]   

Частичная корреляция в SPSS Statistics

Введение

Частичная корреляция — это мера силы и направления линейной связи между двумя непрерывными переменными при одновременном контроле влияния одной или нескольких других непрерывных переменных (также известных как «ковариаты» или «контрольные» переменные). Хотя частичная корреляция не делает различия между независимыми и зависимыми переменными, эти две переменные часто рассматриваются таким образом (т.е., у вас есть одна непрерывная зависимая переменная и одна непрерывная независимая переменная, а также одна или несколько непрерывных управляющих переменных).

Примечание. Многие аспекты частичной корреляции можно решить с помощью множественной регрессии, и иногда рекомендуется именно такой подход к анализу. Это отчасти очевидно в SPSS Statistics, где вы можете выполнить частичную корреляцию, используя две разные процедуры: C или соотнесение и R egression .

Например, вы можете использовать частичную корреляцию, чтобы понять, существует ли линейная зависимость между беговыми характеристиками на 10000 м и VO 2 max (маркер аэробной пригодности), контролируя скорость ветра и относительную влажность (т.е. переменной будет «производительность бега на 10 000 м», измеряемая в минутах и ​​секундах, непрерывная независимая переменная будет VO 2 max, которая измеряется в мл / мин / кг, и две управляющие переменные, то есть две другие непрерывные независимые переменные, которые вы настраиваете — это «скорость ветра», измеренная в милях в час, и «относительная влажность», выраженная в процентах).Вы можете полагать, что существует взаимосвязь между результативностью бега на 10000 м и VO 2 max (т. Е. Чем больше VO 2 max спортсмена, тем лучше его беговые характеристики), но вы хотели бы знать, влияет ли это соотношение. по скорости ветра и влажности (например, если соотношение изменяется при учете скорости ветра и влажности, поскольку вы подозреваете, что спортивные результаты ухудшаются в более ветреную и влажную погоду). В качестве альтернативы вы можете использовать частичную корреляцию, чтобы понять, существует ли линейная зависимость между продажами мороженого и ценой, контролируя при этом дневную температуру (т.е.е., непрерывной зависимой переменной будут «продажи мороженого», измеряемой в долларах США, непрерывной независимой переменной будет «цена», также измеряемая в долларах США, и единственной управляющей переменной, то есть единственной непрерывной независимой переменной. вы настраиваете — это будет дневная температура, измеряемая в ° C). Вы можете полагать, что существует взаимосвязь между продажами мороженого и ценами (т. Е. Продажи снижаются по мере роста цены), но вы хотели бы знать, влияет ли на эту взаимосвязь дневная температура (например.g., если отношения меняются с учетом дневной температуры, поскольку вы подозреваете, что клиенты более охотно покупают мороженое, независимо от цены, когда это действительно хороший, жаркий день).

В этом «кратком руководстве» показано, как выполнить частичную корреляцию с помощью SPSS Statistics, а также интерпретировать и составить отчет о результатах этого теста. Однако, прежде чем мы познакомим вас с этой процедурой, вам необходимо понять различные допущения, которым должны соответствовать ваши данные, чтобы частичная корреляция дала вам достоверный результат.Мы обсудим эти предположения далее.

SPSS Statistics

Допущения

Когда вы выбираете анализ данных с использованием частичной корреляции, часть процесса включает проверку, чтобы убедиться, что данные, которые вы хотите проанализировать, действительно могут быть проанализированы с использованием частичной корреляции. Вам необходимо сделать это, потому что использовать частичную корреляцию уместно только в том случае, если ваши данные «соответствуют» пяти предположениям, которые необходимы для частичной корреляции, чтобы дать вам действительный результат.На практике проверка этих пяти предположений просто добавляет немного больше времени вашему анализу, требуя, чтобы вы нажимали еще несколько кнопок в SPSS Statistics при выполнении анализа, а также немного больше думали о своих данных, но это действительно так. задача не сложная.

Прежде чем мы познакомим вас с этими пятью предположениями, не удивляйтесь, если при анализе ваших собственных данных с помощью SPSS Statistics одно или несколько из этих предположений будут нарушены (т. Е. Не выполнены). Это не редкость при работе с реальными данными, а не с примерами из учебников, которые часто показывают вам, как выполнить частичную корреляцию, когда все идет хорошо! Однако не волнуйтесь.Даже если ваши данные не соответствуют определенным предположениям, часто есть решение, как это преодолеть. Во-первых, давайте посмотрим на эти пять предположений:

  • Допущение # 1: У вас есть одна (зависимая) переменная и одна (независимая) переменная , и обе они измеряются по непрерывной шкале (т. Е. Они измеряются в интервале , или ). Шкала ). Примеры непрерывных переменных включают время проверки (измеряется в часах), интеллект (измеряется с помощью оценки IQ), успеваемость на экзамене (измеряется от 0 до 100), вес (измеряется в кг), температура (измеряется в ° C), объем продаж ( измеряется в долларах США) и т. д.
  • Допущение № 2: У вас есть одна или несколько управляющих переменных , также известных как ковариаты (т. Е. Управляющие переменные — это просто переменные, которые вы используете для настройки взаимосвязи между двумя другими переменными; то есть ваши зависимые и независимые переменные). Эти контрольные переменные также измеряются по непрерывной шкале (т. Е. Это непрерывных переменных ). Примеры непрерывных переменных приведены выше.
  • Допущение № 3: Между всеми тремя переменными должна быть линейная связь . То есть все возможные пары переменных должны показывать линейную зависимость. Это часто достигается путем визуального анализа диаграммы рассеяния.
  • Предположение № 4: Не должно быть значительных выбросов . Выбросы — это просто отдельные точки данных в ваших данных, которые не соответствуют обычному шаблону.Частичная корреляция чувствительна к выбросам, которые могут иметь очень большое влияние на линию наилучшего соответствия и коэффициент корреляции, что приводит к неверным выводам относительно ваших данных. Поэтому лучше, если нет выбросов или они сведены к минимуму.
  • Допущение № 5: Ваши переменные должны быть приблизительно нормально распределенными . Чтобы оценить статистическую значимость частичной корреляции, вам необходимо иметь двумерную нормальность для каждой пары переменных, но это предположение трудно оценить, поэтому чаще используется более простой метод, с помощью которого проверяется распределение для каждой переменной в отдельности.Этого можно добиться с помощью теста нормальности Шапиро-Уилка, который легко проверить с помощью SPSS Statistics.

Вы можете проверить предположения № 3, № 4 и № 5 с помощью SPSS Statistics. Помните, что если вы неправильно проведете статистические тесты на основе этих предположений, результаты, которые вы получите при выполнении частичной корреляции, могут оказаться недействительными.

В разделе «Процедура тестирования в SPSS Statistics» мы проиллюстрировали процедуру SPSS Statistics для выполнения частичной корреляции при условии, что никакие предположения не были нарушены.Сначала мы приводим пример, который используем для объяснения процедуры частичной корреляции в SPSS Statistics.

Частичная корреляция — Статистические решения

Частичная корреляция — это мера связи между двумя переменными при контроле или корректировке влияния одной или нескольких дополнительных переменных. Частичные корреляции могут использоваться во многих случаях, когда оценивается взаимосвязь, например, связана ли продажная стоимость конкретного товара с расходами на рекламу, когда влияние цены контролируется.

Ответы на вопросы:

Какова связь между результатами тестов и средним баллом после проверки количества часов, потраченных на обучение?

После учета возраста, какова связь между препаратами Z и симптомами XY?

В SPSS этот тест можно вычислить, выбрав «коррелировать» в меню анализа, а затем выбрав «частичный» из корреляции.

Контрольные переменные — это переменные, которые извлекают дисперсию, полученную из исходных коррелированных переменных.

Порядок корреляции относится к корреляции с контрольными переменными. Например, первый заказ — это тот, который имеет единственную управляющую переменную.

Под ложной корреляцией понимается ложная корреляция или корреляция, которой на самом деле не существовало.

Аналогично связанные получастичные корреляции измеряют связь между зависимой переменной (Y) и независимой переменной (X) после контроля одного аспекта только одной переменной (X или Y, но не обоих).

Для небольших моделей, таких как модели с одной управляющей переменной, а иногда и с двумя или тремя, частичная корреляция полезна и является довольно распространенным явлением, обычно она полезна для обнаружения ложной модели взаимосвязи.

Допущения

Используется только в небольших моделях, например, в моделях с тремя или четырьмя переменными.

Используется только в тех моделях, которые предполагают линейную зависимость.

Данные должны иметь интервальный характер.

Остаточные переменные или неизмеряемые переменные не коррелируют ни с одной из переменных в модели, кроме той, для которой возникли эти остатки.

* Щелкните здесь , чтобы получить помощь с частичными корреляциями или другим количественным анализом.

Связанные страницы:

Проведение и интерпретация частичной корреляции

Частичная корреляция — StatsDirect

Частичная корреляция — это метод, используемый для описания взаимосвязи между двумя переменными, при этом исключая влияние другой переменной или нескольких других переменных на эту взаимосвязь.

Частичную корреляцию лучше всего рассматривать в терминах множественной регрессии; StatsDirect показывает частный коэффициент корреляции r с его основными результатами множественной линейной регрессии.

Другой способ вычисления частных коэффициентов корреляции, который не требует полной множественной регрессии, показан ниже для дальнейшего объяснения принципов:

Рассмотрим корреляционную матрицу для переменных A, B и C (обратите внимание, что функция многострочной регрессии в StatsDirect выдаст вам корреляционные матрицы в качестве одной из своих опций):

A B С
А: *
В: r (AB) *
К: r (переменный ток) г (ВС) *

Частичная корреляция A и B с поправкой на C:

То же самое можно сделать, используя коэффициент ранговой корреляции Спирмена.

Проверка гипотезы для частичного коэффициента корреляции выполняется так же, как и для обычного коэффициента корреляции, но основана на n-3 степенях свободы.

Обратите внимание, что такого рода отношения между тремя или более переменными более полезно исследовать с помощью самой множественной регрессии (Altman, 1991).

Общая форма частичной корреляции из множественной регрессии выглядит следующим образом:

— где t k — статистика Стьюдента для k-го члена линейной модели.

Частичная и получастичная корреляция

Частичная и получастичная корреляция

Частичная и получастичная корреляция

Приведите конкретный пример (имена переменных, контекст), в котором имеет смысл вычислить частичную корреляцию. Почему частичное, а не получастное?

Приведите конкретный пример (имена переменных, контекст), в котором имеет смысл вычислить получастичную корреляцию. Почему частичное, а не частичное?

Почему квадрат получастной всегда меньше или равен частичной корреляции?

Почему регрессия более тесно связана с получастичной корреляцией, чем с частичной корреляцией?

Опишите, как вы будете вычислять частичную корреляцию третьего порядка.

Частичная и получастичная корреляция

Регрессия, как правило, намного сложнее и труднее, чем ANOVA. Трудность возникает из-за того, что существует множество концепций регрессии и корреляции. Чрезмерное количество концепций возникает из-за того, что проблемы, которые мы решаем, очень беспорядочные. С помощью ANOVA вы назначаете людей на лечение, и все виды объяснений результатов (то есть ассоциации или корреляции между IV и DV) исключаются. Имея неэкспериментальные данные, мы не можем назначать людей для лечения по практическим или этическим причинам.Людей всегда интересует разница между мужчинами и женщинами, но мы действительно не можем распределять людей по этим группам.

Частичная корреляция

Мы измеряем индивидуальные различия по многим параметрам, включая когнитивные способности, личность, интересы и мотивы, отношения и т. Д. Часто мы хотим знать о влиянии одного IV на DV, но один или несколько других IV предлагают альтернативное объяснение. Мы хотели бы сохранить некоторую третью переменную постоянной при изучении отношений между X и Y.С заданием мы можем сделать это по замыслу. Измеряя индивидуальные различия, мы можем делать это статистически, а не с помощью манипуляций.

Основная идея частичной и получастичной корреляции состоит в том, чтобы исследовать корреляции между остатками (ошибками предсказания). Если мы регрессируем переменную X на переменную Z, а затем вычтем X ‘из X, мы получим остаток e. Это e не будет коррелировано с Z, поэтому любая корреляция X совместно с другой переменной Y не может быть связана с Z.

Пример

В настоящее время среди преподавателей и политиков ведутся споры об использовании тестов на пригодность и успеваемость при приеме в колледж.Некоторые говорят, что следует использовать тесты на пригодность, потому что формальное образование на них минимально влияет. Таким образом, они, как правило, уравнивают правила игры и учитывают различия между школами в инфляции оценок. Другие говорят, что следует использовать тесты достижений, потому что они показывают, что люди на самом деле знают или могут делать, и они будут мотивировать учащихся к прогрессу, выходящему за рамки основ. Есть много сложных аргументов, заслуживающих внимания с обеих сторон. Давайте на мгновение отложим все это в сторону и на мгновение задумаемся о полезности таких мер.Предположим, мы хотим принимать правильные решения о приеме в колледж в том смысле, что мы хотим максимизировать наши прогнозы успеваемости в колледже на основе того, что мы знаем по окончании средней школы в области математики. Предположим, мы принимаем людей в колледж, не глядя на данные, которые представляют собой результаты тестов для людей с SAT-Q (количественные или математические способности) и баллы по математическому тесту CLEP (математические достижения), и мы смотрим на оценки за стандартный первый год. математическая последовательность (дифференциальное и интегральное исчисление).Мы хотим знать, как можно прогнозировать оценки по математике из двух тестов.

Наши данные могут выглядеть так:

Человек

SAT-Q

CLEP

Средний балл по математике

1

500

30

2,8

2

550

32

3.0

3

450

28

2,9

4

400

25

2,8

5

600

32

3,3

6

650

38

3.3

7

700

39

3,5

8

550

38

3,7

9

650

35

3,4

10

550

31

2.9

Корреляции между нашими тремя переменными следующие:

SAT-Q

CLEP

GPA

SAT-Q

1

CLEP

,87

1

ГПД

.72

.88

1

Очевидно, что оба наших теста связаны с усвоением математики в колледже, как указано в среднем академическом балле.

Предположим, мы регрессируем средний балл по экзамену SAT-Q. Наше уравнение регрессии: GPA ‘= 1,78 + 0,002SATQ, а R-квадрат равен 0,52.

Если мы распечатаем наши переменные, прогнозируемые значения и остатки, мы получим:

Человек

SAT-Q

Средний балл по математике

Пред

Остаток

1

500

2.8

3,01266

-0,21266

2

550

3,0

3,13544

-0,13544

3

450

2,9

2.88987

0,01013

4

400

2.8

2,76709

0,03291

5

600

3,3

3,25823

0,04177

6

650

3,3

3,38101

-0,08101

7

700

3.5

3,50380

-0,00380

8

550

3,7

3,13544

0,56456

9

650

3,4

3,38101

0,01899

10

550

2.9

3,13544

-0,23544

Если мы вычислим корреляцию между этими переменными, мы найдем

SATQ

ГПД

ПРЕД

РЕЗИД

SATQ

1

ГПД

.72

1

ПРЕД

1.0

,72

1

РЕЗИД

0

0,69

0

1

Обратите внимание, что SAT и GPA все еще коррелируют.72. SAT и PRED коррелируют 1.0. В конце концов, PRED является линейной функцией SAT (т.е. линейным преобразованием вида Y ‘= 1,78 + 0,002SAT). Особенно обратите внимание, что RESID не коррелирует с SATQ, то есть корреляция между PRED и RESID равна нулю. Конечно, корреляция SAT и RESID также равна нулю. Помните, что линейная модель говорит, что дисперсия Y частично связана с X, а частично — с ошибкой. Часть, связанная с X, является линейной функцией X, которая идеально коррелирует с X. Что когда-либо остается (остаток), это то, что остается, когда часть, связанная с X, вычитается.Следовательно, остаток не должен коррелировать с X. Вспомните свои диаграммы Венна. То, что остаток не коррелирован с X, не означает, что он не может коррелировать с другими вещами. Обратите внимание, что остаток коррелирует 0,69 со средним баллом. В нашем случае можно сказать, что остаток — это та часть среднего балла, которая осталась после снятия SAT. Хорошо, давай, скажи это!

Теперь мы могли бы сделать то же самое, предсказывая средний балл по математике, наш результат CLEP. Если мы сделаем это, мы обнаружим, что GPA ‘= 1,17 +.06CLEP и R-квадрат = 0,77. Корреляции между этими переменными:

CLEP

ГПД

ПРЕД

РЕЗИД

CLEP

1

ГПД

.88

1

ПРЕД

1.0

.88

1

РЕЗИД

0

,48

0

1

Обратите внимание, что корреляция между CLEP и GPA больше, чем для SAT и GPA. Также обратите внимание, что корреляция между остатком и средним баллом меньше. Но снова предсказанные значения идеально коррелируют с IV, а остатки не коррелируют с IV или предсказанными значениями.

Еще одна вещь, которую мы могли бы сделать, чтобы определить прагматический аргумент, — это одновременно понизить средний балл по SAT и CLEP, чтобы посмотреть, что произойдет. Если мы сделаем это, мы обнаружим, что R-квадрат для модели равен 0,78, F = 12,25, p <0,01. Перехват и вес b для CLEP значимы, но вес b для SAT не имеет значения. Значения

Перехват = 1,16, t = 2,844, p <0,05

CLEP = 0,07, t = 2,874, p <0,05

SATQ = -,0007, t = -0.558, н.у.

В этом случае мы можем заключить, что значимым уникальным предиктором является CLEP. Несмотря на то, что SAT сильно коррелирует со средним баллом, он ничего не добавляет к уравнению прогноза после ввода оценки CLEP. (Эти данные вымышлены, и размер выборки слишком мал для проведения этого анализа. Это только для иллюстрации.)

Теперь предположим, что мы хотим поспорить о другом. Предположим, у нас есть теория, согласно которой все показатели успеваемости по математике имеют общее объяснение — математические способности.Другими словами, причина того, что различные (все) тесты достижений по математике взаимосвязаны, заключается в том, что они имеют общий фактор математических способностей. Другими словами, математические способности объясняют взаимосвязь между тестами достижений. В форме диаграммы путей мы могли бы представить это примерно так:

Это может быть не сразу очевидно, но эта диаграмма говорит, что существует только одна общая причина GPA и CLEP, а именно SATQ. Это означает, что корреляция между GPA и CLEP обусловлена ​​исключительно SATQ.Если были другие теоретические объяснения (например, мотивация), то их следует отразить на диаграмме. Как бы то ни было, это говорит о том, что корреляция между GPA и CLEP будет равна нулю, за исключением общего влияния SATQ.

Мы уже нашли остаток среднего балла, когда регрессировали средний балл по SATQ. Мы знаем, что этот остаток не коррелирует с SATQ. Мы можем запустить другую регрессию, где мы прогнозируем CLEP по SATQ. Если мы сделаем это, мы обнаружим, что CLEP ‘= 8,57 + 0,04SATQ. R-квадрат равен 0,76. Мы также можем увидеть значения переменных:

Человек

SAT-Q

CLEP

Пред

Остаток

1

500

30

30.2025

-.20253

2

550

32

32,3671

-.36709

3

450

28

28,0380

-.03797

4

400

25

25.8734

-.87342

5

600

32

34,5313

-2,53165

6

650

38

36.6952

1,30380

7

700

39

38.8608

0.13924

8

550

38

32,3671

5.63291

9

650

35

36,6962

-1,69620

10

550

31

32.3671

-1,36709

Корреляции между этими переменными

СБ

CLEP

ПРЕД

РЕЗИД

СБ

1

CLEP

.87

1

ПРЕД

1.0

,87

1

РЕЗИД

0

,49

0

1

Обратите внимание, что остатки не коррелируют с SAT.Теперь у нас есть два набора остатков от SAT, один для GPA и один для CLEP. GPA и CLEP — это два наших критерия достижений. Согласно нашей теории, они не должны коррелировать, за исключением общего влияния SAT. Остатки — это то, что остается, когда мы удаляем SAT из каждой переменной. Следовательно, наша теория утверждает, что два наших остатка не должны коррелировать.

Если мы вычислим корреляцию между этими двумя наборами остатков, мы обнаружим, что:

Остаток CLEP

Остаток ГПД

-.2053

-0,21266

-.36709

-0,13544

-.03797

0,01013

-.87342

0,03291

-2,53165

0,04177

1,30380

-0,08101

0.13924

-0,00380

5.63291

0,56456

-1,69620

0,01899

-1,36709

-0,23544

Корреляция между двумя наборами составляет 0,73, что значительно отличается от нуля при p <0,05. Таким образом, мы можем отвергнуть нашу гипотезу о том, что корреляция между GPA и CLEP объясняется исключительно SAT.Сделав еще один шаг вперед, мы можем серьезно поставить под сомнение теорию о том, что единственной общей причиной двух показателей успеваемости являются математические способности. Конечно, всегда есть другие объяснения (наш SAT - плохая мера способностей? Что-то странное в образце? Курсы, которые использовались для вычисления GPA, и т. Д.).

Корреляция между двумя наборами остатков называется частичной корреляцией. В нашем случае это была корреляция между GPA и CLEP при постоянном SAT.

Частичная корреляция — это то, что мы получаем, когда сохраняем постоянной некоторую третью переменную из двух других переменных.Мы знаем, что корреляция между CLEP и GPA составляет 0,88. Но SAT «объясняет» (или может составлять) часть этого. Что произошло бы с корреляцией, если бы SAT-Q были постоянными? Это 0,73, корреляция остатков от предсказания CLEP и GPA от SATQ.

В психологии есть много основных областей, в которых мы хотим знать частичные корреляции (Название 1?).

Pedhazur обозначает частичную корреляцию r 12,3 , где r 12 — корреляция между X 1 и X 2 и .3 означает частичное управление для X 3 . В нашем примере это корреляция между GPA и CLEP при постоянном SATQ.

Формула для вычисления частичного r из корреляций:

В нашем примере (1 = GPA, 2 = CLEP, 3 = SAT)

Вы не будете использовать это уравнение для вычисления частичных чисел очень часто, но оно важно по двум причинам: (1) частичная корреляция может быть (немного или намного) больше или меньше, чем простая корреляция, в зависимости от знаков и размер используемых корреляций, и (2) его связь с получастичной корреляцией.

Если мы вычленим одну переменную из корреляции, эта частичная корреляция называется частичной корреляцией первого порядка . Если мы вычленим 2 переменные из этой корреляции (например, r 12,34 ), мы получим частичное значение второго порядка и т. Д. Непартийные (как бы сырые) корреляции принято называть корреляциями нулевого порядка . Мы можем использовать формулы для вычисления частей второго и более высокого порядка или мы можем использовать множественную регрессию для вычисления остатков.Например, мы могли бы регрессировать каждый из X 1 и X 2 как для X 3 , так и для X 4 одновременно, а затем вычислить корреляцию между остатками.

Если бы мы это сделали, мы могли бы вычислить r 12,34 , корреляцию между X 1 и X 2 , контролируя как X 3 , так и X 4 .

Частные корреляции из множественных корреляций

Мы можем вычислить частичные числа из 2 рэндов.Например

Конечно, у нас есть для вас непонятная терминология, но давайте исследуем ее значение. Это говорит о том, что возведенный в квадрат частичный элемент первого порядка (частичный для 1 и 2, сохраняющий 3 константу) равен разнице между двумя членами R 2 , деленной на 1 минус член 2 R. Первый член R 2 — это R 2 1,23 , который представляет собой квадрат множественной корреляции, когда X 1 — это DV, а X 2 и X 3 — это IV (это не частичное, это просто выглядит так, чтобы сбивать с толку).Второй R 2 равен R 2 1,3 , что представляет собой квадрат корреляции, когда X 1 — это DV, а X 3 — это IV. Этот же термин стоит в знаменателе.

Когда мы добавляем IV в уравнение регрессии (сначала включаем их), R 2 либо остается прежним, либо увеличивается. Если новая переменная добавляет к предсказанию DV, тогда R 2 увеличивается. Если новая переменная ничего не добавляет, R 2 остается прежним.

На рисунке A R 2 для X 1 будет перекрывающейся частью Y и X 1 на рисунке. Когда мы добавляем X 2 к уравнению, R 2 увеличится на часть Y, которая перекрывается с X 2 . Поскольку X 1 и X 2 ортогональны, R 2 для модели с X 1 и X 2 будет r 2 y1 + r 2 y2 . На рисунке B, когда мы помещаем X 1 в уравнение регрессии, R 2 будет перекрывающейся частью с Y, то есть R 2 y.1 — это UY: X 1 + Shared Y. Когда мы добавляем X 2 к уравнению, R 2 y.12 будет полной перекрывающейся частью Y с обеими переменными X, то есть R 2 будет UY: X 1 + Shared Y + UY: X 2 . Увеличение R 2 , которое мы видим, когда мы добавляем X 2 , если X 1 уже есть в уравнении, будет UY: X 2 .

Предположим, мы начнем сначала. Начнем с X 2 в уравнении регрессии.Тогда R 2 y.2 будет UY: X 2 + Shared Y. Если мы затем добавим X 1 к уравнению, R 2 увеличится до UY: X 2 + Shared Y + UY: X 1 . В обоих случаях общий Y учитывается только один раз, и он появляется в первый раз, когда какая-либо переменная, которая его разделяет, включается в модель. На рисунке C переменные частично перекрываются, и добавление каждой переменной X в уравнение увеличивает R 2 . На рисунке D X 3 полностью перекрывается с X 1 и X 2 .Если мы добавим X 3 после X 1 и X 2 , R 2 не увеличится. Однако добавление переменных никогда не приводит к уменьшению R 2 (посмотрите на рисунки).

Теперь вернемся к уравнению:

(Я немного изменил символы, чтобы они соответствовали цифрам.) Термин слева — это квадрат корреляции (общая дисперсия). Справа в числителе — разница между двумя терминами R 2 . Фактически это приращение в 2 рандов.Он показывает увеличение R 2 , когда мы переходим от прогнозирования Y от X 2 (правый член) к прогнозированию Y из X 1 и X 2 (левый член). Поскольку 2 никогда не уменьшается, 2 рэнд 12 всегда будет больше или равно 2 рэндов 2 . Разница в 2 рэндов составит UY: X 1 , то есть 2 рэнд из-за X 1 выше и сверх того из-за X 2 . Числитель — это общая дисперсия Y, уникальная для X 1 (UY: X 1 ).Итак, мы частично выделили X 2 из X 1 сверху. Но нам все равно нужно убрать влияние X 2 на Y, и это делается в знаменателе, где мы вычитаем R 2 Y.2 из 1.

Квадрат корреляции — это процент общей дисперсии (r 2 Y1.2 ). На рисунке B квадрат частичной корреляции X 1 с контролем Y для X 2 будет UY: X 1 / [Total Y- (UY: X 2 + Shared Y)].Обратите внимание, как X 2 удаляется как из X 1 , так и из Y.

Получастичная корреляция

С помощью частичной корреляции мы находим корреляцию между X и Y, сохраняя Z постоянным как для X, так и для Y. Иногда, однако, мы хотим, чтобы Z оставалась постоянной только для X или только для Y. В этом случае мы вычисляем полупарциальную корреляцию. Между двумя остатками вычисляется частичная корреляция.Частичная величина вычисляется между одним остатком и другой необработанной или необработанной переменной. Обозначение r 1 (2.3) означает частичную корреляцию между немодифицированным X 1 и остаточным X 2 , где X 3 было взято из X 2 .

Сравним корреляционные формулы для частичной и получастичной —

Частично:

Получастичная

Обратите внимание, что формулы частичной и получастичной корреляции одинаковы в числителе и почти одинаковы в знаменателе.Частичное значение содержит что-то лишнее, то есть что-то, чего не хватает в получастичной корреляции в знаменателе. Это означает, что частичная корреляция будет больше по абсолютной величине, чем получастичная. Это будет верно, кроме случаев, когда управляющая или разделяющая переменная не коррелирована с переменной, которую нужно контролировать или резидуализацию; это тривиальный случай.

Вернемся к нашим образовательным дебатам. Предположим, мы хотим спрогнозировать оценки по математике в колледже. Кто-то утверждает, что если мы знаем результаты CLEP (продвинутые достижения в математике), нам не нужно знать SATQ.SATQ ничего не добавит к предсказанию среднего балла, если мы узнаем о CLEP, — говорится в аргументе. В этом случае мы захотим частично выполнить CLEP из SAT, но не из GPA. То есть мы сохраняем CLEP константой для SAT и смотрим, может ли SAT, остаточный таким образом, по-прежнему прогнозировать GPA.

1. GPA

2. СБ

3. CLEP

1. GPA

1

2.СБ

,72

1

3. CLEP

,87

.88

1

В нашем примере (1 = GPA, 2 = SAT, 3 = CLEP)

Корреляция между GPA и SAT при получении CLEP от SAT составляет -096. Это соответствует интересующему вас сценарию. Это показывает, что в принципе нет корреляции между SAT и GPA, когда мы сохраняем CLEP постоянным.Другая формула для получастицы показывает, что произойдет, если мы отделим CLEP от GPA, но не от SAT. Этот фрагмент показан ниже. В данном случае это не представляет особого интереса, но все равно приводится для полноты вычислительных примеров.

Если мы разделим CLEP из обоих GPA и SAT, корреляция будет:

Результат не имеет большого интуитивного смысла, но он напоминает нам, что абсолютное значение частичного значения больше, чем получастичное.

Одна из интерпретаций получастичной состоит в том, что это корреляция между одной переменной и остатком другой, так что влияние третьей переменной только паритетно с одной из двух переменных (следовательно, полупчастичная ). Другая интерпретация состоит в том, что полупчастица показывает приращение корреляции одной переменной выше и выше другой. Наиболее легко это увидеть с составом R 2 .

Получастичные корреляции из множественных корреляций

Сравним частные и получастичные в квадрате корреляций:

Частично

Получастичная

Это говорит о том, что возведенная в квадрат получастичная корреляция равна разнице между двумя значениями R 2 .Разница между возведенными в квадрат частными и получастными корреляциями заключается исключительно в знаменателе. Обратите внимание, что в обеих формулах два значения R 2 являются инкрементными. То есть левый R 2 — это квадрат корреляции, когда X 1 — это DV, а X 2 и X 3 — это IV. Правый R 2 — это квадрат корреляции, когда X 1 — это DV, а X 3 — это IV. Разница между двумя значениями, конечно же, связана с X 2 .Разница в 2 R является инкрементным R 2 R для переменной X 2 . В терминах наших диаграмм Венна X 1 — это Y, X 2 — это X 1 и X 3 — это X 2 . Следовательно, квадрат получастичной корреляции r 2 y (1,2) равен 2 юаней 12 2 юаней 2 или UY: X 1 . Другой получастей будет R 2 y.12 — R 2 y.1 .

Квадрат частичной корреляции и возведенный в квадрат получастичной корреляции указывают на долю общей дисперсии между двумя переменными. Частичное имеет тенденцию быть больше, чем получастичное. Чтобы понять почему, рассмотрим нашу знакомую диаграмму:

Частичная корреляция X 1 и Y с учетом X 2 учитывает отношение UY: X 1 к той части Y, которая не перекрывает ни одну переменную X, то есть UY: X 1 к [Y — (Общий Y + UY: X 2 )].Это связано с тем, что частичное удаляет X 2 как из X 1 , так и из Y. Полупарциальная корреляция между X 1 и Y r y (1.2), , однако, соответствует отношению UY: X 1 к весь Y. Это потому, что X 2 берется только из X 1 , а не из Y.

В нашем примере

Y = GPA = переменная 1

X 1 = CLEP = переменная 2; это r с средним баллом 0,8763, R-квадрат 0,7679.

X 2 = SAT = переменная 3; его r с GPA было.7181; R-квадрат был 0,5156.

R-квадрат для среднего балла по SAT и CLEP составил 0,7778.

Это согласуется с нашей предыдущей оценкой в ​​пределах ошибки округления, так как 0,73 * 0,73 = 0,53.

Ранняя оценка:

и 0,51 * 0,51 = 0,26.

Регрессия и получастичная корреляция

Регрессия касается получастичных корреляций. Для каждой переменной X мы спрашиваем: «Каков вклад этого X по сравнению с другими переменными X?» По сути, мы регрессируем каждую новую переменную X по другим переменным X, а затем коррелируем остаточный X с Y.

Обратите внимание, что мы делаем остаток НЕ Y каждый раз, когда включаем X.

Это будет частичная корреляция, а не получастичная корреляция. Изменение в R 2 , которое мы получаем, включая каждую новую переменную X в уравнение регрессии, представляет собой возведенную в квадрат получастичную корреляцию, которая соответствует весу b . Вес b дает ключ к ответу на вопрос «Какова корреляция между {X, остаточным по другим переменным X} и {Y}?» Другими словами, вес b сообщает нам наклон Y на этом X, сохраняя при этом другие переменные X в уравнении регрессии постоянными.

Переменные подавителя

Переменные подавителя немного сложно понять. У меня есть 3 причины обсудить их: (1) они доказывают, что проверки корреляционной матрицы недостаточно, чтобы определить значение переменной в уравнении регрессии, (2) иногда они случаются с вами, и вы должны знать, что это такое. происходит, чтобы не выставлять себя дураком, и (3) они показывают, почему диаграммы Венна иногда неадекватны для изображения множественной регрессии.

Действие подавителя легче понять, если вы сначала подумаете об измеряемых переменных как о совокупности (простых или взвешенных суммах) других переменных.

Например, мы получаем общий балл за тест, который представляет собой сумму баллов по элементам теста. Или мы получаем общую оценку удовлетворенности работой, которая является суммой оценок удовлетворенности по всем аспектам. Теперь предположим, что составной элемент получается путем сложения двух вещей, которые отрицательно коррелируют друг с другом. Например, предположим, что мы хотим узнать ваше полное влечение к автомобилю и получаем это, получая ваше удовлетворение от автомобилей, суммируя ваше удовлетворение с такими атрибутами, как цена и престиж.Поэтому мы просим вас оценить кучу автомобилей по признакам, и мы их суммируем. Теперь, если вам нравится престиж, вам не понравится цена, и наоборот. Если мы сложим эти две вещи, мы получим общую оценку удовлетворенности, но в ней есть части, которые антагонистичны (отрицательно коррелированы) между автомобилями. Обратите внимание, что это может произойти, даже если мы никогда не запрашивали у вас оценки по нескольким атрибутам, а скорее спрашивали ваше общее удовлетворение. Наблюдаемые меры могут быть совокупностью множества вещей, некоторые из которых положительно коррелированы, некоторые — отрицательно коррелированы, а некоторые — некоррелированы.

Предположим, у нас есть две независимые переменные; X 1 коррелирует с критерием, а X 2 нет (или почти так), но коррелирует с первым критерием . Предположим, мы собрали данные об эффективности продаж (в долларах, проданных в месяц) для ряда профессиональных продавцов (Y). Предположим, мы просим руководителей оценить эффективность продаж по каждому из них, то есть насколько им нравятся их показатели продаж (X 1 ). Мы также спрашиваем, насколько каждый руководитель любит каждого продавца как личность (X 2 ).Мы собрали некоторые данные по этим трем переменным и пришли к выводу, что результаты можно обобщить в следующей корреляционной матрице:

Я

Х 1

Х 2

Я

1

Х 1

.50

1

Х 2

.00

,50

1

Обратите внимание, что X 1 коррелирован с Y. X 2 не коррелирован с Y, но он коррелирован с X 1 . В этом случае подавителем будет X 2 . Мы можем решить для бета-весов как R -1 r = b .

R =

1

,50

г =

,50

,50

1

.00

R -1 =

1.333

-.667

б

=

.667

(б1)

-.667

1,333

-333

(b2)

Обратите внимание, что бета-вес для X 2 равен отрицательным , хотя корреляция между X 2 и Y равна нулю.Это также может иногда происходить, когда r для X 2 (обычно немного) положительно.

Отметим также, что бета-вес для X 1 равен положительным и фактически на больше , чем его соответствующее r из 0,50. R 2 для модели с двумя переменными составляет (0,50) * (. 667) или 0,334. Это больше, чем 0,50 2 или 0,25, которые можно было бы предположить исключительно на основе X 1 (X 2 можно было бы не принимать во внимание из-за его нулевой корреляции с Y).Как такое могло случиться? Три способа объяснить переменную супрессора.

  1. X 2 не коррелирует с Y, а X 1 коррелирует. X 1 также коррелирует с X 2 . Часть X 1 , которая коррелирует с X 2 , бесполезна для прогнозирования Y. Если мы остаточим X 1 на X 2 , X 1 сможет лучше предсказать Y, потому что мы будем удалили его часть, не имеющую отношения к Y. X 2 — мера ошибки предсказания в X 1 .Если мы вычтем X 2 (отрицательный вес b ) из X 1 , мы улучшим наш прогноз (увеличим положительный вес b для X 1 ). Поскольку X 2 является мерой ошибки, он подавляет корреляцию с Y, отсюда и термин «подавитель». Думаю, именно из-за этого возник термин.
  2. X 1 и X 2 совместно используют что-то (r = 0,50), не связанное с Y. Когда мы вычисляем получастичные корреляции каждого X с Y, мы удаляем эту общую часть.Это делает вес b все более положительным для X 1 и отрицательным для X 2 . Причина, по которой вес X 2 является отрицательным, заключается в том, что часть X 2 , которая отрицательно связана с Y, остается тем, что остается, когда мы удаляем часть, которая не связана с Y; удаленная часть (взятая путем остаточной обработки X 2 ) маскировала отрицательные отношения между X 2 и Y в необработанных переменных.
  3. Бета-веса берутся путем нахождения обратной матрицы R и умножения ее на наблюдаемые корреляции, r .(Хотя мы говорим о бета-весах, это в равной степени применимо к весам b .) Всякий раз, когда у нас есть положительные корреляции между нашими предикторами, обратная величина должна содержать отрицательные элементы для ортогонализации R. Когда эти отрицательные элементы умножаются на r, наблюдаемых корреляций, бета-веса станут отрицательными, если наблюдаемые корреляции не будут строго положительными. Это следствие положительной корреляции между предикторами. Подавитель — это просто частный случай того, что происходит, когда вы инвертируете матрицу предикторов в обычном случае, когда независимые переменные положительно коррелированы.

Давайте вернемся к трем причинам изучения супрессоров. Во-первых, проверка корреляционной матрицы может быть недостаточной для определения значения переменной в уравнении регрессии. Оказывается, X 2 внес ценный вклад в прогнозирование Y, и это не было бы очевидным, если бы просто взглянули на корреляции каждого X с Y. Имея всего два IV, вы можете сказать, что подавление вероятно из-за картина корреляций. При большем количестве переменных становится все труднее увидеть, что произойдет в регрессии, просто взглянув на R .

Похоже на дурака. Всегда смотрите на свои корреляции между каждым X и Y. Если знаки r и b противоположны, у вас, скорее всего, есть подавитель. Не интерпретируйте отрицательный вес b , как если бы r был отрицательным. Возможно, лучше интерпретировать переменную с положительным значением r и отрицательным значением b как мерой ошибки предсказания в наборе IV. Вы должны хотя бы указать вашему читателю, что b и r имеют противоположные знаки.

Проблема с диаграммами Венна. Сложность здесь в том, что при первоначальной настройке X 2 и Y не коррелированы, поэтому кружки не перекрываются. Однако после частичного разделения X 1 из X 2 , X 2 и Y имеют отрицательную корреляцию, поэтому круги действительно перекрываются. Трудно нарисовать один круг, который одновременно перекрывает другой круг и не перекрывает его.

Научитесь использовать частичную корреляцию в SPSS с данными исследования качества рабочей жизни NIOSH (2014)

2.1 Процедура SPSS

Перед запуском частичной корреляции нам необходимо убедиться, что данные соответствуют предположениям линейной модели: нормальности, линейности и гомоскедастичности. Если наши данные не соответствуют всем этим предположениям, тогда мы не сможем провести частичную корреляцию без дальнейшей «очистки» или обработки наших данных, и даже тогда это может оказаться невозможным. Чтобы проверить нормальность с помощью SPSS, мы выбираем в меню панели инструментов:

Analyze → Descriptive Statistics → QQ Plots

В открывшемся диалоговом окне переместите conrinc, WEIGHT и HEIGHT в поле «Variables» и затем нажмите OK, чтобы запустить анализ.

Чтобы проверить линейность и гомоскедастичность с помощью SPSS, мы выбираем в меню панели инструментов:

Графики → Устаревшие диалоги → Разброс / точка

В открывшемся диалоговом окне выберите «Простой разброс» и нажмите «Определить». В открывшемся диалоговом окне переместите conrinc по оси Y и HEIGHT по оси X. Затем нажмите ОК, чтобы выполнить анализ. Вам нужно будет повторить этот процесс для согласования ВЕСА и ВЕС-ВЫСОТА.

После того, как вы проверили параметрические допущения и определили, что ваши данные соответствуют всем допущениям, подходящим для частичной корреляции, вы можете продолжить частичную корреляцию.

Перед запуском частичной корреляции или любого статистического теста рекомендуется исследовать каждую переменную отдельно, это называется одномерным анализом. Это дает нам возможность описать переменную и получить первоначальное «ощущение» наших данных. Мы можем сделать это, выполнив измерения описателей центральных тенденций для наших трех переменных. Это делается в SPSS путем выбора в меню панели инструментов:

Анализировать → Описательная статистика → Частоты

В открывшемся диалоговом окне «Обзор» переместите все три выбранные переменные в список переменных.Снимите флажок «Отображать таблицы частот». В правой части диалогового окна «Частоты» нажмите кнопку «Статистика». Это открывает другое диалоговое окно, в котором вы должны выбрать требуемые меры центральной тенденции, как правило, среднее значение, медианное значение, стандартное отклонение, дисперсию и диапазон. Как только вы это сделаете, нажмите «Продолжить», а затем «ОК», чтобы выполнить анализ.

Скриншоты процедур для создания тестов на линейность, нормальность и гомоскедастичность можно найти в практических руководствах по тесту Левена, корреляции и тестам Колмогорова-Смирнова, соответственно, которые являются частью диапазона SAGE Наборы данных о методах исследования.Снимки экрана для процедур создания частотных распределений в SPSS доступны в разделах How-to-Guides for the Frequency Distribution и Dispersion of a Continuous Variable, соответственно, которые являются частью набора Sage Research Methods Datasets.

Чтобы запустить тест частичной корреляции в SPSS, выберите в меню:

Анализировать → Коррелировать → Частично

На рисунке 1 показано, как это выглядит в SPSS.

Рисунок 1: Выбор частичной корреляции из меню анализа в SPSS.

Затем в открывшемся диалоговом окне переместите:

  • Conrinc и HEIGHT в поле «Переменные».
  • ВЕС в поле «Контроль за».

На рисунке 2 показано, как это выглядит в SPSS.

Рисунок 2: Выбор переменных для включения в частичную корреляцию с помощью SPSS.

Теперь в верхнем левом углу диалогового окна нажмите «Параметры». В этом диалоговом окне вы должны выбрать «Средние значения и стандартные отклонения» и «Корреляции нулевого порядка».Затем нажмите «Продолжить», а затем «ОК», чтобы запустить частичную корреляцию. На рисунке 3 показано, как это выглядит в SPSS.

Рисунок 3: Выбор частичной корреляции с помощью SPSS.

R: частичная корреляция

R: частичная корреляция
pcor {ppcor} R Документация

Частичная корреляция

Описание

Функция pcor может вычислять парные частичные корреляции для каждой пары переменных с учетом других.Кроме того, он дает нам значение p, а также статистику для каждой пары переменных.

Использование

pcor (x, method = c ("пирсон", "кендалл", "копейщик"))
 

Аргументы

x

матрица или фрейм данных.

метод

строка символов, указывающая, какой частный коэффициент корреляции должен быть вычислен. Можно сократить одно из «pearson» (по умолчанию), «kendall» или «spearman».

Детали

Частичная корреляция — это корреляция двух переменных с учетом третьей или более других переменных. Когда определитель ковариационной матрицы численно равен нулю, используется обобщенная обратная матрица Мура-Пенроуза. В этом случае не будет предоставлено p-value и статистики , если количество переменных больше или равно размеру выборки.

Значение

оценка

матрица частных коэффициентов корреляции между двумя переменными

стр.значение

матрица значения p теста

статистика

матрица значений тестовой статистики

n

количество образцов

gn

количество заданных переменных

метод

используемый метод корреляции

Примечание

Недопустимые значения.

Автор (ы)

Сонхо Ким

Список литературы

Ким, С. (2015) ppcor: R-пакет для быстрого вычисления получастичных коэффициентов корреляции. Связь для статистических приложений и методов, 22 (6), 665-674.

См. Также

pcor.test , spcor , spcor.test

Примеры

# данные
y.data <- data.frame (
hl = c (7,15,19,15,21,22,57,15,20,18),
disp = c (0.000,0.964,0.000,0.000,0.921,0.000,0.000,1.006,0.000,1.011),
град = с (9,2,3,4,1,3,1,3,6,1),
BC = c (1.78e-02,1.05e-06,1.37e-05,7.18e-03,0.00e + 00,0.00e + 00,0.00e + 00
              , 4.48e-03,2.10e-06,0.00e + 00)
)
# частичная корреляция
pcor (y.data)
 

[индекс пакета ppcor , версия 1.1]

Что такое частичная корреляция?

Я немного крупнее. Как более крупный парень, я сделал несколько вещей, чтобы попытаться сбросить фунт или два за эти годы, например, диету и упражнения.И, будучи уникальным ботаником, я отслеживал свои данные с помощью нескольких приложений и электронных таблиц. Теперь вы можете спросить: « Джон, какое это имеет отношение к статистике? «Что ж, я часто ищу корреляцию между диетой, физическими упражнениями и потерей веса, чтобы получить наиболее эффективный распорядок дня. Итак, я спросил себя: «Я, если я правильно сижу на диете, могу ли я иметь для упражнений?» Чтобы ответить на этот вопрос, мне нужен статистический метод под названием частичных корреляций .

Частичная корреляция

Частичная корреляция - это, по сути, корреляция между двумя переменными, когда третья переменная остается постоянной.Это может немного сбивать с толку, но мы углубимся в это немного глубже с моей диетой и упражнениями.

Если мы посмотрим на взаимосвязь между диетой и упражнениями, мы увидим, что существует положительная корреляция . В практическом смысле это означает, что чем лучше я соблюдаю диету, тем больше я потеряю. Уф, приятно осознавать, что у меня есть что-то хорошее, если я отказался от мороженого. Если мы посмотрим на взаимосвязь между упражнениями и потерей веса, мы увидим отрицательную корреляцию, что звучит плохо, но это не так.Это означает, что чем больше я тренируюсь, тем больше теряю.

Но, если я хочу получить полную картину того, как диета и связаны с потерей веса, мне нужно рассмотреть влияние упражнений на диету и потерю веса. Вот здесь и пригодится частичная корреляция.

Давайте посмотрим на картинку того, что я имею в виду

Это изображение показывает взаимосвязь между диетой и потерей веса. Заштрихованная область будет корреляцией между этими двумя переменными.

Это изображение показывает взаимосвязь между упражнениями и потерей веса. Оранжевая область представляет собой корреляцию между двумя переменными.

Это изображение, которое представляет то, что нам нужно. Обратите внимание, что серая область представляет собой общую корреляцию трех переменных. Оранжевые и зеленые заштрихованные области все еще там. Они указывают на частичные корреляции, которые все еще объясняют некоторую потерю веса; однако серая область - это то, как они и объясняют, что происходит с потерей веса.

Но что делают частичные корреляции?

Множественная регрессия - это один из способов объяснения закономерностей в данных с использованием нескольких переменных. Но не дайте себя обмануть; они не совпадают, это частичные корреляции. Помните, что множественная регрессия - это способ объяснить, как отдельные переменные объясняют отношения. Частичные корреляции объясняют, как переменные работают вместе , чтобы объяснить закономерности в данных.

Мне чертовски нравятся частичные корреляции, потому что переменные часто работают вместе, чтобы объяснить закономерности в данных.Например, в образовании существуют разные типы вовлеченности (когнитивная, поведенческая и эмоциональная, если вам интересно), которые накладываются друг на друга, чтобы повлиять на обучение. В фильмах количество романтики, боевика и комедии работает вместе, чтобы повлиять на кассовые сборы. Все это можно проанализировать с помощью частичных корреляций.

В конечном счете, частичные корреляции - это способ объяснить закономерности в данных с использованием нескольких переменных. В этом случае вы посмотрите, как несколько переменных перекрываются, чтобы объяснить закономерности в данных, и получите более точную и надежную модель.Удачной статистики!

О Джоне Кларке
Джон любит математику и естественные науки до такой степени, что его семья покупает ему книги по статистике и химии в качестве подарков на его день рождения.

Добавить комментарий

Ваш адрес email не будет опубликован.