II. Сущность и этапы корреляционно-регрессионного анализа (КРА).




I. Взаимосвязи экономических явлений и их виды.

Различные явления, происходящие в экономике, находятся в причинно-следственной связи. Эти связи многообразны по своему характеру и различны по свей силе.

Задача статистики сводится к тому, чтобы определить эти зависимости и дать им экономическую оценку. Для этого выделяют результативный (у) и факторные (х) признаки. Признак, характеризующий следствие называется результативным. Признаки, характеризующие причину – факторными.

Виды взаимосвязей:

1. По тесноте.

А) Функциональные (полная связь).

Возникает, когда значению величины факторного признака будет соответствовать определённое значение признака результата.

Пример: Зависимость уровня оплаты труда работников (результативный признак): от объёмов выполненной работы или от времени (факторные признаки).

Б) Корреляционная связь (частичная).

Возникает, когда отдельному значению факторного признака может соответствовать несколько значений признака результата.

Пример: Зависимость урожайности сельскохозяйственных культур (результативные признак) от дозы вносимых удобрений (факторный признак). Она может проявляться, а может не проявляться, т.к. урожайность зависит и от других факторов: сроков посева, погодных условий, уровня агротехники и других – которые либо усиливают эту связь, либо нивелируют её.

2. По направлению.

А) Прямая.

Проявляется, если направление изменения факторного и результативного признаков совпадают.

Пример: Рост прибыли (факторный признак) повышает уровень рентабельности (результативный признак) и наоборот.

Б) Обратная.

Проявляется, если направления признаков не совпадают.

Пример: Рост себестоимости (факторный признак) снизит уровень рентабельности (результативный признак) и наоборот.

3. По аналитической форме.

А) Линейная.

Проявляется, если зависимость результативного признака от факторного можно выразить уравнением прямой линии:

ух = а ± bх

б) Криволинейная.

Проявляется, если зависимость результативного признака от факторного выражается уравнением кривой:

ух = а ± b / х – гипербола;

ух = а ± bх ± сх2 – парабола второго порядка.

Уравнение, с помощью которого дается оценка зависимости называется уравнением регрессии.

4. По числу факторов.

А) Парная. Возникает когда рассматривается влияние одного факторного признака на результат.

Б) Множественная. Возникает, когда рассматривается влияние двух и более факторных признаков на результат.

 

II. Сущность и этапы корреляционно-регрессионного анализа (КРА).

Корреляционно-регрессионный анализ дает количественную оценку наличия и направления взаимосвязей, характеризует силу и форму влияния одних факторов на другие.

Задачи регрессионного анализа: выявить наличие зависимости, установить форму связи и дать оценку абсолютной зависимости результата от фактора. Они решаются с помощью обработки массового потока информации и определения коэффициентов: регрессии и эластичности.

Задача корреляционного анализа: измерить тесноту связи между признаками. Решается с помощью определения коэффициентов: корреляции и детерминации.

Этапы корреляционно-регрессионного анализа.

1. Постановка задачи и предварительное установление причинно-следственных связей.

2. Отбор наиболее существенных признаков и сбор фактического материала.

3. Выбор показателей для оценки взаимосвязей и установление формы связи.

а) С помощью группировки данных определяется, какие показатели брать для расчета характеристик взаимосвязи.

б) С помощью построения графика зависимости определяется форма связи.

4. Расчет числовых характеристик и их экономический анализ.

А) Однофакторный корреляционно-регрессионный анализ (на примере парной корреляции линейной регрессии).

Для выявления связи между признаками строится аналитическая таблица или корреляционная матрица:

Х У У1 У2 Уz Итого
Х1 f11 f12 f1z Σf1j
Х2 f21 f22 f2z Σf2j
Хk fk1 fk2 fkz Σfkj
Итого Σfi1 Σfi2 Σfiz Σfij = n

 

fij – количество сочетаний значений х и у (частоты).

Если fij расположены в таблице беспорядочно, то связь между признаками отсутствует.

Если образуется какое-либо характерное сочетание fij – связь имеет место.

Пример: Если частоты в таблице концентрируются около одной из двух диагоналей – связь линейная.

Наглядным изображением корреляционной зависимости служит корреляционное поле (график), где на оси х откладываются значения факторного признака, оси у – результативного.

По расположению и концентрации точек судят о наличии и форме связи.

у у

       
   


….................

…..........

….. …………………..

….. …………….

… ………………………

…. х ……............. х

 

а) линейная связь б) связь отсутствует

В случае парной линейной зависимости строится регрессионная модель:

ух = а ± bх, где (1)

± – характеризует направление связи ((–) – обратную, (+) – прямую);

ух – значение признака результата;

х – значение признака фактора;

а – свободный член уравнения;

b – коэффициент регрессии.

Коэффициент регрессии характеризует меру абсолютной зависимости результативного признака от факторного. Он имеет те же единицы измерения, что и признак результат и показывает, как изменяется признак результат при изменении факторного признака на единицу.

 

 

Параметры уравнения регрессии (а и b) находятся методом наименьших квадратов на основе решения системы уравнений (линейного):

Σ у = аn + b х Σх

Σху = а х Σх + b х Σх2

Относительную характеристику регрессионной зависимости дает коэффициент эластичности:

Э = b х, где (2)

х̅ ̅ – среднее значение факторного признака;

у̅ ̅ – среднее значение результативного признака.

Этот показатель характеризует среднее изменение результативного признака (в %) при изменении факторного на 1%.

Количественная оценка тесноты связи производится с помощью коэффициента парной корреляции (в нашем случае линейной):

х

rух =, где (3)

δх х δу

δх – среднее квадратическое отклонение факторного признака;

δу – среднее квадратическое отклонение результативного признака;

– среднее значение произведения факторного и результативного признака.

Коэффициент корреляции принимает значения от –1 до 1.

Если rух = 0 – линейная связь отсутствует;

если | rух | = 1 – связь полная (функциональная);

если | rух | < 0,3 – связь слабая;

если | rух | – 0,3 … 0,7 – связь средняя;

если | rух | – 0,7 … 0,99 – связь сильная или тесная.

 

Для анализа относительной величины связи определяется коэффициент детерминации:

D = r2 х 100% (4)

Он показывает, сколько % вариации результативного признака обусловлено влиянием факторного.

Определение параметров корреляционно-регрессионной зависимости предполагает оценку надежности (значимости) коэффициента корреляции.

С этой целью определяют:

1) t-критерий (критерий Стьюдента):

n – 2

tкр = r х, где (5)

1 – r2

 

(n – 2) – число степеней свободы при заданном уровне значимости α и объёме выборки n.

2) Фактическое значение t-кр сравнивается с табличным (для α = 0,1; 0,01 или 0,05). Если фактическое значение t-кр превосходит табличное, то коэффициент корреляции значим (связь реальна).

Б) Множественный корреляционно-регрессионный анализ (на примере линейной регрессии).

При проведении этого анализа определяется перечень независимых переменных (факторных признаков), включаемых в уравнение регрессии.

Далее производится отбор наиболее значимых переменных и решается вопрос о форме уравнения (форме связи).

Уравнение линейной множественной регрессии:

ух = а ± b1х1 ± b2х2 ± … ± bnхn, где (6)

ух – значение признака результата, обусловленное влиянием нескольких признаков факторов;

х1, х2,…, хn – значения факторных признаков;

b1, b2, …, bn – коэффициенты регрессии, каждый из которых показывает на сколько единиц изменится результативный признак в связи с изменением соответствующего факторного признака на единицу при условии постоянства остальных значений х.

Для множественной регрессии определяются частные коэффициенты эластичности:

Э = bi х, где (7)

– среднее значение соответствующего факторного признака;

bi – коэффициент регрессии при соответствующем факторном признаке.

Этот коэффициент характеризует, на сколько процентов изменится результативный признак при изменении факторного на 1% при фиксированном значении остальных факторов.

Для оценки тесноты связи между результативным и факторными признаками определяют коэффициент множественной корреляции (в нашем случае линейный):

δ2ост δ2

R = 1 – =, где (8)

σ2 σ2

 

δ2ост – остаточная дисперсия, характеризующая вариацию результативного признака за счет факторов, не включенных в уравнение множественной регрессии;

σ2 – общая дисперсия фактических данных результативного признака;

δ2 – дисперсия теоретических значений результативного признака, рассчитанная по уравнению множественной регрессии.

Этот коэффициент изменяется от – 1 до 1 и имеет туже интерпретацию, что и парный коэффициент регрессии. Чем он ближе к 1, тем связь более существенна.

Для анализа тесноты связи между факторным и результативным признаками при фиксированном значении других факторных признаков определяются частные коэффициенты корреляции.

Пример: Частный коэффициент корреляции между признаками х1 и у, при исключении влияния признака х2 определяется:

rух1 – rух21х2

rух12) =, где (9)

(1 – r2ух2) (1 – r2х1х2)

 

r – парные коэффициенты корреляции между соответствующими признаками, определённые по формуле парного линейного коэффициента корреляции (формула 3).

Множественный коэффициент детерминации:

D = R2 х 100% (10)

Он показывает, какая часть вариации результативного признака зависит от влияния включенных в модель факторных признаков.

Для определения степени влияния одного факторного признака на результативный определяют частные коэффициенты детерминации (формула 4).

Оценка значимости коэффициента множественной корреляции осуществляется на основе F-критерия (критерия Фишера).

Фактическое значение Fкр определяется по формуле:

R2 n – m

Fкр = х, где (11)

1 – R2 m – 1

m – общее количество признаков (параметров уравнения);

n – объем выборки.

Фактическое значение Fкр сравнивается с табличным, которое находится с учетом заданного уровня значимости α (для α = 0,01 или 0,05) и числа степеней свободы k1 = m – 1 и k2 = n – m. Если фактическое значение больше фактического корреляция признаётся существенной.

 

III. Непараметрические методы оценки связей.

Методы оценки тесноты связи подразделяются на параметрические и непараметрические.

Параметрические методы основаны на использовании количественных характеристик признака: средних, дисперсии и других (корреляционный анализ).

Непараметрические методы позволяют измерять связь между качественными признаками.

Пример: а) зависимость между профессией и здоровьем;

б) зависимость успеваемости студентов заочников от работы их по специальности.

Непараметрические методы анализа.

1. При определении тесноты связи между двумя альтернативными признаками, представленными группами с противоположными характеристиками (хороший, плохой; успевающий, не успевающий и т.п.) определяются коэффициенты контингенции и ассоциации.

Для их расчёта используется таблица «четырех полей»:

a b a + b
c d c + d
a + c b + d a + b + c + d

 

a, b, c, d – частоты сочетаний пар качественных признаков.

1) Коэффициент ассоциации.

ad – bc

Ка = (12)

ad + bc

2) Коэффициент контингенции.

ad – bc

Кк = (13)

(a + b) х (b + d) х (a + c) х (c + d)

Эти коэффициенты изменяются от – 1 до 1. Чем ближе их значение к 1, тем сильнее связаны между собой изучаемые признаки. Связь считается подтвержденной, если Ка ≥ 0,5, а Кк ≥ 0,3.

2. При определении тесноты связи между качественными признаками, состоящими из более двух групп определяются коэффициенты К. Пирсона и А.А. Чупрова.

С этой целью строится таблица сопряжённости.

Группы признака – Х Группы признака – У Итого
I II III
I f1ух f2ух f3ух 1
II f4ух f5ух f6ух 2
III f7ух f8ух f9ух 3
Итого 1 2 3 nух

fух – частоты сочетания признаков х и у;

nх – сумма частот строки;

nу – сумма частот столбца;

nух – сумма частот сочетаний х и у.

1) Коэффициент взаимной сопряженности К. Пирсона.

φ2

Кп =, где (14)

1 + φ2

φ2 = Σ zi – 1, где

zi – значение расчётного показателя, определённого по i-й строке.

(f1ух)2 (f2ух)2 (f3ух)2

z1 = + +: nх1;

12 3

 

(f4ух)2 (f5ух)2 (f6ух)2

z2 = + +: nх2;

12 3

 

(f7ух)2 (f8ух)2 (f9ух)2

z3 = + +: nх3.

12 3

2) Коэффициент взаимной сопряженности Чупрова.

φ2

Кп =, где (15)

(k1 – 1) (k2 – 1)

k1 – число групп по строкам;

k2 – число групп по колонкам.

Эти коэффициенты изменяются от 0 до 1. Чем они ближе к 1, тем связь теснее.

3. Метод ранговых оценок.

Заключается в ранжировании (упорядочении) объектов изучения в порядке возрастания или убывания их количественных или качественных характеристик. При этом каждому значению признака х и у присваивается соответствующий ранг. Ранг – это порядковый номер значения ранжированного признака.

По упорядоченным данным определяются показатели тесноты связи:

1) Коэффициент корреляции рангов Спирмена (английский экономист).

6 Σ di2

ρ = 1 –, где (16)

n (n2 – 1)

 

di2 – квадрат разности рангов значения х – Rх и значения у – Rу;

n – число наблюдений (число пар рангов).

Этот коэффициент принимает значения от 0 до ± 1. Чем он ближе к 1, тем выше связь.

2) Коэффициент корреляции рангов Кендалла.

2S

τ =, где (17)

n (n – 1)

n – число пар значений признаков х и у;

S – сумма разностей между числом последовательностей (Р) и числом инверсий (Q) по признаку У.

Расчет коэффициента выполняется в следующей последовательности:

1. Значения Х ранжируются в порядке возрастания или убывания их количественных или качественных характеристик.

2. Значения У располагаются в порядке соответствия значениям Х и ранжируются.

3. Для каждого ранга У определяется число следующих за ним рангов, превышающих его величину. Эти числа суммируются, определяя значение Р.

4. Для каждого ранга У определяется число следующих за ним рангов, меньше его величины. Суммируя эти числа, получаем значение Q.

4. Множественный коэффициент ранговой корреляции – коэффициент Конкордации.

Рассчитывается для определения тесноты связи между произвольным числом ранжированных признаков.

12 S

W =, где (18)

m2 (n3 – n)

m – число анализируемых признаков;

n – число наблюдений;

S – отклонение суммы квадратов рангов от средней квадратов рангов:

n m 2

Σ Σ Ri

n m 2 i = 1 i = 1

S = Σ Σ Ri –, где (19)

i = 1 i = 1 n

Ri – ранг i-го значения признака.

 



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2018-01-30 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: