Рівняння регресії. Лінійна парна регресія

Призначення сервісу. За допомогою сервісу в онлайн режиміможна знайти:

Рівняння парної регресії відноситься до рівняння регресії першого порядку. Якщо економетрична модель містить лише одну пояснювальну змінну, вона має назву парної регресії. Рівняння регресії другого порядкуі рівняння регресії третього порядкуставляться до нелінійних рівнянь регресії.

Приклад. Здійсніть вибір залежної (пояснюється) і пояснюючої змінної для побудови парної регресійної моделі. Дайте. Визначте теоретичне рівняння парної регресії. Оцініть адекватність збудованої моделі (інтерпретуйте R-квадрат, показники t-статистики, F-статистики).
Рішеннябудемо проводити на основі процесу економетричного моделювання.
1-й етап (постановочний) – визначення кінцевих цілей моделювання, набору чинників і показників, що беруть участь у моделі, їх ролі.
Специфікація моделі - визначення мети дослідження та вибір економічних змінних моделі.
Ситуаційне (практичне) завдання. По 10 підприємствам регіону вивчається залежність вироблення продукції одного працівника y (тис. крб.) від частки робітників високої кваліфікації у кількості робочих x (в %).
2-й етап (апріорний) – передмодельний аналіз економічної сутності досліджуваного явища, формування та формалізація апріорної інформації та вихідних припущень, зокрема що стосується природи та генези вихідних статистичних даних та випадкових залишкових складових у вигляді низки гіпотез.
Вже на цьому етапі можна говорити про явну залежність рівня кваліфікації робітника та його виробленням, адже чим досвідченіший працівник, тим вища його продуктивність. Але як оцінити цю залежність?
Парна регресіяявляє собою регресію між двома змінними - y і x, тобто модель виду:

Де y – залежна змінна (результативна ознака); x - незалежна, або пояснює, змінна (ознака-фактор). Знак «^» означає, що між змінними x і y немає суворої функціональної залежності, тому практично в кожному окремому випадку величина y складається з двох доданків:

Де y – фактичне значення результативної ознаки; y x – теоретичне значення результативної ознаки, знайдене з рівняння регресії; ε – випадкова величина, Що характеризує відхилення реального значення результативної ознаки від теоретичного, знайденого за рівнянням регресії
Графічно покажемо регресійну залежністьміж виробленням продукції одного працівника і частки робітників високої кваліфікації.


3-й етап (параметризація) – власне моделювання, тобто. вибір загального виду моделі, зокрема складу і форми зв'язків, що входять до неї, між змінними. Вибір виду функціональної залежності у рівнянні регресії називається параметризацією моделі. Вибираємо рівняння парної регресії, тобто. на кінцевий результат y впливатиме лише один фактор.
4-й етап (інформаційний) – збирання необхідної статистичної інформації, тобто. реєстрація значень факторів, що беруть участь у моделі, і показників. Вибірка складається із 10 підприємств галузі.
5-й етап (ідентифікація моделі) – оцінювання невідомих параметрів моделі за наявними статистичними даними.
Щоб визначити параметри моделі, використовуємо МНК – метод найменших квадратів . Система нормальних рівняньбуде виглядати так:
a n + b∑x = ∑y
a∑x + b∑x 2 = ∑y x
Для розрахунку параметрів регресії збудуємо розрахункову таблицю (табл. 1).
xyx 2y 2x y
10 6 100 36 60
12 6 144 36 72
15 7 225 49 105
17 7 289 49 119
18 7 324 49 126
19 8 361 64 152
19 8 361 64 152
20 9 400 81 180
20 9 400 81 180
21 10 441 100 210
171 77 3045 609 1356

Дані беремо з таблиці 1 (останній рядок), у результаті маємо:
10a + 171 b = 77
171 a + 3045 b = 1356
Цю СЛАУ вирішуємо методом Крамера або методом зворотної матриці.
Отримуємо емпіричні коефіцієнти регресії: b = 0.3251, a = 2.1414
Емпіричне рівняння регресії має вигляд:
y = 0.3251 x + 2.1414
6-й етап (верифікація моделі) - зіставлення реальних та модельних даних, перевірка адекватності моделі, оцінка точності модельних даних.
Аналіз проводимо за допомогою

Рівняння парної регресії.

З поля кореляції можна висунути гіпотезу (для генеральної сукупності) про те, що зв'язок між усіма можливими значеннями X та Y носить лінійний характер.

Лінійне рівняння регресії має вигляд y = bx + a + ε

Система звичайних рівнянь.

a n + b∑x = ∑y

a∑x + b∑x 2 = ∑y x

Для наших даних система рівнянь має вигляд

12a + 1042 b = 1709

1042 a + 91556 b = 149367

З першого рівняння виражаємо аі підставимо на друге рівняння:

Отримуємо емпіричні коефіцієнти регресії: b = 0.9, a = 64.21

Рівняння регресії (емпіричне рівняння регресії):

y = 0.9 x + 64.21

Емпіричні коефіцієнти регресії aі bє лише оцінками теоретичних коефіцієнтів β i , а саме рівняння відображає лише загальну тенденцію в поведінці змінних, що розглядаються.

Для розрахунку параметрів лінійної регресії збудуємо розрахункову таблицю (табл. 1)

1. Параметри рівняння регресії.

Вибіркові середні.

Вибіркові дисперсії:

Середньоквадратичне відхилення

1.1. Коефіцієнт кореляції

Коваріація.

Розраховуємо показник тісноти зв'язку. Таким показником є ​​вибірковий лінійний коефіцієнт кореляції, який розраховується за такою формулою:

1.2. Рівняння регресії(Оцінка рівняння регресії).

Лінійне рівняння регресії має вигляд y = 0.9 x + 64.21

1.3. Коефіцієнт еластичності.

Коефіцієнт еластичності знаходиться за формулою:

1.4. Помилка апроксимації.

Помилка апроксимації в межах 5%-7% свідчить про хорошому підборірівняння регресії до вихідних даних.

1.5. Емпіричне кореляційне ставлення.

Емпіричне кореляційне ставлення обчислюється всім форм зв'язку і служить вимір тісноти залежності. Змінюється в межах.

Індекс кореляції.

Для лінійної регресії індекс кореляції дорівнює коефіцієнту кореляції r xy = 0.79.

Для будь-якої форми залежності тіснота зв'язку визначається за допомогою множинного коефіцієнта кореляції:

1.6. Коефіцієнт детермінації.

Найчастіше, даючи інтерпретацію коефіцієнта детермінації, його виражають у відсотках.

R 2 = 0.79 2 = 0.62

Для оцінки якості параметрів лінійної регресії збудуємо розрахункову таблицю (табл. 2)

2. Оцінка параметрів рівняння регресії.

2.1. Значення коефіцієнта кореляції.

Для того щоб при рівні значущості α перевірити нульову гіпотезу про рівність нулю генерального коефіцієнта кореляції нормальної двовимірної випадкової величини при конкуруючій гіпотезі H 1 ≠ 0, треба обчислити значення критерію, що спостерігається.

та за таблицею критичних точокрозподілу Стьюдента, за заданим рівнем значущості α і числом ступенів свободи k = n - 2 знайти критичну точку t критий двосторонньої критичної області. Якщо t набл< t крит оснований отвергнуть нулевую гипотезу. Если |t набл | >t критий - нульову гіпотезу відкидають.

За таблицею Стьюдента з рівнем значущості α=0.05 та ступенями свободи k=10 знаходимо t крит:

де m = 1 – кількість пояснюючих змінних.

2.2. Інтервальна оцінка коефіцієнта кореляції (довірчий інтервал).

2.3. Аналіз точності визначення оцінок коефіцієнтів регресії.

Незміщеною оцінкою дисперсії збурень є величина:

S 2 y = 53.63 - непояснена дисперсія (захід розкиду залежної змінної навколо лінії регресії).

S y = 7.32 – стандартна помилка оцінки (стандартна помилка регресії).

Sa - стандартне відхиленнядовільної величини a.

S b – стандартне відхилення випадкової величини b.

2.4. Довірчі інтервали для залежної змінної.

(a + bx p ± ε)

Розрахуємо межі інтервалу, в якому буде зосереджено 95% можливих значень Y при необмежено великій кількості спостережень та X p = 107

Індивідуальні довірчі інтервали для Y за даного значення X.

(a + bx i ± ε)

t критий (n-m-1;α/2) = (10;0.025) = 2.228

2.5. Перевірка гіпотез щодо коефіцієнтів лінійного рівняння регресії.

1) t-статистика. Критерій Стьюдента.

t критий (n-m-1;α/2) = (10;0.025) = 2.228

Довірчий інтервал для коефіцієнтів рівняння регресії.

(b - t крит S b; b + t крит S b)

(a - t критий S a ; a + t критий S a)

2) F-статистика. Критерій Фішера.

Табличне значення критерію зі ступенями свободи k 1 =1 і k 2 =10, F табл = 4.96

Лінійна парна регресія знаходить широке застосування економетриці як чіткої економічної інтерпретації її параметрів. Лінійна регресія зводиться до знаходження рівняння виду

або . (3.6)

Рівняння виду дозволяє за заданими значеннями фактора хмати теоретичні значення результативної ознаки, підставляючи в нього фактичні значення фактора x.

Побудова парної лінійної регресії зводиться до оцінки її параметрів та . Оцінки параметрів лінійної регресії можна знайти різними методами. Наприклад, методом найменших квадратів (МНК).

Відповідно до методу найменших квадратів оцінки параметрів і вибираються таким чином, щоб сума квадратів відхилень фактичних значень результативної ознаки (у)від розрахункових (теоретичних, модельних) була мінімальна. Іншими словами, з усієї множини ліній лінія регресії на графіку вибирається так, щоб сума квадратів відстаней по вертикалі між точками і цією лінією була б мінімальною (рис. 3.2):

, (3.7)

Мал. 3.2. Лінія регресії з мінімальною сумоюквадратів відстаней по вертикалі між точками та цією лінією

Для подальших висновків у виразі (3.7) підставимо модельне значення, тобто і отримаємо:

Щоб знайти мінімум функції (3.8), треба обчислити похідні по кожному з параметрів і і прирівняти їх до нуля:

Перетворюючи цю систему, отримаємо наступну систему нормальних рівнянь для оцінки параметрів і :

. (3.9)

Матрична форма запису цієї системи має вигляд:

. (3.10)

Вирішуючи систему нормальних рівнянь (3.10) у матричній формі отримаємо:

Алгебраїчна форма вирішення системи (3.11) можна записати наступним чином:

Після нескладних перетворень формулу (3.12) можна записати у зручній формі:

Необхідно зауважити, що оцінки параметрів рівняння регресії можна отримати і за іншими формулами, наприклад:

(3.14)

Тут вибірковий парний лінійний коефіцієнт кореляції.

Після обчислення параметрів регресії ми можемо записати рівняння математичної моделі регресії:

Необхідно зауважити, що параметр показує середню зміну результату із зміною фактора на одну одиницю. Так, якщо у функції витрат (у -витрати (тис. руб.), х- Кількість одиниць продукції). То, отже, із збільшенням обсягу продукції (х)на 1 од. Витрати виробництва зростають у середньому 2 тис. крб., т. е. додатковий приріст продукції 1 од. вимагатиме збільшення витрат у середньому на 2 тис. руб.

Можливість чіткої економічної інтерпретації коефіцієнта регресії зробила лінійне рівняння регресії досить поширеним у економетричних дослідженнях.

Формально - значення упри х= 0. Якщо ознака-фактор не має і не може мати нульового значення, то вищезазначене трактування вільного члена немає сенсу. Параметр може мати економічного змісту. Спроби економічно інтерпретувати параметр можуть призвести до абсурду, особливо при < 0.

Приклад 3.2. Припустимо по групі підприємств, що випускають той самий вид продукції, розглядається функція витрат: . Інформація, необхідна розрахунку оцінок параметрів і , представлена ​​у табл. 3.1.

Таблиця 3.1

Розрахунковатаблиця

№ підприємства

Випуск продукції, тис. од. ()

Витрати виробництва, млн крб. ()

Система нормальних рівнянь матиме вигляд:

.

Рішення цієї системи за формулою (4.13) дає результат:

Запишемо модель рівняння регресії (4.16):

Підставивши в рівняння значення x, знайдемо теоретичні (модельні) значення у,(Див. останню графу табл. 3.1).

У разі величина параметра немає економічного сенсу.

У цьому прикладі маємо:

Рівняння регресії завжди доповнюється показником тісноти зв'язку. При використанні лінійної регресії як такий показник виступає лінійний коефіцієнт кореляції. Існують різні модифікації формули лінійного коефіцієнта кореляції. Деякі з них наведені нижче:

Як відомо, лінійний коефіцієнт кореляції перебуває у межах: .

Якщо коефіцієнт регресії , то, і, навпаки, при, .

За даними табл. 4.1 величина лінійного коефіцієнта кореляції становила 0,993, що досить близько до 1 означає наявність дуже тісної залежності витрат за виробництво від величини обсягу випущеної продукції.

Слід мати на увазі, що величина лінійного коефіцієнта кореляції оцінює тісноту зв'язку аналізованих ознак її лінійній формі. Тому близькість абсолютної величини лінійного коефіцієнта кореляції до нуля ще означає відсутність зв'язку між ознаками. При іншій специфікації моделі зв'язок між ознаками може бути досить тісним.

Для оцінки якості підбору лінійної функції розраховується квадрат лінійного коефіцієнта кореляції коефіцієнт детермінації.Коефіцієнт детермінації характеризує частку дисперсії результативної ознаки у,зрозумілу регресією, в загальної дисперсіїрезультативної ознаки.

Відповідно величина характеризує частку дисперсії викликану впливом інших не врахованих моделі чинників.

У нашому прикладі. Отже, рівнянням регресії пояснюється 98,6% дисперсії результативної ознаки, а на долю інших факторів припадає лише 1,4% її дисперсії (тобто залишкова дисперсія). Величина коефіцієнта детермінації служить одним із критеріїв оцінки якості лінійної моделі. Чим більша частка поясненої варіації, тим відповідно менше роль інших факторів, і, отже, лінійна модель добре апроксимує вихідні дані і нею можна скористатися для прогнозу значень результативної ознаки. Так, вважаючи, що обсяг продукції підприємства може становити 6 тис. . од., прогнозне значення витрат виробництва виявиться 221,01 тис. крб.

100 рбонус за перше замовлення

Виберіть тип роботи Дипломна робота Курсова роботаМагістерська дисертація Звіт з практики Стаття Доповідь Рецензія Контрольна роботаМонографія Розв'язання задач Бізнес-план Відповіді на запитання Творча роботаЕсе Чертеж Твори Переклад Презентації Набір тексту Інше Підвищення унікальності тексту Кандидатська дисертація Лабораторна роботаДопомога on-line

Дізнатись ціну

Парною регресією називається рівняння зв'язку двох змінних

у і х Вида y= f(x),

де у - залежна змінна (результативна ознака);

х - незалежна, що пояснює змінна (ознака-фактор).

Розрізняють лінійні та нелінійні регресії.

Метод найменших квадратів МНК

Для оцінки параметрів регресій, лінійних за цими параметрами, використовується метод найменших квадратів (МНК) . МНК дозволяє отримати такі оцінки параметрів, при яких сума квадратів відхилень фактичних значень результативної ознаки від теоретичних значень ŷ xпри тих же значеннях фактора xмінімальна, тобто.

5. Оцінка статистичної значущості показників кореляції, параметрів рівняння парної лінійної регресії, рівняння регресії загалом.

6. Оцінка ступеня тісноти зв'язку між кількісними змінними. Коефіцієнт коваріації. Показники кореляції: лінійний коефіцієнт кореляції, індекс кореляції (теоретичне кореляційне ставлення).

Коефіцієнт коваріації

Мч(у) - Тобто. отримаємо кореляційну залежність.

Наявність кореляційної залежності неспроможна відповісти питанням про причини зв'язку. Кореляція встановлює лише міру зв'язку, тобто. міру узгодженого варіювання.

Міру взаємозв'язку 2 змінними можна знайти за допомогою коваріації.

, ,

Розмір показника коваріації залежить від одиниць в γ вимірюється змінна. Тож оцінки ступеня узгодженого варіювання використовують коефіцієнт кореляції - безрозмірну характеристику має певний межі варіювання.

7. Коефіцієнт детермінації. Стандартна помилка рівняння регресії.

Коефіцієнт детермінації (rxy2) - характеризує частку дисперсії результативної ознаки y, яка пояснюється дисперсією, у загальній дисперсії результативної ознаки. Чим ближче rxy2 до 1, тим якісніша регресійна модель, тобто вихідна модель добре апроксимує вихідні дані.

8. Оцінка стат значимості показників корр-ії, параметрів рівняння парної лінійної регресії, рівняння регресії загалом: t-критерій Стьюдента, F-Критер Фішера.

9. Нелінійні моделі регресії та їх лінеаризація.

Нелінійні регресії поділяються на два класи : регресії, нелінійні щодо виключених в аналіз пояснюють змінних, але лінійні за параметрами, що оцінюються, і регресії, нелінійні за оцінюваними параметрами.

Приклади регресій, нелінійних по пояснюючих змінних, але лінійних за оцінюваними параметрами:


Нелінійні моделі регресії та їх лінеарізація

При нелінійній залежності ознак, що наводиться до лінійного вигляду, параметри множинної регресіїтакож визначаються по МНК з тією лише різницею, що він використовується не до вихідної інформації, а до перетворених даних. Так, розглядаючи статечну функцію

,

ми перетворюємо її на лінійний вигляд:

де змінні виражені у логарифмах.

Далі обробка МНК та сама: будується система нормальних рівнянь і визначаються невідомі параметри. Потенціюючи значення, знаходимо параметр aі відповідно загальний виглядрівняння статечної функції.

Взагалі кажучи, нелінійна регресіяпо включеним змінним не приховує будь-яких складнощів в оцінці її параметрів. Ця оцінка визначається, як і в лінійній регресії, МНК. Так, у двофакторному рівнянні нелінійної регресії

може бути проведена лінеаризація, введенням у нього нових змінних . В результаті виходить чотирифакторне рівняння лінійної регресії.

10.Мультиколлінеарність. Методи усунення мультиколлінеарності.

Найбільші труднощі у використанні апарату множинної регресії виникають за наявності мультиколінеарності факторів, коли більш ніж два фактори пов'язані між собою лінійною залежністю . Наявність мультиколлінеарності факторів може означати, що деякі фактори завжди діятимуть в унісон. В результаті варіація у вихідних даних перестає бути повністю незалежною, і не можна оцінити вплив кожного фактора окремо.

Чим сильніша мультиколлінеарність факторів, тим менш надійна оцінка розподілу суми поясненої варіації за окремими факторами за допомогою методу найменших квадратів (МНК).

Включення в модель мультиколінеарних факторів небажано наступних причин:

ü утрудняється інтерпретація параметрів множинної регресії; параметри лінійної регресії втрачають економічний зміст;

ü оцінки параметрів ненадійні, виявляють великі стандартні помилкита змінюються зі зміною обсягу спостережень, що робить модель непридатною для аналізу та прогнозування

Методи усунення мультиколінеарності

- Виняток змінної (их) з моделі;

Однак потрібна певна обачність при застосуванні даного методу. У цій ситуації можливі помилки специфікації.

- Отримання додаткових даних або побудова нової вибірки;

Іноді зменшення мультиколлинеарности досить збільшити обсяг вибірки. Наприклад, при використанні щорічних даних можна перейти до поквартальних даних. Збільшення кількості даних зменшує дисперсії коефіцієнтів регресії і цим збільшує їх статистичну значимість. Проте отримання нової вибірки чи розширення старої який завжди можливе чи пов'язані з серйозними витратами. Крім того, такий підхід може збільшити

автокореляцію.

- Зміна специфікації моделі;

У ряді випадків проблема мультиколлінеарності може бути вирішена шляхом зміни специфікації моделі: або змінюється форма моделі, або додаються нові пояснюючі змінні, які не враховані в моделі.

- Використання попередньої інформації про деякі параметри;

11. Класична лінійна модель множинної регр-ії (КЛММР). Визначення параметрів ур-я множинної регр-ії методом найм квадратів.

Парна регресія характеризує зв'язок між двома ознаками: результативним та факторним. Важливим та нетривіальним етапом побудови регресійної моделі є вибір рівняння регресії. Цей вибір ґрунтується на теоретичних даних про досліджуване явище та попередній аналіз наявних статистичних даних.

Рівняння парної лінійної регресії має вигляд:

де – теоретичні значення результативної ознаки, отримані за рівнянням регресії; - Коефіцієнти (параметри) рівняння регресії.

Модель регресії будується виходячи з статистичних даних, причому можуть використовуватися як індивідуальні значення ознаки, і згруповані дані. Для виявлення зв'язку між ознаками достатньо великому числуспостережень статистичні дані попередньо групують за обома ознаками та будують кореляційну таблицю. З допомогою кореляційної таблиці відображається лише парна кореляційна зв'язок, тобто. зв'язок результативної ознаки з одним фактором. Оцінка параметрів рівняння регресії здійснюється методом найменших квадратів, в основі якого лежить припущення про незалежність спостережень досліджуваної сукупності та вимогу мінімальності суми квадратів відхилень емпіричних даних від вирівняних значень результативного фактора:

.

Для лінійного рівняння регресії маємо:

Для знаходження мінімуму цієї функції прирівняємо до нуля її приватні похідні та отримаємо систему двох лінійних рівнянь, Яка називається системою нормальних рівнянь:

де - обсяг досліджуваної сукупності (кількість одиниць спостереження).

Рішення системи нормальних рівнянь дозволяє знайти параметри рівняння регресії.

Коефіцієнт парної лінійної регресії є середнім значенням у точці, тому його економічна інтерпретація утруднена. Сенс цього коефіцієнта можна трактувати як усереднений вплив на результативну ознаку неврахованих (не виділених на дослідження) чинників. p align="justify"> Коефіцієнт показує, на скільки в середньому змінюється значення результативної ознаки при зміні факторної ознаки на одиницю.

Після отримання рівняння регресії необхідно перевірити його адекватність, тобто відповідність фактичним статистичним даним. З цією метою проводиться перевірка значущості коефіцієнтів регресії: з'ясовується, наскільки ці показники характерні для всієї генеральної сукупності, чи вони є результатом випадкового збігу обставин.

Для перевірки значимості коефіцієнтів простої лінійної регресії за обсягом сукупності менше 30 одиниць використовується критерій Стьюдента. Порівнюючи значення параметра з його середньою помилкою, визначають величину критерію:


де - середня помилка параметра.

Середня помилка параметрів і розраховуються за такими формулами:

; ,

- Обсяг вибірки;

Середньоквадратичне відхилення результативної ознаки від вирівняних значень;

Середньоквадратичне відхилення факторної ознаки від загальної середньої:

або

Тоді розрахункові (фактичні) значення критерію відповідно дорівнюють:

- Для параметра;

- Для параметра .

Обчислені значення критерію порівнюються з критичними значеннями , які визначають за таблицею Стьюдента з урахуванням прийнятого рівня значущості та числа ступенів свободи , де обсяг вибірки, -1 ( - число факторних ознак). У соціально-економічних дослідженнях рівень значущості зазвичай беруть 0.05 чи 0.01. Параметр визнається значним, якщо (відхиляється гіпотеза у тому, що параметр лише з випадкових обставин дорівнював отриманої величині, а насправді дорівнює нулю).

Адекватність регресійної моделі може бути оцінена за допомогою критерію Фішера. Розрахункове значення критерію визначається за формулою ,

де - Число параметрів моделі;

Об'єм вибірки.

За таблицею визначається критичне значення - критерію Фішера для прийнятого рівня значущості та числа ступенів свободи. Якщо модель регресії визнається адекватною за цим критерієм (відкидається гіпотеза про невідповідність закладених у рівнянні і реально існуючих зв'язків).

Друге завдання кореляційно-регресійного аналізу – вимір тісноти залежності результативної та факторної ознаки.

Для всіх видів зв'язку задача вимірювання тісноти залежності може бути вирішена за допомогою обчислення теоретичного кореляційного відношення:

,

де - дисперсія у ряді вирівняних значень результативної ознаки, обумовлена ​​факторною ознакою;

- дисперсія у низці фактичних значень. Це загальна дисперсія, яка складається з дисперсії, обумовленої фактором (тобто факторної дисперсії), та дисперсії залишку (відхилення емпіричних значень ознаки від вирівняних теоретичних).

На підставі правила складання дисперсій теоретичне кореляційне відношення може бути виражене через залишкову дисперсію:

.

Оскільки дисперсія відбиває варіацію у ряду лише з допомогою варіації чинника , а дисперсія відбиває варіацію з допомогою всіх чинників, їх ставлення, іменоване теоретичним коефіцієнтом детермінації , показує, який питома вагау загальній дисперсії ряду займає дисперсія, що викликається варіацією фактора. Квадратний коріньіз відношення цих дисперсій дає теоретичне кореляційне відношення. При нелінійних зв'язках теоретичне кореляційне відношення називають індексом кореляції та позначають.

Якщо це означає, що роль інших факторів у варіації відсутня, залишкова дисперсія дорівнює нулю і відношення означає повну залежність варіації від . Якщо , це означає, що варіація ніяк не впливає на варіацію , й у разі . Отже, кореляційне відношення набуває значення від 0 до 1. Чим ближче кореляційне відношення до 1, тим тісніше зв'язок між ознаками.

Крім того, при лінійній формі рівняння зв'язку застосовується інший показник тісноти зв'язку – лінійний коефіцієнт кореляції:

.

Лінійний коефіцієнт кореляції набуває значення від -1 до 1. Негативні значеннясвідчить про зворотну залежність, позитивні – на пряму. Чим ближче модуль коефіцієнта кореляції до одиниці, тим тісніше зв'язок між ознаками.

Прийнято такі граничні оцінки лінійного коефіцієнта кореляції:

Зв'язку немає;

Зв'язок слабкий;

Зв'язок середній;

Зв'язок сильний;

Зв'язок дуже сильний.

Квадрат лінійного коефіцієнта кореляції називають лінійним коефіцієнтом детермінації.

Факт збігу або розбіжності теоретичного кореляційного відношення та лінійного коефіцієнта кореляції використовується для оцінки форми залежності. Їх значення збігаються лише за наявності лінійного зв'язку. Розбіжність цих величин свідчить про нелінійність зв'язку між ознаками. Вважають, що якщо , то гіпотезу про лінійність зв'язку можна вважати підтвердженою.

p align="justify"> Показники тісноти зв'язку, особливо обчислені за даними порівняно невеликої статистичної сукупності, можуть спотворюватися дією випадкових причин. Це викликає необхідність перевірки їх надійності (значущості), що дозволяє поширювати висновки, отримані за вибірковими даними, на генеральну сукупність.

Для цього розраховується середня помилка коефіцієнта кореляції:

Де – число ступенів свободи за лінійної залежності.

Потім знаходиться відношення коефіцієнта кореляції до його середньої помилки, тобто , яке порівнюється з табличним значеннямкритерію Стьюдента.

Якщо фактичне (розрахункове) значення більше табличного (критичного, порогового), то лінійний коефіцієнт кореляції вважається значним, а зв'язок між і – реальним.

Після перевірки адекватності збудованої моделі (рівняння регресії) її необхідно проаналізувати. Для зручності інтерпретації параметра використовують коефіцієнт еластичності. Він показує середні зміни результативної ознаки при зміні факторної ознаки на 1% і обчислюється за такою формулою:

Точність отриманої моделі може бути оцінена на підставі значення середньої помилкиапроксимації:

Крім того, в деяких інформативними є дані про залишки, що характеризують відхилення спостережень від розрахункових значень. Особливий економічний інтерес становлять значення, залишки яких мають найбільші позитивні чи негативні відхилення від очікуваного рівня аналізованого показника.



Схожі статті

2024 parki48.ru. Будуємо каркасний будинок. Ландшафтний дизайн. Будівництво. Фундамент.