Побудувати рівняння лінійної регресії приклади. Рівняння регресії. Рівняння множинної регресії

Парна лінійна регресія

ПРАКТИКУМ

Парна лінійна регрессія: Практикум. -

Вивчення економетрики передбачає набуття студентами досвіду побудови економетричних моделей, прийняття рішень щодо специфікації та ідентифікації моделі, вибору методу оцінки параметрів моделі, оцінки її якості, інтерпретації результатів, отримання прогнозних оцінок та ін. Практикум допоможе студентам набути практичних навичок у цих питаннях.

Затверджено редакційно-видавничою радою

Упорядник: М.Б. Перова, д.е.н., професор

загальні положення

Економетричне дослідження починається з теорії, яка встановлює зв'язок між явищами. З усього кола чинників, які впливають результативний ознака, виділяються найбільш істотні чинники. Після того, як було виявлено наявність взаємозв'язку між ознаками, що вивчаються, визначається точний вид цієї залежності за допомогою регресійного аналізу.

Регресійний аналізполягає у визначенні аналітичного виразу (у визначенні функції), в якому зміна однієї величини (результативної ознаки) обумовлена ​​впливом незалежної величини(Факторної ознаки). Кількісно оцінити цей взаємозв'язок можна за допомогою побудови рівняння регресії або регресійної функції.

Базовою регресійною моделлю є модель парної (однофакторної) регресії. Парна регресія- Рівняння зв'язку двох змінних уі х:

де - Залежна змінна (результативний ознака);

-незалежна, що пояснює змінна (факторна ознака).

Залежно від характеру зміни узі зміною хрозрізняють лінійні та нелінійні регресії.

Лінійна регресія

Дана регресійна функція називається поліномом першого ступеня і використовується для опису процесів, що поступово розвиваються в часі.

Наявність випадкового члена (помилки регресії) пов'язано з впливом на залежну зміну інших неврахованих у рівнянні факторів, з можливою нелінійністю моделі, помилками виміру, отже, поява випадкової помилки рівняннярегресії може бути обумовлено наступними об'єктивними причинами:

1) нерепрезентативність вибірки. У модель парної регресії включається фактор, не здатний повністю пояснити варіацію результативної ознаки, який може бути схильний до впливу багатьох інших факторів (пропущених змінних) значно більшою мірою. Наприклад, заробітна плата може залежати, крім кваліфікації, від рівня освіти, стажу роботи, статі та ін.;

2) існує ймовірність того, що змінні, що беруть участь у моделі, можуть бути виміряні з помилкою. Наприклад, дані щодо витрат сім'ї на харчування складаються на підставі записів учасників опитувань, які, як передбачається, ретельно фіксують свої щоденні витрати. Зрозуміло, у своїй можливі помилки.

На основі вибіркового спостереження оцінюється вибіркове рівняння регресії ( лінія регресії):

,

де
- Оцінки параметрів рівняння регресії (
).

Аналітична форма залежностіміж досліджуваною парою ознак (регресійна функція) визначається за допомогою наступних методів:

    На основі теоретичного та логічного аналізуприроди явищ, що вивчаються, їх соціально-економічної сутності. Наприклад, якщо вивчається залежність між доходами населення та розміром вкладів населення у банки, то очевидно, що зв'язок прямий.

    Графічний методколи характер зв'язку оцінюється візуально.

Цю залежність можна наочно побачити, якщо побудувати графік, відклавши на осі абсцис значення ознаки х, але в осі ординат – значення ознаки у. Нанісши на графік точки, що відповідають значенням хі у, отримаємо кореляційне поле:

а) якщо точки безладно розкидані по всьому полю – це говорить про відсутність залежності між цими ознаками;

б) якщо точки концентруються навколо осі, що йде від нижнього лівого кута до верхнього правого – то є пряма залежність між ознаками;

в) якщо точки концентруються навколо осі, що йде від верхнього лівого кута в нижній правий – зворотна залежність між ознаками.

Якщо на кореляційному полі з'єднаємо точки відрізками прямою, то отримаємо ламану лініюз деякою тенденцією до зростання. Це буде емпірична лінія зв'язку або емпірична лінія регресії. За її виглядом можна судити не тільки про наявність, а й про форму залежності між ознаками, що вивчаються.

Побудова рівняння парної регресії

Побудова рівняння регресії зводиться оцінки її параметрів. Ці оцінки параметрів можна знайти різними способами. Одним з них є метод найменших квадратів(МНК). Суть методу ось у чому. Кожному значенню відповідає емпіричне (спостережуване) значення . Побудувавши рівняння регресії, наприклад, рівняння прямої лінії, кожному значенню відповідатиме теоретичне (розрахункове) значення . Значення, що спостерігаються не лежать точно на лінії регресії, тобто. не збігаються з . Різниця між фактичним та розрахунковим значеннями залежної змінної називається залишком:

МНК дозволяє отримати такі оцінки параметрів, за яких сума квадратів відхилень фактичних значень результативної ознаки увід теоретичних , тобто. сума квадратів залишків, мінімальна:

Для лінійних рівнянь та нелінійних, що наводяться до лінійних, вирішується така система щодо аі b:

де n- Чисельність вибірки.

Розв'язавши систему рівнянь, отримаємо значення аі bщо дозволяє записати рівняння регресії (регресійне рівняння):

де - Пояснення (незалежна) змінна;

-Пояснюється (залежна) змінна;

Лінія регресії проходить через точку ( ,) та виконуються рівності:

Можна скористатися готовими формулами, які випливають із цієї системи рівнянь:

де - Середнє значення залежної ознаки;

-Середнє значення незалежної ознаки;

-Середнє арифметичне значення твору залежної та незалежної ознак;

-Дисперсія незалежної ознаки;

-Ковариація між залежним і незалежним ознаками.

Вибірковою коваріацієюдвох змінних х, уназивається середня величинатвори відхилень цих змінних від своїх середніх

Параметр bпри хмає велике практичне значенняі називається коефіцієнта регресії. Коефіцієнт регресіїпоказує, наскільки одиниць у середньому змінюється величина у хна 1 одиницю свого виміру.

Знак параметра bу рівнянні парної регресії вказує на напрямок зв'язку:

якщо
, то зв'язок між показниками, що вивчаються пряма, тобто. зі збільшенням факторної ознаки хзбільшується і результативна ознака у, і навпаки;

якщо
, то зв'язок між показниками, що вивчаються зворотний, тобто. зі збільшенням факторної ознаки хрезультативна ознака узменшується, і навпаки.

Значення параметра ау рівнянні парної регресії часом можна трактувати як початкове значення результативного ознаки у. Таке трактування параметра аможлива лише в тому випадку, якщо значення
має сенс.

Після побудови рівняння регресії, значення, що спостерігаються yможна уявити як:

Залишки , як і помилки , є випадковими величинами, однак вони, на відміну від помилок спостерігаються. Залишок є та частина залежної змінної y, яку неможливо пояснити за допомогою рівняння регресії

На підставі рівняння регресії можуть бути обчислені теоретичні значення у хдля будь-яких значень х.

p align="justify"> В економічному аналізі часто використовується поняття еластичності функції. Еластичність функції
розраховується як відносна зміна yдо відносної зміни x. Еластичність показує, на скільки відсотків змінюється функція
за зміни незалежної змінної на 1%.

Оскільки еластичність лінійної функції
не є постійною величиною, а залежить від х, зазвичай розраховується коефіцієнт еластичності як середній показник еластичності.

Коефіцієнт еластичностіпоказує, наскільки відсотків у середньому за сукупністю зміниться величина результативної ознаки упри зміні факторної ознаки хна 1% від свого середнього значення:

де
- Середні значення змінних хі уу вибірці.

Оцінка якості побудованої моделі регресії

Якість моделі регресії- Адекватність побудованої моделі вихідним (спостерігається) даним.

Щоб виміряти тісноту зв'язку, тобто. виміряти, наскільки вона близька до функціональної, потрібно визначити дисперсію, яка вимірює відхилення увід у хта характеризує залишкову варіацію, обумовлену іншими факторами. Вони лежать в основі показників, що характеризують якість моделі регресії.

Якість парної регресії визначається за допомогою коефіцієнтів, що характеризують

1) тісноту зв'язку - індексу кореляції, парного лінійного коефіцієнта кореляції;

2) помилку апроксимації;

3) якість рівняння регресії та окремих його параметрів – середні квадратичні помилки рівняння регресії загалом та окремих його параметрів.

Для рівнянь регресії будь-якого виду визначається індекс кореляції, що характеризує лише тісноту кореляційної залежності, тобто. ступінь її наближення до функціонального зв'язку:

,

де - Факторна (теоретична) дисперсія;

-Загальна дисперсія.

Індекс кореляції набуває значення
, при цьому,

якщо

якщо
- то зв'язок між ознаками хі ує функціональною, Чим ближче до 1, тим більше тісним вважається зв'язок між ознаками, що вивчаються. Якщо
, то зв'язок можна вважати тісним

Дисперсії, необхідні для обчислення показників тісноти зв'язку, обчислюються:

Загальна дисперсія, що вимірює загальну варіацію за рахунок дії всіх факторів:

Факторна (теоретична) дисперсія,що вимірює варіацію результативної ознаки уза рахунок дії факторної ознаки х:

Залишкова дисперсія, що характеризує варіацію ознаки уза рахунок усіх факторів, крім х(тобто при виключеному х):

Тоді за правилом складання дисперсій:

Якість парної лінійноїрегресії може бути визначено також за допомогою парного лінійного коефіцієнтакореляції:

,

де
- Коваріація змінних хі у;

-Середньоквадратичне відхилення незалежної ознаки;

-Середньоквадратичне відхилення залежної ознаки.

Лінійний коефіцієнт кореляції характеризує тісноту і напрямок зв'язку між ознаками, що вивчаються. Він вимірюється не більше [-1; +1]:

якщо
- то зв'язок між ознаками прямий;

якщо
- то зв'язок між ознаками зворотний;

якщо
- то зв'язок між ознаками відсутня;

якщо
або
- то зв'язок між ознаками є функціональним, тобто. характеризується повною відповідністю між хі у. Чим ближче до 1, тим більше тісним вважається зв'язок між ознаками, що вивчаються.

Якщо індекс кореляції (парний лінійний коефіцієнт кореляції) звести квадрат, то отримаємо коефіцієнт детермінації.

Коефіцієнт детермінації– являє собою частку факторної дисперсії у загальній та показує, на скільки відсотків варіація результативної ознаки упояснюється варіацією факторної ознаки х:

Він характеризує не всю варіацію увід факторної ознаки х, лише ту її частина, що відповідає лінійному рівнянню регресії, тобто. показує питома вагаваріації результативної ознаки, лінійно пов'язаної з варіацією факторної ознаки.

Величина
- Частка варіації результативної ознаки, яку модель регресії врахувати не змогла.

Розсіювання точок кореляційного поля може бути дуже велике, і обчислене рівняння регресії може давати велику похибку в оцінці показника, що аналізується.

Середня помилка апроксимаціїпоказує середнє відхилення розрахункових значень від фактичних:

Максимально допустиме значення 12-15%.

Мірою розкиду залежної змінної навколо лінії регресії служить стандартна помилка. Для всієї сукупності значень, що спостерігаються, розраховується стандартна (середньоквадратична) помилка рівняння регресії, яка є середнім квадратичним відхиленням фактичних значень ущодо теоретичних значень, розрахованих за рівнянням регресії у х .

,

де
- Число ступенів свободи;

m- Число параметрів рівняння регресії (для рівняння прямої m=2).

Оцінити величину середньої квадратичної помилки можна зіставивши її

а) із середнім значення результативної ознаки у;

б) із середнім квадратичним відхиленням ознаки у:

якщо
використання цього рівняння регресії є доцільним.

Окремо оцінюються стандартні (Середньоквадратичні) помилки параметрів рівняння та індексу кореляції:

;
;
.

х- Середнє квадратичне відхилення х.

Перевірка значущості рівняння регресії та показників тісноти зв'язку

Щоб побудовану модель можна було використовуватиме подальших економічних розрахунків, перевірки якості побудованої моделі недостатньо. Необхідно також перевірити значущість (суттєвість) отриманих з допомогою методу найменших квадратів оцінок рівняння регресії та показника тісноти зв'язку, тобто. необхідно перевірити їх у відповідність справжнім параметрам взаємозв'язку.

Це з тим, що обчислені за обмеженою сукупності показники зберігають елемент випадковості, властивий індивідуальним значенням ознаки. Тому є лише оцінками певної статистичної закономірності. Необхідна оцінка ступеня точності та значущості (надійності, суттєвості) параметрів регресії. Під значимістюрозуміють ймовірність того, що значення параметра, що перевіряється, не дорівнює нулю, не включає в себе величини протилежних знаків.

Перевірка значущості– перевірити, що параметри відрізняються від нуля.

Оцінка значущості парного рівняння регресіїзводиться до перевірки гіпотез про значущість рівняння регресії в цілому та окремих його параметрів ( a, b), парного коефіцієнта детермінації чи індексу кореляції.

У цьому випадку можуть бути висунуті наступні основні гіпотезиH 0 :

1)
- Коефіцієнти регресії є незначними і рівняння регресії також є незначним;

2)
– парний коефіцієнт детермінації незначний і рівняння регресії також незначним.

Альтернативною (або зворотною) виступають такі гіпотези:

1)
- Коефіцієнти регресії значно відрізняються від нуля, і побудоване рівняння регресії є значущим;

2)
– парний коефіцієнт детермінації істотно від нуля і побудоване рівняння регресії є значним.

Перевірка гіпотези про значущість рівняння парної регресії

Для перевірки гіпотези про статистичну незначущість рівняння регресії в цілому та коефіцієнта детермінації використовується F-Критерій(критерій Фішера):

або

де k 1 = m–1 ; k 2 = nm - Число ступенів свободи;

n- Число одиниць сукупності;

m- Число параметрів рівняння регресії;

-факторна дисперсія;

-залишкова дисперсія.

Гіпотеза перевіряється так:

1) якщо фактичне (спостерігається) значення F-критерію більше критичного (табличного) значення даного критерію
, то з ймовірністю
основна гіпотеза про незначущість рівняння регресії чи парного коефіцієнта детермінації відкидається, і рівняння регресії визнається значним;

2) якщо фактичне (спостерігається) значення F-критерію менше критичного значення даного критерію
, то з ймовірністю (
) основна гіпотеза про незначущість рівняння регресії чи парного коефіцієнта детермінації приймається, і побудоване рівняння регресії визнається незначним.

Критичне значення F-критерія знаходиться за відповідними таблицями в залежності від рівня значущості та числа ступенів свободи
.

Число ступенів свободи- Показник, який визначається як різниця між обсягом вибірки ( n) та числом оцінюваних параметрів за даною вибіркою ( m). Для моделі парної регресії число ступенів свободи розраховується як
, оскільки за вибіркою оцінюються два параметри (
).

Рівень значущості - Величина, що визначається
,

де – довірча ймовірність потрапляння оцінюваного параметра довірчий інтервал. Зазвичай приймається 0,95. Таким чином - це ймовірність того, що оцінюваний параметр не потрапить в довірчий інтервал, що дорівнює 0,05 (5%).

Тоді у разі оцінки значущості рівняння парної регресії критичне значення F-критерію обчислюється як
:

.

Перевірка гіпотези про значущість параметрів рівняння парної регресії та індексу кореляції

При перевірці значущості параметрів рівняння (припущення, що параметри відрізняються від нуля) висувається основна гіпотеза про незначність отриманих оцінок (
. Як альтернативна (зворотна) висувається гіпотеза про значущість параметрів рівняння (
).

Для перевірки висунутих гіпотез використовується t -Критерій (t-статистика) Стьюдента. Спостережуване значення t-критерія порівнюється зі значенням t-Критерію, що визначається за таблицею розподілу Стьюдента (критичним значенням). Критичне значення t-критерія
залежить від двох параметрів: рівня значущості та числа ступенів свободи
.

Висунуті гіпотези перевіряються так:

1) якщо модуль значення, що спостерігається t-критерію більше критичного значення t-Критерію, тобто.
, то з ймовірністю
основну гіпотезу про незначущість властивостей регресії відкидають, тобто. параметри регресії не дорівнюють 0;

2) якщо модуль значення, що спостерігається t-критерія менша або дорівнює критичному значенню t-Критерію, тобто.
, то з ймовірністю
Основна гіпотеза про незначущість властивостей регресії приймається, тобто. параметри регресії майже відрізняються від 0 чи рівні 0.

Оцінка значимості коефіцієнтів регресії за допомогою критерію Стьюдента проводиться шляхом зіставлення їх оцінок із величиною стандартної помилки:

;

Для оцінки статистичної значущості індексу (лінійного коефіцієнта) кореляції застосовується також t-Критерій Стьюдента.

Вивчення кореляційних залежностей ґрунтується на дослідженні таких зв'язків між змінними, при яких значення однієї змінної, її можна прийняти за залежну змінну, «у середньому» змінюються в залежності від того, які значення набуває інша змінна, що розглядається як причина стосовно залежної змінної. Дія цієї причини здійснюється в умовах складної взаємодії різних факторів, Внаслідок чого прояв закономірності затемнюється впливом випадковостей. Обчислюючи середні значення результативного ознаки цієї групи значень ознаки-фактора, частково елімінується вплив випадковостей. Обчислюючи параметри теоретичної лінії зв'язку, проводиться подальше їх елімінування та виходить однозначна (за формою) зміна «y» із зміною фактора «x».

Для дослідження стохастичних зв'язків широко використовується метод зіставлення двох паралельних рядів, метод аналітичних угруповань, кореляційний аналіз, регресійний аналізта деякі непараметричні методи. У загальному виглядіЗавдання статистики у сфері вивчення взаємозв'язків полягає у кількісної оцінці їх наявності, напрями й сили зв'язку, а й у визначенні форми (аналітичного висловлювання) впливу факторних ознак на результативний. Для її вирішення застосовують методи кореляційного та регресійного аналізу.

РОЗДІЛ 1. РІВНЯННЯ РЕГРЕСІЇ: ТЕОРЕТИЧНІ ОСНОВИ

1.1. Рівняння регресії: сутність та типи функцій

Регресія (лат. regressio- зворотний рух, перехід від більш складних формрозвитку до менш складних) - одне з основних понять у теорії ймовірності та математичної статистики, що виражає залежність середнього значення випадкової величинивід значень іншої випадкової величини чи кількох випадкових величин. Це поняття введено Френсісом Гальтоном у 1886 році.

Теоретична лінія регресії - це лінія, навколо якої групуються точки кореляційного поля і яка вказує основний напрямок, основну тенденцію зв'язку.

Теоретична лінія регресії повинна відображати зміну середніх величин результативної ознаки «y» у міру зміни величин факторної ознаки «x» за умови повного взаємопогашення всіх інших – випадкових стосовно фактора «x» - причин. Отже, ця лінія повинна бути проведена так, щоб сума відхилень точок поля кореляції від відповідних точок теоретичної лінії регресії дорівнювала нулю, а сума квадратів цих відхилень була мінімальною величиною.

y=f(x) – рівняння регресії – це формула статистичного зв'язку між змінними.

Пряма лінія на площині (у просторі двох вимірювань) визначається рівнянням y=a+b*х. Докладніше: змінна y може бути виражена через константу (a) та кутовий коефіцієнт (b), помножений на змінну x. Константу іноді називають також вільним членом, а кутовий коефіцієнт – регресійним або B-коефіцієнтом.

p align="justify"> Важливим етапом регресійного аналізу є визначення типу функції, за допомогою якої характеризується залежність між ознаками. Головною підставою повинен бути змістовний аналіз природи залежності, що вивчається, її механізму. Разом з тим теоретично обґрунтувати форму зв'язку кожного з факторів з результативним показником можна далеко не завжди, оскільки досліджувані соціально-економічні явища дуже складні та фактори, що формують їхній рівень, тісно переплітаються та взаємодіють один з одним. Тому на основі теоретичного аналізунерідко можуть бути зроблені найзагальніші висновки щодо напряму зв'язку, можливості його зміни у досліджуваній сукупності, правомірності використання лінійної залежності, можливої ​​наявності екстремальних значень тощо. Необхідним доповненням такого роду припущень може бути аналіз конкретних фактичних даних.

Приблизно уявлення про лінію зв'язку можна отримати на основі емпіричної лінії регресії. Емпірична лінія регресії зазвичай є ламаною лінією, має більш менш значний злам. Пояснюється це тим, що вплив інших неврахованих факторів, що впливають на варіацію результативної ознаки, у середніх погашається неповністю, через недостатньо великої кількостіспостережень, тому емпіричною лінією зв'язку для вибору та обґрунтування типу теоретичної кривої можна скористатися за умови, що кількість спостережень буде досить великою.

Одним з елементів конкретних досліджень є зіставлення різних рівнянь залежності, засноване на використанні критеріїв якості апроксимації емпіричних даних конкуруючими варіантами моделей. Найчастіше для характеристики зв'язків економічних показниківвикористовують такі типи функций:

1. Лінійна:

2. Гіперболічна:

3. Показова:

4. Параболічна:

5. Ступінна:

6. Логарифмічна:

7. Логістична:

Модель з однією пояснювальною та однією пояснюваною змінними – модель парної регресії. Якщо пояснюючих (факторних) змінних використовується дві або більше, то говорять про використання моделі множинної регресії. При цьому, як варіанти можуть бути обрані лінійна, експоненційна, гіперболічна, показова та інші види функцій, що зв'язують ці змінні.

Для знаходження параметрів а та b рівняння регресії використовують метод найменших квадратів. При застосуванні методу найменших квадратів для знаходження такої функції, яка найкращим чиномвідповідає емпіричним даним, вважається, що сумка квадратів відхилень емпіричних точок від теоретичної лінії регресії повинна бути мінімальною величиною.

Критерій методу найменших квадратів можна записати таким чином:

Отже, застосування методу найменших квадратів визначення параметрів a і b прямий, найбільш відповідної емпіричним даним, зводиться до завдання на екстремум.

Щодо оцінок можна зробити такі висновки:

1. Оцінки методу найменших квадратів є функціями вибірки, що дозволяє легко розраховувати.

2. Оцінки методу найменших квадратів є точковими оцінкамитеоретичних коефіцієнтів регресії

3. Емпірична пряма регресія обов'язково проходить через точку x, y.

4. Емпіричне рівняння регресії побудовано таким чином, що сума відхилень

.

Графічне зображення емпіричної та теоретичної лінії зв'язку представлено малюнку 1.


Параметр b у рівнянні – це коефіцієнт регресії. За наявності прямої кореляційної залежності коефіцієнт регресії має позитивне значення, а разі зворотної залежності коефіцієнт регресії – негативний. p align="justify"> Коефіцієнт регресії показує на скільки в середньому змінюється величина результативної ознаки "y" при зміні факторної ознаки "x" на одиницю. Геометрично коефіцієнт регресії являє собою нахил прямої лінії, що зображує рівняння кореляційної залежності щодо осі «x» (для рівняння

).

Розділ багатовимірного статистичного аналізу, присвячений відновленню залежностей, називається регресійним аналізом Термін «лінійний регресійний аналіз» використовують, коли функція, що розглядається, лінійно залежить від оцінюваних параметрів (від незалежних змінних залежність може бути довільною). Теорія оцінювання

невідомих параметрів добре розвинена саме у разі лінійного регресійного аналізу. Якщо ж лінійності немає і не можна перейти до лінійному завданні, то, як правило, хороших властивостейвід оцінок очікувати годі й говорити. Продемонструємо підходи у разі залежностей різного виду. Якщо залежність має вигляд багаточлену (полінома). Якщо розрахунок кореляції характеризує силу зв'язку між двома змінними, то регресійний аналіз служить визначення виду цього і дає можливість прогнозування значення однієї (залежної) змінної відштовхуючись від значення інший (незалежної) змінної. Для проведення лінійного регресійного аналізу залежна змінна повинна мати інтервальну (чи порядкову) шкалу. У той же час, бінарна логістична регресія виявляє залежність дихотомічної змінної від іншої змінної, що відноситься до будь-якої шкали. Ті ж умови застосування справедливі і для пробіт-аналізу. Якщо залежна змінна є категоріальною, але має більше двох категорій, то підходящим методом буде мультиноміальна логістична регресія можна аналізувати і нелінійні зв'язки між змінними, які відносяться до інтервальної шкали. Для цього призначений метод не лінійної регресії.

Завдання.

На підприємствах легкої промисловостірегіону отримано інформацію, що характеризує залежність обсягу випуску продукції (Y, млн. крб.) від обсягу капіталовкладень (Y, млн. крб.).

Таблиця 1.

Залежність обсягу випуску продукції від обсягу капіталовкладень.

X
Y

Потрібно:

1. Знайти параметри рівняння лінійної регресії, дати економічну інтерпретацію коефіцієнта регресії.

2. Обчислити залишки; знайти залишкову суму квадратів; оцінити дисперсію залишків; побудувати графік залишків.

3. Перевірити виконання передумов МНК.

4. Здійснити перевірку значущості параметрів рівняння регресії за допомогою t-критерію Стьюдента (α = 0,05).

5. Обчислити коефіцієнт детермінації, перевірити значущість рівняння регресії з допомогою F - критерію Фішера (α = 0,05), визначити середню відносну помилку апроксимації . Зробити висновок якість моделі.

6. Здійснити прогнозування середнього значення показника Y за рівня значущості α = 0,1, якщо прогнозне значення фактора Х становитиме 80% від його максимального значення.

7. Подати графічно фактичні та модельні значення Y точки прогнозу.

8. Скласти рівняння нелінійної регресіїта побудувати їх графіки:

Гіперболічній;

Ступінною;

Показовою.

9. Для зазначених моделей знайти коефіцієнти детермінації та середні відносні помилкиапроксимації. Порівняти моделі за цими характеристиками та зробити висновок.

Знайдемо параметри рівняння лінійної регресії та дамо економічну інтерпретацію коефіцієнта регресії.

Рівняння лінійної регресії має вигляд: ,

Обчислення для знаходження параметрів a та b наведено у таблиці 2.

Таблиця 2.

Розрахунок значень знаходження параметрів рівняння лінійної регресії.

Рівняння регресії має вигляд: y = 13,8951 + 2,4016 * x.

Зі збільшенням обсягу капіталовкладень (X) на 1 млн. руб. обсяг продукції (Y) збільшиться в середньому на 2,4016 млн. руб. Таким чином, спостерігається позитивна кореляція ознак, що свідчить про ефективність роботи підприємств та вигідність капіталовкладень у їхню діяльність.

2. Обчислимо залишки; знайдемо залишкову суму квадратів; оцінимо дисперсію залишків та побудуємо графік залишків.

Залишки обчислюються за такою формулою: e i = y i - y прогн.

Залишкова сума квадратів відхилень: = 207,74.

Дисперсія залишків: 25.97.

Розрахунки наведені у таблиці 3.

Таблиця 3.

Y X Y=a+b*x i e i = y i - y прогн. e i 2
100,35 3,65 13,306
81,14 -4,14 17,131
117,16 -0,16 0,0269
138,78 -1,78 3,1649
136,38 6,62 43,859
143,58 0,42 0,1744
73,93 8,07 65,061
102,75 -1,75 3,0765
136,38 -4,38 19,161
83,54 -6,54 42,78
Сума 0,00 207,74
Середнє 111,4 40,6

Графік залишків має вигляд:


Рис.1. Графік залишків

3. Перевіримо виконання передумов МНК, що включає елементи:

- перевірка рівності математичного очікування до випадкової складової нуля;

- випадковий характер залишків;

- перевірка незалежності;

- відповідність низки залишків нормальному закону розподілу.

Перевірка рівності математичного очікування рівнів низки залишків нуля.

Здійснюється під час перевірки відповідної нульової гіпотези H 0 : . З цією метою будується t-статистика, де .

Таким чином, гіпотеза приймається.

Випадковий характер залишків.

Перевіримо випадковість рівнів низки залишків за допомогою критерію поворотних точок:

Кількість поворотних точок визначаємо за таблицею залишків:

e i = y i - y прогн. Точки повороту e i 2 (e i - e i -1) 2
3,65 13,31
-4,14 * 17,13 60,63
-0,16 * 0,03 15,80
-1,78 * 3,16 2,61
6,62 * 43,86 70,59
0,42 * 0,17 38,50
8,07 * 65,06 58,50
-1,75 * 3,08 96,43
-4,38 19,16 6,88
-6,54 42,78 4,68
Сума 0,00 207,74 354,62
Середнє

= 6 > , отже, властивість випадковості залишків виконується.

Незалежність залишківперевіряється за допомогою критерію Дарбіна-Вотсона:

=4 - 1,707 = 2,293.

Оскільки потрапило в інтервал від d 2 до 2, то за даним критерієм можна дійти невтішного висновку про виконання якості незалежності. Це означає, що в ряді динаміки немає автокореляції, отже, модель за цим критерієм адекватна.

Відповідність низки залишків нормальному закону розподілувизначається за допомогою R/S-критерію з критичними рівнями (2,7-3,7);

Розрахуємо значення RS:

RS = (e max - e min) / S,

де e max - максимальне значеннярівнів ряду залишків E(t) = 8,07;

e min - Мінімальне значення рівнів ряду залишків E(t) = -6,54.

S - середньоквадратичне відхилення, = 4,8044.

RS = (e max - e min) / S = (8,07 + 6,54) / 4,8044 = 3,04.

Оскільки 2,7< 3,04 < 3,7, и полученное значение RS попало в за-данный интервал, значит, выполняется свойство нормальности распределения.

Таким чином, розглянувши різні критеріїВиконання передумов МНК, приходимо до висновку, що передумови МНК виконуються.

4. Здійснимо перевірку значущості параметрів рівняння регресії за допомогою t-критерію Стьюдента = 0,05.

Перевірка значимості окремих коефіцієнтів регресії пов'язані з визначенням розрахункових значень t-критерію (t-статистики)для відповідних коефіцієнтів регресії:

Потім розрахункові значення порівнюються з табличними t табл= 2,3060. Табличне значення критерію визначається за ( n- 2) ступенях свободи ( n -число спостережень) та відповідному рівні значущості a (0,05)

Якщо розрахункове значення t-критерію з (n- 2) ступенями свободи перевищує його табличне значення при заданому рівні значимості, коефіцієнт регресії вважається значним.

У разі коефіцієнти регресії a 0 - незначний, а 1 - значимий коефіцієнти.

Міністерство освіти та науки РФ

Федеральне агентство з освіти

Державне освітня установавищої професійної освіти

Всеросійський заочний фінансово-економічний інститут

Філія у м. Тулі

Контрольна робота

з дисципліни «Економетрика»

Тула – 2010 р.

Завдання 2 (а, б)

По підприємствам легкої промисловості отримано інформацію, що характеризує залежність обсягу випуску продукції (Y, млн. крб.) від обсягу капіталовкладень (Х, млн. крб.) табл. 1.

Х 33 17 23 17 36 25 39 20 13 12
Y 43 27 32 29 45 35 47 32 22 24

Потрібно:

1. Знайти параметри рівняння лінійної регресії, дати економічну інтерпретацію коефіцієнта регресії.

2. Обчислити залишки; знайти залишкову суму квадратів; оцінити дисперсію залишків

; побудувати графік залишків.

3. Перевірити виконання передумов МНК.

4. Здійснити перевірку значущості параметрів рівняння регресії за допомогою t-критерію Стьюдента (α=0,05).

5. Обчислити коефіцієнт детермінації, перевірити значущість рівняння регресії за допомогою F-критерію Фішера (α=0,05), знайти середню відносну помилку апроксимації. Зробити висновок якість моделі.

6. Здійснити прогнозування середнього значення показника Y за рівня значущості α=0,1, якщо прогнозне значення фактора Х складе 80% від його максимального значення.

7. Уявити графічно: фактичні та модельні значення Y, точки прогнозу.

8. Скласти рівняння нелінійної регресії:

гіперболічній;

статечною;

показовою.

Навести графіки побудованих рівнянь регресії.

9. Для зазначених моделей знайти коефіцієнти детермінації та середні відносні помилки апроксимації. Порівняти моделі за цими характеристиками та зробити висновок.

1. Лінійна модель має вигляд:

Параметри рівняння лінійної регресії знайдемо за формулами

Розрахунок значення параметрів представлений у табл. 2.

t y x yx
1 43 33 1419 1089 42,236 0,764 0,584 90,25 88,36 0,018
2 27 17 459 289 27,692 -0,692 0,479 42,25 43,56 0,026
3 32 23 736 529 33,146 -1,146 1,313 0,25 2,56 0,036
4 29 17 493 289 27,692 1,308 1,711 42,25 21,16 0,045
5 45 36 1620 1296 44,963 0,037 0,001 156,25 129,96 0,001
6 35 25 875 625 34,964 0,036 0,001 2,25 1,96 0,001
7 47 39 1833 1521 47,69 -0,69 0,476 240,25 179,56 0,015
8 32 20 640 400 30,419 1,581 2,500 12,25 2,56 0,049
9 22 13 286 169 24,056 -2,056 4,227 110,25 134,56 0,093
10 24 12 288 144 23,147 0,853 0,728 132,25 92,16 0,036
336 235 8649 6351 12,020 828,5 696,4 0,32
Середн. 33,6 23,5 864,9 635,1

Визначимо параметри лінійної моделі

Лінійна модель має вигляд

Коефіцієнт регресії

показує, що випускати продукцію Y зростає загалом на 0,909 млн. крб. зі збільшенням обсягу капіталовкладень Х на 1 млн. крб.

2. Обчислимо залишки

, залишкову суму квадратів , знайдемо залишкову дисперсію за формулою:

Розрахунки представлені у табл. 2.


Мал. 1. Графік залишків ε.

3. Перевіримо виконання передумов МНК з урахуванням критерію Дарбіна-Уотсона.

0,584
2,120 0,479
0,206 1,313
6,022 1,711
1,615 0,001
0,000 0,001
0,527 0,476
5,157 2,500
13,228 4,227
2,462 0,728
31,337 12,020

d1 = 0,88; d2=1,32 для =0,05, n=10, k=1.

,

отже, низка залишків не корельована.

4. Здійснимо перевірку значущості параметрів рівняння на основі t-критерію Стьюдента. (α=0,05).

для = 8; α=0,05.

Розрахунок значення

зроблений у табл. 2. Отримаємо:
, можна дійти невтішного висновку, що коефіцієнти регресії a і b з ймовірністю 0,95 значимі.

5. Знайдемо коефіцієнт кореляції за формулою

Розрахунки зробимо в табл. 2.

. Т.о. зв'язок між обсягом капіталовкладень Х та випуском продукції Y вважатимуться тісною, т.к. .

Коефіцієнт детермінації знайдемо за формулою


Мал. 2.1. Графік лінії регресії

Перше вираз дозволяє за заданими значеннями фактора xрозрахувати теоретичні значення результативної ознаки, підставляючи в нього фактичні значення фактора x. На графіку теоретичні значення лежать на прямій, які є лінією регресії (рис. 2.1).

Побудова лінійної регресії зводиться до оцінки її параметрів аі b. Класичний підхід до оцінювання параметрів лінійної регресії заснований на метод найменших квадратів (МНК).

МНК дозволяє отримати такі оцінки параметрів а та b, при яких сума квадратів відхилень фактичних значень від теоретичних мінімальна:

Для знаходження мінімуму треба обчислити приватні похідні суми (4) за кожним із параметрів – аі b- І прирівняти їх до нуля.

(5)

Перетворюємо, отримуємо систему нормальних рівнянь:

(6)

У цій системі n -обсяг вибірки, суми легко розраховуються із вихідних даних. Вирішуємо систему щодо аі b, отримуємо:

(7)

. (8)

Вираз (7) можна записати в іншому вигляді:

(9)

де коваріація ознак, дисперсія фактора x.

Параметр bназивається коефіцієнтом регресії.Його величина показує середню зміну результату із зміною фактора на одну одиницю. Можливість чіткої економічної інтерпретації коефіцієнта регресії зробила лінійне рівнянняпарної регресії є досить поширеним в економетричних дослідженнях.

Формально a –значення yпри x = 0. Якщо xне має і не може мати нульового значення, то таке трактування вільного члена aне має сенсу. Параметр aможе мати економічного змісту. Спроби економічно інтерпретувати його можуть призвести до абсурду, особливо при a< 0. Интерпретировать можно лишь знак при параметре a.Якщо a> 0, відносна зміна результату відбувається повільніше, ніж зміна фактора. Порівняємо ці відносні зміни:

< при > 0, > 0 <

Іноді лінійне рівняння парної регресії записують для відхилень від середніх значень:

де , . У цьому вільний член дорівнює нулю, як і відбито у виразі (10). Цей факт випливає з геометричних міркувань: рівняння регресії відповідає та ж пряма (3), але в оцінці регресії в відхиленнях початок координат переміщається в точку з координатами . При цьому у виразі (8) обидві суми дорівнюватимуть нулю, що і спричинить рівність нуля вільного члена.

Розглянемо як приклад по групі підприємств, що випускають один вид продукції, регресійну залежність витрат від випуску продукції .

Таблиця 2.1

Випуск продукції тис. од. () Витрати виробництво, млн.руб.()
31,1
67,9

Продовження таблиці 2.1

141,6
104,7
178,4
104,7
141,6
Разом: 22 770,0

Система нормальних рівнянь матиме вигляд:

Вирішуючи її, отримуємо a =-5,79, b = 36,84.

Рівняння регресії має вигляд:

Підставивши в рівняння значення х, знайдемо теоретичні значення y(Остання колонка таблиці).

Величина aнемає економічного сенсу. Якщо змінні xі yвисловити через відхилення від середніх рівнів, то лінія регресії на графіку пройде через початок координат. Оцінка коефіцієнта регресії у своїй не зміниться:

де , .

При лінійній регресії як показник тісноти зв'язку виступає лінійний коефіцієнт кореляції r:

Розмір характеризує частку дисперсії y, Викликану впливом інших, не врахованих у моделі факторів.

2.3. Передумови МНК (умови Гауса-Маркова)

Зв'язок між yі xу парній регресії не функціональної, а кореляційної. Тому оцінки параметрів aі bє випадковими величинами, властивості яких істотно залежить від властивостей випадкової складової ε. Для отримання МНК найкращих результатів необхідно виконання наступних передумов щодо випадкового відхилення (умови Гаусса-Маркова):

1. Математичне очікуваннявипадкового відхилення дорівнює нулю всім спостережень: .

2. Дисперсія випадкових відхилень постійна: .

Виконаність цієї причини називається гомоскедастичністю -сталістю дисперсії відхилень. Нездійсненність цієї причини називається гетероскедастичністю -непостійністю дисперсії відхилень.

3. Випадкові відхилення ε iі ε jє незалежними один від одного для:

Виконання цієї умови називається відсутністю автокореляції.

4. Випадкове відхилення має бути незалежно від пояснюючих змінних. Зазвичай ця умова виконується автоматично, якщо пояснюючі змінні цієї моделі є випадковими. З іншого боку, здійсненність цієї передумови для економетричних моделей менш критична проти першими трьома.

При здійсненності зазначених передумов має місце теорема Гауса-Маркова: оцінки (7) та (8), отримані за МНК, мають найменшу дисперсію у класі всіх лінійних незміщених оцінок .

Таким чином, при виконанні умов Гауса - Маркова оцінки (7) і (8) є не тільки незміщеними оцінками коефіцієнтів регресії, але і найбільш ефективними, тобто мають найменшу дисперсію порівняно з будь-якими іншими оцінками даних параметрів, лінійними щодо величин y i.

Саме розуміння важливості умов Гауса - Маркова відрізняє компетентного дослідника, який використовує регресійний аналіз від некомпетентного. Якщо ці умови не виконані, дослідник має це усвідомлювати. Якщо коригувальні дії можливі, то аналітик має бути спроможним їх виконати. Якщо ситуацію виправити неможливо, дослідник може бути здатний оцінити, наскільки серйозно це може вплинути на результати.

2.4. Оцінка суттєвості параметрів лінійної
регресії та кореляції

Після того, як знайдено рівняння лінійної регресії (3), проводиться оцінка значущості як рівняння загалом, і окремих його параметрів.

Оцінка значущості рівняння регресії загалом дається з допомогою F-Крітерія Фішера. При цьому висувається нульова гіпотеза про те, що коефіцієнт регресії дорівнює нулю і, отже, фактор хне впливає на результат y.

Перед розрахунком критерію проводять аналіз дисперсії. Можна показати, що загальна сума квадратів відхилень (СКО) yвід середнього значення розкладається на дві частини – пояснену та непояснену:


(Загальна СКО) =

Тут можливі два крайні випадки: коли загальна СКО точно дорівнює залишкової і коли загальна СКО дорівнює факторной.

У першому випадку фактор хне впливає на результат, вся дисперсія yобумовлена ​​впливом інших факторів, лінія регресії паралельна осі Охта .

У другому випадку інші фактори не впливають на результат, yпов'язаний з xфункціонально, і залишкова СКО дорівнює нулю.

Але на практиці у правій частині (13) присутні обидва доданки. Придатність лінії регресії для прогнозу залежить від того, яка частина загальної варіації yпосідає пояснену варіацію. Якщо пояснена СКО буде більшою від залишкової СКО, то рівняння регресії статистично значуще і фактор хістотно впливає на результат y. Це рівнозначно тому, що коефіцієнт детермінації наближатиметься до одиниці.

Число ступенів свободи.(df-degrees of freedom) - це число незалежно варіюваних значень ознаки.

Для загальної СКО потрібно незалежних відхилень, т.к. що дозволяє вільно варіювати значень, а останнє n-е відхилення визначається із загальної суми, що дорівнює нулю. Тому .

Факторну СКО можна виразити так:

Ця СКО залежить лише від одного параметра b,оскільки вираз під знаком суми до значень результативної ознаки не належить. Отже, факторна СКО має один ступінь свободи, та

Для визначення скористаємося аналогією з балансовою рівністю (11). Так само, як і в рівності (11), можна записати рівність між числами ступенів свободи:

Таким чином, можемо записати . З цього балансу визначаємо, що

Розділивши кожну СКО на свою кількість ступенів свободи, отримаємо середній квадрат відхилень,або дисперсію на один ступінь свободи:

. (15)

. (16)

. (17)

Зіставляючи факторну та залишкову дисперсії в розрахунку на один ступінь свободи, отримаємо F-Критерій для перевірки нульової гіпотези, яка в даному випадкузаписується як

Якщо справедлива, то дисперсії не відрізняються одна від одної. Для цього необхідно спростування, щоб факторна дисперсія перевищувала залишкову в кілька разів.

Англійським статистиком Снедекором розроблено таблиці критичних значень Fпри різних рівнях суттєвості Снедекором та різних числахстепенів свободи. Табличне значення F-Критерія - це максимальна величина відношення дисперсій, яка може мати місце при випадковому їх розбіжності для даного рівня ймовірності наявності нульової гіпотези.

При знаходженні табличного значення F-критерія задається рівень значущості (зазвичай 0,05 або 0,01) і два ступені свободи - чисельника (вона дорівнює одиниці) і знаменника, що дорівнює

Обчислене значення Fвизнається достовірним (відмінним від одиниці), якщо він більше табличного, тобто. (α;1; ). У цьому випадку відхиляється і робиться висновок про суттєвість перевищення D фактнад D залиш., тобто про суттєвість статистичного зв'язкуміж yі x.

Якщо , то ймовірність вище заданого рівня (наприклад: 0,05), і ця гіпотеза не може бути відхилена без серйозного ризику зробити неправильний висновок про наявність зв'язку між yі x.Рівняння регресії вважається статистично незначущим, не відхиляється.

Величина F-Критерія пов'язана з коефіцієнтом детермінації.

, (19)

У лінійній регресії зазвичай оцінюється значущість як рівняння загалом, а й окремих його параметрів.

Стандартна помилкакоефіцієнта регресії визначається за такою формулою:

, (20)

Залишкова дисперсія однією ступінь свободи (те, що й ).

Величина стандартної помилки спільно з t-Розподілом Стьюдента при ступенях свободи застосовується для перевірки суттєвості коефіцієнта регресії та для розрахунку його довірчих інтервалів.

Розмір коефіцієнта регресії порівнюється з його стандартною помилкою; визначається фактичне значення t-критерію Стьюдента

яке потім порівнюється з табличним значеннямпри певному рівні значущості α та числі ступенів свободи. Тут перевіряється нульова гіпотеза у вигляді також передбачає несуттєвість статистичного зв'язку між yі х, але тільки враховує значення b, а не співвідношення між факторною та залишковою дисперсіями у загальному балансі дисперсії результативної ознаки. Але загальний сенс гіпотез той самий: перевірка наявності статистичного зв'язку між yі хчи її відсутності.

Якщо (α; ), то гіпотеза має бути відхилена, а статистичний зв'язок yз хвважається встановленим. У випадку (α; ) нульова гіпотеза не може бути відхилена, і вплив хна yвизнається несуттєвим.

Існує зв'язок між і F:

Звідси слідує що

Довірчий інтервал для bвизначається як

де - розраховане (оцінене) за МНК значення коефіцієнта регресії.

Стандартна помилка параметра визначається за такою формулою:

Процедура оцінювання суттєвості aне відрізняється від такої для параметра b. При цьому фактичне значення t-Критерію обчислюється за формулою:

Процедура перевірки значущості лінійного коефіцієнта кореляції відрізняється від наведених вище процедур. Це пояснюється тим, що rяк випадкова величина розподілена за нормальним законом лише за великому числіспостережень та малих значень | r|. У цьому випадку гіпотеза про відсутність кореляційного зв'язку між yі хперевіряється на основі статистики

, (26)

яка за справедливості приблизно розподілена за законом Стьюдента з () ступенями свободи. Якщо , то гіпотеза відкидається з ймовірністю помилитися, що не перевищує α . З (19) видно, що у парної лінійної регресії . Крім того, , Тому . Таким чином, перевірка гіпотез про значущість коефіцієнтів регресії та кореляції рівносильна перевірці гіпотези про суттєвість лінійного рівняння регресії.

Але при малих вибірках та значеннях r, близьких до , слід враховувати, що розподіл rяк випадкової величини відрізняється від нормального, і побудова довірчих інтервалів для rможе бути виконано стандартним способом. У цьому випадку взагалі легко дійти суперечності, що полягає в тому, що довірчий інтервал міститиме значення, що перевищують одиницю.

Щоб оминути цю скруту, використовується так зване
z-перетворення Фішера:

, (27)

яке дає нормально розподілену величину zзначення якої при зміні rвід –1 до +1 змінюються від -∞ до +∞. Стандартна помилка цієї величини дорівнює:

. (28)

Для величини zє таблиці, в яких наведено її значення для відповідних значень r.

Для zвисувається нуль-гіпотеза, яка полягає в тому, що кореляція відсутня. У цьому випадку значення статистики

яка розподілена згідно із законом Стьюдента з () ступенями свободи, не перевищує табличного на відповідному рівні значущості.

Для кожного значення zможна обчислити критичні значення r. Таблиці критичних значень rрозроблені для рівнів значущості 0,05 та 0,01 та відповідного числа ступенів свободи. Якщо обчислене значення rперевищує за абсолютної величинитабличне, то це значення rвважається суттєвим. Інакше фактичне значення несуттєве.

2.5. Нелінійні моделі регресії
та їх лінеаризація

Досі ми розглядали лише лінійнумодель регресійної залежності yвід x(3). У той же час багато важливих зв'язків в економіці нелінійними. Прикладами такого роду регресійних моделей є виробничі функції (залежності між обсягом виробленої продукції та основними факторами виробництва – працею, капіталом тощо) та функції попиту (залежності між попитом на будь-який вид товарів чи послуг, з одного боку, та доходом та цінами на цей та інші товари – з іншого).

При аналізі нелінійних регресійних залежностейнайбільш важливим питаннямзастосування класичного МНК є спосіб їхньої лінеаризації. У разі лінеаризації нелінійної залежності отримуємо лінійне регресійне рівняння типу (3), параметри якого оцінюються звичайним МНК, після чого можна записати вихідне нелінійне співвідношення.

Дещо особняком у цьому сенсі стоїть поліноміальна модель довільного ступеня:

до якої стандартний МНК можна використовувати без будь-якої попередньої лінеаризації.

Розглянемо зазначену процедурустосовно параболи другого ступеня:

. (31)

Така залежність доцільна у разі, якщо для деякого інтервалу значень фактора зростаюча залежність змінюється на спадну або навпаки. І тут можна визначити значення чинника, у якому досягається максимальне чи мінімальне значення результативного ознаки. Якщо вихідні дані не виявляють зміну спрямованості зв'язку, параметри параболи стають важко інтерпретованими, і краще краще замінити форму зв'язку іншими нелінійними моделями.

Застосування МНК для оцінки параметрів параболи другого ступеня зводиться до диференціювання суми квадратів залишків регресії по кожному з параметрів, що оцінюються, і прирівнюванню отриманих виразів нулю. Виходить система нормальних рівнянь, число яких дорівнює числу параметрів, що оцінюються, тобто трьом:

(32)

Вирішувати цю систему можна будь-яким способом, зокрема методом визначників.

Екстремальне значення функції спостерігається при значенні фактора, що дорівнює:

Якщо , то має місце максимум, тобто залежність спочатку зростає, а потім падає. Такі залежності спостерігаються в економіці праці при вивченні заробітної платипрацівників фізичної праці, як у ролі чинника виступає вік. При параболі має мінімум, що зазвичай проявляється у питомих витратах на виробництво залежно від обсягу продукції, що випускається.

У нелінійних залежностях, що не є класичними поліномами, обов'язково проводиться попередня лінеаризація, яка полягає в перетворенні або змінних, або параметрів моделі, або комбінації цих перетворень. Розглянемо деякі класи таких залежностей.

Залежності гіперболічного типу мають вигляд:

. (33)

Прикладом такої залежності є крива Філіпса, що констатує зворотну залежність відсотка приросту заробітної плати від рівня безробіття У цьому випадку значення параметра bбуде більше за нуль.

Іншим прикладом залежності (33) є криві Енгеля, що формулюють наступну закономірність: зі зростанням доходу частка доходів, що витрачаються на продовольство, зменшується, а частка доходів, що витрачаються на непродовольчі товари, зростатиме. У цьому випадку результативна ознака в (33) показує частку витрат на непродовольчі товари.

Лінеаризація рівняння (33) зводиться до заміни фактора і рівняння регресії має вигляд (3), в якому замість фактора хвикористовуємо фактор z:

До такого ж лінійного рівняння зводиться напівлогарифмічна крива:

, (35)

яка може бути використана для опису кривих Енгеля. Тут ln( x) замінюється на zі виходить рівняння (34).

Досить широкий клас економічних показників характеризується постійним темпом відносного приросту в часі. Цьому відповідають залежності показового (експоненційного) типу, які записуються як:

або у вигляді

. (37)

Можлива і така залежність:

. (38)

У регресіях типу (36) - (38) застосовується той самий спосіб лінеаризації - логарифмування. Рівняння (36) наводиться до вигляду:

. (39)

Заміна змінної зводить його до лінійного вигляду:

, (40)

де. Якщо Езадовольняє умовам Гаусса-Маркова, параметри рівняння (36) оцінюються МНК з рівняння (40). Рівняння (37) наводиться до вигляду:

який відрізняється від (39) тільки видом вільного члена, і лінійне рівняння виглядає так:

, (42)

де. Параметри Аі bвиходять звичайним МНК, потім параметр aзалежно (37) виходить як антилогарифм А. При логарифмуванні (38) отримуємо лінійну залежність:

, (43)

де , інші позначення самі, як і вище. Тут також застосовується МНК до перетворених даних, а параметр bдля (38) виходить як антилогарифм коефіцієнта У.

Широко поширені у практиці соціально-економічних досліджень статечні залежності. Вони використовуються для побудови та аналізу виробничих функцій. У функціях виду:

особливо цінною є та обставина, що параметр bдорівнює коефіцієнту еластичності результативної ознаки за фактором х. Перетворюючи (44) шляхом логарифмування, отримуємо лінійну регресію:

, (45)

Ще одним видом нелінійності, що приводиться до лінійного вигляду, є зворотна залежність:

. (46)

Проводячи заміну, отримаємо.



Схожі статті

2024 parki48.ru. Будуємо каркасний будинок. Ландшафтний дизайн. Будівництво. Фундамент.