Регресійний аналіз; види регресій. Методи математичної статистики. Регресійний аналіз

лекція 3.

Регресійний аналіз.

1) Числові показники регресії

2) Лінійна регресія

3) Нелінійна регресія

4) Множинна регресія

5) Використання MS EXCEL для виконання регресійного аналізу

Контрольно-оцінний засіб - тестові завдання

1. Числові характеристики регресії

Регресійний аналіз статистичний методдослідження впливу однієї чи кількох незалежних змінних на залежну змінну. Незалежні змінні інакше називають регресорами чи предикторами, а залежні змінні – критеріальними. Термінологія залежних і незалежних змінних відбиває лише математичну залежність змінних, а чи не причинно-наслідкові відносини.

Цілі регресійного аналізу

  • Визначення ступеня детермінованості варіації критеріальною (залежною) змінною предикторами (незалежними змінними).
  • Передбачення значення залежної змінної за допомогою незалежної.
  • Визначення внеску окремих незалежних змінних до варіації залежної.

Регресійний аналіз не можна використовувати для визначення наявності зв'язку між змінними, оскільки наявність такого зв'язку є передумовою для застосування аналізу.

Для проведення регресійного аналізу спочатку необхідно ознайомитися з базовими поняттямистатистики та теорії ймовірності.

Основні числові характеристики дискретних та безперервних випадкових величин: математичне очікування, дисперсія та середнє квадратичне відхилення.

Випадкові величини ділять на два різновиди:

  • · дискретні, які можуть набувати лише конкретні, заздалегідь обумовлені значення (наприклад, - значення чисел на верхній грані покинутої) гральної кісткиабо порядкові значенняпоточного місяця);
  • · безперервні (найчастіше - значення деяких фізичних величин: ваги, відстані, температури тощо), які за законами природи можуть набувати будь-яких значень, хоча б і в деякому інтервалі.

Закон розподілу випадкової величини- ця відповідність між можливими значеннями дискретної випадкової величини та її ймовірностями, зазвичай записується в таблицю:

Статистичне визначення ймовірності виражається через відносну частоту випадкової події, тобто перебуває як відношення кількості випадкових величин до загальної кількості випадкових величин.

Математичним очікуванням дискретної випадкової величиниXназивається сума творів значень величини Xна ймовірності цих значень. Математичне очікування позначають або M(X) .

n

= M(X) = x 1 p 1 + x 2 p 2 +… + x n p n = S x i p i

i=1

Розсіювання випадкової величини щодо її математичного очікування визначається за допомогою числової характеристики, яка називається дисперсією. Простіше кажучи, дисперсія – це розкид випадкової величини щодо середнього значення. Для поняття сутності дисперсії розглянемо приклад. Середня заробітня платакраїною становить близько 25 тисяч рублів. Звідки береться ця цифра? Швидше за все, складаються всі зарплати та діляться на кількість працівників. У даному випадкудуже велика дисперсія (мінімальна зарплата близько 4 тис. руб., а максимальна – близько 100 тис. руб.). Якби зарплата у всіх була однаковою, то дисперсія дорівнювала б нулю, і розкиду не було б.

Дисперсією дискретної випадкової величиниXназивають математичне очікування квадрата різниці випадкової величини та її математичного очікування:

D = M [((X - M(X)) 2]

Використовуючи визначення математичного очікування для обчислення дисперсії, одержуємо формулу:

D = S (xi - M (X)) 2 · pi

Дисперсія має розмірність квадрата випадкової величини. У тих випадках, коли потрібно мати числову характеристику розсіювання можливих значень у тій же розмірності, що й сама випадкова величина використовують середнє квадратичне відхилення.

Середнім квадратичним відхиленнямДовільної величини називають корінь квадратний з її дисперсії.

Середнє квадратичне відхилення є міра розсіювання значень випадкової величини при її математичному очікуванні.

приклад.

Закон розподілу випадкової величини Х заданий такою таблицею:

Знайти її математичне очікування, дисперсію та середнє квадратичне відхилення .

Використовуємо наведені вище формули:

М(Х) = 1 · 0,1 + 2 · 0,4 + 4 · 0,4 + 5 · 0,1 = 3

D = (1-3) 2 · 0,1 + (2 - 3) 2 · 0,4 + (4 - 3) 2 · 0,4 + (5 - 3) 2 · 0,1 = 1,6

приклад.

У грошовій лотереї розігрується 1 виграш у 1000 рублів, 10 виграшів по 100 рублів та 100 виграшів по 1 рублю при загальному числіквитків 10000. Складіть закон розподілу випадкового виграшу Х для власника одного лотерейного квитката визначте математичне очікування, дисперсію та середнє квадратичне відхилення випадкової величини.

X 1 = 1000, Х 2 = 100, Х 3 = 1, Х 4 = 0,

Р 1 = 1/10000 = 0,0001, Р 2 = 10/10000 = 0,001, Р 3 = 100/10000 = 0,01, Р 4 = 1 - (Р 1 + Р 2 + Р 3) = 0,9889 .

Результати помістимо до таблиці:

Математичне очікування - сума парних творів значення випадкової величини з їхньої ймовірність. Для цієї задачі його доцільно обчислити за формулою

1000 · 0,0001 + 100 · 0,001 + 1 · 0,01 + 0 · 0,9889 = 0,21 рубля.

Здобули справжню «справедливу» ціну квитка.

D = S (xi - M (X)) 2 · pi = (1000 - 0,21) 2 0,0001 + (100 - 0,21) 2 0,001 +

+ (1 - 0,21) 2 0,01 + (0 - 0,21) 2 0,9889 ≈ 109,97

Функція розподілу безперервних випадкових величин

Величину, яка в результаті випробування набуде одного можливого значення (при цьому заздалегідь невідоме яке), називається випадковою величиною. Як говорилося вище, випадкові величини бувають дискретні (перервні) та безперервні.

Дискретною називають випадкову величину, яка приймає окремі один від одного можливі значення з певними ймовірностями, які можна пронумерувати.

Безперервною називають випадкову величину, яка може набувати всіх значень деякого кінцевого або нескінченного інтервалу.

Досі ми обмежувалися лише одним “різновидом” випадкових величин - дискретних, тобто. які приймають кінцеві значення.

Але теорія і практика статистики вимагають використовувати поняття безперервної випадкової величини - яка допускає будь-які числові значення, з якогось інтервалу.

Закон розподілу безперервної випадкової величини зручно ставити за допомогою так званої функції ймовірності. f(х). Імовірність Р (a< X < b) того, что значение, принятое случайной величиной Х, попадет в промежуток (a; b), определяется равенством

Р (a< X < b) = ∫ f(x) dx

Графік функції f(х) називається кривою розподілу. Геометрично ймовірність попадання випадкової величини в проміжок (a; b) дорівнює площі відповідної криволінійної трапеції, обмеженою кривою розподілу, віссю Ох та прямими х = а, х = b.

P(a£X

Якщо від складного події відняти кінцеве чи лічильне безліч, ймовірність настання нової події залишиться незмінною.

Функція f(x) - числова скалярна функція дійсного аргументу x називається щільністю ймовірності, і існує в точці x, якщо в цій точці існує межа:

Властивості щільності ймовірності:

  1. Щільність ймовірності є невід'ємною функцією, тобто f(x) ≥ 0

(якщо всі значення випадкової величини Х укладені у проміжку (a;b), то останнє

рівність можна записати у вигляді f (x) dx = 1).

Розглянемо тепер функцію F(х) = Р(Х< х). Эта функция называется функцией распределения вероятности случайной величины Х. Функция F(х) существует как для дискретных, так и для непрерывных случайных величин. Если f (x) - функция плотности распределения вероятности

безперервної випадкової величини Х, то F(х) = f(x) dx = 1).

З останньої рівності випливає, що f(x) = F"(x)

Іноді функцію f(x) називають диференціальною функцією розподілу ймовірності, а функцію F(x) – інтегральною функцією розподілу ймовірності.

Відзначимо найважливіші властивості функції розподілу ймовірності:

  1. F(х) - незменшувальна функція.
  2. F(-∞) = 0.
  3. F(+∞) = 1.

Поняття функції розподілу є центральним теоретично ймовірностей. Використовуючи це, можна дати інше визначення безперервної випадкової величини. Випадкова величина називається безперервною, якщо її інтегральна функція розподілу F(х) безперервна.

Числові характеристики безперервних випадкових величин

Математичне очікування, дисперсія та інші параметри будь-яких випадкових величин практично завжди обчислюються за формулами, що випливають із закону розподілу.

Для безперервної випадкової величини математичне очікування обчислюється за такою формулою:

М(Х) = ∫ x · f (x) dx

Дисперсія:

D(X) = ∫ ( x -М(Х)) 2 f(x) dx або D(X) = ∫ x 2 f(x) dx - (М(Х)) 2

2. Лінійна регресія

Нехай складові Х та Y двовимірної випадкової величини (Х, Y) залежні. Вважатимемо, що одну з них можна приблизно представити як лінійну функцію іншої, наприклад

Y ≈ g(Х) = α + βХ, та визначимо параметри α та β за допомогою методу найменших квадратів.

Визначення. Функція g(Х) = α + βХ називається найкращим наближенням Y у сенсі методу найменших квадратів, якщо математичне очікування М(Y - g(Х)) 2 набуває найменшого можливого значення; функцію g(Х) називають середньоквадратичною регресією Y на Х.

ТеоремаЛінійна середня квадратична регресія Y на Х має вигляд:

де - Коефіцієнт кореляції Х і Y.

Коефіцієнти рівняння.

Можна перевірити, що за цих значень функція функція F(α, β)

F(α, β ) = M(Y - α - βX)² має мінімум, що доводить затвердження теореми.

Визначення. Коефіцієнт називається коефіцієнтом регресії Y на Х, а пряма - - прямої середньоквадратичної регресії Y на Х.

Підставивши координати стаціонарної точки на рівність, можна знайти мінімальне значення функції F(α, β), рівне Ця величина називається залишковою дисперсією Y щодо Х і характеризує величину помилки, що допускається при заміні Y на

g(Х) = α+βХ. При залишкова дисперсія дорівнює 0, тобто рівність не наближеним, а точним. Отже, при Y та Х пов'язані лінійною функціональною залежністю. Аналогічно можна отримати пряму середньоквадратичну регресію Х на Y:

і залишкову дисперсію Х щодо Y. При обидві прямі регресії збігаються. Зіставивши рівняння регресії У на Х і Х на У і розв'язавши систему з рівнянь, можна знайти точку перетину прямих регресії - точку з координатами (т х, т у), звану центром спільного розподілу величин Х та Y.

Алгоритм складання рівнянь регресії розглянемо з підручника В. Є. Гмурмана «Теорія ймовірності та математична статистика» 256.

1) Скласти розрахункову таблицю, де будуть записані номери елементів вибірки, варіанти вибірки, їх квадрати і твір.

2) Обчислити суму за всіма стовпцями, крім номера.

3) Обчислити середні значення кожної величини, дисперсії і середньо квадратичні відхилення.

5) Перевірити гіпотезу про існування зв'язку між Х та У.

6) Скласти рівняння обох ліній регресії та зобразити графіки цих рівнянь.

Кутовий коефіцієнт прямої лінії регресії У на Х - це вибірковий коефіцієнт регресії

Коефіцієнт b =

Отримаємо шукане рівняння лінії регресії У на Х:

У = 0,202 Х + 1,024

Аналогічно рівняння регресії Х на У:

Кутовий коефіцієнт прямої лінії регресії У на Х - це вибірковий коефіцієнт регресії pxy:

Коефіцієнт b =

Х = 4,119У – 3,714

3. Нелінійна регресія

Якщо між економічними явищами існують нелінійні співвідношення, вони виражаються з допомогою відповідних нелінійних функцій.

Розрізняють два класи нелінійних регресій:

1. Регресії, нелінійні щодо включених в аналіз пояснюючих змінних, але лінійні за параметрами, що оцінюються, наприклад:

Поліноми різних ступенів

Рівностороння гіпербола -;

Напівлогарифмічна функція - .

2. Регресії, нелінійні за оцінюваними параметрами, наприклад:

Ступінна -;

Показова -;

Експонентна - .

Регресії нелінійні за включеними змінними призводять до лінійного вигляду простою заміною змінних, а подальша оцінка параметрів проводиться за допомогою методу найменших квадратів. Розглянемо деякі функції.

Парабола другого ступеня наводиться лінійному виду з допомогою заміни: . В результаті приходимо до двофакторного рівняння, оцінка параметрів якого за допомогою Методу найменших квадратів призводить до системи рівнянь:

Парабола другого ступеня зазвичай застосовується у випадках, коли для певного інтервалу значень фактора змінюється характер зв'язку ознак, що розглядаються: прямий зв'язок змінюється на зворотний або зворотний на пряму.

Рівностороння гіпербола може бути використана для характеристики зв'язку питомих витрат сировини, матеріалів, палива від обсягу продукції, що випускається, часу обігу товарів від величини товарообігу. Класичним її прикладом є крива Філіпса, що характеризує нелінійне співвідношення між нормою безробіття. xта відсотком приросту заробітної плати y.

Гіперболу наводиться до лінійного рівняння простою заміною: . Також можна використовувати метод найменших квадратів для складання системи лінійних рівнянь.

Аналогічно призводять до лінійного виду залежності: , та інші.

Рівностороння гіпербола та напівлогарифмічна крива використовують для опису кривої Енгеля (математичний опис взаємозв'язку частки витрат на товари тривалого користування та загальних сум витрат (або доходів)). Рівняння, у яких входять, застосовують у дослідженнях врожайності, трудомісткості сільськогосподарського виробництва.

4. Множинна регресія

Множинна регресія - рівняння зв'язку з кількома незалежними змінними:

де – залежна змінна (результативна ознака);

Незалежні змінні (чинники).

Для побудови рівняння множинної регресії найчастіше використовуються такі функції:

лінійна -

статечна -

експонента -

гіпербола -.

Можна використовувати й інші функції, що наводяться до лінійного вигляду.

Для оцінки параметрів рівняння множинної регресії застосовують метод найменших квадратів (МНК). Для лінійних рівнянь та нелінійних рівнянь, що наводяться до лінійних, будується наступна система нормальних рівнянь, вирішення якої дозволяє отримати оцінки параметрів регресії:

Для її вирішення може бути застосований метод визначників:

де – визначник системи;

Приватні визначники; які утворюються шляхом заміни відповідного стовпця матриці визначника системи даними лівої частини системи.

Інший вид рівняння множинної регресії - рівняння регресії в стандартизованому масштабі, до рівняння множинної регресії в стандартизованому масштабі застосуємо МНК.

5. ВикористанняMSEXCELдля виконання регресійного аналізу

Регресійний аналіз встановлює форми залежності між випадковою величиною Y (залежною) та значеннями однієї або кількох змінних величин (незалежних), причому значення останніх вважаються точно заданими. Така залежність зазвичай визначається деякою математичною моделлю (рівнянням регресії), що містить кілька невідомих параметрів. У результаті регресійного аналізу виходячи з вибіркових даних знаходять оцінки цих параметрів, визначаються статистичні помилки оцінок чи межі довірчих інтервалів і перевіряється відповідність (адекватність) прийнятої математичної моделі експериментальним даним.

У лінійному регресійному аналізі зв'язок між випадковими величинами передбачається лінійним. У найпростішому випадку парної лінійної регресійної моделі є дві змінні Х і Y. І потрібно по n парам спостережень (X1, Y1), (X2, Y2), ..., (Xn, Yn) побудувати (підібрати) пряму лінію, звану лінією регресії, яка «найкращим чином» наближає значення, що спостерігаються. Рівняння цієї лінії y=ax+b є регресійним рівнянням. За допомогою регресійного рівняння можна передбачити очікуване значення залежної величини y відповідне заданому значенню незалежної змінної x. У випадку, коли розглядається залежність між однією залежною змінною Y і декількома незалежними X1, X2, ..., Xm, говорять про множинну лінійну регресію.

У цьому випадку регресійне рівняння має вигляд

y = a 0 +a 1 x 1 +a 2 x 2 +…+a m x m ,

де a0, a1, a2, …, am – вимагають визначення коефіцієнти регресії.

Коефіцієнти рівняння регресії визначаються за допомогою методу найменших квадратів, домагаючись мінімально можливої ​​суми квадратів розбіжностей реальних значень змінної Y та обчислених за регресійним рівнянням. Таким чином, наприклад, рівняння лінійної регресії може бути побудовано навіть у тому випадку, коли лінійний кореляційний зв'язок відсутній.

Мірою ефективності регресійної моделі є коефіцієнт детермінації R2 (R-квадрат). Коефіцієнт детермінації може набувати значення між 0 і 1 визначає, з яким ступенем точності отримане регресійне рівняння описує (апроксимує) вихідні дані. Досліджується також значимість регресійної моделі за допомогою F-критерію (Фішера) та достовірність відмінності коефіцієнтів a0, a1, a2, …, am від нуля перевіряється за допомогою критерію Стьюдента.

В Excel експериментальні дані апроксимуються лінійним рівнянням до 16 порядку:

y = a0+a1x1+a2x2+…+a16x16

Для отримання коефіцієнтів лінійної регресії можна використовувати процедура «Регресія» з пакета аналізу. Також повну інформацію про рівняння лінійної регресії надає функція Лінейн. Крім того, можуть бути використані функції НАКЛОН та ВІДРІЗОК для отримання параметрів регресійного рівняння та функція ТЕНДЕНЦІЯ та ПЕРЕДСКАЗ для отримання передбачених значень Y у необхідних точках (для парної регресії).

Розглянемо докладно застосування функції ЛІНІЙН (відомі_y, [відомі_x], [константа], [статистика]): відомі_у - діапазон відомих значень залежного параметра Y. У парному регресійному аналізі може мати будь-яку форму; у множині може бути рядком чи стовпцем; Відомі - діапазон відомих значень одного або декількох незалежних параметрів. Повинен мати ту саму форму, що і діапазон Y (для кількох параметрів – відповідно кілька стовпців або рядків); константа – логічний аргумент. Якщо виходячи з практичного сенсу завдання регресійного аналізу необхідно, щоб лінія регресії проходила через початок координат, тобто вільний коефіцієнт дорівнював 0, значення цього аргументу слід покласти рівним 0 (або «брехня»). Якщо значення належить 1 (або «істина») або опущено, то вільний коефіцієнт обчислюється звичайним чином; статистика – логічний аргумент. Якщо значення покладено 1 (або «істина»), додатково повертається регресійна статистика (див таблицю), яка використовується для оцінки ефективності і значущості моделі. У загальному випадку для парної регресії y=ax+b результат застосування функції Лінейн має вигляд:

Таблиця. Вивідний діапазон функції ЛІНІЙН для парного регресійного аналізу

У разі множинного регресійного аналізу для рівняння y=a0+a1x1+a2x2+…+amxm у першому рядку виводяться коефіцієнти am,…,a1,а0, у другому - стандартні помилки цих коефіцієнтів. У 3-5 рядках крім перших двох стовпців, заповнених регресійної статистикою, буде отримано значення #Н/Д.

Вводити функцію Лінейн слід як формулу масиву, виділивши спочатку масив потрібного розміру для результату (m+1 стовпець і 5 рядків, якщо потрібна регресійна статистика) і завершивши введення формули натисканням CTRL+SHIFT+ENTER.

Результат для нашого прикладу:

Крім цього, у програмі є вбудована функція - Аналіз даних на вкладці Дані.

За допомогою неї можна також виконувати регресійний аналіз:

На слайді – результат регресійного аналізу, виконаного за допомогою аналізу даних.

ВИСНОВОК ПІДСУМКІВ

Регресійна статистика

Множинний R

R-квадрат

Нормований R-квадрат

Стандартна помилка

Спостереження

Дисперсійний аналіз

Значення F

Регресія

Коефіцієнти

Стандартна помилка

t-статистика

P-Значення

Нижні 95%

Верхні 95%

Нижні 95,0%

Верхні 95,0%

Y-перетин

Змінна X 1

Рівняння регресії, які ми дивилися раніше, також побудовані в MS Excel. Для їх виконання спочатку будується точкова діаграма, потім через контекстне меню вибираємо - Додати лінію тренда. У новому вікні ставимо галочки – Показувати рівняння на діаграмі та помістити на діаграму величину достовірності апроксимації (R^2).

Література:

  1. Теорія ймовірностей та математична статистика. Гмурман У. Є. Навчальний посібник для вузів. - Вид. 10-ті, стер. - М: Вищ. шк., 2010. – 479с.
  2. Вища математика у вправах та завданнях. Навчальний посібник для вузів / Данко П. Є., Попов А. Г., Кожевнікова Т. Я., Данко С. П. У 2 ч. – Вид. 6-е, стер. – М.: ТОВ «Видавництво Онікс»: ТОВ «Видавництво «Світ та освіта», 2007. – 416 с.
    1. 3. http://www.machinelearning.ru/wiki/index.php?title=%D0%A0%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8 %D1%8F - Деякі відомості про регресійний аналіз

p align="justify"> Метод регресивного аналізу застосовується для визначення техніко-економічних параметрів продукції, що відноситься до конкретного параметричного ряду, з метою побудови та вирівнювання ціннісних співвідношень. Цей метод використовується для аналізу та обґрунтування рівня та співвідношень цін продукції, що характеризується наявністю одного або кількох техніко-економічних параметрів, що відображають основні споживчі властивості. Регресивний аналіз дозволяє визначити емпіричну формулу, що описує залежність ціни від техніко-економічних властивостей виробів:

P=f(X1X2,...,Xn),

де Р – значення ціни одиниці виробу, руб.; (Х1, Х2, ... Хп) – техніко-економічні параметри виробів.

p align="justify"> Метод регресивного аналізу - найбільш досконалий з використовуваних нормативно-параметричних методів - ефективний при проведенні розрахунків на основі застосування сучасних інформаційних технологій і систем. Застосування його включає такі основні етапи:

  • визначення класифікаційних параметричних груп виробів;
  • відбір параметрів, що найбільше впливають на ціну виробу;
  • вибір та обґрунтування форми зв'язку зміни ціни при зміні параметрів;
  • побудова системи нормальних рівнянь та розрахунок коефіцієнтів регресії.

Основною кваліфікаційною групою виробів, ціна яких підлягає вирівнюванню, є параметричний ряд, всередині якого вироби можуть групуватися за різним виконанням залежно від їх застосування, умов і вимог експлуатації тощо. При формуванні параметричних рядів можуть бути застосовані методи автоматичної класифікації із загальної маси продукції виділяти її однорідні групи. Відбір техніко-економічних параметрів провадиться виходячи з наступних основних вимог:

  • до складу відібраних параметрів включаються параметри, зафіксовані у стандартах та технічних умовах; крім технічних параметрів (потужності, вантажопідйомності, швидкості тощо) використовуються показники серійності продукції, коефіцієнти складності, уніфікації та ін;
  • сукупність відібраних параметрів повинна досить повно характеризувати конструктивні, технологічні та експлуатаційні властивості виробів, що входять до ряду, і мати досить тісний кореляційний зв'язок із ціною;
  • параметри не повинні бути взаємозалежними.

Для відбору техніко-економічних параметрів, які впливають ціну, обчислюється матриця коефіцієнтів парної кореляції. За величиною коефіцієнтів кореляції між параметрами можна будувати висновки про тісноті їх зв'язку. При цьому близька до нуля кореляція вказує на незначний вплив параметра на ціну. Остаточний відбір техніко-економічних параметрів провадиться в процесі покрокового регресивного аналізу з використанням комп'ютерної техніки та відповідних стандартних програм.

У практиці ціноутворення застосовується наступний набір функцій:

лінійна

P = ao + alXl + ... + antXn,

лінійно-статечна

Р = ао + а1Х1 + ... + аnХп + (ап+1Хп) ​​(ап+1Хп) ​​+... + (ап+nХп2) (ап+nХп2)

зворотного логарифму

Р = а0 + а1: In X1 + ... + ап: In Xn,

статечна

P = a0 (X1^a1) (X2^a2).. (Xn^an)

показова

P = e^(а1+а1X1+...+аnХn)

гіперболічна

Р = ао + а1: Х1 + а2: Х2 + ... + ап: Хп,

де Р – вирівнювання ціни; X1 X2,..., Хп – значення техніко-економічних параметрів виробів ряду; a0, a1 ..., аn - обчислювані коефіцієнти рівняння регресії.

У практичній роботі з ціноутворення залежно від форми зв'язку цін та техніко-економічних параметрів можуть використовуватись інші рівняння регресії. Вид функції зв'язку між ціною та сукупністю техніко-економічних параметрів може бути заданий попередньо або обраний автоматично в процесі обробки ЕОМ. Тіснота кореляційного зв'язку між ціною та сукупністю параметрів оцінюється за величиною множинного коефіцієнта кореляції. Близькість його до одиниці говорить про тісний зв'язок. По рівнянню регресії набувають вирівняні (розрахункові) значення цін виробів даного параметричного ряду. Для оцінки результатів вирівнювання обчислюють відносні величини відхилення розрахункових значень цін від фактичних:

Цр = Росії - Рр: Р х 100

де Росії, Рр - фактична і розрахункова ціни.

Розмір Цр має перевищувати 8-10%. У разі суттєвих відхилень розрахункових значень від фактичних необхідно досліджувати:

  • правильність формування параметричного ряду, оскільки у його складі можуть бути вироби, за своїми параметрами різко від інших виробів ряду. Їх треба виключити;
  • правильність відбору техніко-економічних властивостей. Можлива сукупність параметрів, що слабо корелюється з ціною. У цьому випадку необхідно продовжити пошук та відбір параметрів.

Порядок та методика проведення регресивного аналізу, знаходження невідомих параметрів рівняння та економічна оцінка отриманих результатів здійснюються відповідно до вимог математичної статистики.

Метою регресійного аналізу є вимірювання зв'язку між залежною змінною та однією (парний регресійний аналіз) або декількома (множинним) незалежними змінними. Незалежні змінні називають також факторними, що пояснюють, визначальними, регресорами та предикторами.

Залежну змінну іноді називають обумовленою, пояснюваною, «відгуком». Надзвичайно широке поширення регресійного аналізу в емпіричних дослідженнях пов'язано не тільки з тим, що це зручний інструмент для тестування гіпотез. Регресія, особливо множинна, є ефективним методом моделювання та прогнозування.

Пояснення принципів роботи з регресійним аналізом почнемо з простішого - парного методу.

Парний регресійний аналіз

Перші дії при використанні регресійного аналізу будуть практично ідентичними нами в рамках обчислення коефіцієнта кореляції. Три основні умови ефективності кореляційного аналізу за методом Пірсона – нормальний розподіл змінних, інтервальний вимір змінних, лінійний зв'язок між змінними – актуальні і для множинної регресії. Відповідно, на першому етапі будуються діаграми розсіювання, проводиться статистично-описовий аналіз змінних та обчислюється лінія регресії. Як і рамках кореляційного аналізу, лінії регресії будуються шляхом найменших квадратів.

Щоб наочно проілюструвати різницю між двома методами аналізу даних, звернемося до вже розглянутому прикладу зі змінними «підтримка УПС» і «частка сільського населення». Вихідні дані ідентичні. Відмінність у діаграмах розсіювання полягатиме у цьому, що у регресійному аналізі коректно відкладати залежну змінну - у разі «підтримка УПС» по осі Y, тоді як і кореляційному аналізі це має значення. Після чищення викидів діаграма розсіювання має вигляд:

Принципова ідея регресійного аналізу у тому, що, маючи загальну тенденцію для змінних - як лінії регресії, - можна передбачити значення залежної змінної, маючи значення незалежної.

Уявімо звичайну математичну лінійну функцію. Будь-яку пряму в евклідовому просторі можна описати формулою:

де а - константа, що задає зміщення осі ординат; b – коефіцієнт, що визначає кут нахилу лінії.

Знаючи кутовий коефіцієнт і константу, можна розрахувати (передбачити) значення для будь-якого х.

Ця найпростіша функція і лягла основою моделі регресійного аналізу з тим застереженням, що значення ми передбачимо не точно, а межах певного довірчого інтервалу, тобто. приблизно.

Константою є точка перетину лінії регресії та осі ординат (F-перетин, у статистичних пакетах, як правило, що позначається «interceptor»). У нашому прикладі із голосуванням за УПС її округлене значення становитиме 10,55. Кутовий коефіцієнт Ъ дорівнюватиме приблизно -0,1 (як і в кореляційному аналізі, знак показує тип зв'язку - пряма або зворотна). Таким чином, отримана модель матиме вигляд СП = -0,1 х Сел. нас. + 10,55.

УПС = -0,10 х 47 + 10,55 = 5,63.

Різниця між вихідним і передбаченим значеннями називається залишком (з цим терміном – важливим для статистики – ми вже стикалися при аналізі таблиць сполученості). Так, для випадку «Республіка Адигея» залишок дорівнюватиме 3,92 - 5,63 = -1,71. Чим більше модульне значення залишку, тим менш успішно передбачено значення.

Розраховуємо передбачені значення та залишки для всіх випадків:
Випадок Сіл. нас. УПС

(вихідне)

УПС

(передбачене)

Залишки
Республіка Адигея 47 3,92 5,63 -1,71 -
Республіка Алтай 76 5,4 2,59 2,81
Республіка Башкортостан 36 6,04 6,78 -0,74
Республіка Бурятія 41 8,36 6,25 2,11
республіка Дагестан 59 1,22 4,37 -3,15
Республіка Інгушетія 59 0,38 4,37 3,99
І т.д.

Аналіз співвідношення вихідних та передбачених значень служить для оцінки якості отриманої моделі, її прогностичної здатності. Одним з головних показників регресійної статистики є множинний коефіцієнт кореляції R - коефіцієнт кореляції між вихідними та передбаченими значеннями залежної змінної. У парному регресійному аналізі він дорівнює звичайному коефіцієнту кореляції Пірсона між залежною та незалежною змінною, у нашому випадку – 0,63. Щоб змістовно інтерпретувати множинний R, його необхідно перетворити на коефіцієнт детермінації. Це робиться так само, як і в кореляційному аналізі – зведенням у квадрат. Коефіцієнт детермінації R-квадрат (R 2) показує частку варіації залежної змінної, яка пояснюється незалежною (незалежними) змінними.

У разі R 2 = 0,39 (0,63 2); це означає, що змінна «частка сільського населення» пояснює приблизно 40% варіації змінної «підтримка УПС». Чим більша величина коефіцієнта детермінації, тим вища якість моделі.

Іншим показником якості моделі є стандартна помилка оцінки (standard error of estimate). Це показник того, наскільки сильно точки розкидані навколо лінії регресії. Мірою розкиду для інтервальних змінних є стандартне відхилення. Відповідно, стандартна помилка оцінки – це стандартне відхилення розподілу залишків. Чим вище її значення, тим сильніший розкид і тим гірша модель. У разі стандартна помилка становить 2,18. Саме на цю величину наша модель "помилятиметься в середньому" при прогнозуванні значення змінної "підтримка УПС".

Регресійна статистика включає також дисперсійний аналіз. За його допомогою ми з'ясовуємо: 1) яка частка варіації (дисперсії) залежної змінної пояснюється незалежною змінною; 2) яка частка дисперсії залежної змінної посідає залишки (непояснена частина); 3) яке відношення цих двох величин (/"-відношення). Дисперсійна статистика особливо важлива для вибіркових досліджень - вона показує, наскільки ймовірно наявність зв'язку між незалежною і залежною змінними в генеральній сукупності. Однак і для суцільних досліджень (як у нашому прикладі) вивчення результатів дисперсійного аналізу недаремно. У цьому випадку перевіряють, чи не викликана виявлена ​​статистична закономірність збігом випадкових обставин, наскільки вона характерна для того комплексу умов, в яких перебуває обстежувана сукупність, тобто встановлюється не істинність отриманого результату для якоїсь більшої генеральної. сукупності, а ступінь його закономірності, волі від випадкових впливів.

У нашому випадку статистика дисперсійного аналізу така:

SS df MS F значення
Регрес. 258,77 1,00 258,77 54,29 0.000000001
Залиш. 395,59 83,00 Л,11
Усього 654,36

F-відношення 54,29 значимо лише на рівні 0,0000000001. Відповідно, ми можемо з упевненістю відкинути нульову гіпотезу (що виявлений нами зв'язок носить випадковий характер).

Аналогічну функцію виконує критерій t, але вже щодо регресійних коефіцієнтів (кутового та F-перетину). За допомогою критерію/перевіряємо гіпотезу про те, що в генеральній сукупності регресійні коефіцієнти дорівнюють нулю. У нашому випадку ми можемо знову впевнено відкинути нульову гіпотезу.

Множинний регресійний аналіз

Модель множинної регресії практично ідентична моделі парної регресії; різниця лише тому, що у лінійну функцію послідовно включаються кілька незалежних змінних:

Y = b1X1 + b2X2 + … + bpXp + а.

Якщо незалежних змінних більше двох, ми не маємо можливості отримати візуальне уявлення про їхній зв'язок, у цьому плані множинна регресія менш «наочна», ніж парна. За наявності двох незалежних змінних дані корисно відобразити на тривимірній діаграмі розсіювання. У професійних статистичних пакетах програм (наприклад Statisticа) існує опція обертання тривимірної діаграми, що дозволяє добре візуально подати структуру даних.

Працюючи з множинної регресією, на відміну парної, необхідно визначати алгоритм аналізу. Стандартний алгоритм включає у підсумкову регресійну модель усі наявні предиктори. Покроковий алгоритм передбачає послідовне включення (виключення) незалежних змінних, виходячи з їхньої пояснювальної «ваги». Покроковий метод хороший, коли є багато незалежних змінних; він «очищає» модель від відверто слабких предикторів, роблячи її компактнішою і лаконічнішою.

Додатковою умовою коректності множинної регресії (поряд з інтервальністю, нормальністю та лінійністю) є відсутність мультиколлінеарності – наявності сильних кореляційних зв'язків між незалежними змінними.

Інтерпретація статистики множинної регресії включає всі злементи, розглянуті нами для випадку парної регресії. Крім того, у статистиці множинного регресійного аналізу є й інші важливі складові.

Роботу з множинною регресією ми проілюструємо на прикладі тестування гіпотез, що пояснюють відмінності в рівні електоральної активності в регіонах Росії. У ході конкретних емпіричних досліджень було висловлено припущення, що на рівень явки виборців впливають:

Національний чинник (змінна «російське населення»; операціоналізована як частка російського населення суб'єктах РФ). Передбачається, що частка російського населення веде до зниження активності виборців;

Фактор урбанізації (змінна «міське населення»; операціоналізована як частка міського населення в суб'єктах РФ, з цим фактором ми вже працювали в рамках кореляційного аналізу). Передбачається, що збільшення частки міського населення також призводить до зниження активності виборців.

Залежна змінна - «інтенсивність виборчої активності» («актив») операціоналізована через усереднені дані явки по регіонах на федеральних виборах з 1995 по 2003 р. Вихідна таблиця даних для двох незалежних та однієї залежної змінної матиме такий вигляд:

Випадок Змінні
актив. Гір. нас. Рос. нас.
Республіка Адигея 64,92 53 68
Республіка Алтай 68,60 24 60
Республіка Бурятія 60,75 59 70
республіка Дагестан 79,92 41 9
Республіка Інгушетія 75,05 41 23
Республіка Калмикія 68,52 39 37
Карачаєво-Черкеська Республіка 66,68 44 42
республіка Карелія 61,70 73 73
Республіка Комі 59,60 74 57
Республіка Марій Ел 65,19 62 47

І т.д. (після чищення викидів залишається 83 випадки із 88)

Статистика, що описує якість моделі:

1. Множинний R = 0,62; Л-квадрат = 0,38. Отже, національний фактор та фактор урбанізації разом пояснюють близько 38% варіації змінної «електоральної активності».

2. Середня помилка складає 3,38. Саме настільки «в середньому помиляється» побудована модель під час прогнозування рівня явки.

3. /л-відношення поясненої та непоясненої варіації становить 25,2 на рівні 0,000000003. Нульова гіпотеза про випадковість виявлених зв'язків відкидається.

4. Критерій /для константи та регресійних коефіцієнтів змінних «міське населення» і «російське населення» значимо на рівні 0,0000001; 0,00005 та 0,007 відповідно. Нульова гіпотеза про випадковість коефіцієнтів відкидається.

Додаткова корисна статистика в аналізі співвідношення вихідних та передбачуваних значень залежної змінної – відстань Махаланобіса та відстань Кука. Перше - міра унікальності випадку (показує, наскільки поєднання значень всіх незалежних змінних для цього випадку відхиляється від середнього значення по всіх незалежних змінних одночасно). Друге – міра впливовості випадку. p align="justify"> Різні спостереження по-різному впливають на нахил лінії регресії, і за допомогою відстані Кука можна зіставляти їх за цим показником. Це буває корисно при чищенні викидів (викид можна уявити як надмірно впливовий випадок).

У нашому прикладі до унікальних та впливових випадків, зокрема, відноситься Дагестан.

Випадок Вихідні

значення

Предська

значення

Залишки Відстань

Махаланобіса

Відстань
Адигея 64,92 66,33 -1,40 0,69 0,00
Республіка Алтай 68,60 69.91 -1,31 6,80 0,01
Республіка Бурятія 60,75 65,56 -4,81 0,23 0,01
республіка Дагестан 79,92 71,01 8,91 10,57 0,44
Республіка Інгушетія 75,05 70,21 4,84 6,73 0,08
Республіка Калмикія 68,52 69,59 -1,07 4,20 0,00

Власне регресійна модель має наступні параметри: У-перетин (константа) = 75,99; Ь (Мір. нас.) = -0,1; Ъ (Рус. нас.) = -0,06. Підсумкова формула.

Регресійний аналіз є одним із найбільш затребуваних методів статистичного дослідження. З його допомогою можна встановити рівень впливу незалежних величин на залежну змінну. У функціоналі Microsoft Excel є інструменти, призначені щодо такого аналізу. Давайте розберемо, що вони являють собою і як ними користуватися.

Але для того, щоб використовувати функцію, що дозволяє провести регресійний аналіз, перш за все, потрібно активувати Пакет аналізу. Тільки тоді необхідні для цієї процедури інструменти з'являться на Стрічці Ексель.


Тепер, коли ми перейдемо у вкладку «Дані»на стрічці в блоці інструментів «Аналіз»ми побачимо нову кнопку – «Аналіз даних».

Види регресійного аналізу

Існує кілька видів регресій:

  • параболічна;
  • статечна;
  • логарифмічна;
  • експонентна;
  • показова;
  • гіперболічна;
  • Лінійна регресія.

Про виконання останнього виду регресійного аналізу в Екселі ми докладніше поговоримо далі.

Лінійна регресія у програмі Excel

Внизу, як приклад, представлена ​​таблиця, в якій зазначено середньодобову температуру повітря на вулиці, та кількість покупців магазину за відповідний робочий день. Давайте з'ясуємо за допомогою регресійного аналізу, як погодні умови у вигляді температури повітря можуть вплинути на відвідуваність торгового закладу.

Загальне рівняння регресії лінійного вигляду має такий вигляд: У = а0 + а1х1 +…+акхк. У цій формулі Yозначає змінну, вплив чинників яку ми намагаємося вивчити. У нашому випадку це кількість покупців. Значення x- Це різні фактори, що впливають на змінну. Параметри aє коефіцієнтами регресії. Тобто саме вони визначають значущість того чи іншого чинника. Індекс kпозначає загальну кількість цих факторів.


Розбір результатів аналізу

Результати регресійного аналізу виводяться у вигляді таблиці там, яке зазначено в настройках.

Одним із основних показників є R-квадрат. У ньому вказується якість моделі. У нашому випадку цей коефіцієнт дорівнює 0,705 або близько 70,5%. Це прийнятний рівень якості. Залежність менше ніж 0,5 є поганою.

Ще один важливий показник розташований у осередку на перетині рядка «Y-перетин»та стовпця «Коефіцієнти». Тут вказується яке значення буде у Y, а нашому випадку, це кількість покупців, за всіх інших чинниках рівних нулю. У цій таблиці це значення дорівнює 58,04.

Значення на перетині граф «Змінна X1»і «Коефіцієнти»показує рівень залежності Y від X. У нашому випадку це рівень залежності кількості клієнтів магазину від температури. Коефіцієнт 1,31 вважається досить високим показником впливу.

Як бачимо, за допомогою програми Microsoft Excel досить легко скласти таблицю регресійного аналізу. Але працювати з отриманими на виході даними і розуміти їх суть зможе лише підготовлена ​​людина.

Під час навчання студенти часто стикаються з різноманітними рівняннями. Одне з них – рівняння регресії – розглянуто у цій статті. Такий тип рівняння використовується спеціально для опису характеристики зв'язку між математичними параметрами. Даний вид рівностей використовують у статистиці та економетриці.

Визначення поняття регресії

У математиці під регресією мається на увазі певна величина, що описує залежність середнього значення сукупності даних від значень іншої величини. Рівняння регресії показує як функцію певної ознаки середнє значення іншої ознаки. Функція регресії має вигляд простого рівняння у = х, в якому у виступає залежною змінною, а х - незалежною (ознака-фактор). Фактично регресія виражається як у = f(x).

Які бувають типи зв'язків між змінними

Загалом, виділяється два протилежні типи взаємозв'язку: кореляційна та регресійна.

Перша характеризується рівноправністю умовних змінних. У разі достовірно невідомо, яка змінна залежить від інший.

Якщо ж між змінними немає рівноправності й умовах сказано, яка змінна пояснює, яка - залежна, можна говорити про наявність зв'язку другого типу. Для того, щоб побудувати рівняння лінійної регресії, необхідно буде з'ясувати, який тип зв'язку спостерігається.

Види регресій

На сьогоднішній день виділяють 7 різноманітних видів регресії: гіперболічна, лінійна, множинна, нелінійна, парна, зворотна, логарифмічно лінійна.

Гіперболічна, лінійна та логарифмічна

Рівняння лінійної регресії застосовують у статистиці для чіткого пояснення параметрів рівняння. Воно виглядає як у = с+т*х+Е. Гіперболічне рівняння має вигляд правильної гіперболи у = с + т / х + Е. Логарифмічно лінійне рівняння виражає взаємозв'язок за допомогою логарифмічної функції: In у = In + т * In x + In E.

Множинна та нелінійна

Два складніших виду регресії - це множинна і нелінійна. Рівняння множинної регресії виражається функцією у = f(х 1 х 2 ... х с) + E. У цій ситуації у виступає залежною змінною, а х - що пояснює. Змінна Е – стохастична, вона включає вплив інших факторів у рівнянні. Нелінійне рівняння регресії трохи суперечливе. З одного боку, щодо врахованих показників воно не лінійне, а з іншого боку, у ролі оцінки показників воно є лінійним.

Зворотні та парні види регресій

Зворотний - це такий вид функції, який необхідно перетворити на лінійний вигляд. У традиційних прикладних програмах вона має вигляд функції у = 1/с + т*х+Е. Парне рівняння регресії демонструє взаємозв'язок між даними як функції у = f(x) + Е. Так само, як і в інших рівняннях, у залежить від х, а Е - стохастичний параметр.

Поняття кореляції

Це показник, що демонструє існування взаємозв'язку двох явищ чи процесів. Сила взаємозв'язку виявляється як коефіцієнт кореляції. Його значення коливається у межах інтервалу [-1;+1]. Негативний показник говорить про наявність зворотного зв'язку, позитивний – про прямий. Якщо коефіцієнт набуває значення, що дорівнює 0, то взаємозв'язку немає. Чим ближче значення до 1 – тим сильніший зв'язок між параметрами, чим ближче до 0 – тим слабше.

Методи

Кореляційні параметричні методи можуть оцінити тісноту взаємозв'язку. Їх застосовують з урахуванням оцінки розподілу вивчення параметрів, підпорядковуються закону нормального розподілу.

Параметри рівняння лінійної регресії необхідні ідентифікації виду залежності, функції регресійного рівняння та оцінювання показників обраної формули взаємозв'язку. Як метод ідентифікації зв'язку використовується поле кореляції. Для цього всі наявні дані необхідно зобразити графічно. У прямокутній двовимірній системі координат необхідно нанести всі відомі дані. Так утворюється поле кореляції. Значення описуючого чинника відзначаються вздовж осі абсцис, тоді як значення залежного - вздовж осі ординат. Якщо між параметрами є функціональна залежність, вони вишиковуються у вигляді лінії.

Якщо коефіцієнт кореляції таких даних буде менше 30 %, можна говорити про практично повну відсутність зв'язку. Якщо він знаходиться між 30% і 70%, це говорить про наявність зв'язків середньої тісноти. 100% показник – свідчення функціонального зв'язку.

Нелінійне рівняння регресії як і, як і лінійне, необхідно доповнювати індексом кореляції (R).

Кореляція для множинної регресії

Коефіцієнт детермінації є показник квадрата множинної кореляції. Він говорить про тісноті взаємозв'язку представленого комплексу показників з ознакою, що досліджується. Він може говорити про характер впливу параметрів на результат. Рівняння множинної регресії оцінюють за допомогою цього показника.

Щоб обчислити показник множинної кореляції, необхідно розрахувати його індекс.

Метод найменших квадратів

Цей метод є способом оцінювання факторів регресії. Його суть полягає у мінімізуванні суми відхилень у квадраті, отриманих внаслідок залежності фактора від функції.

Парне лінійне рівняння регресії можна оцінити з допомогою такого методу. Цей тип рівнянь використовують у разі виявлення між показниками парної лінійної залежності.

Параметри рівнянь

Кожен параметр функції лінійної регресії несе певний зміст. Парне лінійне рівняння регресії містить два параметри: с і т. Параметр т демонструє середню зміну кінцевого показника функції у, за умови зменшення (збільшення) змінної х на одну умовну одиницю. Якщо змінна х – нульова, то функція дорівнює параметру с. Якщо ж змінна х не нульова, то фактор не несе в собі економічний сенс. Єдиний вплив на функцію має знак перед фактором с. Якщо там мінус, то можна сказати про уповільнену зміну результату порівняно з фактором. Якщо там плюс, то це свідчить про прискорену зміну результату.

Кожен параметр, що змінює значення рівняння регресії, можна виразити через рівняння. Наприклад, фактор с має вигляд с = y - тх.

Згруповані дані

Бувають такі умови завдання, у яких вся інформація групується за ознакою x, але для певної групи вказуються відповідні середні значення залежного показника. У разі середні значення характеризують, як змінюється показник, залежить від х. Таким чином, згрупована інформація допомагає знайти рівняння регресії. Її використовують як аналіз взаємозв'язків. Однак такий метод має свої недоліки. На жаль, середні показники досить часто зазнають зовнішніх коливань. Дані коливання є відображенням закономірності взаємозв'язку, вони лише маскують її «шум». Середні показники демонструють закономірності взаємозв'язку набагато гірше, ніж рівняння лінійної регресії. Однак їх можна застосовувати у вигляді бази для пошуку рівняння. Перемножуючи чисельність окремої сукупності на відповідну середню можна отримати суму в межах групи. Далі необхідно підбити всі отримані суми і знайти кінцевий показник. Трохи складніше робити розрахунки з показником суми ху. Якщо інтервали малі, можна умовно взяти показник х для всіх одиниць (у межах групи) однаковим. Слід перемножити його із сумою у, щоб дізнатися суму творів x на у. Далі всі суми підбиваються разом і виходить загальна сума ху.

Множинне парне рівняння регресії: оцінка важливості зв'язку

Як розглядалося раніше, множинна регресія має функцію виду у = f (x 1 x 2 ... x m) + E. Найчастіше таке рівняння використовують для вирішення проблеми попиту та пропозиції на товар, відсоткового доходу за викупленими акціями, вивчення причин та виду функції витрат виробництва. Її також активно застосовують у найрізноманітніших макроекономічних дослідженнях і розрахунках, а на рівні мікроекономіки таке рівняння застосовують трохи рідше.

Основним завданням множинної регресії є побудова моделі даних, що містять величезну кількість інформації, для того щоб надалі визначити, який вплив має кожен із факторів окремо та в їхній загальній сукупності на показник, який необхідно змоделювати, та його коефіцієнти. Рівняння регресії може набувати найрізноманітніших значень. При цьому для оцінки взаємозв'язку зазвичай використовується два типи функцій: лінійна та нелінійна.

Лінійна функція зображується у формі такого взаємозв'язку: у = а 0 + a 1 х 1 + а 2 х 2 + + + m x m . У цьому а2, a m , вважаються коефіцієнтами «чистої» регресії. Вони необхідні для характеристики середньої зміни параметра зі зміною (зменшенням або збільшенням) кожного відповідного параметра х на одну одиницю, з умовою стабільного значення інших показників.

Нелінійні рівняння мають, наприклад, вид статечної функції у=ах 1 b1 х 2 b2 ... x m bm. У разі показники b 1 , b 2 ..... b m - називаються коефіцієнтами еластичності, демонструють, як зміниться результат (на скільки %) зі збільшенням (зменшенні) відповідного показника x 1 % і за стабільному показнику інших чинників.

Які фактори необхідно враховувати при побудові множинної регресії

Для того, щоб правильно побудувати множинну регресію, необхідно з'ясувати, на які саме фактори слід звернути особливу увагу.

Необхідно мати певне розуміння природи взаємозв'язків між економічними факторами та модельованим. Чинники, які потрібно буде включати, повинні відповідати таким признакам:

  • Повинні бути підвладні кількісному виміру. Для того щоб використовувати фактор, який описує якість предмета, у будь-якому випадку слід надати йому кількісну форму.
  • Не повинна бути інтеркореляція факторів, або функціональний взаємозв'язок. Такі дії найчастіше призводять до незворотних наслідків - система звичайних рівнянь стає не обумовленою, а це спричиняє її ненадійність і нечіткість оцінок.
  • У разі існування величезного показника кореляції немає способу для з'ясування ізольованого впливу факторів на остаточний результат показника, отже коефіцієнти стають неінтерпретованими.

Методи побудови

Існує безліч методів і методів, пояснюють, як можна вибрати чинники рівняння. Проте ці методи будуються на відборі коефіцієнтів з допомогою показника кореляції. Серед них виділяють:

  • Спосіб виключення.
  • Спосіб включення.
  • Покроковий аналіз регресії.

Перший метод має на увазі відсів усіх коефіцієнтів із сукупного набору. Другий метод включає введення множини додаткових факторів. Ну а третій – відсів факторів, які були раніше застосовані для рівняння. Кожен із цих методів має право на існування. Вони мають свої плюси та мінуси, але вони всі по-своєму можуть вирішити питання відсіву непотрібних показників. Зазвичай, результати, отримані кожним окремим методом, досить близькі.

Методи багатовимірного аналізу

Такі методи визначення чинників базуються на розгляді окремих поєднань взаємозалежних ознак. Вони включають дискримінантний аналіз, розпізнання видів, метод основних компонентів і аналіз кластерів. Крім того, існує факторний аналіз, однак він з'явився внаслідок розвитку способу компонент. Усі вони застосовуються у певних обставинах, за наявності певних умов та факторів.



Схожі статті

2024 parki48.ru. Будуємо каркасний будинок. Ландшафтний дизайн. Будівництво. Фундамент.