Дисперсійний аналіз (ANOVA). Багатофакторний дисперсійний аналіз

Розглянуті вище прийоми перевірки статистичних гіпотез про суттєвість відмінностей між двома середніми на практиці мають обмежене застосування. Це пов'язано з тим, що для виявлення дії всіх можливих умов та факторів на результативну ознаку польові та лабораторні досліди, як правило, проводять з використанням не двох, а більшої кількості вибірок (1220 і більше).

Часто дослідники порівнюють середні кілька вибірок, об'єднаних у єдиний комплекс. Наприклад, вивчаючи вплив різних видів та доз добрив на врожайність сільськогосподарських культур, досліди повторюють у різних варіантах. У цих випадках попарні порівняння стають громіздкими, а статистичний аналіз всього комплексу потребує особливого методу. Такий метод, розроблений у математичній статистиці, отримав назву дисперсійного аналізу. Вперше його застосував англійський статистик Р. Фішер для опрацювання результатів агрономічних дослідів (1938 р.).

Дисперсійний аналіз- це метод статистичної оцінки надійності прояву залежності результативної ознаки від одного чи кількох факторів. За допомогою методу дисперсійного аналізу проводиться перевірка статистичних гіпотез щодо середніх у кількох генеральних сукупностях, що мають нормальний розподіл.

Дисперсійний аналіз є одним із основних методів статистичної оцінки результатів експерименту. Дедалі ширше застосування отримує і у аналізі економічної інформації. Дисперсійний аналіз дає можливість встановити, наскільки вибіркові показники зв'язку результативної та факторних ознак достатні для поширення отриманих за вибіркою даних на генеральну сукупність. Перевагою цього є те, що він дає досить надійні висновки щодо вибірок невеликої чисельності.

Досліджуючи варіацію результативної ознаки під впливом одного або декількох факторів за допомогою дисперсійного аналізу можна отримати крім загальних оцінок суттєвості залежностей, також оцінку відмінностей у величині середніх, які формуються при різних рівнях факторів, і суттєвості взаємодії факторів. Дисперсійний аналіз застосовується вивчення залежностей як кількісних, і якісних ознак, і навіть за її поєднанні.

Суть цього методу полягає в статистичному вивченніймовірності впливу одного чи кількох факторів, а також їх взаємодії на результативну ознаку. Відповідно до цього за допомогою дисперсійного аналізу вирішуються три основні завдання: 1) Загальна оцінкасуттєвість відмінностей між груповими середніми; 2) оцінка ймовірності взаємодії факторів; 3) оцінка суттєвості відмінностей між парами середніх. Найчастіше такі завдання доводиться вирішувати дослідникам при проведенні польових та зоотехнічних дослідів, коли вивчається вплив кількох факторів на результативну ознаку.

Принципова схема дисперсійного аналізу включає встановлення основних джерел варіювання результативної ознаки та визначення обсягів варіації (сум квадратів відхилень) за джерелами її утворення; визначення числа ступенів свободи, які відповідають компонентам загальної варіації; обчислення дисперсій як відношення відповідних обсягів варіації до їх ступеня свободи; аналіз співвідношення між дисперсіями; оцінка достовірності різниці між середніми та формулювання висновків.

Зазначена схема зберігається як при простих моделяхдисперсійного аналізу, коли дані групуються за однією ознакою, так і при складних моделях, коли дані групуються за двома та великим числом ознак. Однак із збільшенням числа групових ознак ускладнюється процес розкладання загальної варіації за джерелами її утворення.

Згідно принципової схемидисперсійний аналіз можна подати у вигляді п'яти послідовно виконуваних етапів:

1) визначення та розкладання варіації;

2) визначення числа ступенів свободи варіації;

3) обчислення дисперсій та їх співвідношень;

4) аналіз дисперсій та їх співвідношень;

5) оцінка достовірності різниці між середніми та формулювання висновків з перевірки нульової гіпотези.

Найбільш трудомісткою частиною дисперсійного аналізу є перший етап - визначення та розкладання варіації за джерелами її утворення. Порядок розкладання загального обсягу варіації докладно розглядався розділ 5.

В основі вирішення завдань дисперсійного аналізу лежить закон розкладання (додавання) варіації, згідно з яким загальна варіація (коливання) результативної ознаки ділиться на дві: варіацію, обумовлену дією досліджуваного фактора (факторів), та варіацію, спричинену дією випадкових причин, тобто

Припустимо, що досліджувана сукупність поділена за факторною ознакою на кілька груп, кожна з яких характеризується своєю середній величинірезультативної ознаки. При цьому варіацію цих величин можна пояснити двома видами причин: такими, що діють на результативну ознаку систематично і піддаються регулюванню в ході експерименту і регулюванню не піддаються. Очевидно, що міжгрупова (факторна чи систематична) варіація залежить переважно від дії досліджуваного фактора, а внутрішньогрупова (залишкова чи випадкова) – від дії випадкових факторів.

Щоб оцінити достовірність відмінностей між груповими середніми, необхідно визначити міжгрупову та внутрішньогрупову варіації. Якщо міжгрупова (факторна) варіація значно перевищує внутрішньогрупову (залишкову) варіацію, то фактор впливав на результативну ознаку, суттєво змінюючи значення групових середніх величин. Але постає питання, яке співвідношення між міжгруповою та внутрішньогруповою варіаціями можна розглядати як достатнє для висновку про достовірність (суттєвість) відмінностей між груповими середніми.

Для оцінки суттєвості відмінностей між середніми та формулювання висновків з перевірки нульової гіпотези (Н0:х1 = х2 =... = хп) у дисперсійному аналізі використовується своєрідний норматив – Г-критерій, закон розподілу якого встановив Р.фішер. Цей критерій є відношенням двох дисперсій: факторного, що породжується дією фактора, що вивчається, і залишкової, обумовленої дією випадкових причин:

Дисперсійне відношення Г= £>і : £*2 американським статистиком Снедекором запропоновано позначати літерою Г на честь винахідника дисперсійного аналізу Р.Фішера.

Дисперсії °2 іо2 є оцінками дисперсії генеральної сукупності. Якщо вибірки з дисперсіями °2 °2 зроблено з однієї і тієї ж генеральної сукупності, де варіація величин мала випадковий характер, то розбіжність у величинах °2 °2 також випадкова.

Якщо в експерименті перевіряють вплив кількох факторів (А, В, С і т.д.) на результативну ознаку одночасно, то дисперсія, обумовлена ​​дією кожного з них, має бути порівнянна з °е.гР, тобто

Якщо значення факторної дисперсії значно більше залишкової, то фактор суттєво впливав на результативну ознаку і навпаки.

У багатофакторних експериментах, крім варіації, обумовленої дією кожного фактора, практично завжди є варіація, обумовлена ​​взаємодією факторів ($ав: ^лс ^вс $лііс). Суть взаємодії полягає в тому, що ефект одного фактора суттєво змінюється на різних рівнях другого (наприклад, ефективність якості ґрунту при різних дозах добрив).

Взаємодія факторів також має бути оцінена шляхом порівняння відповідних дисперсій 3 ^в.гр:

При обчисленні фактичного значення Б-критерію в чисельнику береться велика дисперсій, тому Б > 1. Вочевидь, що більше критерій Б, то значніші відмінності між дисперсіями. Якщо Б = 1, то питання оцінки суттєвості відмінностей дисперсій знімається.

Для визначення меж випадкових коливань ставлення дисперсій Р. Фішер розробив спеціальні таблиці Б-розподілу (додатки 4 та 5). Критерій Б функціонально пов'язаний з ймовірністю і залежить від числа ступенів свободи варіації к1і к2 двох дисперсій, що порівнюються. Зазвичай використовуються дві таблиці, що дозволяють робити висновки про гранично високе значення критерію рівнів значущості 0,05 і 0,01. Рівень значущості 0,05 (або 5%) означає, що тільки в 5 випадках зі 100 критерій Б може приймати значення, що дорівнює вказаному в таблиці або вище його. Зниження рівня значимості з 0,05 до 0,01 призводить до збільшення значення критерію Б між двома дисперсіями через дію лише випадкових причин.

Значення критерію також залежить безпосередньо від числа ступенів свободи двох дисперсій, що порівнюються. Якщо число ступенів свободи прагне нескінченності (к-ме), то відношення Б для двох дисперсій прагне одиниці.

Табличне значення критерію Б показує можливу випадкову величину відношення двох дисперсій при заданому рівні значущості та відповідному числі ступенів свободи для кожної з дисперсій, що порівнюються. У зазначених таблицях наводиться величина Б для вибірок, зроблених із однієї й тієї генеральної сукупності, де причини зміни величин лише випадкові.

Значення Р знаходять за таблицями (додатки 4 і 5) на перетині відповідного стовпця (кількість ступенів свободи для більшої дисперсії - к1) і рядки (кількість ступенів свободи для меншої дисперсії - к2). Так, якщо більша дисперсія (числитель Г) к1 = 4, а менша (знаменник Г) к2 = 9, то Га при рівні значущості а = 0,05 складе 3,63 (прил. 4). Отже, в результаті дії випадкових причин, оскільки нечисленні вибірки, дисперсія однієї вибірки може при 5% рівні значимості перевищувати дисперсію для другої вибірки в 3,63 рази. При зниженні рівня значущості з 0,05 до 0,01 табличне значеннякритерію Г, як зазначалося вище, збільшуватиметься. Так, за тих же ступені свободи к1 = 4 і к2 = 9 і а = 0,01 табличне значення критерію Г складе 6,99 (додаток 5).

Розглянемо порядок визначення числа ступенів свободи у дисперсійному аналізі. Число ступенів свободи, що відповідає загальній сумі квадратів відхилень, розкладається на відповідні компоненти аналогічно до розкладання сум квадратів відхилень (^заг = №^гр + ]¥вхр) , тобто загальна кількість ступенів свободи (к") розкладається на число ступенів свободи для міжгрупової (к1) та внутрішньогруповий (к2) варіацій.

Так, якщо вибіркова сукупність, що складається з Nспостережень, поділена на т груп (число варіантів досвіду) та п підгруп (кількість повторностей), то число ступенів свободи відповідно складе:

а) для загальної суми квадратів відхилень (й7заг)

б) для міжгрупової суми квадратів відхилень ^м.гР)

в) для внутрішньогрупової суми квадратів відхилень вв.гР)

Відповідно до правила складання варіації:

Наприклад, якщо у досвіді було сформовано чотири варіанти досвіду (т = 4) у п'яти повторностях кожен (п = 5), та Загальна кількістьспостережень N = = т o п = 4 * 5 = 20, то число ступенів свободи відповідно дорівнює:

Знаючи суми квадратів відхилень число ступенів свободи, можна визначити незміщені (скориговані) оцінки для трьох дисперсій:

Нульову гіпотезу Н0 за критерієм Б перевіряють так само, як і за і-критерієм Стьюдента. Щоб прийняти рішення щодо перевірки Н0, необхідно розрахувати фактичне значення критерію і порівняти його з табличним значенням Ба для прийнятого рівня значимості а та числа ступенів свободи к1та к2 для двох дисперсій.

Якщо Бфакг > Ба, то відповідно до прийнятого рівня значущості можна дійти невтішного висновку, що відмінності вибіркових дисперсій визначаються як випадковими чинниками; вони суттєві. Нульову гіпотезу у разі відхиляють і є підстави стверджувати, що чинник істотно впливає результативний ознака. Якщо ж< Ба, то нулевую гипотезу принимают и есть основание утверждать, что различия между сравниваемыми дисперсиями находятся в границах возможных случайных колебаний: действие фактора на результативный признак не является существенным.

Застосування тієї чи іншої моделі дисперсійного аналізу залежить як від кількості факторів, що вивчаються, так і від способу формування вибірок.

в залежності від кількості факторів, що визначають варіацію результативної ознаки, вибірки можуть бути сформовані за одним, двома та великим числом факторів. Відповідно до цього дисперсійний аналіз ділиться на однофакторний та багатофакторний. Інакше його ще називають однофакторним та багатофакторним дисперсійним комплексом.

Схема розкладання загальної варіації залежить від формування груп. Воно може бути випадковим (спостереження однієї групи не пов'язані зі спостереженнями другої групи) та невипадковим (спостереження двох вибірок пов'язані між собою спільністю умов експерименту). Відповідно отримують незалежні та залежні вибірки. Незалежні вибірки можуть бути сформовані як із рівною, так і з нерівною чисельністю. Формування залежних вибірок передбачає їхню рівну чисельність.

Якщо групи сформовані у невипадковому порядку, то загальний обсяг варіації результативної ознаки включає поряд з факторною (міжгруповою) і залишковою варіацією варіацію повторностей, тобто

Насправді в більшості випадків доводиться розглядати залежні вибірки, коли умови для груп і підгруп вирівнюються. Так, у польовому досвіді всю ділянку розбивають на блоки з максимально вирівняннями умовами. При цьому кожен варіант досвіду отримує рівні можливості бути представленим у всіх блоках, чим досягається вирівнювання умов для всіх варіантів, що перевіряються, досвіду. Такий метод побудови досвіду отримав назву методу рендомізованих блоків. Аналогічно проводяться і досліди з тваринами.

При обробці методом дисперсійного аналізу соціально-економічних даних необхідно мати на увазі, що в силу багаточисельності факторів та їх взаємозв'язку важко навіть за найретельнішого вирівнювання умов встановити ступінь об'єктивного впливу кожного окремого фактора на результативну ознаку. Тому рівень залишкової варіації визначається як випадковими причинами, а й істотними чинниками, які були враховані при побудові моделі дисперсійного аналізу. Внаслідок цього залишкова, дисперсія як основа порівняння іноді стає неадекватним своєму призначенню, вона явно завищується за величиною і може виступати як критерій суттєвості впливу чинників. У зв'язку з цим при побудові моделей дисперсійного аналізу стає актуальною проблемоювідбору найважливіших чинників та вирівнювання умов прояви дії кожного їх. Крім того. Застосування дисперсійного аналізу передбачає нормальний або близький до нормального розподілу досліджуваних статистичних сукупностей. Якщо ця умова не витримується, то оцінки, отримані у дисперсійному аналізі, виявляться перебільшеними.

Результати проведення дослідів та випробувань можуть залежати від деяких факторів, що впливають на мінливість середніх значень випадкової величини. Значення факторів називають рівнями факторів, а величину називають результативною ознакою. Наприклад, обсяг виконаних на будівництві робіт може залежати від працюючої бригади. І тут номер бригади є рівнем чинника, а обсяг робіт за зміну - результативним ознакою.

Метод дисперсійного аналізу, або ANOVA(Analysis of Variance - дисперсійний аналіз), служить на дослідження статистичної значимості різницю між середніми за трьох і більше вибірках (рівнях чинника). Для порівняння середніх у двох вибірках використовується t-Критерій.

Процедура порівняння середніх називається дисперсійним аналізом, тому що при дослідженні статистичної значущості відмінності між середніми кількома групами спостережень проводиться аналіз вибіркових дисперсій. Фундаментальна концепція дисперсійного аналізу була запропонована Фішером.

Сутність методу полягає у поділі загальної дисперсіїна дві частини, одна з яких обумовлена ​​випадковою помилкою (тобто внутрішньогруповою мінливістю), а друга пов'язана з різницею середніх значень. Остання компонент дисперсії потім використовується для аналізу статистичної значущості відмінності між середніми значеннями. Якщо ця відмінність значуща, нульова гіпотеза відкидається і приймається альтернативна гіпотеза існування різниці між середніми.

Змінні значення яких визначається за допомогою вимірювань в ході експерименту (наприклад, економічна ефективність, урожайність, результат тестування), називаються залежними змінними чи ознаками. Змінні, якими можна керувати під час проведення експерименту (наприклад, рівень управління, тип ґрунту, методи навчання) називаються факторами чи незалежними змінними.

У класичному дисперсійному аналізі вважається, що досліджувані величини мають нормальний розподіл із постійною дисперсією та середніми значеннями, які можуть відрізнятися для різних вибіркових сукупностей. Як критерій перевірки нульових гіпотез використовується відношення дисперсії групових середніх та залишкової дисперсії. Однак було показано, що дисперсійний аналіз справедливий і для випадкових негаусівських величин, причому при обсязі вибірок для кожного рівня фактора n > 4 похибка невисока. Якщо потрібна висока точність висновків, а розподіл невідомий, слід використовувати непараметричні критерії, наприклад, використовувати ранговий дисперсійний аналіз.

Однофакторний дисперсійний аналіз

Нехай проводиться mгруп вимірів значень випадкової величини Yпри різних рівнях значення деякого фактора, та a 1 , a 2 , a m- Математичне очікування результативної ознаки при рівнях фактора A (1) , A (2) , A(m) ( i=1, 2, m) відповідно.


Припущення про незалежність результативної ознаки фактора зводиться до перевірки нульової гіпотези про рівність групових математичних очікувань

H 0: a 1 = a 2 = a m (6.12)

Перевірка гіпотези можлива за дотримання наступних вимог кожного рівня фактора:

1) спостереження незалежні та проводяться в однакових умовах;

2) вимірювана випадкова величинамає нормальний закон розподілу з постійною для різних рівнів фактора генеральною дисперсією σ 2 . Тобто справедлива гіпотеза

H 0: σ 1 2 = σ 2 2 = σ m 2 .

Для перевірки гіпотези про рівність дисперсій трьох і більше нормальних розподілів застосовується критерій Бартлета.

Якщо гіпотеза H 0: σ 1 2 = σ 2 2 = σ m 2підтверджується, що приступають до перевірки гіпотези про рівність групових математичних очікувань H 0: a 1 = a 2 = a m, тобто власне дисперсійного аналізу. В основі дисперсійного аналізу лежить положення, що мінливість результативної ознаки викликана як зміною рівнів фактора А, так і мінливістю значень випадкових неконтрольованих факторів. Випадкові чинники називаються залишковими.

Можна довести, що загальна вибіркова дисперсія може бути подана у вигляді суми дисперсії групових середніх та середньої з групових дисперсій

, де

Загальна дисперсія вибірки;

Дисперсія групових середніх (), розрахованих кожного рівня чинника;

Середня за груповими дисперсіями (), розрахованими для кожного рівня фактора. пов'язана з впливом на Yзалишкових (випадкових) факторів.

Перейшовши від розкладання для генеральної дисперсії до вибіркових значень, отримаємо

, (6.13)

Є зваженою сумою квадратів відхилень вибіркових середніх за кожним рівнем. A (i)від загального вибіркового середнього,

Середнє значення квадратів відхилень усередині рівнів.

Випадкові величини , , мають такі значення для ступенів свобод відповідно: n - 1, m - 1, n - m. Тут n- загальна кількість вибіркових значень, m- Число рівнів фактора.

У математичній статистиці доводиться, що й нульова гіпотеза про рівність середніх (10.8) вірна, то величина

має F-розподіл із числом ступенів свободи k = m- 1 та l = n-m, тобто

(6.14)

При виконанні нульової гіпотези внутрішньогрупова дисперсія практично співпадатиме із загальною дисперсією, підрахованою без урахування групової належності. У дисперсійному аналізі, як правило, чисельник більше знаменника. В іншому випадку вважається, що спостереження не підтверджують вплив фактора на результуючу ознаку та подальший аналіз не проводиться. Отримані внутрішньогрупові дисперсії можна порівняти за допомогою F-Критерію, що перевіряє, чи дійсно відношення дисперсій значимо більше 1.

У зв'язку з цим для перевірки гіпотези (6.12) за допомогою F-критерію аналізується правостороння критична область .

Якщо розраховане значення Fпотрапляє у зазначений інтервал, то нульова гіпотеза відкидається, і вважається встановленим вплив фактора Ана результативну ознаку Y.

Наведемо приклад розрахунку сум квадратів та вибіркових дисперсій. Розглянемо набір даних, поданий у таблиці 6.2. У даному прикладіПотрібно визначити, чи є значну відмінність у продуктивності бригад.

Таблиця 6.2. Приклад розрахунку сум квадратів

Дисперсійний аналіз -це статистичний метод, призначений для оцінки впливу різних факторів на результат експерименту, а також подальшого планування аналогічного експерименту. Цей метод дозволяє порівнювати кілька (більше двох) вибірок за ознакою, виміряною у метричній шкалі. Загальноприйняте скорочене позначення дисперсійного аналізу ANOVA (від англ. ANalysis Of VAriance).

Творцем дисперсійного аналізу є визначний англійський дослідник Рональд Фішер, який заклав основи сучасної статистики.

Основною метою даного методує дослідження значущості різницю між середніми. Може здатися дивним, що порівняння середніх називається дисперсійним аналізом. Насправді це пов'язано з тим, що при дослідженні статистичної значущості відмінності між середніми двома (або кількома) групами, ми насправді порівнюємо (тобто аналізуємо) вибіркові дисперсії. Можливо, природнішим був термін аналіз суми квадратів чи аналіз варіації, але з традиції використовується термін дисперсійний аналіз.

Змінні, значення яких визначаються за допомогою вимірювань у ході експерименту (наприклад, бал, набраний під час тестування), називаються залежнимизмінними. Змінні, якими можна керувати під час проведення експерименту (наприклад, методи навчання чи інші критерії, що дозволяють розділити спостереження групи чи класифікувати), називаються факторамиабо незалежними змінними.

За кількістю факторів, вплив яких досліджується, розрізняють однофакторний та багатофакторний дисперсійний аналіз. Ми розглядатимемо однофакторний дисперсійний аналіз.

Основні припущення дисперсійного аналізу:

  • 1) розподіл залежної змінної для кожної групи фактора відповідає нормальному закону (порушення цього припущення, як показали численні дослідження, не суттєво впливає на результати дисперсійного аналізу);
  • 2) дисперсії вибірок, що відповідають різним градаціям фактора, рівні між собою (дане припущення має суттєве значення для результатів дисперсійного аналізу в тому випадку, якщо вибірки, що порівнюються, відрізняються за чисельністю);
  • 3) вибірки, що відповідають градаціям фактора, мають бути незалежними (виконання цього припущення є обов'язковим у будь-якому випадку). Незалежними називаються вибірки, у яких об'єкти дослідження набиралися незалежно друг від друга, тобто ймовірність відбору будь-якого випробуваного однієї вибірки залежить від відбору будь-якого з випробуваних інший вибірки. Навпаки, залежні вибірки характеризуються тим, що кожному випробуваному однієї вибірки поставлено у відповідність певному критеріювипробуваний з іншої вибірки (типовий приклад залежних вибірок - вимір властивості на одній і тій же вибірці до і після проведення методики. У цьому випадку вибірки залежні, оскільки складаються з одних і тих самих випробуваних. Ще один приклад залежних вибірок: чоловіки - одна вибірка, їхні дружини – інша вибірка).

Алгоритм виконання дисперсійного аналізу:

  • 1. Висуваємо гіпотезу Н 0- немає впливу групуючого чинника результат.
  • 2. Знаходимо міжгрупову (факторну) та внутрішньогрупову (залишкову) дисперсії (і фтті D ocm).
  • 3. Розраховуємо значення критерію Фішера - Снедекору:

4. За таблицею критичних точок розподілу Фішера – Снедекору або за допомогою стандартної функції MS Excel «ЕРАСПОБР» знаходимо

де: а- заданий рівень значущості, до хі до 2- число ступенів свободи факторної та залишкової дисперсії відповідно.

5. Якщо F Ha6ji> F Kp, То гіпотеза Я 0 відкидається. Це означає, що є вплив фактора, що групує, на результат.

Якщо F Ha6jlF Kpто гіпотеза # 0 приймається. Це означає, що немає впливу фактора, що групує, на результат.

Таким чином, дисперсійний аналіз покликаний встановити, чи суттєво впливає певний фактор F, котрий має ррівнів: F x , F 2 ,..., F p, На досліджувану величину.

Усі люди від природи прагнуть знання. (Арістотель. Метафізика)

Дисперсійний аналіз

Вступний огляд

У цьому розділі ми розглянемо основні методи, припущення та термінологію дисперсійного аналізу.

Зазначимо, що у англомовної літературі дисперсійний аналіз зазвичай називається аналізом варіації. Тому, для стислості, нижче ми іноді використовуватимемо термін ANOVA (An alysis o f va riation) для звичайного дисперсійного аналізу та термін MANOVAдля багатовимірного дисперсійного аналізу У цьому розділі ми послідовно розглянемо основні ідеї дисперсійного аналізу ( ANOVA), коваріаційного аналізу ( ANCOVA), багатовимірного дисперсійного аналізу ( MANOVA) та багатовимірного коваріаційного аналізу ( MANCOVA). Після короткого обговорення переваг аналізу контрастів і апостеріорних критеріїв розглянемо припущення, на яких засновані методи дисперсійного аналізу. Ближче до кінця цього розділу пояснюються переваги багатовимірного підходу для аналізу повторних вимірів, порівняно з традиційним одновимірним підходом.

Основні ідеї

Ціль дисперсійного аналізу.Основною метою дисперсійного аналізу є дослідження значущості різницю між середніми. Глава (Глава 8) містить коротке запровадження дослідження статистичної значимості. Якщо ви просто порівнюєте середні у двох вибірках, дисперсійний аналіз дасть той самий результат, що й звичайний t- критерій для незалежних вибірок (якщо порівнюються дві незалежні групи об'єктів чи спостережень) або t- критерій для залежних вибірок (якщо порівнюються дві змінні одному й тому безлічі об'єктів чи спостережень). Якщо ви мало знайомі з цими умовами, радимо звернутися до вступного огляду глави (Глава 9).

Звідки походить назва Дисперсійний аналіз? Може здатися дивним, що порівняння середніх називається дисперсійним аналізом. Насправді це пов'язано з тим, що при дослідженні статистичної значущості відмінності між середніми ми насправді аналізуємо дисперсії.

Розбиття суми квадратів

Для вибірки обсягу n вибіркова дисперсія обчислюється як сума квадратів відхилень від середнього вибіркового, поділена на n-1 (обсяг вибірки мінус одиниця). Таким чином, при фіксованому обсязі вибірки n дисперсія є функція суми квадратів (відхилень), що позначається для стислості, SS(Від англійської Sum of Squares - Сума Квадратів). В основі дисперсійного аналізу лежить поділ (або розбиття) дисперсії на частини. Розглянемо наступний набір даних:

Середні дві групи істотно різні (2 і 6 відповідно). Сума квадратів відхилень всерединікожної групи дорівнює 2. Складаючи їх, отримуємо 4. Якщо тепер повторити ці обчислення без урахуваннягрупової приналежності, тобто якщо обчислити SSвиходячи із загального середнього цих двох вибірок, то отримаємо 28. Іншими словами, дисперсія (сума квадратів), заснована на внутрішньогруповій мінливості, призводить до набагато менших значень, ніж при обчисленні на основі загальної мінливості (щодо загальної середньої). Причина цього, очевидно, полягає у суттєвій різниці між середніми значеннями, і ця різниця між середніми і пояснює існуюча різницяміж сумами квадратів Справді, якщо використовувати для аналізу наведених даних модуль Дисперсійний аналіз, будуть отримані такі результати:

Як видно з таблиці, загальна сума квадратів SS=28 розбита у сумі квадратів, обумовлену внутрішньогруповиймінливістю ( 2+2=4 ; див. другий рядок таблиці) та суму квадратів, обумовлену різницею середніх значень. (28-(2+2)=24; див. перший рядок таблиці).

SS помилок таSS ефект.Внутрішньогрупова мінливість ( SS) зазвичай називається дисперсією помилки.Це означає, що зазвичай під час проведення експерименту вона може бути передбачена чи пояснена. З іншого боку, SS ефекту(або міжгрупову мінливість) можна пояснити різницею між середніми значеннями в групах, що вивчаються. Іншими словами, приналежність до певної групи пояснюєміжгрупову мінливість, т.к. нам відомо, що ці групи мають різні середні значення.

Перевірка важливості.Основні ідеї перевірки статистичної значимості обговорюються у розділі Елементарні поняття статистики(Глава 8). У цьому розділі пояснюються причини, через які багато критеріїв використовують ставлення поясненої і непоясненої дисперсії. Приклад такого використання є сам дисперсійний аналіз. Перевірка значущості в дисперсійному аналізі полягає в порівнянні дисперсії, обумовленої міжгруповим розкидом (названої середнім квадратом ефектуабо MSефект) та дисперсії, обумовленої внутрішньогруповим розкидом (названою середнім квадратом помилкиабо MSпомилка). Якщо вірна нульова гіпотеза (рівність середніх у двох популяціях), можна очікувати порівняно невелике різницю у вибіркових середніх через випадкової мінливості. Тому при нульовій гіпотезі внутрішньогрупова дисперсія практично співпадатиме із загальною дисперсією, підрахованою без урахування групою належності. Отримані внутрішньогрупові дисперсії можна порівняти за допомогою F- критерію, що перевіряє, чи справді відношення дисперсій значно більше 1. У розглянутому вище прикладі F- критерій показує, що різницю між середніми статистично значимо.

Основна логіка дисперсійного аналізу.Підсумовуючи, можна сказати, що метою дисперсійного аналізу є перевірка статистичної значущості різниці між середніми (для груп чи змінних). Ця перевірка проводиться з допомогою аналізу дисперсії, тобто. за допомогою розбиття загальної дисперсії (варіації) на частини, одна з яких обумовлена ​​випадковою помилкою (тобто внутрішньогруповою мінливістю), а друга пов'язана з різницею середніх значень. Остання компонент дисперсії потім використовується для аналізу статистичної значущості відмінності між середніми значеннями. Якщо ця відмінність значуща, нульова гіпотеза відкидається і приймається альтернативна гіпотеза існування різниці між середніми.

Залежні та незалежні змінні.Змінні, значення яких визначається за допомогою вимірювань у ході експерименту (наприклад, бал, набраний під час тестування), називаються залежнимизмінними. Змінні, якими можна керувати під час проведення експерименту (наприклад, методи навчання чи інші критерії, що дозволяють розділити спостереження групи) називаються факторамиабо незалежнимизмінними. Докладніше ці поняття описані у розділі Елементарні поняття статистики(Глава 8).

Багатофакторний дисперсійний аналіз

У розглянутому вище простому прикладіви могли б відразу обчислити t-критерій для незалежних вибірок, використовуючи відповідну опцію модуля Основні статистики та таблиці.Отримані результати, звісно, ​​збігатимуться з результатами дисперсійного аналізу. Проте дисперсійний аналіз містить гнучкі та потужні технічні кошти, які можуть бути використані для більш складних досліджень.

Безліч факторів.Світ за своєю природою складний і багатовимірний. Ситуації, коли деяке явище повністю описується однією змінною, надзвичайно рідкісні. Наприклад, якщо ми намагаємося навчитися вирощувати великі помідори, слід розглядати фактори, пов'язані з генетичною структурою рослин, типом ґрунту, освітленістю, температурою тощо. Таким чином, при проведенні типового експерименту доводиться мати справу з великою кількістю факторів. Основна причина, через яку використання дисперсійного аналізу краще повторного порівняння двох вибірок при різних рівнях факторів за допомогою t- критерію, полягає в тому, що дисперсійний аналіз більш ефективнийі для малих вибірок, більш інформативний.

Управління факторами.Припустимо, що у розглянутому вище прикладі аналізу двох вибірок ми додамо ще один фактор, наприклад, Стать- Gender. Нехай кожна група складається з 3 чоловіків та 3 жінок. План цього експерименту можна подати у вигляді таблиці 2 на 2:

Експеримент. Група 1 Експеримент. Група 2
Чоловіки2 6
3 7
1 5
Середнє2 6
Жінки4 8
5 9
3 7
Середнє4 8

До проведення обчислень можна помітити, що в цьому прикладі загальна дисперсія має принаймні три джерела:

(1) випадкова помилка (внутрішньогрупова дисперсія),

(2) мінливість, пов'язана з приналежністю до експериментальної групи, та

(3) мінливість, обумовлена ​​статтю об'єктів спостереження.

(Зазначимо, що існує ще одне можливе джерело мінливості – взаємодія факторів, який ми обговоримо пізніше). Що станеться, якщо ми не включатимемо статьgenderяк фактор при проведенні аналізу та обчислимо звичайний t-Критерій? Якщо ми обчислюватимемо суми квадратів, ігноруючи стать -gender(тобто об'єднуючи об'єкти різної статі в одну групу при обчисленні внутрішньогрупової дисперсії, отримавши при цьому суму квадратів для кожної групи рівну SS=10, і загальну суму квадратів SS= 10+10 = 20), то отримаємо більше значення внутрішньогрупової дисперсії, ніж при більш точному аналізі з додатковим розбиттям на підгрупи підлозі - gender(при цьому внутрішньогрупові середні дорівнюватимуть 2, а загальна внутрішньогрупова сума квадратів дорівнює SS = 2+2+2+2 = 8). Ця різниця пов'язана з тим, що середнє значення для чоловіків - malesменше, ніж середнє значення для жінок –female, і це різницю у середніх значеннях збільшує сумарну внутригрупповую мінливість, якщо чинник статі не враховується. Управління дисперсією помилки збільшує чутливість (потужність) критерію.

На цьому прикладі видно ще одну перевагу дисперсійного аналізу порівняно зі звичайним t-Крітерієм для двох вибірок. Дисперсійний аналіз дозволяє вивчати кожен чинник, керуючи значеннями інших чинників. Це насправді і є основною причиною його більшої статистичної потужності (для отримання значних результатів потрібні менші обсяги вибірок). Тому дисперсійний аналіз навіть на невеликих вибірках дає статистично більш значущі результати, ніж простий t- критерій.

Ефекти взаємодії

Існує ще одна перевага застосування дисперсійного аналізу порівняно із звичайним t- критерієм: дисперсійний аналіз дозволяє виявити взаємодіяміж факторами і, отже, дозволяє вивчати складніші моделі. Для ілюстрації розглянемо ще один приклад.

Головні ефекти, попарні (двофакторні) взаємодії.Припустимо, що є дві групи студентів, причому психологічно студенти першої групи налаштовані виконання поставлених завдань і більш цілеспрямовані, ніж студенти другої групи, що з більш лінивих студентів. Розіб'ємо кожну групу випадково навпіл і запропонуємо одній половині в кожній групі складне завдання, а іншій - легке. Після цього виміряємо, як напружено студенти працюють над цими завданнями. Середні значення для цього (вигаданого) дослідження показані в таблиці:

Який висновок можна зробити із цих результатів? Чи можна зробити висновок, що: (1) над складним завданням студенти працюють більш напружено; (2) цілеспрямовані студенти працюють наполегливіше, ніж ліниві? Жодне з цих тверджень не відбиває сутність систематичного характеру середніх, наведених у таблиці. Аналізуючи результати, правильніше було б сказати, що над складними завданнями працюють наполегливіше лише цілеспрямовані студенти, тоді як над легкими завданнями тільки ліниві працюють наполегливіше. Тобто характер студентів та складність завдання взаємодіючиміж собою впливають на витрачається зусилля. Це приклад парної взаємодіїміж характером студентів та складністю завдання. Зазначимо, що твердження 1 та 2 описують головні ефекти.

Взаємодія вищих порядків.У той час, як пояснити попарні взаємодії ще порівняно легко, взаємодії вищих порядків пояснити значно складніше. Уявімо, що в аналізований вище приклад введено ще один фактор стать -Genderі ми отримали наступну таблицю середніх значень:

Які висновки можна зробити з отриманих результатів? Графіки середніх дозволяють легко інтерпретувати складні ефекти. Модуль дисперсійного аналізу дозволяє будувати ці графіки практично одним клацанням мишки.

Зображення на графіках внизу являє собою трифакторну взаємодію, що вивчається.

Дивлячись на графіки, можна сказати, що у жінок існує взаємодія між характером та складністю тесту: цілеспрямовані жінки працюють над важким завданням більш напружено, ніж над легким. У чоловіків ця ж взаємодія має зворотний характер. Видно, що опис взаємодії між факторами стає більш заплутаним.

Загальний спосібопис взаємодій.У загальному випадкувзаємодія між факторами описується як зміни одного ефекту під впливом іншого. У розглянутому вище прикладі двофакторну взаємодію можна описати як зміну головного ефекту фактора, що характеризує складність завдання під впливом фактора, що описує характер студента. Для взаємодії трьох факторів із попереднього параграфа можна сказати, що взаємодія двох факторів (складності завдання та характеру студента) змінюється під впливом статіGender. Якщо вивчається взаємодія чотирьох чинників, можна сказати, взаємодія трьох чинників, змінюється під впливом четвертого чинника, тобто. існують різні типи взаємодій різних рівнях четвертого чинника. Виявилося, що в багатьох областях взаємодія п'яти чи навіть більшої кількості факторів не є чимось незвичайним.

Складні плани

Міжгрупові та внутрішньогрупові плани (плани з повторними вимірами)

При порівнянні двох різних груп зазвичай використовується t- критерій для незалежних вибірок (з модуля Основні статистики та таблиці). Коли порівнюються дві змінні на тому самому безлічі об'єктів (спостережень), використовується t-Критерій для залежних вибірок. Для дисперсійного аналізу також важливо залежні чи ні вибірки. Якщо є повторні виміри тих самих змінних (при різних умовахабо в різний час) для тих самих об'єктів, то говорять про наявність фактора повторних вимірів(називається також внутрішньогруповим фактором,оскільки з оцінки його значимості обчислюється внутригрупповая сума квадратів). Якщо порівнюються різні групи об'єктів (наприклад, чоловіки та жінки, три штами бактерій тощо), то різниця між групами описується міжгруповий фактор.Способи обчислення критеріїв значущості для двох описаних типів факторів різні, але їх загальна логіка та інтерпретації збігається.

Між- та внутрішньогрупові плани.У багатьох випадках експеримент вимагає включення до плану і міжгрупового фактора, і фактора повторних вимірів. Наприклад, вимірюються математичні навички студентів жіночої та чоловічої статі (де стать -Gender-міжгруповий фактор) на початку та наприкінці семестру. Два виміри навичок кожного студента утворюють внутрішньогруповий фактор (фактор повторних вимірів). Інтерпретація головних ефектів та взаємодій для міжгрупових факторів та факторів повторних вимірювань збігається, і обидва типи факторів можуть, очевидно, взаємодіяти між собою (наприклад, жінки набувають навичок протягом семестру, а чоловіки їх втрачають).

Неповні (гніздові) плани

У багатьох випадках можна знехтувати ефектом взаємодії. Це відбувається або коли відомо, що у популяції ефект взаємодії відсутній, або коли здійснення повного факторногоплану неможливо. Наприклад, вивчається вплив чотирьох добавок до палива на витрату пального. Вибираються чотири автомобілі та чотири водії. Повний факторнийЕксперимент вимагає, щоб кожна комбінація: добавка, водій, автомобіль – з'явилися хоча б один раз. Для цього потрібно не менше 4 x 4 x 4 = 64 груп випробувань, що потребує надто великих часових витрат. Крім того, навряд чи існує взаємодія між водієм та добавкою до палива. Зважаючи на це, можна використовувати план Латинські квадрати,в якому міститься лише 16 груп випробувань (чотири добавки позначаються буквами A, B, C та D):

Латинські квадрати описані в більшості книг з планування експериментів (наприклад, Hays, 1988; Lindman, 1974; Milliken and Johnson, 1984; Winer, 1962), і тут вони не будуть детально обговорюватися. Зазначимо, що латинські квадрати це неnолніплани, у яких беруть участь в повному обсязі комбінації рівнів чинників. Наприклад, водій 1 керує автомобілем 1 тільки з добавкою А водій 3 керує автомобілем 1 тільки з добавкою С. Рівні фактора добавок ( A, B, C і D) вкладені в комірки таблиці автомобіль x водій -як яйця в гнізда. Це мнемонічне правило корисне для розуміння природи гніздових чи вкладенихпланів. Модуль Дисперсійний аналізнадає прості способианаліз планів такого типу.

Коваріаційний аналіз

Основна ідея

В розділі Основні ідеїкоротко обговорювалася ідея управління факторами та те, яким чином включення адитивних факторів дозволяє зменшувати суму квадратів помилок та збільшувати статистичну потужність плану. Все це може бути поширене і на змінні з безперервним безліччю значень. Коли такі безперервні змінні включаються в план як фактори, вони називаються підступами.

Фіксовані коваріати

Припустимо, що порівнюються математичні навички двох груп студентів, які навчалися за двома різними підручниками. Припустимо, що є дані про коефіцієнт інтелекту (IQ) для кожного студента. Можна припустити, що коефіцієнт інтелекту пов'язаний з математичними навичками та використовувати цю інформацію. Для кожної з двох груп студентів можна визначити коефіцієнт кореляції між IQ і математичними навичками. Використовуючи цей коефіцієнт кореляції, можна виділити частку дисперсії в групах, що пояснюється впливом IQ і нез'ясовну частку дисперсії (див. також Елементарні поняття статистики(глава 8) та Основні статистики та таблиці(Глава 9)). Частка дисперсії, що залишилася, використовується при проведенні аналізу як дисперсія помилки. Якщо є кореляція між IQ та математичними навичками, то можна суттєво зменшити дисперсії помилки SS/(n-1) .

Вплив коваріат наF- критерій. F-критерій оцінює статистичну значущість відмінності середніх значень у групах, при цьому обчислюється відношення міжгрупової дисперсії ( MSефект) до дисперсії помилок ( MSerror) . Якщо MSerrorзменшується, наприклад, при врахуванні фактора IQ, значення Fзбільшується.

Безліч коваріат.Міркування, використані вище для однієї кваріати (IQ), легко поширюються на кілька коваріат. Наприклад, крім IQ, можна включити вимір мотивації, просторового мислення тощо. Замість звичайного коефіцієнта кореляції використовується множинний коефіцієнткореляції.

Коли значенняF -Критерію зменшується.Іноді введення коваріату в план експерименту зменшує значення F-критерія . Зазвичай це вказує на те, що коваріати корелюються не тільки із залежною змінною (наприклад, математичними навичками), а й з факторами (наприклад, із різними підручниками). Припустимо, що IQ вимірюється наприкінці семестру, після майже річного навчання двох груп студентів за двома різними підручниками. Хоча студенти розбивалися на групи випадковим чином, може виявитися, що відмінність підручників настільки велика, що і IQ та математичні навички у різних групах сильно відрізнятимуться. У цьому випадку, каварыати не лише зменшують дисперсію помилок, а й міжгрупову дисперсію. Іншими словами, після контролю за різницею IQ у різних групах, різниця в математичних навичках вже буде несуттєвою. Можна сказати інакше. Після “виключення” впливу IQ, ненавмисно виключається вплив підручника на розвиток математичних навичок.

Кориговані середні.Коли коваріату впливає міжгруповий чинник, слід обчислювати скориговані середні, тобто. такі середні, які виходять після видалення всіх оцінок коваріату.

Взаємодія між коваріатами та факторами.Також як досліджується взаємодія між факторами, можна досліджувати взаємодію між коваріатами та між групами факторів. Припустимо, що один із підручників особливо підходить для розумних студентів. Другий підручник для розумних студентів з'їде, а для менш розумних студентів цей же підручник важкий. В результаті є позитивна кореляція між IQ і результатом навчання в першій групі (розумніші студенти, краще результат) і нульова або невелика негативна кореляція в другій групі (чим розумніший студент, тим менш ймовірне придбання математичних навичок з другого підручника). У деяких дослідженнях ця ситуація обговорюється як приклад порушення припущень коварійного аналізу. Однак так як у модулі Дисперсійний аналіз використовуються найзагальніші способи коваріаційного аналізу, можна, зокрема, оцінити статистичну значущість взаємодії між факторами та коваріатами.

Змінні коваріати

У той час, як фіксовані кваріати обговорюються в підручниках досить часто, змінні кваріати згадуються набагато рідше. Зазвичай, під час проведення експериментів з повторними вимірами, нас цікавлять розбіжності у вимірах тих самих величин у різні моменти часу. Зокрема, нас цікавить значимість цих відмінностей. Якщо одночасно з вимірюваннями залежних змінних проводиться вимірювання коваріат, можна обчислити кореляцію між коваріатою та залежною змінною.

Наприклад, можна вивчати інтерес до математики та математичні навички на початку та в кінці семестру. Цікаво було б перевірити, чи корельовані між собою зміни на користь математики зі зміною математичних навичок.

Модуль Дисперсійний аналізв STATISTICAавтоматично оцінює статистичну значущість зміни коваріат у тих планах, де це можливо.

Багатомірні плани: багатовимірний дисперсійний та коварійний аналіз

Міжгрупові плани

Всі приклади, що розглядалися раніше, включали тільки одну залежну змінну. Коли одночасно є кілька залежних змінних, зростає лише складність обчислень, а зміст та основні принципи не змінюються.

Наприклад, проводиться дослідження двох різних підручників. При цьому вивчаються успіхи студентів у вивченні фізики та математики. У цьому випадку є дві залежні змінні і потрібно з'ясувати, як впливають на них одночасно два різні підручники. Для цього можна скористатися багатовимірним дисперсійним аналізом (MANOVA). Замість одновимірного Fкритерію, використовується багатовимірний Fкритерій (l-критерій Вілкса), заснований на порівнянні матриці коваріаційної матриці помилок і міжгрупової матриці коваріаційної.

Якщо залежні змінні корелированы між собою, це кореляція повинна враховуватися при обчисленні критерію значимості. Очевидно, якщо один і той самий вимір повторюється двічі, то нічого нового отримати при цьому не можна. Якщо до наявного виміру додається корельований з ним вимір, то виходить деяка нова інформація, але при цьому нова змінна містить надмірну інформацію, яка відображається в коваріації між змінними.

Інтерпретація результатів.Якщо загальний багатовимірний критерій значимий, можна зробити висновок, що відповідний ефект (наприклад, тип підручника) значимий. Проте встають наступні питання. Чи впливає тип підручника на покращення лише математичних навичок, лише фізичних навичок, або одночасно на покращення тих та інших навичок. Насправді, після отримання значущого багатовимірного критерію для окремого головного ефекту або взаємодії досліджується одномірний Fкритерій. Іншими словами, окремо досліджуються залежні змінні, які роблять внесок у значущість багатовимірного критерію.

Плани з повторними вимірами

Якщо вимірюються математичні та фізичні навички студентів на початку семестру та наприкінці, то це і є повторні виміри. Вивчення критерію значущості у таких планах це логічний розвиток одновимірного випадку. Зауважимо, що методи багатовимірного дисперсійного аналізу зазвичай також використовуються для дослідження значущості одновимірних факторів повторних вимірів, що мають більш як два рівні. Відповідні застосування будуть розглянуті пізніше у цій частині.

Підсумовування значень змінних та багатовимірний дисперсійний аналіз

Навіть досвідчені користувачі одновимірного та багатовимірного дисперсійного аналізу часто утрудняються, отримуючи різні результати при застосуванні багатовимірного дисперсійного аналізу, наприклад, для трьох змінних, і при застосуванні одновимірного дисперсійного аналізу до суми цих трьох змінних, як до однієї змінної.

Ідея підсумовуваннязмінних у тому, кожна змінна містить у собі деяку істинну змінну, що й досліджується, і навіть випадкову помилку виміру. Тому при усередненні значень змінних помилка вимірювання буде ближче до 0 для всіх вимірювань і усереднене значень буде більш надійним. Насправді, в цьому випадку застосування дисперсійного аналізу до суми змінних є розумним і є потужним методом. Однак якщо залежні змінні за своєю природою багатовимірні, підсумовування значень змінних є недоречним.

Наприклад, нехай залежні змінні складаються з чотирьох показників успіху у суспільстві. Кожен показник характеризує незалежну сторону людської діяльності (наприклад, професійний успіх, успішність у бізнесі, сімейний добробут тощо). Додавання цих змінних подібне до додавання яблука і апельсина. Сума цих змінних не буде відповідним одновимірним показником. Тому з такими даними потрібно поводитися як з багатовимірними показниками багатовимірному дисперсійному аналізі.

Аналіз контрастів та апостеріорні критерії

Чому порівнюються окремі множини середніх?

Зазвичай гіпотези щодо експериментальних даних формулюються непросто у термінах основних ефектів чи взаємодій. Прикладом може бути така гіпотеза: деякий підручник підвищує математичні навички лише в студентів чоловічої статі, тоді як інший підручник приблизно однаково ефективний обох статей, проте менш ефективний чоловікам. Можна передбачити, що ефективність підручника взаємодіє зі статтю студента. Однак цей прогноз стосується також природивзаємодії. Очікується значне різницю між статями для учнів з однієї книжці і майже залежні від статі результати для які у інших книжці. Такий тип гіпотез зазвичай досліджується за допомогою аналізу контрастів.

Аналіз контрастів

Якщо говорити коротко, аналіз контрастів дозволяє оцінювати статистичну значимість деяких лінійних комбінацій ефектів складного плану. Аналіз контрастів головний та обов'язковий елементбудь-якого складного плану дисперсійного аналізу Модуль Дисперсійний аналізмає досить різноманітні можливості аналізу контрастів, які дозволяють виділяти та аналізувати будь-які типи порівнянь середніх.

Апостеріорніпорівняння

Іноді внаслідок обробки експерименту виявляється несподіваний ефект. Хоча у більшості випадків творчий дослідник зможе пояснити будь-який результат, це не дає можливостей для подальшого аналізу та отримання оцінок для прогнозу. Ця проблема є однією з тих, для яких використовуються апостеріорні критерії, тобто критерії, які не використовують апріорнігіпотези. Для ілюстрації розглянемо такий експеримент. Припустимо, що у 100 картках записані числа від 1 до 10. Опустивши всі ці картки в шапку, ми випадково вибираємо 20 разів по 5 карток, і обчислюємо кожної вибірки середнє значення (середнє чисел, записаних на картки). Чи можна очікувати, що знайдуться дві вибірки, у яких середні значення значно відрізняються? Це дуже правдоподібно! Вибираючи дві вибірки з максимальним і мінімальним середнім, можна отримати різницю середніх, що відрізняється від різниці середніх, наприклад, перших двох вибірок. Цю різницю можна дослідити, наприклад, за допомогою аналізу контрастів. Якщо не вдаватися в деталі, то існує кілька так званих апостеріорнихкритеріїв, які засновані в точності на першому сценарії (взяття екстремальних середніх із 20 вибірок), тобто ці критерії засновані на виборі найбільш відмінних середніх для порівняння всіх середніх значень у плані. Ці критерії застосовуються для того, щоб суто випадково не отримати штучний ефект, наприклад, виявити значну різницю між середніми, коли його немає. Модуль Дисперсійний аналізпропонує широкий вибіртаких критеріїв. Коли в експерименті, пов'язаному з кількома групами, трапляються несподівані результати, то використовуються апостеріорніпроцедури на дослідження статистичної значимості отриманих результатів.

Сума квадратів типу I, II, III та IV

Багатомірна регресія та дисперсійний аналіз

Існує тісний взаємозв'язок між методом багатовимірної регресії та дисперсійним аналізом (аналізом варіацій). І в тому, і в іншому методі досліджується лінійна модель. Якщо говорити коротко, то практично всі плани експерименту можна досліджувати за допомогою багатовимірної регресії. Розглянемо наступний простий міжгруповий 2 x 2 план.

DV A B AxB
3 1 1 1
4 1 1 1
4 1 -1 -1
5 1 -1 -1
6 -1 1 -1
6 -1 1 -1
3 -1 -1 1
2 -1 -1 1

Стовпці А та В містять коди, що характеризують рівні факторів А та В, стовпець АxВ містить добуток двох стовпців А та В. Ми можемо аналізувати ці дані за допомогою багатовимірної регресії. Змінна DVвизначається як залежна змінна, змінні від Aдо AxBяк незалежні змінні. Дослідження значущості для коефіцієнтів регресії співпадатиме з обчисленнями у дисперсійному аналізі значимості головних ефектів факторів Aі Bта ефекту взаємодії AxB.

Незбалансовані та збалансовані плани

При обчисленні кореляційної матриці для всіх змінних, наприклад для даних, зображених вище, можна помітити, що головні ефекти факторів Aі Bта ефект взаємодії AxBнекорельовані. Цю властивість ефектів називають також ортогональністю. Говорять, що ефекти Aі B - ортогональніабо незалежніодин від одного. Якщо всі ефекти в плані ортогональні один одному, як у наведеному вище прикладі, то кажуть, що план збалансований.

Збалансовані плани мають “ гарною властивістю”. Обчислення під час аналізу таких планів дуже прості. Усі обчислення зводяться до обчислення кореляції між ефектами та залежними змінними. Так як ефекти ортогональні, приватні кореляції (як у повній багатовимірноїрегресії) не обчислюються. Однак у реального життяплани не завжди збалансовані.

Розглянемо реальні дані з нерівним числом спостережень у осередках.

Фактор A Фактор B
B1 B2
A1 3 4, 5
A2 6, 6, 7 2

Якщо закодувати ці дані як вище та обчислити кореляційну матрицю для всіх змінних, то виявиться, що фактори плану корелюються один з одним. Фактори в плані тепер не ортогональні і такі плани називаються незбалансованими.Зауважимо, що в прикладі, що розглядається, кореляція між факторами повністю пов'язана з відмінністю частот 1 і -1 в стовпцях матриці даних. Іншими словами, плани експериментів з нерівними обсягами осередків (точніше, непропорційними обсягами) будуть незбалансованими, це означає, що головні ефекти та взаємодії змішуватимуться. І тут для обчислення статистичної значущості ефектів необхідно повністю обчислювати багатовимірну регресію. Тут є кілька стратегій.

Сума квадратів типу I, II, III та IV

Сума квадратів типуIіIII. Для вивчення значущості кожного фактора в багатовимірній моделі можна обчислювати приватну кореляцію кожного фактора за умови, що всі інші фактори вже враховані в моделі. Можна також вводити фактори у модель покроковим способом, фіксуючи всі фактори, вже введені в модель та ігноруючи решту факторів. Взагалі, в цьому і полягає різниця між типом IIIі типомIсуми квадратів (ця термінологія була введена в SAS, див. наприклад, SAS, 1982; детальне обговорення можна також знайти в Searle, 1987, стор. 461; Woodward, Bonett, and Brecht, 1990, стор. 216; або Milliken and Johnson, 1984, стор 138).

Сума квадратів типуІІ.Наступна “проміжна” стратегія формування моделі полягає: у контролі всіх основних ефектів щодо значимості окремого головного ефекту; у контролі всіх основних ефектів та всіх попарних взаємодій, коли досліджується значимість окремої попарної взаємодії; у контролі всіх основних ефектів всіх попарних взаємодій та всіх взаємодій трьох факторів; щодо окремого взаємодії трьох чинників тощо. Суми квадратів для ефектів, що обчислюються таким способом, називаються типомIIсуми квадратів. Отже, типIIсуми квадратів контролює всі ефекти того ж порядку та нижче, ігноруючи всі ефекти вищого порядку.

Сума квадратів типуIV. Нарешті, для деяких спеціальних планів із пропущеними осередками (неповними планами) можна обчислювати, так звані, типу IVсуми квадратів. Цей метод обговорюватиметься пізніше у зв'язку з неповними планами (планами з пропущеними осередками).

Інтерпретація гіпотези про суму квадратів типу I, II та III

Суму квадратів типуIIIнайлегше інтерпретувати. Нагадаємо, що суми квадратів типуIIIдосліджують ефекти після контролю всіх інших ефектів. Наприклад, після знаходження статистично значущого типуIIIефекту для фактора Aу модулі Дисперсійний аналіз, можна сказати, що існує єдиний значний ефектфактор А Aпісля введення всіх інших ефектів (факторів) і відповідно інтерпретувати цей ефект. Ймовірно, у 99% усіх додатків дисперсійного аналізу саме цей тип критерію цікавить дослідника. Цей тип суми квадратів зазвичай обчислюється в модулі Дисперсійний аналізза замовчуванням, незалежно від того вибрано опцію Регресійний підхідчи ні (стандартні підходи прийняті в модулі Дисперсійний аналізобговорюються нижче).

Значні ефекти, отримані за допомогою сум квадратів типуабо типуIIсуми квадратів інтерпретувати не так просто. Найкраще їх інтерпретувати в контексті покрокової багатовимірної регресії. Якщо при використанні суми квадратів типуIголовний ефект фактора В виявився значимим (після включення в модель фактора А, але перед додаванням взаємодії між А і В), можна зробити висновок, що існує значний головний ефект фактора В, за умови, що немає взаємодії між факторами А і В. (Якщо при використання критерію типуIII, фактор В також виявився значним, то можна зробити висновок, що існує значний головний ефект фактора B, після введення в модель всіх інших факторів та їх взаємодій).

У термінах маргінальних середніх гіпотези типуIі типуIIзазвичай немає простої інтерпретації. У таких випадках кажуть, що не можна інтерпретувати значущість ефектів, розглядаючи лише маргінальні середні. Швидше представлені pзначень середніх мають відношення до складної гіпотези, яка комбінує середні та обсяг вибірки. Наприклад, типIIгіпотези для фактора А в простому прикладі плану 2 x 2, що раніше розглядаються (див. Woodward, Bonett, and Brecht, 1990, стор 219):

nij- Число спостережень в осередку

uij- Середнє значення в осередку

n. j- маргінальне середнє

Якщо не вдаватися в деталі (детальніше див. Milliken and Johnson, 1984, глава 10), то ясно, що це не прості гіпотези і в більшості випадків жодна з них не має особливого інтересу у дослідника. Однак існують випадки, коли гіпотези типуIможуть бути цікавими.

Обчислювальний підхід у модулі, що приймається за умовчанням Дисперсійний аналіз

За замовчуванням, якщо не зазначено опцію Регресійний підхід, модуль Дисперсійний аналізвикористовує модель середніх по осередках. Для цієї моделі характерно, що суми квадратів для різних ефектів обчислюються для лінійних комбінацій середніх значень осередків. У повному факторному експерименті це призводить до сум квадратів, які збігаються з сумами квадратів, які раніше обговорювали як тип III. Однак у опції Сплановані порівняння(у вікні Результати дисперсійного аналізу), користувач може перевіряти гіпотезу щодо будь-якої лінійної комбінації зважених або незважених середніх по осередках. Таким чином, користувач може перевіряти не лише гіпотези типуIIIале гіпотези будь-якого типу (включаючи типIV). Цей загальний підхід є особливо корисним, коли досліджуються плани з пропущеними осередками (так звані неповні плани).

Для повних факторних планів цей підхід корисно також використовувати у випадках, коли хочуть аналізувати зважені маргінальні середні. Наприклад, припустимо, що в аналізованому раніше простому 2 x 2 плані, потрібно порівняти виважені (за рівнями фактора B) маргінальні середні для фактора А. Це буває корисним, коли розподіл спостережень по осередках не готувалося експериментатором, а будувалося випадково, і ця випадковість відображається у розподілі числа спостережень за рівнями фактора B у сукупності.

Наприклад, є фактор – вік вдів. Можлива вибірка респондентів розбита на дві групи: молодше 40 років та старше 40 (фактор В). Другий чинник (фактор А) у плані - отримували чи ні соціальну підтримку вдови у певному агентстві (при цьому одні вдови були обрані випадково, інші служили як контроль). У цьому випадку розподіл удів за віком у вибірці відображає дійсний розподіл вдів за віком у сукупності. Оцінка ефективності групи соціальної підтримкивдів по всім вікомбуде відповідати виважене середнє для двох вікових груп (з вагами, що відповідають числу спостережень у групі).

Сплановані порівняння

Зауважимо, що сума запроваджених коефіцієнтів контрастів не обов'язково дорівнює 0 (нулю). Натомість програма автоматично вносити поправки, щоб відповідні гіпотези не змішувалися із загальним середнім.

Для ілюстрації цього повернемося знову до простого 2 x 2 плану, розглянутого раніше. Нагадаємо, що числа спостережень у осередках цього незбалансованого плану -1, 2, 3, і 1. Припустимо, що ми хочемо порівняти зважені середні маргінальні для фактора А (зважені з частотою рівнів фактора В). Можна ввести коефіцієнти розмаїття:

Зауважимо, що ці коефіцієнти не дають у сумі 0. Програма встановлюватиме коефіцієнти так, що в сумі вони даватиму 0, і при цьому зберігатимуться їх відносні значення, Т. е.:

1/3 2/3 -3/4 -1/4

Ці контрасти порівнюватимуть зважені середні для фактора А.

Гіпотези про головне середнє.Гіпотеза, у тому, що ні зважене головне середнє дорівнює 0 може досліджуватися з допомогою коефіцієнтів:

Гіпотеза про те, що зважене головне середнє 0 перевіряється за допомогою:

У жодному разі програма не здійснює коригування коефіцієнтів контрастів.

Аналіз планів із пропущеними осередками (неповні плани)

Факторні плани, що містять порожні осередки (обробка комбінацій осередків, у яких немає спостережень), називаються неповними. У таких планах деякі фактори зазвичай не ортогональні і деякі взаємодії не можуть бути обчислені. Взагалі не існує кращого методуаналізу таких планів

Регресійний підхід

У деяких старих програмах, які ґрунтуються на аналізі планів дисперсійного аналізу за допомогою багатовимірної регресії, фактори в неповних планах за замовчуванням задаються звичайним чином (начебто план повний). Потім проводиться багатовимірний регресійний аналіз цих фіктивно закодованих чинників. На жаль, цей метод призводить до результатів, які дуже важко, або навіть неможливо, інтерпретувати, оскільки неясно, як кожен ефект бере участь у лінійній комбінації середніх значень. Розглянемо наступний приклад.

Фактор A Фактор B
B1 B2
A1 3 4, 5
A2 6, 6, 7 Пропущено

Якщо виконуватиметься багатовимірна регресія виду Залежна змінна = Константа + Фактор A + Фактор B, то гіпотеза про значимість факторів A і B в термінах лінійних середніх комбінацій виглядає так:

Фактор A: Осередок A1, B1 = Осередок A2, B1

Фактор B: Осередок A1, B1 = Осередок A1, B2

Цей випадок простий. У складніших планах неможливо фактично визначити, що точно досліджуватиметься.

Середні осередки, підхід дисперсійного аналізу , гіпотези типу IV

Підхід, який рекомендується в літературі і який здається кращим – дослідження осмислених (з точки зору дослідницьких завдань) апріорнихгіпотез про середні, що спостерігаються в осередках плану. Докладне обговорення цього підходу можна знайти в Dodge (1985), Heiberger (1989), Milliken and Johnson (1984), Searle (1987) або Woodward, Bonett, and Brecht (1990). Суми квадратів, асоційовані з гіпотезами про лінійну комбінацію середніх у неповних планах, що досліджують оцінки частини ефектів, називаються також сумами квадратів IV.

Автоматична генерація гіпотез типуIV. Коли багатофакторні плани мають складний характер пропущених осередків, бажано визначити ортогональні (незалежні) гіпотези, дослідження яких еквівалентне дослідженню основних ефектів чи взаємодій. Були розвинені алгоритмічні (обчислювальні) стратегії (засновані на псевдозворотній матриці плану) для створення відповідних вагдля таких порівнянь. На жаль, остаточні гіпотези визначаються не єдиним чином. Звичайно, вони залежать від порядку, в якому були визначені ефекти і рідко допускають просту інтерпретацію. Тому рекомендується уважно вивчити характер пропущених осередків, потім формулювати гіпотези типуIV, які найбільш змістовно відповідають цілям дослідження. Потім дослідити ці гіпотези, використовуючи опцію Сплановані порівнянняу вікні Результати. Найлегший шлях задати порівняння у цьому випадку – вимагати введення вектора контрастів для всіх факторів разому вікні Сплановані порівняння.Після виклику діалогового вікна Сплановані порівняннябудуть показані всі групи поточного плану та позначені ті, що пропущені.

Пропущені осередки та перевірка специфічного ефекту

Існує кілька типів планів, у яких розташування пропущених осередків невипадково, але ретельно сплановано, що дозволяє проводити простий аналіз головних ефектів не торкаючись інших ефектів. Наприклад, коли необхідна кількість комірок у плані недоступна, часто використовуються плани. Латинські квадратидля оцінювання основних ефектів кількох чинників із великою кількістю рівнів. Наприклад, 4 x 4 x 4 x 4 факторний план потребує 256 осередків. У той же час можна використовувати Греко-латинський квадратдля оцінки головних ефектів, маючи лише 16 осередків у плані (глава Планування експерименту, том IV, містить детальний опистаких планів). Неповні плани, в яких головні ефекти (і деякі взаємодії) можуть бути оцінені за допомогою простих лінійних середніх комбінацій, називаються збалансованими неповними планами.

У збалансованих планах стандартний (за замовчуванням) метод генерування контрастів (ваг) для головних ефектів і взаємодій буде проводити аналіз таблиці дисперсій, в якій суми квадратів для відповідних ефектів не змішуються один з одним. Опція Специфічний ефектвікна Результатибуде генерувати пропущені контрасти, записуючи нуль у пропущені комірки плану. Відразу після того, як буде запрошено опцію Специфічний ефектдля користувача, який вивчає деяку гіпотезу, з'являється таблиця результатів із фактичними вагами. Зауважимо, що у збалансованому плані, суми квадратів відповідних ефектів обчислюються тільки, якщо ці ефекти ортогональні (незалежні) всім іншим головним ефектам та взаємодіям. В іншому випадку потрібно скористатися опцією Сплановані порівняннявивчення змістовних порівнянь між середніми.

Пропущені осередки та об'єднані ефекти/члени помилки

Якщо опція Регресійний підхіду стартовій панелі модуля Дисперсійний аналізне вибрано, то при обчисленні суми квадратів для ефектів використовуватиметься модель середніх за комірками (установка за замовчуванням). Якщо план не збалансований, то при поєднанні неортогональних ефектів (див. вище обговорення опції Пропущені осередки та специфічний ефект) можна отримати суму квадратів, що складається з неортогональних (або перекриваються) компонентів. Отримані при цьому результати зазвичай не інтерпретовані. Тому треба бути дуже обережним під час виборів та реалізації складних неповних експериментальних планів.

Існує багато книг із детальним обговоренням планів різного типу. (Dodge, 1985; Heiberger, 1989; Lindman, 1974; Milliken and Johnson, 1984; Searle, 1987; Woodward and Bonett, 1990), але така інформація лежить поза межами цього підручника. Тим не менш, пізніше в цьому розділі буде продемонстровано аналіз різного типупланів.

Припущення та ефекти порушення припущень

Відхилення від припущення щодо нормальності розподілів

Припустимо, що залежна змінна виміряна у числовій шкалі. Припустимо також, що залежна змінна має нормальний розподіл усередині кожної групи. Дисперсійний аналізмістить широкий набір графіків та статистик для обґрунтування цього припущення.

Ефекти порушення.Взагалі Fкритерій дуже стійкий до відхилення від нормальності (докладні результати див. у роботі Lindman, 1974). Якщо ексцес більший за 0, то значення статистики Fможе стати дуже маленьким. Нульова гіпотеза у своїй приймається, хоча може бути й неправильна. Ситуація змінюється на протилежну, коли ексцес менший за 0. Асиметрія розподілу зазвичай незначно впливає на Fстатистику. Якщо кількість спостережень у осередку досить велика, то відхилення від нормальності немає особливого значенняв силу центральної граничної теореми, відповідно до якої, розподіл середнього значення близький до нормального, незалежно від початкового розподілу. Детальне обговорення стійкості FСтатистики можна знайти в Box and Anderson (1955), або Lindman (1974).

Однорідність дисперсії

Припущення.Передбачається, що дисперсії різних груп плану однакові. Це припущення називається припущенням про однорідності дисперсії.Згадаймо, що на початку цього розділу, описуючи обчислення суми квадратів помилок, ми робили підсумовування всередині кожної групи. Якщо дисперсії у двох групах відрізняються один від одного, то додавання їх не дуже природне і не дає оцінки загальної внутрішньогрупової дисперсії (оскільки в цьому випадку загальної дисперсії взагалі не існує). Модуль Дисперсійний аналіз -ANOVA/MANOVAмістить великий набір статистичних критеріїввиявлення відхилень від припущень однорідності дисперсії

Ефекти порушення.Ліндман (Lindman 1974, стор 33) показує, що Fкритерій цілком стійкий щодо порушення припущень однорідності дисперсії ( неоднорідністьдисперсії, див. також Box, 1954a, 1954b; Hsu, 1938).

Спеціальний випадок: кореленість середніх та дисперсій.Бувають випадки, коли Fстатистика може ввести в оману.Це буває, коли в осередках плану середні значення корелюються з дисперсією. Модуль Дисперсійний аналіздозволяє будувати діаграми розсіювання дисперсії або стандартного відхиленнящодо середніх виявлення такої кореляції. Причина, через яку така кореляція небезпечна, полягає в наступному. Уявімо, що є 8 осередків у плані, 7 з яких мають майже однакове середнє, а в одному осередку середнє набагато більше за інших. Тоді Fкритерій може виявити статистично значущий ефект. Але припустимо, що у осередку з великим середнім значенням і дисперсія значно більше інших, тобто. середнє значення і дисперсія в осередках залежні (що більше середнє, то більше вписувалося дисперсія). І тут велике середнє значення ненадійно, оскільки може бути викликано великий дисперсією даних. Однак Fстатистика, заснована на об'єднаноюдисперсії всередині осередків, фіксуватиме велике середнє, хоча критерії, засновані на дисперсії у кожному осередку, в повному обсязі відмінності середніх вважатимуть значимими.

Такий характер даних (велике середнє і велика дисперсія) - часто зустрічається, коли є спостереження, що різко виділяються. Одне або два різко виділяються спостережень сильно зміщують середнє значення і дуже збільшують дисперсію.

Однорідність дисперсії та підступів

Припущення.У багатовимірних планах, з багатовимірними залежними вимірами, також застосовуються припущення однорідності дисперсії, описані раніше. Однак так як існують багатовимірні залежні змінні, то потрібно так само, щоб їх взаємні кореляції (коваріації) були однорідними по всіх осередках плану. Модуль Дисперсійний аналізпропонує різні способиперевірки цих припущень.

Ефекти порушення. Багатовимірний аналог F- критерію - λ-критерій Вілкса. Не так багато відомо про стійкість (робастність) λ-критерію Вілкса щодо порушення зазначених вище припущень. Тим не менш, так як інтерпретація результатів модуля Дисперсійний аналізґрунтується зазвичай на значущості одновимірних ефектів (після встановлення значимості загального критерію), обговорення робастності стосується, переважно, одномірного дисперсійного аналізу. Тому має бути уважно досліджено значущість одновимірних ефектів.

Спеціальний випадок: підступний аналіз.Особливо серйозні порушення однорідності дисперсії/коваріацій можуть відбуватися, коли до плану включаються коваріати. Зокрема, якщо кореляція між коваріатами і залежними вимірами різна в різних осередках плану, може бути неправильне тлумачення результатів. Слід пам'ятати, що в коваріаційному аналізі, по суті, проводиться регресійний аналіз усередині кожного осередку для того, щоб виділити ту частину дисперсії, яка відповідає коваріату. Припущення про однорідність дисперсії/коваріації передбачає, що цей регресійний аналіз проводиться за наступного обмеження: все регресійні рівняння(Нахили) для всіх осередків однакові. Якщо це не передбачається, то можуть виникнути великі помилки. Модуль Дисперсійний аналізмає кілька спеціальних критеріїв для перевірки цього припущення. Можна порадити використовувати ці критерії, щоб переконатися, що регресійні рівняння для різних осередків приблизно однакові.

Сферичність та складна симетрія: причини використання багатовимірного підходу до повторних вимірів у дисперсійному аналізі

У планах, що містять фактори повторних вимірювань з більш ніж двома рівнями, застосування одновимірного дисперсійного аналізу потребує додаткових припущень: припущення складної симетрії та припущення сферичності. Ці припущення рідко виконуються (див. нижче). Тому в Останніми рокамибагатовимірний дисперсійний аналіз завоював популярність у таких планах (обидва підходи поєднані в модулі Дисперсійний аналіз).

Припущення про складну симетріюПрипущення складної симетрії у тому, що дисперсії (загальні внутригрупповые) і ковариации (по групам) щодо різних повторних вимірів однорідні (однакові). Це достатня умова для того, щоб одномірний критерій F для повторних вимірювань був обґрунтованим (тобто видані F-значення в середньому відповідали F-розподілу). Однак у даному випадкуця умова не є необхідною.

Припущення про сферичність.Припущення про сферичність є необхідною та достатньою умовою того, щоб F-критерій був обґрунтованим. Воно у тому, що у груп всі спостереження незалежні і однаково розподілені. Природа цих припущень, а також вплив їх порушень зазвичай не дуже добре описані в книгах дисперсійного аналізу - ця буде описана в наступних параграфах. Там буде показано, що результати одновимірного підходу можуть відрізнятися від результатів багатовимірного підходу, і буде пояснено, що це означає.

Необхідність незалежності гіпотез.Загальний спосіб аналізу даних у дисперсійному аналізі – це припасування моделі. Якщо щодо моделі, що відповідає даним, є деякі апріорнігіпотези, то дисперсія розбивається для перевірки цих гіпотез (критерії основних ефектів, взаємодій). З погляду обчислень, цей підхід генерує кілька контрастів (множина порівнянь середніх у плані). Однак якщо контрасти не незалежні один від одного, розбиття дисперсій стає беззмістовним. Наприклад, якщо два контрасти Aі Bтотожні і виділяється відповідна їм частина з дисперсії, то та сама частина виділяється двічі. Наприклад, безглуздо і безглуздо виділяти дві гіпотези: "середнє в осередку 1 вище середнього в осередку 2" і "середнє в осередку 1 вище середнього в осередку 2". Отже, гіпотези мають бути незалежні або ортогональні.

Незалежні гіпотези при повторних вимірах.Загальний алгоритм, реалізований у модулі Дисперсійний аналіз, намагатиметься для кожного ефекту генерувати незалежні (ортогональні) контрасти. Для фактора повторних вимірювань ці контрасти задають безліч гіпотез щодо різницьміж рівнями аналізованого фактора. Однак якщо ці різниці корелюються всередині груп, то результуючі контрасти не є більш незалежними. Наприклад, у навчанні, де учні вимірюються тричі за один семестр, може статися, що зміни між 1 і 2 виміром негативно корелюють зі зміною між 2 та 3 вимірами суб'єктів. Ті, хто більшу частину матеріалу освоїв між 1 і 2 вимірами, освоюють меншу частину протягом того часу, який пройшов між 2 і 3 виміром. Насправді, для більшості випадків, де дисперсійний аналіз використовуються при повторних вимірах, можна припустити, що зміни за рівнями корелюються суб'єктами. Однак коли це трапляється, припущення про складну симетрію та припущення про сферичність не виконуються і незалежні контрасти не можуть бути обчислені.

Вплив порушень та способи їх виправлення.Коли припущення про складну симетрію або сферичність не виконуються, дисперсійний аналіз може видати помилкові результати. До того, як були розроблені багатовимірні процедури, було запропоновано кілька припущень для компенсації порушень цих припущень. (див., наприклад, роботи Greenhouse & Geisser, 1959 та Huynh & Feldt, 1970). Ці методи досі широко використовуються (тому вони представлені в модулі Дисперсійний аналіз).

Підхід багатовимірного дисперсійного аналізу до повторних вимірів.Загалом проблеми складної симетрії та сферичності відносяться до того факту, що безліч контрастів, включених у дослідження ефектів факторів повторних вимірів (з числом рівнів більшим, ніж 2) не незалежні один від одного. Однак їм не обов'язково бути незалежними, якщо використовується багатовимірнийкритерій одночасної перевірки статистичного значимості двох чи більше контрастів чинника повторних вимірів. Це є причиною того, що методи багатовимірного дисперсійного аналізу стали частіше використовуватися для перевірки значущості факторів одновимірних повторних вимірів з більш ніж 2 рівнями. Цей підхід широко поширений, тому що він, у загальному випадку, не вимагає припущення про складну симетрію та припущення про сферичність.

Випадки, в яких підхід багатовимірного дисперсійного аналізу не може бути використаний.Існують приклади (плани), коли підхід багатовимірного дисперсійного аналізу може бути застосований. Зазвичай це випадки, коли є не велика кількістьсуб'єктів у плані та багато рівнів у факторі повторних вимірів. Тоді для проведення багатовимірного аналізу може бути замало спостережень. Наприклад, якщо є 12 суб'єктів, p = 4 фактора повторних вимірювань, і кожен фактор має k = 3 рівнів. Тоді взаємодія 4-х факторів "витрачатиме" (k-1) P = 2 4 = 16 степенів свободи. Проте є лише 12 суб'єктів, отже, у цьому прикладі багатовимірний тест може бути проведено. Модуль Дисперсійний аналізсамостійно виявить ці спостереження та обчислить лише одномірні критерії.

Відмінності в одновимірних та багатовимірних результатах.Якщо дослідження включає велику кількість повторних вимірювань, можуть виникнути випадки, коли одновимірний підхід дисперсійного аналізу до повторних вимірювань дає результати, які сильно відрізняються від тих, які були отримані при багатовимірному підході. Це означає, що різниці між рівнями відповідних повторних вимірів корелюються суб'єктами. Іноді цей факт представляє певний самостійний інтерес.

Багатомірний дисперсійний аналіз та структурне моделювання рівнянь

В останні роки моделювання структурних рівнянь стало популярним як альтернатива багатовимірному аналізу дисперсії (див. наприклад, Bagozzi and Yi, 1989; Bagozzi, Yi, and Singh, 1991; Cole, Maxwell, Arvey, and Salas, 1993). Цей підхід дозволяє перевіряти гіпотези не тільки про середні в різних групах, але так само і про кореляційні матриці залежних змінних. Наприклад, можна послабити припущення про однорідність дисперсії та підступів і явно включити в модель для кожної групи дисперсії та підступності помилки. Модуль STATISTICAМоделювання структурними рівняннями (SEPATH) (див. Том III) дозволяє проводити такий аналіз.

У практичній діяльності лікарів при проведенні медико-біологічних, соціологічних та експериментальних досліджень виникає потреба встановити вплив факторів на результати вивчення стану здоров'я населення, при оцінці професійної діяльності, ефективності нововведень.

Існує ряд статистичних методів, що дозволяють визначити силу, напрям, закономірності впливу факторів на результат у генеральній чи вибірковій сукупності (розрахунок критерію I, кореляційний аналіз, регресія, 2 - (критерій згоди Пірсона та ін). Дисперсійний аналіз було розроблено та запропоновано англійським ученим, математиком та генетиком Рональдом Фішером у 20-х роках XX століття.

Дисперсійний аналіз найчастіше використовують у науково-практичних дослідженнях громадського здоров'я та охорони здоров'я для вивчення впливу одного чи кількох факторів на результативну ознаку. Він заснований на принципі "відображення різноманітностей значень факторного(их) на розмаїтті значень результативної ознаки" та встановлює силу впливу фактора(ів) у вибіркових сукупностях.

Сутність методу дисперсійного аналізу полягає у вимірі окремих дисперсій (загальна, факторіальна, залишкова), і подальше визначення сили (частки) впливу факторів, що вивчаються (оцінки ролі кожного з факторів, або їх спільного впливу) на результативний ознаки.

Дисперсійний аналіз- це статистичний метод оцінки зв'язку між факторними та результативними ознаками у різних групах, відібраний випадковим чином, заснований на визначенні відмінностей (різноманіття) значень ознак. У основі дисперсійного аналізу лежить аналіз відхилень всіх одиниць досліджуваної сукупності середнього арифметичного. Як міра відхилень береться дисперсія (В)-середній квадрат відхилень. Відхилення, що викликаються впливом факторної ознаки (фактора), порівнюються з величиною відхилень, що викликаються випадковими обставинами. Якщо відхилення, викликані факторним ознакою, істотніші, ніж випадкові відхилення, вважається, що чинник істотно впливає на результативний ознака.

Для того щоб обчислити дисперсію значення відхилень кожної варіанти (кожного зареєстрованого числового значення ознаки) від середнього арифметичного зводять у квадрат. Тим самим позбавляються негативних знаків. Потім ці відхилення (різниці) підсумовують і поділяють число спостережень, тобто. усереднюють відхилення. Таким чином, набувають значення дисперсій.

Важливим методичним значенням застосування дисперсійного аналізу є правильне формування вибірки. Залежно від поставленої мети та завдань вибіркові групи можуть формуватися випадковим чином незалежно одна від одної (контрольна та експериментальна групи для вивчення деякого показника, наприклад, вплив високого артеріального тискуна розвиток інсульту). Такі вибірки називаються незалежними.

Нерідко результати впливу факторів досліджуються в однієї і тієї ж вибіркової групи (наприклад, в тих самих пацієнтів) до і після впливу (лікування, профілактика, реабілітаційні заходи), такі вибірки називаються залежними.

Дисперсійний аналіз, у якому перевіряється вплив одного чинника, називається однофакторним (одномірний аналіз). При вивченні впливу більш як одного фактора використовують багатофакторний дисперсійний аналіз (багатомірний аналіз).

Факторні ознаки - це ознаки, що впливають на досліджуване явище.
Результативні ознаки - це ознаки, які змінюються під впливом факторних ознак.

Для проведення дисперсійного аналізу можуть використовуватися як якісні (стаття, професія), так і кількісні ознаки (число ін'єкцій, хворих у палаті, число ліжко-днів).

Методи дисперсійного аналізу:

  1. Метод Фішеру (Fisher) - критерій F (значення F див. у додатку N 1);
    Метод застосовується в однофакторному дисперсійному аналізі, коли сукупна дисперсія всіх значень, що спостерігаються, розкладається на дисперсію всередині окремих груп і дисперсію між групами.
  2. Метод "загальної лінійної моделі".
    У його основі лежить кореляційний чи регресійний аналіз, застосовуваний багатофакторному аналізі.

Зазвичай у медико-біологічних дослідженнях використовуються лише однофакторні, максимум двофакторні дисперсійні комплекси. Багатофакторні комплекси можна досліджувати, послідовно аналізуючи одно-або двофакторні комплекси, що виділяються з усієї спостережуваної сукупності.

Умови застосування дисперсійного аналізу:

  1. Завданням дослідження є визначення сили впливу одного (до 3) факторів на результат або визначення сили спільного впливу різних факторів (стаття та вік, фізична активність та харчування тощо).
  2. Досліджувані чинники мають бути незалежні (непов'язані) між собою. Наприклад, не можна вивчати спільний вплив стажу роботи та віку, зростання та ваги дітей тощо. на захворюваність населення.
  3. Підбір груп на дослідження проводиться рандомизированно (випадковий відбір). Організація дисперсійного комплексу із дотриманням принципу випадковості відбору варіантів називається рандомізацією (перев. з англ. – random), тобто. вибрані навмання.
  4. Можна застосовувати як кількісні, і якісні (атрибутивні) ознаки.

При проведенні однофакторного дисперсійного аналізу рекомендується ( необхідна умовазастосування):

  1. Нормальність розподілу аналізованих груп чи відповідність вибіркових груп генеральним сукупностям з нормальним розподілом.
  2. Незалежність (не пов'язаність) розподілу спостережень у групах.
  3. Наявність частоти (повторність) спостережень.

Нормальність розподілу визначається кривою Гаусса (Де Мавура), яку можна описати функцією у = f(х), так як вона належить до законів розподілу, що використовуються для наближеного опису явищ, які носять випадковий, імовірнісний характер. Предмет медико-біологічних досліджень - явища імовірнісного характеру, нормальний розподіл у таких дослідженнях трапляється досить часто.

Принцип застосування методу дисперсійного аналізу

Спочатку формулюється нульова гіпотеза, тобто передбачається, що досліджувані фактори не впливають на значення результативної ознаки та отримані відмінності випадкові.

Потім визначаємо, яка можливість отримати спостерігаються (чи сильніші) відмінності за умови справедливості нульової гіпотези.

Якщо ця ймовірність мала*, ми відкидаємо нульову гіпотезу і укладаємо, що результати дослідження статистично значущі. Це ще не означає, що доведено дію саме досліджуваних факторів (це питання, перш за все, планування дослідження), але все ж таки малоймовірно, що результат обумовлений випадковістю.
__________________________________
* Максимальну прийнятну можливість відкинути правильну нульову гіпотезу називають рівнем значущості і позначають α = 0,05.

При виконанні всіх умов застосування дисперсійного аналізу розкладання загальної дисперсії математично виглядає наступним чином:

D ощ. = D факт + D зуп. ,

D ощ. - загальна дисперсія значень, що спостерігаються (варіант), характеризується розкидом варіант від загального середнього. Вимірює варіацію ознаки у всій сукупності під впливом всіх факторів, що зумовили цю варіацію. Загальна різноманітність складається з міжгрупового та внутрішньогрупового;

D факт - факторна (міжгрупова) дисперсія, що характеризується відмінністю середніх у кожній групі та залежить від впливу досліджуваного фактора, за яким диференціюється кожна група. Наприклад, у групах різних за етіологічним фактором клінічного перебігу пневмонії середній рівень проведеного ліжко-дня неоднаковий – спостерігається міжгрупова різноманітність.

D зуп. - Залишкова (внутрішньогрупова) дисперсія, яка характеризує розсіювання варіант всередині груп. Відбиває випадкову варіацію, тобто. частина варіації, що відбувається під впливом неуточнених факторів і не залежить від ознаки - фактора, покладеного в основу угруповання. Варіація ознаки, що вивчається, залежить від сили впливу якихось неврахованих випадкових факторів, як від організованих (заданих дослідником), так і від випадкових (невідомих) факторів.

Тому загальна варіація (дисперсія) складається з варіації, викликаної організованими (заданими) чинниками, званими факторіальної варіацією і неорганізованими чинниками, тобто. залишковою варіацією (випадковою, невідомою).

Класичний дисперсійний аналіз проводиться за такими етапами:

  1. Побудова дисперсійного комплексу.
  2. Обчислення середніх квадратів відхилень.
  3. Обчислення дисперсії.
  4. Порівняння факторної та залишкової дисперсій.
  5. Оцінка результатів з допомогою теоретичних значень розподілу Фішера-Снедекора (додаток N 1).

АЛГОРИТМ ПРОВЕДЕННЯ ДИСПЕРСІЙНОГО АНАЛІЗУ ЗА СПРОЩЕНИМ ВАРІАНТОМ

Алгоритм проведення дисперсійного аналізу за спрощеним способом дозволяє отримати ті ж результати, але розрахунки виконуються значно простіше:

І етап. Побудова дисперсійного комплексу

Побудова дисперсійного комплексу означає побудову таблиці, де було б чітко розмежовані чинники, результативний ознака і добір спостережень (хворих) у групу.

Однофакторний комплекс складається з кількох градацій одного фактора (А). Градації - це вибірки різних генеральних сукупностей (А1, А2, АЗ).

Двофакторний комплекс – складається з кількох градацій двох факторів у комбінації між собою. Етіологічні чинники захворюваністю на пневмонію ті ж (А1, А2, АЗ) у поєднанні з різними формами клінічного перебігу пневмонії (Н1 - гостре, Н2 - хронічне).

Результативна ознака (кількість ліжко-днів у середньому) Етіологічні фактори розвитку пневмоній
А1 А2 А3
Н1 Н2 Н1 Н2 Н1 Н2
М = 14 днів

ІІ етап. Обчислення загальної середньої (М обш)

Обчислення суми варіант за кожною градацією факторів: Vj = V 1 + V 2 + V 3

Обчислення загальної суми варіант (Σ V заг) за всіма градаціями факторної ознаки: Σ V заг = Σ Vj 1 + Σ Vj 2 + Σ Vj 3

Обчислення середньої групової (М грн) факторної ознаки: М грн. = Vj / N,
де N - сума числа спостережень за всіма градаціями факторної I ознаки (?n за групами).

ІІІ етап. Розрахунок дисперсій:

За дотримання всіх умов застосування дисперсійного аналізу математична формула виглядає так:

D ощ. = D факт + D зуп.

D ощ. - загальна дисперсія, що характеризується розкидом варіант (спостережуваних значень) від загального середнього;
D факт. - факторна (міжгрупова) дисперсія, що характеризує розкид групових середніх від загального середнього;
D зуп. - Залишкова (внутрішньогрупова) дисперсія, характеризує розсіювання варіант всередині груп.

  1. Обчислення факторіальної дисперсії (D факт.): D факт. = Σ h - H
  2. Обчислення h проводиться за такою формулою: h = (Σ Vj) / N
  3. Обчислення Н проводиться за такою формулою: H = (Σ V) 2 / N
  4. Обчислення залишкової дисперсії: D зуп. = (Σ V) 2 - Σ h
  5. Обчислення загальної дисперсії: D ощ. = (Σ V) 2 - Σ H

ІV етап. Розрахунок основного показника сили впливу фактора, що вивчаєтьсяПоказник сили впливу (η ​​2) факторної ознаки на результат визначається часткою факторіальної дисперсії (D факт.) у загальній дисперсії (D oбщ.), η 2 (ця) - показує яку частку займає вплив фактора, що вивчається, серед усіх інших факторів і визначається за формулою :

V етап. Визначення достовірності результатів дослідження методом Фішера проводять за такою формулою:


F – критерій Фішера;
F st. - Табличне значення (див. Додаток 1).
σ 2 факт, σ 2 зуп. - факторіальна та залишкова девіати (від лат. de - від, via - дорога) - відхилення від середньої лінії, що визначаються за формулами:


r – число градацій факторної ознаки.

Порівняння критерію Фішера (F) із стандартним (табличним) F проводять за графами таблиці з урахуванням ступенів свободи:

v 1 = n - 1
v 2 = N - 1

По горизонталі визначають v 1 по вертикалі - v 2 на їх перетині визначають табличне значення F, де верхнє табличне значення р ≥ 0,05, а нижнє відповідає р > 0,01, і порівнюють з обчисленим критерієм F. Якщо значення обчисленого критерію F одно або більше табличного, результати достовірні і Н 0 не відкидається.

Умова задачі:

На підприємстві Н. підвищився рівень травматизму, у зв'язку з чим лікар провів дослідження окремих факторів, серед яких вивчався стаж роботи працюючих у цехах. Вибірки зроблено на підприємстві Н. з 4 цехів із близькими умовами та характером праці. Рівні травматизму розраховані на 100 працюючих за минулий рік.

При дослідженні фактора робочого стажу отримано такі дані:

На підставі даних проведеного дослідження було висунуто нульову гіпотезу (Н0) про вплив стажу роботи на рівень травматизму працівників підприємства А.А.

Завдання
Підтвердіть або спростуйте нульову гіпотезу методом однофакторного дисперсійного аналізу:

  1. визначте силу впливу;
  2. оцінити достовірність впливу фактора.

Етапи застосування дисперсійного аналізу
для визначення впливу фактора (стажу роботи) на результат (рівень травматизму)

Висновок.У вибірковому комплексі виявлено, що сила впливу стажу роботи на рівень травматизму становить 80% від загального числа інших факторів. Для всіх цехів заводу можна з ймовірністю 99,7% (13,3 > 8,7) стверджувати, що стаж роботи впливає рівень травматизму.

Таким чином, нульова гіпотеза (Н0) не відкидається і вплив стажу роботи на рівень травматизму в цехах заводу А вважається доведеним.

Значення F (критерій Фішера) стандартного при р ≥ 0,05 (верхнє значення) при р ≥ 0,01 (нижнє значення)

1 2 3 4 5 6 7 8 9 10 11
6 6,0
13,4
5,1
10,9
4,8
9,8
4,5
9,2
4,4
8,8
4,3
8,5
4,2
8,3
4,1
8,1
4,1
8,0
4,1
7,9
4,0
7,8
7 5,6
12,3
4,7
9,6
4,4
8,5
4,1
7,9
4,0
7,5
3,9
7,2
3,8
7,0
3,7
6,8
3,7
6,7
3,6
6,6
3,6
6,5
8 5,3
11,3
4,6
8,7
4,1
7,6
3,8
7,0
3,7
6,6
3,6
6,4
3,5
6,2
3,4
6,0
3,4
5,9
3,3
5,8
3,1
5,7
9 5,1
10,6
4,3
8,0
3,6
7,0
3,6
6,4
3,5
6,1
3,4
5,8
3,3
5,6
3,2
5,5
3,2
5,4
3,1
5,3
3,1
5,2
10 5,0
10,0
4,1
7,9
3,7
6,6
3,5
6,0
3,3
5,6
3,2
5,4
3,1
5,2
3,1
5,1
3,0
5,0
2,9
4,5
2,9
4,8
11 4,8
9,7
4,0
7,2
3,6
6,2
3,6
5,7
3,2
5,3
3,1
5,1
3,0
4,9
3,0
4,7
2,9
4,6
2,9
4,5
2,8
4,5
12 4,8
9,3
3,9
6,9
3,5
6,0
3,3
5,4
3,1
5,1
3,0
4,7
2,9
4,7
2,9
4,5
2,8
4,4
2,8
4,3
2,7
4,2
13 4,7
9,1
3,8
6,7
3,4
5,7
3,2
5,2
3,0
4,9
2,9
4,6
2,8
4,4
2,8
4,3
2,7
4,2
2,7
4,1
2,6
4,0
14 4,6
8,9
3,7
6,5
3,3
5,6
3,1
5,0
3,0
4,7
2,9
4,5
2,8
4,3
2,7
4,1
2,7
4,0
2,6
3,9
2,6
3,9
15 4,5
8,7
3,7
6,4
3,3
5,4
3,1
4,9
2,9
4,6
2,8
4,3
2,7
4,1
2,6
4,0
2,6
3,9
2,5
3,8
2,5
3,7
16 4,5
8,5
3,6
6,2
3,2
5,3
3,0
4,8
2,9
4,4
2,7
4,2
2,7
4,0
2,6
3,9
2,5
3,8
2,5
3,7
2,5
3,6
17 4,5
8,4
3,6
6,1
3,2
5,2
3,0
4,7
2,8
4,3
2,7
4,1
2,6
3,9
2,6
3,8
2,5
3,8
2,5
3,6
2,4
3,5
18 4,4
8,3
3,5
6,0
3,2
5,1
2,9
4,6
2,8
4,2
2,7
4,0
2,6
3,8
2,5
3,7
2,7
3,6
2,4
3,6
3,4
3,5
19 4,4
8,2
3,5
5,9
3,1
5,0
2,9
4,5
2,7
4,2
2,6
3,9
2,5
3,8
2,5
3,6
2,4
3,5
2,4
3,4
2,3
3,4
20 4,3
8,1
3,5
5,8
3,1
4,9
2,9
4,4
2,7
4,1
2,6
3,9
2,5
3,7
2,4
3,6
2,4
3,4
2,3
3,4
2,3
3,3

  1. Власов В.В. Епідеміологія. - М: ГЕОТАР-МЕД, 2004. 464 с.
  2. Архіпова ГЛ., Лаврова І.Г., Трошина І.М. Деякі сучасні методистатистичного аналізу у медицині. - М.: Метропостач, 1971. - 75 с.
  3. Зайцев В.М., Ліфляндський В.Г., Марінкін В.І. Прикладна медична статистика. – СПб.: ТОВ "Видавництво ФОЛІАНТ", 2003. – 432 с.
  4. Платонов А.Є. Статистичний аналіз у медицині та біології: завдання, термінологія, логіка, комп'ютерні методи. – М.: Видавництво РАМН, 2000. – 52 с.
  5. Плохінський Н.А. Біометрія. - Видавництво Сибірського відділення АН СРСР Новосибірськ. – 1961. – 364 с.
Схожі статті

2022 parki48.ru. Будуємо каркасний будинок. Ландшафтний дизайн. Будівництво. Фундамент.