Як інтерпретувати значення критерію хі-квадрат Пірсона? Класичні методи статистики: критерій хі-квадрат

Міністерство освіти та науки Російської Федерації

Федеральне агентство з освіти міста Іркутська

Байкальський державний університетекономіки та права

Кафедра Інформатики та Кібернетики

Розподіл "хі-квадрат" та його застосування

Колмикова Ганна Андріївна

студентка 2 курсу

групи ІС-09-1

Іркутськ 2010

Вступ

1. Розподіл "хі-квадрат"

додаток

Висновок

Список використаної літератури

Вступ

Як підходи, ідеї та результати теорії ймовірностей використовуються у нашому житті?

Базою є імовірнісна модель реального явища чи процесу, тобто. математична модель, в якій об'єктивні співвідношення виражені у термінах теорії ймовірностей. Імовірності використовуються, перш за все, для опису невизначеностей, які необхідно враховувати під час прийняття рішень. Маються на увазі, як небажані можливості (ризики), так і привабливі (" щасливий випадокІноді випадковість вноситься в ситуацію свідомо, наприклад, при жеребкуванні, випадковому відборі одиниць для контролю, проведенні лотерей або опитувань споживачів.

Теорія ймовірностей дозволяє за одними ймовірностями розрахувати інші, які цікавлять дослідника.

Імовірнісна модель явища чи процесу є фундаментом математичної статистики. Використовуються два паралельних ряду понять – які стосуються теорії (імовірнісної моделі) і які стосуються практики (вибірці результатів спостережень). Наприклад, теоретичній ймовірності відповідає частота, знайдена за вибіркою. Математичне очікування (теоретичний ряд) відповідає вибіркове середнє арифметичне (практичний ряд). Як правило, вибіркові характеристики є оцінками теоретичних. При цьому величини, що належать до теоретичного ряду, "перебувають у головах дослідників", відносяться до світу ідей (за давньогрецьким філософом Платоном), недоступні для безпосереднього виміру. Дослідники мають у своєму розпорядженні лише вибіркові дані, за допомогою яких вони намагаються встановити властивості теоретичної ймовірнісної моделі, що їх цікавлять.

Навіщо ж потрібна імовірнісна модель? Справа в тому, що тільки з її допомогою можна перенести властивості, встановлені за результатами аналізу конкретної вибірки, на інші вибірки, а також на так звану генеральну сукупність. Термін "генеральна сукупність" використовується, коли йдеться про велику, але кінцеву сукупність одиниць, що вивчаються. Наприклад, про сукупність всіх жителів Росії або сукупність всіх споживачів розчинної кави в Москві. Мета маркетингових чи соціологічних опитувань у тому, щоб твердження, отримані за вибіркою із сотень чи тисяч жителів, перенести на генеральні сукупності кілька мільйонів. При контролі якості у ролі генеральної сукупностівиступає партія продукції.

Щоб перенести висновки з вибірки більш широку сукупність, необхідні ті чи інші припущення про зв'язок вибіркових характеристик з характеристиками цієї більшої сукупності. Ці припущення ґрунтуються на відповідній імовірнісній моделі.

Звичайно, можна обробляти вибіркові дані, не використовуючи ту чи іншу ймовірну модель. Наприклад, можна розраховувати вибіркове середнє арифметичне, підраховувати частоту виконання тих чи інших умов тощо. Проте результати розрахунків відноситимуться лише до конкретної вибірки, перенесення отриманих з їх допомогою висновків на будь-яку іншу сукупність некоректне. Іноді таку діяльність називають "аналіз даних". Порівняно з імовірнісно-статистичними методами, аналіз даних має обмежену пізнавальну цінність.

Отже, використання імовірнісних моделей на основі оцінювання та перевірки гіпотез за допомогою вибіркових характеристик – ось суть імовірнісно- статистичних методівухвалення рішень.

Розподіл "хі-квадрат"

За допомогою нормального розподілувизначаються три розподіли, які у час часто використовуються при статистичної обробці даних. Це розподіли Пірсона ("хі - квадрат"), Стьюдента та Фішера.

Ми зупинимося на розподілі

("Хі - квадрат"). Вперше цей розподіл було досліджено астрономом Ф. Хельмертом у 1876 році. У зв'язку з гауссівською теорією помилок він досліджував суми квадратів n незалежних стандартно нормально розподілених випадкових величин. Пізніше Карл Пірсон (Karl Pearson) дав ім'я цієї функції розподілу "хі - квадрат". І зараз розподіл носить його ім'я.

Завдяки тісному зв'язку з нормальним розподілом χ2-розподіл грає важливу рольв теорії ймовірностей та математичної статистики. χ2-розподіл і багато інших розподілів, які визначаються за допомогою χ2-розподілу (наприклад - розподіл Стьюдента), описують вибіркові розподіли різних функцій від нормально розподілених результатів спостережень і використовуються для побудови довірчих інтервалів та статистичних критеріїв.

Розподіл Пірсона

(хі - квадрат) - розподіл випадкової величини де X1, X2, ..., Xn - нормальні незалежні випадкові величини, причому математичне очікуваннякожній з них дорівнює нулю, а середня квадратичне відхилення- Одиниці.

Сума квадратів


розподілено згідно із законом

("Хі - квадрат").

У цьому кількість доданків, тобто. n, називається "числом ступенів свободи" розподілу хі - квадрат.Зі збільшенням числа ступенів свободи розподіл повільно наближається до нормального.

Щільність цього розподілу


Отже, розподіл x2 залежить від одного параметра n – числа ступенів свободи.

Функція розподілу χ2 має вигляд:


якщо χ2≥0. (2.7.)

На малюнку 1 зображено графік щільності ймовірності та функції χ2 – розподілу для різних ступенів свободи.

Малюнок 1Залежність щільності ймовірності φ (x) у розподілі χ2 (хі – квадрат) при різному числістепенів свободи.

Моменти розподілу "хі-квадрат":

Розподіл "хі-квадрат" використовують при оцінюванні дисперсії (за допомогою довірчого інтервалу), при перевірці гіпотез згоди, однорідності, незалежності, насамперед для якісних (категоризованих) змінних, що приймають кінцеве число значень, та у багатьох інших завданнях статистичного аналізуданих.

2. "Хі-квадрат" у завданнях статистичного аналізу даних

Статистичні методи аналізу даних застосовуються практично у всіх сферах діяльності людини. Їх використовують завжди, коли необхідно отримати та обґрунтувати будь-які судження про групу (об'єктів чи суб'єктів) з деякою внутрішньою неоднорідністю.

Сучасний етап розвитку статистичних методів можна відраховувати з 1900 року, коли англієць К. Пірсон заснував журнал "Biometrika". Перша третина ХХ ст. пройшла під знаком параметричної статистики. Вивчалися методи, засновані на аналізі даних параметричних сімейств розподілів, що описуються кривими сімейства Пірсона. Найбільш популярним був нормальний розподіл. Для перевірки гіпотез використовувалися критерії Пірсона, Стьюдента, Фішера. Було запропоновано метод максимальної правдоподібності, дисперсійний аналіз, сформульовано основні ідеї планування експерименту

Розподіл "хі-квадрат" є одним із найбільш широко використовуваних у статистиці для перевірки статистичних гіпотез. На основі розподілу "хі-квадрат" побудований один із найпотужніших критеріїв згоди – критерій "хі-квадрату" Пірсона.

Критерієм згоди називають критерій перевірки гіпотези про передбачуваний закон невідомого розподілу.

Критерій χ2 (хі-квадрат) використовується для перевірки гіпотези різних розподілів. У цьому полягає його перевага.

Розрахункова формула критерію дорівнює

де m і m' - відповідно емпіричні та теоретичні частоти

розглянутого розподілу;

n – число ступенів свободи.

Для перевірки нам необхідно порівнювати емпіричні (спостерігаються) та теоретичні (обчислені у припущенні нормального розподілу) частоти.

При повному збігу емпіричних частот з частотами, обчисленими або очікуваними S (Е - Т) = 0 і критерій 2 теж дорівнюватиме нулю. Якщо ж S (Е – Т) не дорівнює нулю, це вкаже на невідповідність обчислених частот емпіричним частотам ряду. У разі необхідно оцінити значимість критерію χ2, який теоретично може змінюватися від нуля до нескінченності. Це здійснюється шляхом порівняння фактично отриманої величини χ2ф з його критичним значенням (χ2st). (a) та числа ступенів свободи (n).

Хі-квадрат критерій – універсальний методперевірки згоди результатів експерименту та використовуваної статистичної моделі.

Відстань Пірсона X 2

П'ятницький А.М.

Російський Державний Медичний університет

У 1900 році Карл Пірсон запропонував простий, універсальний і ефективний спосібперевірки згоди між прогнозами моделі та досвідченими даними. Запропонований їм "хі-квадрат критерій" - це найважливіший і найчастіше використовуваний статистичний критерій. Більшість завдань, пов'язаних з оцінкою невідомих параметрів моделі та перевірки згоди моделі та досвідчених даних, можна вирішити за його допомогою.

Нехай є апріорна (“до досвідчена”) модельизуемого об'єкта чи процесу (у статистиці говорять про “нульову гіпотезу” H 0), і результати досвіду з цим об'єктом. Слід вирішити, чи адекватна модель (чи вона відповідає реальності)? Чи не суперечать результати досвіду нашим уявленням про те, як влаштована реальність, чи іншими словами - чи слід відкинути H0? Часто це завдання можна звести до порівняння спостережуваних (O i = Observed )і очікуваних згідно з моделлю (E i =Expected ) середніх частот появи деяких подій. Вважається, що частоти, що спостерігаються, отримані в серії N незалежних (!) спостережень, що проводяться в постійних (!) умовах. В результаті кожного спостереження реєструється одна з M подій. Ці події що неспроможні відбуватися одночасно (попарно несовместны) і одне їх обов'язково відбувається (їх об'єднання утворює достовірне подія). Сукупність всіх спостережень зводиться до таблиці (вектору) частот (Oi) = (O1, ... O M), яка повністю описує результати досвіду. Значення O 2 =4 означає, що подія номер 2 відбулася чотири рази. Сума частот O 1 + ... O M = N. Важливо розрізняти два випадки: N – фіксовано, невипадково, N – випадкова величина. При фіксованому загальному числіДосліди N частоти мають поліноміальний розподіл. Пояснимо цю загальну схему простим прикладом.

Застосування хі-квадрату критерію для перевірки простих гіпотез.

Нехай модель (нульова гіпотеза H 0) полягає в тому, що гральна кістка є правильною – всі грані випадають однаково часто з ймовірністю p i = 1/6, i =, M = 6. Проведено досвід, який полягав у тому, що кістку кинули 60 разів (провели N = 60 незалежних випробувань). Відповідно до моделі ми очікуємо, що всі частоти O i появи 1,2,... 6 очок повинні бути близькі до своїх середніх значень E i =Np i =60∙(1/6)=10. Відповідно до H 0 вектор середніх частот (E i )=(Np i )=(10, 10, 10, 10, 10, 10). (Гіпотези, в яких середні частоти повністю відомі до початку досвіду, називаються простими.) Якби спостерігається вектор (O i ) дорівнював (34,0,0,0,0,26) , то відразу ясно, що модель невірна - кістка не може бути правильною, тому що 60 разів випадали тільки 1 і 6. Імовірність такої події для правильної гральної кісткинікчемна: P = (2/6) 60 = 2.4 * 10 -29. Однак поява настільки явних розбіжностей між моделлю та досвідом виняток. Нехай вектор частот (O i ) дорівнює (5, 15, 6, 14, 4, 16). Чи погоджується це з H0? Отже, нам треба порівняти два вектори частот (E i) та (O i). При цьому вектор очікуваних частот (Ei) не випадковий, а вектор спостережуваних (Oi) випадковий – при наступному досвіді (у новій серії з 60 кидків) він виявиться іншим. Корисно ввести геометричну інтерпретацію задачі та вважати, що у просторі частот (у даному випадку 6 мірному) дано дві точки з координатами (5, 15, 6, 14, 4, 16) і (10, 10, 10, 10, 10, 10). Чи достатньо далеко вони віддалені один від одного, щоб визнати це несумісним з H 0 ? Іншими словами нам треба:

  1. навчитися вимірювати відстані між частотами (точками простору частот),
  2. мати критерій того, яку відстань слід вважати занадто (“неправдоподібно”) великим, тобто несумісним з H0.

Квадрат звичайного евклідова відстані дорівнював:

X 2 Euclid = S(O i -E i) 2 = (5-10) 2 + (15-10) 2 + (6-10) 2 + (14-10) 2 + (4-10) 2 + (16-10) 2

При цьому поверхні X 2 Euclid = const завжди є сферами, якщо фіксуємо значення E i і змінюємо O i . Карл Пірсон зауважив, що використовувати евклідову відстань у просторі частот не слід. Так, неправильно вважати, що точки (O = 1030 і E = 1000) і (O = 40 та E = 10) знаходяться на рівному відстаніодин від одного, хоча в обох випадках різниця O-E = 30. Адже чим більша очікувана частота, тим більші відхилення від неї можна вважати можливими. Тому точки (O = 1030 та E = 1000) повинні вважатися "близькими", а точки (O = 40 і E = 10) "далекими" одна від одної. Можна показати, що якщо вірна гіпотеза H 0 то флуктуації частоти O i щодо E i мають величину порядку квадратного кореня(!) З E i . Тому Пірсон запропонував при обчисленні відстані зводити в квадрати не різниці (Oi-Ei), а нормовані різниці (Oi-Ei)/Ei 1/2. Отже, ось формула, якою обчислюється відстань Пірсона (фактично це квадрат відстані):

X 2 Pearson = S((O i -E i )/E i 1/2) 2 = S(O i -E i ) 2 /E i

У прикладі:

X 2 Pearson = (5-10) 2 /10+(15-10) 2 /10 +(6-10) 2 /10+(14-10) 2 /10+(4-10) 2 /10+( 16-10) 2/10 = 15.4

Для правильної гральної кістки всі очікувані частоти E i однакові, але зазвичай вони різні, тому поверхні, у яких відстань Пірсона постійно (X 2 Pearson =const) виявляються вже еліпсоїдами, а чи не сферами.

Тепер після того, як вибрано формулу для підрахунку відстаней, необхідно з'ясувати, які відстані слід вважати “не надто великими” (що погоджуються з H 0). У якому відсотку випадків (або з якою ймовірністю), проводячи досліди з правильною гральною кісткою, ми б отримували відстань більшу, ніж 15.4? Якщо цей відсоток буде малий (<0.05), то H 0 надо отвергнуть. Иными словами требуется найти распределение длярасстояния Пирсона. Если все ожидаемые частоты E i не слишком малы (≥5), и верна H 0 , то нормированные разности (O i - E i )/E i 1/2 приближенно эквивалентны стандартным гауссовским случайным величинам: (O i - E i )/E i 1/2 ≈N (0,1). Это, например, означает, что в 95% случаев| (O i - E i )/E i 1/2 | < 1.96 ≈ 2 (правило “двух сигм”).

Пояснення. Число вимірювань O i , що потрапляють в комірку таблиці з номером i має біноміальний розподіл з параметрами: m = Np i = E i ,σ = (Np i (1-p i )) 1/2 , де N - число вимірювань 1), pi – ймовірність для одного виміру потрапити в дану комірку (нагадаємо, що виміри незалежні і виробляються в постійних умов). Якщо p i мало, то: σ≈(Np i ) 1/2 =E i та біноміальний розподіл близький до пуассонівського, в якому середня кількість спостережень E i =λ, а середнє квадратичне відхилення σ=λ 1/2 = E i 1/ 2 . Для λ≥5пуассонівський розподіл близький до нормального N (m =E i =λ, σ=E i 1/2 =λ 1/2), а нормована величина (O i - E i )/E i 1/2 ≈ N (0 ,1).

Пірсон визначив випадкову величину χ 2 n – “хі-квадрат із n ступенями свободи”, як суму квадратів n незалежних стандартних нормальних с.в.:

χ 2 n = T 1 2 + T 2 2 + …+ T n 2 ,де всі T i = N (0,1) -н. о. нар. с. в.

Спробуємо наочно зрозуміти зміст цієї найважливішої у статистиці випадкової величини. Для цього на площині (при n = 2) або в просторі (при n = 3) представимо хмару точок, координати яких незалежні і мають стандартний нормальний розподіл f T (x) ~ exp (-x 2 /2). На площині згідно з правилом "двох сигм", яке незалежно застосовується до обох координат, 90% (0.95*0.95≈0.90) точок укладені всередині квадрата(-2)

f χ 2 2 (a) = Сexp(-a/2) = 0.5exp(-a/2).

При досить великій кількості ступенів свободи n (n >30) хі-квадрат розподіл наближається до нормального: N (m = n; σ = (2n)?). Це наслідок “центральної граничної теореми”: сума однаково розподілених величин, що мають кінцеву дисперсію, наближається до нормального закону зі зростанням числа доданків.

Практично слід запам'ятати, що середній квадрат відстані дорівнює m (χ 2 n )=n , яке дисперсія σ 2 (χ 2 n )=2n . Звідси легко укласти які значення хі-квадрат слід вважати занадто малими і занадто великими: більша частина розподілу укладена в межах від n -2∙(2n ) ½ до n +2∙(2n ) ½.

Отже, відстані Пірсона, що істотно перевищують n +2∙ (2n ) ½, слід вважати неправдоподібно великими (що не узгоджуються з H 0). Якщо результат близький до n +2∙(2n ) ?

Важливо знати, як правильно вибирати значення числа ступенів свободи (number degrees of freedom, скорочено n.d.f.). Здавалося природним вважати, що n просто дорівнює числу розрядів: n = M . У статті Пірсон так і припустив. У прикладі з гральною кісткою це означало б, що n =6. Проте за кілька років було показано, що Пірсон помилився. Число ступенів свободи завжди менше числа розрядів, якщо між випадковими величинами O i є зв'язки. Для прикладу з гральною кісткою сума O i дорівнює 60, незалежно міняти можна лише 5 частот, так що правильне значення n =6-1=5. Для цього значення n отримуємо n +2∙(2n ) ½ =5+2∙(10) ½ =11.3. Оскільки15.4>11.3, то гіпотезу H 0 - гральна кістка правильна, слід відкинути.

Після з'ясування помилки, що існували таблиці χ 2 довелося доповнити, оскільки у них був випадку n =1, оскільки найменше число розрядів =2. Тепер виявилося, що можуть бути випадки, коли відстань Пірсона має розподіл χ 2 n =1 .

приклад. При 100 кидання монети число гербів дорівнює O 1 = 65, а решок O 2 = 35. Число розрядів M =2. Якщо монета симетрична, то очікувані частоти E1=50, E2=50.

X 2 Pearson = S(O i -E i) 2 / E i = (65-50) 2 / 50 + (35-50) 2 / 50 = 2 * 225/50 = 9.

Отримане значення слід порівнювати з тими, які може набувати випадкова величина χ 2 n =1 , визначена як квадрат стандартної нормальної величини χ 2 n =1 =T 1 2 ≥ 9 ó T 1 ≥3 або T 1 ≤-3. Імовірність такої події дуже мала P (χ 2 n =1 ≥9) = 0.006. Тому монету не можна вважати симетричною: H0 слід відкинути. Те, що число ступенів свободи не може бути рівне числу розрядів видно з того, що сума частот, що спостерігаються, завжди дорівнює сумі очікуваних, наприклад O 1 +O 2 =65+35 = E 1 +E 2 =50+50=100. Тому випадкові точки з координатами O 1 і O 2 розташовуються на прямій: O 1 + O 2 = E 1 + E 2 = 100 і відстань до центру виявляється меншою, ніж якщо б цього обмеження не було, і вони розташовувалися на всій площині. Дійсно для двох незалежних випадкових величин з математичними очікуваннями E 1 =50, E 2 =50, сума їх реалізацій не повинна бути завжди рівною 100 – допустимими були б, наприклад, значення O 1 =60, O 2 =55.

Пояснення. Порівняємо результат, критерію Пірсона при M =2 з тим, що дає формула Муавра Лапласа при оцінці випадкових коливань частоти появи події ν =K /N, що має ймовірність p в серії N незалежних випробувань Бернуллі (K -число успіхів):

χ 2 n =1 = S(O i -E i ) 2 /E i = (O 1 -E 1) 2 /E 1 + (O 2 -E 2) 2 /E 2 = (Nν -Np ) 2 /(Np ) + (N ( 1-ν )-N (1-p )) 2 /(N (1-p ))=

=(Nν-Np) 2 (1/p + 1/(1-p))/N=(Nν-Np) 2 /(Np(1-p))=((K-Np)/(Npq) ½ ) 2 = T 2

Розмір T =(K -Np )/(Npq ) ½ = (K -m (K ))/σ(K ) ≈N (0,1) при σ(K )=(Npq ) ½ ≥3. Ми бачимо, що в цьому випадку результат Пірсона точно збігається з тим, що дає застосування нормальної апроксимації для біномного розподілу.

Досі розглядали прості гіпотези, котрим очікувані середні частоти E i повністю відомі заздалегідь. Про те, як правильно вибирати число ступенів свободи для складних гіпотез див. нижче.

Застосування хі-квадрату критерію для перевірки складних гіпотез

У прикладах з правильною гральною кісткою та монетою очікувані частоти можна було визначити до(!) проведення досвіду. Подібні гіпотези називаються "простими". Насправді частіше зустрічаються “складні гіпотези”. При цьому для того, щоб знайти очікувані частоти E i треба заздалегідь оцінити одну або декілька величин (параметри моделі), і зробити це можна тільки, скориставшись даними досвіду. В результаті для “складних гіпотез” очікувані частоти E i виявляються залежать від частот O i і тому самі стають випадковими величинами, що змінюються в залежності від результатів досвіду. У процесі підбору параметрів відстань Пірсона зменшується – параметри підбираються так, щоб покращити згоду моделі та досвіду. Тому кількість ступенів свободи має зменшуватись.

Як оцінити параметри моделі? Є багато різних способів оцінки - "метод максимальної правдоподібності", "метод моментів", "метод підстановки". Однак, можна не залучати ніяких додаткових засобів і знайти оцінки параметрів мінімізуючи відстань Пірсона. У докомп'ютерну епоху такий підхід використовувався рідко: приручних розрахунках він незручний і, як правило, не піддається аналітичному рішенню. При розрахунках на комп'ютері чисельна мінімізація зазвичай легко здійснюється, а перевагою такого способу його універсальність. Отже, згідно з “методом мінімізації хі-квадрат”, ми підбираємо значення невідомих параметрів так, щоб відстань Пірсона стала найменшою. (До речі, вивчаючи зміни цієї відстані при невеликих зсувах щодо знайденого мінімуму можна оцінити міру точності оцінки: побудувати довірчі інтервали.) Після того як параметри і сама ця мінімальна відстань знайдена знову потрібно відповісти на питання чи мало вона мало.

Загальна послідовність дій така:

  1. Вибір моделі (гіпотези H0).
  2. Вибір розрядів і визначення вектора частот O i , що спостерігаються.
  3. Оцінка невідомих параметрів моделі та побудова для них довірчих інтервалів (наприклад, пошук мінімуму відстані Пірсона).
  4. Обчислення очікуваних частот E i.
  5. Порівняння знайденої величини відстані Пірсона X 2 з критичним значенням хі-квадрат χ 2 крит - найбільшим, яке ще розглядається як правдоподібне, сумісне з H 0 . Величину, 2 крит ми знаходимо з таблиць, вирішуючи рівняння

P (χ 2 n > χ 2 крит)=1-α,

де α – “рівень значущості” чи ”розмір критерію” чи “величина помилки першого роду” (типове значення α=0.05).

Зазвичай число ступенів свободи n обчислюють за формулою

n = (кількість розрядів) – 1 – (кількість оцінюваних параметрів)

Якщо X 2 > χ 2 критий, то гіпотеза H 0 відкидається, інакше приймається. У α∙100% випадків (тобто досить рідко) такий спосіб перевірки H 0 призведе до помилки першого роду: гіпотеза H 0 буде відкинута помилково.

приклад.При дослідженні 10 серій зі 100 насінин підраховувалося число заражених мухою-зеленоокою. Отримані дані: O i = (16, 18, 11, 18, 21, 10, 20, 18, 17, 21);

Тут невідомий заздалегідь вектор очікуваних частот. Якщо дані однорідні та отримані для біномного розподілу, то невідомий один параметр частка p зараженого насіння. Зауважимо, що у вихідній таблиці фактично є не 10 а 20 частот, що задовольняють 10 зв'язків: 16+84=100, … 21+79=100.

X 2 = (16-100p) 2 /100p +(84-100(1-p)) 2 /(100(1-p))+…+

(21-100p) 2 /100p +(79-100(1-p)) 2 /(100(1-p))

Поєднуючи складові в пари (як у прикладі з монетою), отримуємо ту форму запису критерію Пірсона, яку зазвичай пишуть відразу:

X 2 = (16-100p) 2 / (100p (1-p)) + ... + (21-100p) 2 / (100p (1-p)).

Тепер якщо як метод оцінки р використовувати мінімум відстані Пірсона, необхідно знайти таке p , у якому X 2 =min . (Модель намагається по можливості "підлаштуватися" під дані експерименту.)

Критерій Пірсона - це найбільш універсальний з усіх, що використовуються в статистиці. Його можна застосовувати до одновимірних та багатовимірних даних, кількісних та якісних ознак. Однак саме через універсальність слід бути обережним, щоб не помилитися.

Важливі моменти

1.Вибір розрядів.

  • Якщо розподіл дискретний, то свавілля у виборі розрядів зазвичай немає.
  • Якщо розподіл безперервний, то свавілля неминуче. Можна використовувати статистично еквівалентні блоки (усі O однакові, наприклад, =10). У цьому довжини інтервалів різні. За ручних обчислень прагнули робити інтервали однаковими. Чи мають інтервали щодо розподілу одновимірної ознаки бути рівними? Ні.
  • Об'єднувати розряди потрібно так, щоб не надто малими (≥5) виявлялися саме очікувані (а не спостерігаються!) частоти. Нагадаємо, що саме вони (E i ) стоять у знаменниках при обчисленні X 2! При аналізі одновимірних ознак допускається порушувати це у двох крайніх розрядах E 1 =E max =1. Якщо число розрядів велике, і очікувані частоти близькі, то X 2 добре наближається 2 навіть для E i =2.

Оцінка параметрів. Використання "самодельних", неефективних методів оцінки може призвести до підвищених значень відстані Пірсона.

Вибір правильного числа ступенів свободи. Якщо оцінки параметрів робляться за частотами, а безпосередньо за даними (наприклад, як оцінки середнього береться середнє арифметичне), то точне число ступенів свободи n невідомо. Відомо лише, що вона задовольняє нерівності:

(кількість розрядів – 1 – число оцінюваних параметрів)< n < (число разрядов – 1)

Тому необхідно порівняти X 2 з критичними значеннями 2 критий обчисленими у всьому цьому діапазоні n .

Як інтерпретувати неправдоподібно малі значення хі-квадрат?Чи слід вважати монету симетричною, якщо за 10000 кидань, вона 5000 разів випала гербом? Раніше багато статистики вважали, що H 0 також слід відкинути. Тепер пропонується інший підхід: прийняти H 0 але піддати дані і методику їх аналізу додаткової перевірки. Є дві можливості: або замала відстань Пірсона означає, що збільшення числа параметрів моделі не супроводжувалося належним зменшенням числа ступенів свободи, або самі дані були сфальсифіковані (можливо ненавмисно підігнані під очікуваний результат).

приклад.Два дослідники А та B підраховували частку рецесивних гомозигот aa у другому поколінні при моногібридному схрещуванні AA*aa. Відповідно до законів Менделя ця частка дорівнює 0.25. Кожен дослідник провів по 5 дослідів, і у кожному досліді вивчалося 100 організмів.

Результати А: 25, 24, 26, 25, 24. Висновок дослідника: закон Менделя справедлив(?).

Результати B: 29, 21, 23, 30, 19. Висновок дослідника: закон Менделя не справедливий (?).

Однак закон Менделя має статистичну природу і кількісний аналіз результатів змінює висновки на зворотні! Об'єднавши п'ять дослідів в один, ми приходимо до хі-квадрат розподілу з 5 ступенями свободи (перевіряється проста гіпотеза):

X 2 A = ((25-25) 2 +(24-25) 2 +(26-25) 2 +(25-25) 2 +(24-25) 2)/(100∙0.25∙0.75)=0.16

X 2 B = ((29-25) 2 +(21-25) 2 +(23-25) 2 +(30-25) 2 +(19-25) 2)/(100∙0.25∙0.75)=5.17

Середнє значення m [χ 2 n =5 ]=5, середньоквадратичне відхилення σ[χ 2 n =5 ]=(2∙5) 1/2 =3.2.

Тому без звернення до таблиць ясно, що значення X2B типове, а значення X2A неправдоподібно мало. Згідно з таблицями P (χ 2 n =5<0.16)<0.0001.

Цей приклад – адаптований варіант справжнього випадку, що стався 1930-ті роки (див. роботу Колмогорова “Про ще один доказ законів Менделя”). Цікаво, що дослідник A був прихильником генетики, а дослідник B – її супротивником.

Плутанина в позначеннях.Слід розрізняти відстань Пірсона, яка при своєму обчисленні потребує додаткових угод, від математичного поняття випадкової величини хі-квадрат. Відстань Пірсона за певних умов має розподіл близький до хі-квадрату з n ступенями свободи. Тому бажано НЕ позначати відстань Пірсона символом 2 n , а використовувати схоже, але інше позначення X 2. .

Критерій Пірсона не всесильний.Існує безліч альтернатив для H 0 , які він не в змозі врахувати. Нехай ви перевіряєте гіпотезу про те, що ознака мала рівномірний розподіл, у вас є 10 розрядів і вектор частот, що спостерігаються, дорівнює (130,125,121,118,116,115,114,113,111,110). Критерій Пірсона не c може “помітити” те, що частоти монотонно зменшуються і H 0 буде відхилена. Якби його доповнити критерієм серій, то так!

Міністерство освіти та науки Російської Федерації

Федеральне агентство з освіти міста Іркутська

Байкальський державний університет економіки та права

Кафедра Інформатики та Кібернетики

Розподіл "хі-квадрат" та його застосування

Колмикова Ганна Андріївна

студентка 2 курсу

групи ІС-09-1

Для обробки отриманих даних використовуємо критерій хі-квадрат.

І тому побудуємо таблицю розподілу емпіричних частот, тобто. тих частот, які ми спостерігаємо:

Теоретично, ми очікуємо, що частоти розподіляться рівноймовірно, тобто. частота розподілиться пропорційно між хлопчиками та дівчатками. Побудуємо таблицю теоретичних частот. Для цього помножимо суму по рядку на суму по стовпцю і розділимо число, що вийшло, на загальну суму (s).


Підсумкова таблиця для обчислень виглядатиме так:

χ2 = ∑(Е - Т)² / Т

n = (R - 1), де R – кількість рядків у таблиці.

У нашому випадку хі-квадрат = 4,21; n = 2.

За таблицею критичних значень критерію знаходимо: при n = 2 та рівні помилки 0,05 критичне значення χ2 = 5,99.

Отримане значення менше критичного, а отже, приймається нульова гіпотеза.

Висновок: вчителі не надають значення стать дитини при написанні їй характеристики.

додаток

Критичні точки розподілу χ2

Таблиця 1

Висновок

Студенти багатьох спеціальностей вивчають в кінці курсу вищої математики розділ "теорія ймовірностей і математична статистика", реально вони знайомляться лише з деякими основними поняттями та результатами, яких явно мало для практичної роботи. З деякими математичними методами дослідження студенти зустрічаються у спеціальних курсах (наприклад, таких як "Прогнозування та техніко-економічне планування", "Техніко-економічний аналіз", "Контроль якості продукції", "Маркетинг", "Контролінг", "Математичні методи прогнозування ", "Статистика" та ін. – у випадку студентів економічних спеціальностей), проте виклад у більшості випадків носить дуже скорочений та рецептурний характер. В результаті знань у фахівців із прикладної статистики недостатньо.

Тому велике значення має курс "Прикладна статистика" у технічних вишах, а в економічних вишах – курсу "Економетрика", оскільки економетрика – це, як відомо, статистичний аналіз конкретних економічних даних.

Теорія ймовірності та математична статистика дають фундаментальні знання для прикладної статистики та економетрики.

Вони потрібні фахівцям для практичної роботи.

Я розглянула безперервну ймовірнісну модель і постаралася на прикладах показати її використання.

Список використаної літератури

1. Орлов А.І. Прикладна статистика М: Видавництво "Іспит", 2004.

2. Гмурман В.Є. Теорія ймовірностей та математична статистика. М.: Вища школа, 1999. - 479с.

3. Айвозян С.А. Теорія ймовірностей та прикладна статистика, т.1. М.: Юніті, 2001. - 656с.

4. Хамітов Г.П., Ведернікова Т.І. Імовірності та статистика. Іркутськ: БДУЕП, 2006 - 272с.

5. Єжова Л.М. Економетрики. Іркутськ: БДУЕП, 2002. - 314с.

6. Мостеллер Ф. П'ятдесят цікавих ймовірнісних завдань із рішеннями. М.: Наука, 1975. - 111с.

7. Мостеллер Ф. Імовірність. М.: Світ, 1969. - 428с.

8. Яглом А.М. Можливість та інформація. М.: Наука, 1973. - 511с.

9. Чистяков В.П. Курс теорії ймовірностей. М.: Наука, 1982. - 256с.

10. Кремер Н.Ш. Теорія ймовірностей та математична статистика. М.: ЮНІТІ, 2000. - 543с.

11. Математична енциклопедія, т.1. М.: Радянська енциклопедія, 1976. - 655с.

12. http://psystat.at.ua/ - Статистика в психології та педагогіці. Критерій Хі-квадрат.

Критерій χ 2 Пірсона – це непараметричний метод, який дозволяє оцінити значущість відмінностей між фактичною (виявленою в результаті дослідження) кількістю результатів або якісних характеристик вибірки, що потрапляють у кожну категорію, та теоретичною кількістю, яку можна очікувати в групах, що вивчаються, за справедливості нульової гіпотези. Висловлюючись простіше, метод дозволяє оцінити статистичну значущість відмінностей двох чи кількох відносних показників (частот, часток).

1. Історія розробки критерію χ 2

Критерій хі-квадрат для аналізу таблиць сполученості був розроблений та запропонований у 1900 році англійським математиком, статистиком, біологом та філософом, засновником математичної статистики та одним із основоположників біометрики Карлом Пірсоном(1857-1936).

2. Для чого використовується критерій 2 Пірсона?

Критерій хі-квадрат може застосовуватися під час аналізу таблиць сполученості, що містять відомості про частоту наслідків залежно від наявності фактора ризику. Наприклад, чотирипільна таблиця сполученостівиглядає наступним чином:

Вихід є (1) Виходу немає (0) Усього
Чинник ризику є (1) A B A + B
Чинник ризику відсутній (0) C D C+D
Усього A + C B + D A+B+C+D

Як заповнити таку таблицю поєднання? Розглянемо невеликий приклад.

Проводиться дослідження впливу куріння на ризик розвитку гіпертонії. Для цього було відібрано дві групи досліджуваних – до першої увійшли 70 осіб, які щодня викурюють не менше 1 пачки цигарок, у другу – 80 некурців такого ж віку. У першій групі у 40 осіб відзначався підвищений артеріальний тиск. У другій – артеріальна гіпертонія спостерігалася у 32 осіб. Відповідно, нормальний артеріальний тиск у групі курців був у 30 осіб (70 – 40 = 30) а у групі некурців – у 48 (80 – 32 = 48).

Заповнюємо вихідними даними чотирипільну таблицю сполученості:

В отриманій таблиці спряженості кожен рядок відповідає певній групі досліджуваних. Стовпці - показують кількість осіб із артеріальною гіпертонією чи з нормальним артеріальним тиском.

Завдання, яке ставиться перед дослідником: чи є статистично значущі відмінності між частотою осіб з артеріальним тиском серед курців та некурців? Відповісти на це питання можна, розрахувавши критерій хі-квадрат Пірсона і порівнявши значення, що вийшло, з критичним.

3. Умови та обмеження застосування критерію хі-квадрат Пірсона

  1. Порівняні показники повинні бути виміряні в номінальної шкали(наприклад, стать пацієнта - чоловіча або жіноча) або в порядковий(наприклад, ступінь артеріальної гіпертензії, що набуває значення від 0 до 3).
  2. Даний метод дозволяє проводити аналіз не тільки чотирипольних таблиць, коли і фактор, і результат є бінарними змінними, тобто мають лише два можливі значення (наприклад, чоловіча або жіноча стать, наявність або відсутність певного захворювання в анамнезі...). Критерій хі-квадрат Пірсона може застосовуватися і у разі аналізу багатопольних таблиць, коли фактор та (або) результат приймають три і більше значень.
  3. Порівнювані групи повинні бути незалежними, тобто критерій хі-квадрат не повинен застосовуватися при порівнянні спостережень "до" після. У цих випадках проводиться тест Мак-Немара(при порівнянні двох пов'язаних сукупностей) або розраховується Q-критерій Кохрена(у разі порівняння трьох та більше груп).
  4. При аналізі чотирипольних таблиць очікувані значенняу кожному із осередків мають бути не менше 10. У тому випадку, якщо хоча б в одному осередку очікуване явище набуває значення від 5 до 9, критерій хі-квадрат повинен розраховуватися з поправкою Йейтса. Якщо хоча в одному осередку очікуване явище менше 5, то для аналізу повинен використовуватися точний критерій Фішера.
  5. У разі аналізу багатопільних таблиць очікуване число спостережень має приймати значення менше 5 більш ніж 20% осередків.

4. Як розрахувати критерій хі-квадрат Пірсона?

Для розрахунку критерію хі-квадрату необхідно:

Даний алгоритм застосовується як для чотирипільних, так і для багатопольних таблиць.

5. Як інтерпретувати значення критерію хі-квадрат Пірсона?

У тому випадку, якщо отримане значення критерію χ 2 більше критичного, робимо висновок про наявність статистичного взаємозв'язку між фактором ризику, що вивчається, і результатом при відповідному рівні значущості.

6. Приклад розрахунку критерію хі-квадрат Пірсона

Визначимо статистичну значущість впливу фактора куріння на частоту випадків артеріальної гіпертонії за розглянутою вище таблицею:

  1. Розраховуємо очікувані значення для кожного осередку:
  2. Знаходимо значення критерію хі-квадрат Пірсона:

    χ 2 = (40-33.6) 2 / 33.6 + (30-36.4) 2 / 36.4 + (32-38.4) 2 / 38.4 + (48-41.6) 2 / 41.6 = 4.396.

  3. Число ступенів свободи f = (2-1) * (2-1) = 1. Знаходимо по таблиці критичне значення критерію хі-квадрат Пірсона, яке при рівні значущості p = 0.05 та числі ступенів свободи 1 становить 3.841.
  4. Порівнюємо отримане значення критерію хі-квадрат із критичним: 4.396 > 3.841, отже залежність частоти випадків артеріальної гіпертонії від наявності куріння – статистично значуща. Рівень значимості цього взаємозв'язку відповідає p<0.05.

До кінця XIX століття нормальний розподіл вважався загальним законом варіації даних. Однак Пірсон зауважив, що емпіричні частоти можуть сильно відрізнятися від нормального розподілу. Постало питання, як це довести. Потрібно як графічне зіставлення, що має суб'єктивний характер, а й суворе кількісне обгрунтування.

Так було винайдено критерій χ 2(Хі-квадрат), який перевіряє значущість розходження емпіричних (спостерігаються) і теоретичних (очікуваних) частот. Це сталося далекого 1900 року, проте критерій і сьогодні на ходу. Понад те, його пристосували на вирішення кола завдань. Насамперед, це аналіз номінальних даних, тобто. таких, що виражаються не кількістю, а приналежністю до якоїсь категорії. Наприклад, клас автомобіля, стать учасника експерименту, вид рослини і т.д. До таких даних не можна застосовувати математичні операції на кшталт складання і множення, їм можна лише підрахувати частоти.

Частоти, що спостерігаються, позначимо Про (Observed), очікувані – E (Expected). Як приклад візьмемо результат 60-кратного кидання гральної кістки. Якщо вона симетрична та однорідна, ймовірність випадання будь-якої сторони дорівнює 1/6 і, отже, очікувана кількість випадання кожної зі сторін дорівнює 10 (1/6∙60). Спостережувані та очікувані частоти запишемо в таблицю і намалюємо гістограму.

Нульова гіпотеза у тому, що частоти узгоджені, тобто фактичні дані суперечать очікуваним. Альтернативна гіпотеза - відхилення в частотах виходять за рамки випадкових коливань, тобто розбіжності статистично значущі. Щоб зробити суворий висновок, нам буде потрібно.

  1. Узагальнююча міра розбіжності між спостережуваними та очікуваними частотами.
  2. Розподіл цього заходу за справедливості гіпотези у тому, що відмінностей немає.

Почнемо з відстані між частотами. Якщо взяти просто різницю Про - E, то такий захід залежатиме від масштабу даних (частот). Наприклад, 20 - 5 = 15 і 1020 - 1005 = 15. В обох випадках різниця становить 15. Але в першому випадку очікувані частоти в 3 рази менше спостерігаються, а в другому випадку - лише на 1,5%. Потрібна відносна міра, яка залежить від масштабу.

Звернімо увагу на такі факти. У загальному випадку кількість градацій, якими вимірюються частоти, може бути набагато більшою, тому ймовірність того, що окремо взяте спостереження потрапить в ту чи іншу категорію, досить мала. Якщо так, то, розподіл такої випадкової величини буде підкорятися закону рідкісних подій, відомому під назвою закон Пуассона. У законі Пуассона, як відомо, значення математичного очікування та дисперсії збігаються (параметр λ ). Значить очікувана частота для певної категорії номінальної змінної E iбуде одночасне та її дисперсією. Далі, закон Пуассона за великої кількості спостережень прагне нормального. Поєднуючи ці два факти, отримуємо, що, якщо гіпотеза про згоду спостеріганих та очікуваних частот вірна, то, при великій кількості спостережень, вираз

Буде мати .

Важливо пам'ятати, що нормальність виявлятиметься лише за досить великих частотах. У статистиці прийнято вважати, що загальна кількість спостережень (сума частот) повинна бути не менше 50 і очікувана частота в кожній градації повинна бути не менше 5. Тільки в цьому випадку величина, показана вище, матиме стандартний нормальний розподіл. Припустимо, що ця умова виконана.

У стандартного нормального розподілу майже всі значення перебувають у межах ±3 (правило трьох сигм). Таким чином, ми отримали відносну різницю в частотах однієї градації. Нам потрібний узагальнюючий захід. Просто скласти всі відхилення не можна – отримаємо 0 (здогадайтеся чому). Пірсон запропонував скласти квадрати цих відхилень.

Це і є знамень критерій χ 2Пірсона. Якщо частоти дійсно відповідають очікуваним, то значення критерію буде відносно невеликим (бо більшість відхилень знаходиться близько нуля). Але якщо критерій виявляється великим, це свідчить на користь істотних відмінностей між частотами.

«Великим» критерій стає тоді, коли поява такого чи ще більшого значення стає малоймовірною. І щоб розрахувати таку ймовірність, необхідно знати розподіл критерію при багаторазовому повторенні експерименту, коли гіпотеза про згоду частот є вірною.

Як неважко помітити, величина хі-квадрат також залежить від кількості доданків. Чим їх більше, тим більше значення має бути в критерію, адже кожен доданок зробить свій внесок у загальну суму. Отже, для кожної кількості незалежнихдоданків, буде власний розподіл. Виходить що χ 2- Це ціле сімейство розподілів.

І тут ми підійшли до одного делікатного моменту. Що таке число незалежнихдоданків? Начебто будь-яке доданок (тобто відхилення) незалежно. К. Пірсон теж так думав, але виявився неправий. Насправді кількість незалежних доданків буде на одну меншу, ніж кількість градацій номінальної змінної n. Чому? Тому що, якщо ми маємо вибірку, за якою вже пораховано суму частот, то одну з частот завжди можна визначити, як різниця загальної кількості та сумою всіх інших. Звідси й варіація буде дещо меншою. Цей факт Рональд Фішер помітив років через 20 після розробки Пірсоном свого критерію. Навіть таблиці довелося переробляти.

З цього приводу Фішер увів у статистику нове поняття – ступінь свободи(degrees of freedom), яке і є кількістю незалежних доданків у сумі. Поняття ступенів свободи має математичне пояснення і проявляється лише у розподілах, пов'язаних із нормальним (Стьюдента, Фішера-Снедекора та сам хі-квадрат).

Щоб краще вловити зміст ступенів свободи, звернемося до фізичного аналога. Представимо точку, що вільно рухається в просторі. Вона має три ступені свободи, т.к. може переміщатися у напрямі тривимірного простору. Якщо точка рухається будь-якої поверхні, то вона вже два ступені свободи (вперед-назад, вправо-влево), хоча й продовжує перебувати в тривимірному просторі. Крапка, що переміщається пружиною, знову перебуває в тривимірному просторі, але має лише один ступінь свободи, т.к. може рухатися або вперед або назад. Як видно, простір, де знаходиться об'єкт, не завжди відповідає реальній свободі переміщення.

Приблизно також розподіл статистичного критерію може залежати від меншої кількості елементів, ніж потрібно доданків щодо його розрахунку. У загальному випадку кількість ступенів свободи менша за спостереження на кількість наявних залежностей. Це чиста математика, жодної магії.

Таким чином, розподіл χ 2– це сімейство розподілів, кожен із яких залежить від параметра ступенів свободи. А формальне визначення критерію хі-квадрату наступне. Розподіл χ 2(хі-квадрат) з kступенями свободи – це розподіл суми квадратів kнезалежні стандартні нормальні випадкові величини.

Далі можна було б перейти до самої формули, за якою обчислюється функція розподілу хі-квадрат, але, на щастя, давно підраховано за нас. Щоб отримати ймовірність, що цікавить, можна скористатися або відповідною статистичною таблицею, або готовою функцією в спеціалізованому ПЗ, яка є навіть в Excel.

Цікаво подивитися, як змінюється форма розподілу хі-квадрату залежно від кількості ступенів свободи.

Зі збільшенням ступенів свободи розподіл хі-квадрату прагне до нормального. Це пояснюється дією центральної граничної теореми, за якою сума великої кількості незалежних випадкових величин має нормальний розподіл. Про квадрати там нічого не сказано)).

Перевірка гіпотези за критерієм хі-квадрат

Ось ми і підійшли до перевірки гіпотез методом хі-квадрат. Загалом техніка залишається. Висувається нульова гіпотеза про те, що частоти, що спостерігаються, відповідають очікуваним (тобто між ними немає різниці, тому що вони взяті з тієї ж генеральної сукупності). Якщо це так, то розкид буде відносно невеликим, у межах випадкових коливань. Міру розкиду визначають за критерієм хі-квадрат. Далі або сам критерій порівнюють із критичним значенням (для відповідного рівня значущості та ступенів свободи), або, що правильніше, розраховують p-level, тобто. можливість отримати таке чи ще більше значення критерію при справедливості нульової гіпотези.

Т.к. нас цікавить згоду частот, то відхилення гіпотези відбудеться, коли критерій виявиться більшим за критичний рівень. Тобто. критерій є одностороннім. Однак іноді (іноді) потрібно перевірити лівосторонню гіпотезу. Наприклад, коли емпіричні дані дуже сильно схожі на теоретичні. Тоді критерій може потрапити до малоймовірної області, але вже ліворуч. Справа в тому, що в природних умовах малоймовірно отримати частоти, що практично збігаються з теоретичними. Завжди є певна випадковість, яка дає похибку. А якщо такої похибки немає, то, можливо, дані були сфальсифіковані. Але все ж таки зазвичай перевіряють правосторонню гіпотезу.

Повернемося до завдання із гральним кубиком. Розрахуємо за наявними даними значення критерію хі-квадрат.

Тепер знайдемо табличне значення критерію при 5-ти ступенях свободи ( k) та рівні значимості 0,05 ( α ).

Тобто χ 2 0,05; 5 = 11,1.

Порівняємо фактичне та табличне значення. 3,4 ( χ 2) < 11,1 (χ 2 0,05; 5). Розрахунковий критерій виявився меншим, отже, гіпотеза про рівність (згоду) частот не відхиляється. На малюнку ситуація виглядає так.

Якби розрахункове значення потрапило до критичної області, то нульова гіпотеза була б відхилена.

Правильнішим буде розрахувати ще й p-level. Для цього потрібно в таблиці знайти найближче значення для заданої кількості ступенів свободи та подивитися відповідний йому рівень значущості. Але це минуле століття. Скористаємося ПЕОМ, зокрема MS Excel. У екселі є кілька функцій, пов'язаних з хі-квадрат.

Нижче їх короткий опис.

ХІ2.ОБР- Критичне значення критерію при заданій ймовірності зліва (як у статистичних таблицях)

ХІ2.ОБР.ПХ- Критичне значення критерію при заданій ймовірності праворуч. Функція, по суті, дублює попередню. Але тут можна одразу вказувати рівень α , а чи не віднімати його з 1. Це зручніше, т.к. Найчастіше потрібен саме правий хвіст розподілу.

ХІ2.РАСП- p-level зліва (можна розрахувати густину).

ХІ2.РАСП.ПХ- p-level праворуч.

ХІ2.ТЕСТ– за двома заданими діапазонами частот відразу проводить тест хі-квадрат. Кількість ступенів свободи береться на одну менше, ніж кількість частот у стовпці (так і має бути), повертаючи значення p-level.

Давайте поки що розрахуємо для нашого експерименту критичне (табличне) значення для 5-ти ступенів свободи та альфа 0,05. Формула Excel виглядатиме так:

ХІ2.ОБР(0,95;5)

ХІ2.ОБР.ПХ(0,05;5)

Результат буде однаковим – 11,0705. Саме це значення бачимо в таблиці (округлене до 1 знака після коми).

Розрахуємо, нарешті, p-level для 5-ти ступенів свободи критерію χ 2= 3,4. Потрібна ймовірність праворуч, тому беремо функцію з добавкою ПХ (правий хвіст)

ХІ2.РАСП.ПХ(3,4;5) = 0,63857

Значить, при 5-ти ступенях свободи ймовірність отримати значення критерію χ 2= 3,4 і більше дорівнює майже 64%. Звичайно, гіпотеза не відхиляється (p-level більше 5%), частоти дуже добре узгоджуються.

А тепер перевіримо гіпотезу про згоду частот за допомогою функції ХІ2.

Жодних таблиць, жодних громіздких розрахунків. Вказавши як аргументи функції стовпці з частотами, що спостерігаються і очікуваними, відразу отримуємо p-level. Краса.

Уявімо тепер, що ви граєте в кістки з підозрілим типом. Розподіл очок від 1 до 5 залишається тим самим, але він викидає 26 шісток (кількість всіх кидків стає 78).

P-level у цьому випадку виявляється 0,003, що набагато менше ніж 0,05. Є серйозні підстави сумніватися у правильності гральної кістки. Ось, як виглядає ця можливість на діаграмі розподілу хі-квадрат.

Сам критерій хі-квадрату тут виходить 17,8, що, природно, більше табличного (11,1).

Сподіваюся, мені вдалося пояснити, що таке критерій згоди χ 2(Хі-квадрат) Пірсона і як з його допомогою перевіряються статистичні гіпотези.

Насамкінець ще раз про важливу умову! Критерій хі-квадрат справно працює тільки у випадку, коли кількість всіх частот перевищує 50, а мінімальне очікуване значення для кожної градації не менше 5. Якщо в будь-якій категорії очікувана частота менше 5, але при цьому сума всіх частот перевищує 50, то таку категорію об'єднують з найближчою, щоб їх загальна часто перевищила 5. Якщо це зробити неможливо, або сума частот менше 50, слід використовувати більш точні методи перевірки гіпотез. Про них поговоримо іншим разом.

Нижче міститься відео ролик про те, як в Excel перевірити гіпотезу за допомогою критерію хі-квадрат.



Схожі статті

2024 parki48.ru. Будуємо каркасний будинок. Ландшафтний дизайн. Будівництво. Фундамент.