Статистично достовірними із даних показників є. Статистична значимість: визначення, поняття, значущість, рівняння регресії та перевірка гіпотез

Основні риси будь-якої залежності між змінними.

Можна відзначити два найбільш простих властивостейзалежності між змінними: (a) величина залежності та (b) надійність залежності.

- Величина . Величину залежності легше зрозуміти та виміряти, ніж надійність. Наприклад, якщо будь-який чоловік у вибірці мав значення числа лейкоцитів (WCC) вище ніж будь-яка жінка, ви можете сказати, що залежність між двома змінними (Пол і WCC) дуже висока. Іншими словами, ви могли б передбачити значення однієї змінної за значеннями іншої.

- Надійність ("Істинність"). Надійність взаємозалежності – менш наочне поняття, ніж величина залежності, проте надзвичайно важливе. Надійність залежності безпосередньо пов'язана з репрезентативністю певної вибірки, з урахуванням якої будуються висновки. Іншими словами, надійність говорить про те, наскільки ймовірно, що залежність буде знову виявлена ​​(іншими словами, підтвердиться) на даних іншої вибірки, витягнутої з тієї самої популяції.

Слід пам'ятати, що кінцевою метоюмайже ніколи не є вивчення даної конкретної вибірки значень; вибірка представляє інтерес лише доти, оскільки вона дає інформацію про всю популяцію. Якщо дослідження задовольняє деяким спеціальним критеріям, то надійність знайдених залежностей між змінними вибірками можна кількісно оцінити та подати за допомогою стандартного статистичного заходу.

Величина залежності та надійність представляють дві різні характеристикизалежностей між змінними. Проте не можна сказати, що вони абсолютно незалежні. Чим більша величина залежності (зв'язку) між змінними у вибірці звичайного обсягу, тим більше вона надійна (див. наступний розділ).

Статистична значимістьрезультату (p-рівень) є оцінену міру впевненості у його " істинності " (у сенсі " репрезентативності вибірки " ). Висловлюючись технічніше, p-рівень - це показник, що знаходиться в спадній залежності від надійності результату. Більше високий p-рівеньвідповідає нижчому рівню довіри до знайденої у вибірці залежності між змінними. Саме p-рівень є ймовірністю помилки, пов'язаної з поширенням спостережуваного результату на всю популяцію.

Наприклад, p-рівень = 0.05(Тобто 1/20) показує, що є 5% ймовірність, що знайдена у вибірці зв'язок між змінними є лише випадковою особливістю даної вибірки. У багатьох дослідженнях p-рівень 0.05 сприймається як " прийнятна межа " рівня помилки.

Не існує ніякого способу уникнути свавілля після ухвалення рішення про те, який рівень значущості слід дійсно вважати "значущим". Вибір певного рівня значимості, вище якого результати відкидаються як хибні, досить довільним.



На практиці остаточне рішеннязазвичай залежить від того, чи був результат передбачений апріорі (тобто до проведення досвіду) або виявлено апостеріорно в результаті багатьох аналізів і порівнянь, виконаних з безліччю даних, а також на традиції, що є в даній галузі досліджень.

Зазвичай у багатьох областях результат p .05 є прийнятною межею статистичної значущості, проте слід пам'ятати, що цей рівень все ще включає ймовірність помилки (5%).

Результати, значущі лише на рівні p .01 зазвичай розглядаються як статистично значущі, а результати з рівнем p .005 чи p . 001 як значні. Однак слід розуміти, що дана класифікація рівнів значущості досить довільна і є лише неформальною угодою, прийнятою на основі практичного досвіду у тій чи іншій галузі дослідження.

Зрозуміло, що чим більше аналізів буде проведено із сукупністю зібраних даних, тим більше значущих (на обраному рівні) результатів буде виявлено суто випадково.

Деякі статистичні методи, що включають багато порівнянь, і, таким чином, мають значний шанс повторити такі помилки, роблять спеціальне коригування або поправку на загальне числопорівнянь. Тим не менш, багато статистичних методів (особливо прості методирозвідувального аналізу даних) не пропонують будь-якого способу вирішення цієї проблеми.

Якщо зв'язок між змінними "об'єктивно" слабка, то немає іншого способу перевірити таку залежність, крім дослідити вибірку великого обсягу. Навіть якщо вибірка є абсолютно репрезентативною, ефект не буде статистично значущим, якщо вибірка мала. Аналогічно, якщо залежність "об'єктивно" дуже сильна, тоді вона може бути знайдена з високим ступенем значущості навіть на дуже маленькій вибірці.

Чим слабкіша залежність між змінними, тим більшого обсягу потрібна вибірка, щоб значуще її виявити.

Розроблено багато різних заходів взаємозв'язку між змінними. Вибір певної міри у конкретному дослідженні залежить від кількості змінних, використовуваних шкал виміру, природи залежностей тощо.

Більшість цих заходів, проте, підкоряються загальному принципу: вони намагаються оцінити залежність, що спостерігається, порівнюючи її з "максимальною мислимою залежністю" між аналізованими змінними. Технічно кажучи, звичайний спосіб виконати такі оцінки полягає в тому, щоб подивитися, як варіюються значення змінних і потім підрахувати, яку частину всієї наявної варіації можна пояснити наявністю "спільної" ("спільної") варіації двох (або більше) змінних.

Значимість залежить переважно від обсягу вибірки. Як уже пояснювалося, у дуже великих вибірках навіть дуже слабкі залежності між змінними будуть значущими, тоді як у малих вибірках навіть дуже сильні залежності не є надійними.

Таким чином, щоб визначити рівень статистичної значущості, потрібна функція, яка представляла б залежність між "величиною" і "значимістю" залежності між змінними для кожного обсягу вибірки.

Така функція вказала б точно "наскільки можливо отримати залежність даної величини (або більше) у вибірці даного обсягу, припущення, що в популяції такої залежності немає". Іншими словами, ця функція давала б рівень значущості
(p -рівень), і, отже, можливість помилково відхилити припущення про відсутність цієї залежності у популяції.

Ця "альтернативна" гіпотеза (що полягає в тому, що немає залежності у популяції) зазвичай називається нульовою гіпотезою.

Було б ідеально, якби функція, яка обчислює ймовірність помилки, була лінійною і мала лише різні нахили для різних обсягів вибірки. На жаль, ця функція значно складніша і не завжди точно одна і та ж. Проте, здебільшого її форма відома, і її можна використовувати визначення рівнів значимості щодо вибірок заданого розміру. Більшість цих функцій пов'язані з класом розподілів, що називаються нормальним .

Завданням статистичного дослідження є виявлення закономірностей, що у природі досліджуваних явищ. Показники та середні величини мають бути відображенням дійсності, для чого необхідно визначати ступінь їх достовірності. Правильне відображення вибірковою сукупністю генеральної сукупності називається репрезентативністю . Мірою точності та достовірності вибіркових статистичних величин є середні помилки представницькості (репрезентативності), які залежать від чисельності вибірки та ступеня різноманітності вибіркової сукупності за досліджуваною ознакою.

Тому для визначення ступеня достовірності результатів статистичного дослідження необхідно для кожної відносної та середньої величини обчислити відповідну середню помилку. Середня помилка показника m p обчислюється за такою формулою:

При числі спостережень менше 30, де

P - величина показника у відсотках, проміле тощо.

q - доповнення цього показника до 100, якщо він у відсотках, до 1000, якщо % 0 і т.д. (тобто q = 100-P, 1000-P і т.д.)

Наприклад, відомо, що в районі протягом року захворіло на дизентерію 224 особи. Чисельність населення ― 33000. Показник захворюваності на дизентерію на

Середня помилка цього показника

Для вирішення питання про ступінь достовірності показника визначають довірчий коефіцієнт (t), що дорівнює відношенню показника для його середньої помилки, тобто.

У нашому прикладі

Чим вище t, тим більший рівень достовірності. При t = 1, ймовірність достовірності показника дорівнює 68,3%, при t = 2 - 95,5%, при t = 3 - 99,7%. У медико-статистичних дослідженнях зазвичай використовують довірчу ймовірність (надійність), що дорівнює 95,5%-99,0%, а в найбільш відповідальних випадках – 99,7%. Таким чином, у нашому прикладі показник захворюваності достовірний.

При числі спостережень менше 30 значення критерію визначається за таблицею Стьюдента. Якщо отримана величина буде вищою або дорівнює табличній – показник достовірний. Якщо нижче – не достовірний.

За необхідності порівняння двох однорідних показників достовірність їх відмінностей визначається за такою формулою:

(від більшого числа забирають менше),

де P 1 -P 2 ― різниця двох порівнюваних показників,

середня помилкарізниці двох показників.

Наприклад, у районі Б протягом року захворіло на дизентерію 270 осіб. Населення району ― 45000. Звідси захворюваність на дизентерію:

тобто. показник захворюваності достовірний.

Як видно, захворюваність у районі Б нижче, ніж у районі А. Визначаємо за формулою достовірність різниці двох показників:

За наявності великої кількості спостережень (понад 30) різниця показників є статистично достовірною, якщо t = 2 чи більше. Отже, у прикладі захворюваність у районі А достовірно вище, т.к. довірчий коефіцієнт (t) більший за 2.

Знаючи величину середньої помилки показника, можна визначити довірчі межі цього в залежності від впливу причин випадкового характеру. Довірчі межі визначаються за такою формулою:

P - показник;

m ― його середня помилка;

t ― довірчий коефіцієнт вибирається залежно від необхідної величини надійності: t=1 відповідає надійності результату у 68,3% випадків, t=2 – 95,5%, t=2,6 – 99%, t=3 – 99,7 %, t = 3,3 - 99,9 Величина називається граничною помилкою.

Наприклад, в районі Б показник захворюваності на дизентерію з точністю до 99,7 9 % може коливатися у зв'язку з випадковими факторами в межах тобто. від 49,1 до 70,9.

Статистика давно вже стала невід'ємна частинажиття. З нею люди стикаються усюди. На основі статистики робляться висновки про те, де і які захворювання поширені, що більш затребуване у конкретному регіоні чи серед певного прошарку населення. На ґрунтуються навіть побудови політичних програм кандидатів до органів влади. Ними ж користуються і торгівельні мережіпри закупівлі товарів, а виробники керуються цими даними у пропозиціях.

Статистика грає важливу рольу житті суспільства та впливає на кожного його окремого члена навіть у дрібницях. Наприклад, якщо по , більшість людей віддають перевагу темні кольорив одязі в конкретному місті або регіоні, то знайти яскравий жовтий плащ з квітковим принтом у місцевих торгових точках буде дуже складно. Але з яких величин складаються ці дані, які так впливають? Наприклад, що таке «статистична значимість»? Що саме розуміється під цим визначенням?

Що це?

Статистика як наука складається із поєднання різних величинта понять. Одним із них і є поняття «статистична значимість». Так називається значення змінних величин, ймовірність появи інших показників у яких дуже мала.

Наприклад, 9 з 10 чоловік одягають на ноги гумове взуття під час ранкової прогулянки грибами осінній ліспісля дощової ночі. Імовірність того, що в якийсь момент 8 з них взуються в парусинові мокасини - мізерно мала. Таким чином, у даному конкретному прикладічисло 9 є величиною, яка називається «статистична значимість».

Відповідно, якщо розвивати далі наведений практичний приклад, взуттєві магазини закуповують до кінця літнього сезонугумові чобітки у великій кількості, ніж в іншу пору року. Так, величина статистичного значення впливає на звичайне життя.

Зрозуміло, у складних підрахунках, припустимо, при прогнозі поширення вірусів, враховується велике числозмінних. Але сама суть визначення значущого показника статистичних даних – аналогічна, незалежно від складності підрахунків та кількості непостійних величин.

Як вираховують?

Використовуються для обчислення значення показника «статистична значимість» рівняння. Тобто, можна стверджувати, що в цьому випадку все вирішує математика. Самим простим варіантомобчислення є ланцюг математичних дій, в якій беруть участь такі параметри:

  • два типи результатів, отриманих при опитуваннях або вивченні об'єктивних даних, наприклад, сум на які здійснюються покупки, що позначаються а та b;
  • показник для обох груп – n;
  • значення частки об'єднаної вибірки – p;
  • поняття « стандартна помилка»- SE.

Наступним етапом визначається загальний тестовий показник - t його значення порівнюється з числом 1,96. 1,96 - це усереднене значення, що передає діапазон 95%, відповідно до функції t-розподілу Стьюдента.

Часто виникає питання, у чому відмінність значень n і p. Цей аспект просто прояснити за допомогою прикладу. Допустимо, обчислюється статистична значущість лояльності до будь-якого товару чи бренду чоловіків та жінок.

В цьому випадку за літерними позначеннямистоятиме таке:

  • n – число опитаних;
  • p – число задоволених продуктом.

Чисельність опитаних жінок у разі буде позначено, як n1. Відповідно, чоловіків – n2. Те саме значення матимуть цифри «1» та «2» у символу p.

Порівняння тестового показника з усередненими значеннями розрахункових таблиць Стьюдента стає тим, що називається «статистична значимість».

Що розуміється під перевіркою?

Результати будь-якого математичного обчислення можна перевірити, цьому навчають дітей ще у початкових класах. Логічно припустити, що раз статистичні показникивизначаються з допомогою ланцюга обчислень, те й перевіряються.

Проте перевірка статистичної значущості – не лише математика. Статистика має справу з великою кількістю змінних величин і різних ймовірностей, які далеко не завжди піддаються розрахунку. Тобто якщо повернуться до наведеного на початку статті прикладу з гумовим взуттям, то логічна побудова статистичних даних, на які спиратимуться закупники товарів для магазинів, може бути порушена сухою та спекотною погодою, яка не є типовою для осені. Внаслідок цього явища кількість людей, які купують гумові чоботи, знизиться, а торгові точки зазнають збитків. Передбачити погодну аномалію математична формула, зрозуміло, неспроможна. Цей момент називається – «помилка».

Ось ймовірність таких помилок і враховує перевірка рівня обчисленої значущості. У ньому враховуються як обчислені показники, і прийняті рівні значимості, і навіть величини, умовно звані гіпотезами.

Що таке рівень значущості?

Поняття «рівень» входить до основних критеріїв статистичної значимості. Використовується воно у прикладній та практичній статистиці. Це свого роду величина, яка враховує можливість можливих відхилень чи помилок.

Рівень ґрунтується на виявленні відмінностей у готових вибірках, дозволяє встановити їх суттєвість або ж, навпаки, випадковість. Це поняття не лише цифрові значення, а й їх своєрідні розшифровки. Вони пояснюють те, як треба розуміти значення, а сам рівень визначається порівнянням результату з усередненим індексом, це виявляє ступінь достовірності відмінностей.

Таким чином, можна уявити поняття рівня просто - це показник допустимої, ймовірної похибки або помилки у зроблених з отриманих статистичних даних висновках.

Які рівні значення використовуються?

Статистична значимість коефіцієнтів ймовірності допущеної помилки практично відштовхується від трьох базових рівнів.

Першим рівнем вважається поріг, у якому значення дорівнює 5 %. Тобто ймовірність похибки вбирається у рівня значимості 5 %. Це означає, що впевненість у бездоганності та безпомилковості висновків, зроблених на основі даних статистичних досліджень, становить 95 %.

Другим рівнем є поріг 1%. Відповідно, ця цифра означає, що керуватися отриманими за статистичних розрахунків даними можна з упевненістю в 99 %.

Третій рівень – 0,1 %. За такого значення ймовірність наявності помилки дорівнює частці відсотка, тобто похибки практично виключаються.

Що таке гіпотеза у статистиці?

Помилки як поняття поділяються за двома напрямками, що стосуються прийняття або відхилення нульової гіпотези. Гіпотеза - це поняття, за яким ховається, згідно з визначенням, набір інших даних або тверджень. Тобто опис ймовірнісного розподілу чогось, що відноситься до предмета статистичного обліку.

Гіпотез при простих розрахункахбуває дві - нульова та альтернативна. Різниця між ними в тому, що нульова гіпотеза бере за основу уявлення про відсутність принципових відмінностейміж вибірками, що беруть участь у визначенні статистичної значущості, а альтернативна їй повністю протилежна. Тобто альтернативна гіпотеза ґрунтується на наявності вагомої різниціу даних вибірок.

Якими є помилки?

Помилки як поняття у статистиці перебувають у прямій залежності від прийняття за істинну ту чи іншу гіпотезу. Їх можна розділити на два напрямки або типу:

  • перший тип обумовлений прийняттям нульової гіпотези, що виявилася неправильною;
  • другий - викликаний дотриманням альтернативної.

Перший тип помилок називається хибнопозитивним і зустрічається досить часто у всіх сферах, де використовуються статистичні дані. Відповідно, помилка другого типу називається хибнонегативною.

Навіщо потрібна регресія у статистиці?

Статистична значимість регресії у цьому, що з допомогою можна встановити, наскільки відповідає реальності обчислена з урахуванням даних модель різних залежностей; дозволяє виявити достатність або брак чинників для обліку та висновків.

Визначається регресивне значення за допомогою порівняння результатів з наведеними в таблицях Фішера даними. Або ж за допомогою дисперсійного аналізу. Важливе значення показники регресії мають за складних статистичних дослідженнях і розрахунках, у яких бере участь багато змінних величин, випадкових даних, і можливих змін.

Сьогодні це дійсно занадто просто: ви можете підійти до комп'ютера і практично без знання того, що ви робите, створювати розумне і нісенітницю з воістину дивовижною швидкістю. (Дж. Бокс)

Основні терміни та поняття медичної статистики

У цій статті ми наведемо деякі ключові поняття статистики, які є актуальними при проведенні медичних досліджень. Більш детально терміни розуміються на відповідних статтях.

Варіація

Визначення.Ступінь розсіювання даних (значень ознаки) по області значень

Ймовірність

Визначення. Імовірність (probability) - ступінь можливості прояву будь-якої певної події у тих чи інших умовах.

приклад. Пояснимо визначення терміна на пропозиції «Вірогідність одужання при застосуванні лікарського препаратуАрімідекс дорівнює 70%». Подією є «видужання хворого», умовою «хворий приймає Арімідекс», ступенем можливості - 70% (грубо кажучи, зі 100 осіб, які приймають Арімідекс, одужують 70).

Кумулятивна ймовірність

Визначення.Кумулятивна ймовірність виживання (Cumulative Probability of surviving) в момент часу t - це те саме, що частка пацієнтів, що вижили, до цього моменту часу.

приклад. Якщо говориться, що кумулятивна ймовірність виживання після проведення п'ятирічного курсу лікування дорівнює 0.7, то це означає, що з групи пацієнтів, що розглядається, в живих залишилося 70% від початкової кількості, а 30% померло. Іншими словами, з кожної сотні людей 30 померли протягом перших 5 років.

Час до події

Визначення.Час до події - це час, виражений у деяких одиницях, що минув з початкового моменту часу до настання деякої події.

Пояснення. Як одиниці часу в медичних дослідженнях виступають дні, місяці та роки.

Типові приклади початкових моментів часу:

    початок спостереження за пацієнтом

    проведення хірургічного лікування

Типові приклади подій, що розглядаються:

    прогресування хвороби

    виникнення рецидиву

    смерть пацієнта

Вибірка

Визначення.Частина популяції, одержана шляхом відбору.

За результатами аналізу вибірки роблять висновки про всю популяцію, що правомірно лише у разі, якщо відбір був випадковим. Оскільки випадковий відбір із популяції здійснити практично неможливо, слід прагнути до того, щоб вибірка була, принаймні, репрезентативна стосовно популяції.

Залежні та незалежні вибірки

Визначення.Вибірки, у яких об'єкти дослідження набиралися незалежно друг від друга. Альтернатива незалежним вибіркам – залежні (зв'язкові, парні) вибірки.

Гіпотеза

Двостороння та одностороння гіпотези

Спочатку пояснимо застосування терміна гіпотезу у статистиці.

Мета більшості досліджень – перевірка істинності деякого твердження. Метою тестування лікарських препараторів найчастіше є перевірка гіпотези, що одні ліки ефективніші за інші (наприклад, Арімідекс ефективніший за Тамоксифен).

Для переказу строгості дослідження, твердження, що перевіряється, виражають математично. Наприклад, якщо А - це кількість років, що проживе пацієнт, який приймає Арімідекс, а Т - це кількість років, що проживе пацієнт, який приймає Тамоксифен, то гіпотезу, що перевіряється, можна записати як А>Т.

Визначення.Гіпотеза називається двосторонньою (2-sided), якщо вона полягає у рівності двох величин.

Приклад двосторонньої гіпотези: A=T.

Визначення. Гіпотеза називається односторонньою (1-sided), якщо вона полягає у нерівності двох величин.

Приклади односторонніх гіпотез:

Дихотомічні (бінарні) дані

Визначення.Дані, що виражаються лише двома допустимими альтернативними значеннями

Приклад: Пацієнт «здоровий» - «хворий». Набряк "є" - "ні".

Довірчий інтервал

Визначення.Довірчий інтервал (confidence interval) для деякої величини - це діапазон навколо значення величини, в якому знаходиться дійсне значення цієї величини (з певним рівнем довіри).

приклад. Нехай досліджуваною величиною є кількість пацієнтів на рік. У середньому їх кількість дорівнює 500, а 95% - довірчий інтервал- (350, 900). Це означає, що, швидше за все (з ймовірністю 95%), протягом року до клініки звернуться не менше 350 і не більше 900 осіб.

Позначення. Найчастіше використовуються скорочення: ДІ 95% (CI 95%) – це довірчий інтервал із рівнем довіри 95%.

Достовірність, статистична значимість (P – рівень)

Визначення.Статистична значимість результату - це міра впевненості у його "істинності".

Будь-яке дослідження проходить з урахуванням лише частини об'єктів. Дослідження ефективності лікарського препарату проводиться на основі не взагалі всіх хворих на планеті, а лише певної групи пацієнтів (провести аналіз на основі всіх хворих просто неможливо).

Припустимо, що в результаті аналізу було зроблено деякий висновок (наприклад, використання як адекватну терапію препарату Арімідекс в 2 рази ефективніше, ніж препарат Тамоксифен).

Питання, яке необхідно при цьому ставити: "Наскільки можна довіряти цьому результату?"

Уявіть, що ми проводили дослідження на основі двох пацієнтів. Звичайно ж, у цьому випадку до результатів потрібно ставитись з побоюванням. Якщо ж було обстежено велику кількість хворих (чисельне значення « великої кількості»залежить від ситуації), то зробленим висновкам вже можна довіряти.

Так ось, ступінь довіри визначається значенням p-рівня (p-value).

p align="justify"> Більш високий p-рівень відповідає більш низькому рівню довіри до результатів, отриманих при аналізі вибірки. Наприклад, p-рівень, що дорівнює 0.05 (5%) показує, що зроблений при аналізі деякої групи висновок є лише випадковою особливістю цих об'єктів з ймовірністю лише 5%.

Інакше кажучи, дуже ймовірно (95%) висновок можна поширити попри всі об'єкти.

У багатьох дослідженнях 5% сприймається як прийнятне значення p-уровня. Це означає, що, наприклад, p= 0.01, то результатам довіряти можна, і якщо p=0.06, то нельзя.

Дослідження

Проспективне дослідження- це дослідження, у якому вибірки виділяються з урахуванням вихідного чинника, а вибірках аналізується деякий результуючий чинник.

Ретроспективне дослідження- це дослідження, у якому вибірки виділяються з урахуванням результуючого чинника, а вибірках аналізується деякий вихідний чинник.

приклад. Вихідний фактор - вагітна жінка молодша/старша 20 років. Результуючий фактор - дитина легша/важча 2,5 кг. Аналізуємо, чи залежить вага дитини від віку матері.

Якщо ми набираємо 2 вибірки, в одній - матері віком до 20 років, в іншій - старше, а потім аналізуємо масу дітей у кожній групі, то це проспективне дослідження.

Якщо ми набираємо 2 вибірки, в одній – матері, що народили дітей легше 2,5 кг, в іншій – важче, а потім аналізуємо вік матерів у кожній групі, то це ретроспективне дослідження (природно, таке дослідження можна провести, тільки коли досвід закінчено, тобто всі діти народилися).

Вихід

Визначення.Клінічно значуще явище, лабораторний показник чи ознака, що є об'єктом інтересу дослідника. При проведенні клінічних випробувань результати є критеріями оцінки ефективності лікувального або профілактичного впливу.

Клінічна епідеміологія

Визначення.Наука, що дозволяє здійснювати прогнозування того чи іншого результату для кожного конкретного хворого на підставі вивчення клінічного перебігу хвороби в аналогічних випадках із використанням суворих наукових методіввивчення хворих задля забезпечення точності прогнозів.

Когорта

Визначення.Група учасників дослідження, об'єднаних будь-яким загальною ознакоюу момент її формування та досліджуваних протягом тривалого періоду часу.

Контроль

Контроль історичний

Визначення.Контрольна група, сформована та обстежена в період, що передує дослідженню.

Контроль паралельний

Визначення.Контрольна група, що формується одночасно з формуванням основної групи.

Кореляція

Визначення.Статистичний зв'язок двох ознак (кількісних або порядкових), що показує, що більшому значенню однієї ознаки у певній частині випадків відповідає більше – у разі позитивної (прямої) кореляції – значення іншої ознаки або менше значення – у разі негативної (зворотної) кореляції.

приклад. Між рівнем тромбоцитів та лейкоцитів у крові пацієнта виявлено значну кореляцію. Коефіцієнт кореляції дорівнює 0,76.

Коефіцієнт ризику (КР)

Визначення. p align="justify"> Коефіцієнт ризику (hazard ratio) - це відношення ймовірності настання деякої («нехорошої») події для першої групи об'єктів до ймовірності настання цієї ж події для другої групи об'єктів.

приклад. Якщо ймовірність появи раку легень у некурців дорівнює 20%, а у курців - 100%, то КР дорівнюватиме одній п'ятій. У цьому вся прикладі першої групою об'єктів є люди, що не палять, другою групою - курці, а як «поганий» події розглядається виникнення раку легенів.

Очевидно, що:

1) якщо КР=1, то ймовірність настання події у групах однакова

2) якщо КР>1, то подія частіше відбувається з об'єктами з першої групи, ніж із другої

3) якщо КР<1, то событие чаще происходит с объектами из второй группы, чем из первой

Мета-аналіз

Визначення. Зтатистичний аналіз, що узагальнює результати кількох досліджень, що досліджують одну й ту саму проблему (зазвичай ефективність методів лікування, профілактики, діагностики). Об'єднання досліджень забезпечує велику вибірку для аналізу та більшу статистичну потужність об'єднаних досліджень. Використовується підвищення доказовості чи впевненості у висновку про ефективність досліджуваного методу.

Метод Каплана - Мейєра (Множинні оцінки Каплана - Мейєра)

Цей метод придумали статистиками Е.Л.Капланом і Полем Мейером.

Метод використовується для обчислення різних величин, пов'язаних із часом спостереження за пацієнтом. Приклади таких величин:

    ймовірність одужання протягом одного року при застосуванні лікарського препарату

    шанс виникнення рецидиву після операції на протязі трьох років після операції

    кумулятивна ймовірність виживання протягом п'яти років серед пацієнтів із раком простати при ампутації органу

Пояснимо переваги використання методу Каплана – Мейєра.

Значення величин при «звичайному» аналізі (що не використовує метод Каплана-Мейєра) розраховуються на основі розбиття часового інтервалу, що розглядається, на проміжки.

Наприклад, якщо ми досліджуємо ймовірність смерті пацієнта протягом 5 років, то тимчасовий інтервал може бути поділений як на 5 частин (менше 1 року, 1-2 роки, 2-3 роки, 3-4 роки, 4-5 років), так та на 10 (по півроку кожен), або на іншу кількість інтервалів. Результати ж за різних розбиття вийдуть різні.

Вибір найбільш відповідного розбиття - складне завдання.

Оцінки значень величин, отриманих методом Каплана- Мейера не залежить від розбиття часу спостереження на інтервали, а залежить тільки від часу життя кожного окремого пацієнта.

Тому досліднику простіше проводити аналіз, та й результати нерідко виявляються якіснішими за результати «звичайного» аналізу.

Крива Каплана-Мейєра (Kaplan - Meier curve)-це графік кривої виживання, отриманої за методом Каплана-Мейєра.

Модель Коксу

Ця модель була придумана сером Девідом Роксбі Коксом (р.1924), відомим англійським статистиком, автором понад 300 статей та книг.

Модель Кокса використовується у ситуаціях, коли досліджувані під час аналізу виживання величини залежить від функцій часу. Наприклад, ймовірність виникнення рецидиву через t років (t=1,2,…) може залежати від логарифму часу log(t).

Важливою перевагою методу, запропонованого Коксом, є застосування цього методу у великій кількості ситуацій (модель не накладає жорстких обмежень на природу або форму розподілу ймовірностей).

На основі моделі Коксу можна проводити аналіз (званий аналізом Коксу (Cox analysis)), результатом проведення якого є значення коефіцієнта ризику та довірчого інтервалу для коефіцієнта ризику.

Непараметричні методи статистики

Визначення.Клас статистичних методів, які використовуються головним чином для аналізу кількісних даних, які не утворюють нормальний розподіл, а також для аналізу якісних даних.

приклад. Для виявлення значущості відмінностей тиску систоли пацієнтів залежно від типу лікування скористаємося непараметричним критерієм Манна-Уітні.

Ознака (змінна)

Визначення. Характеристика об'єкта дослідження (спостереження) Розрізняють якісні та кількісні ознаки.

Рандомізація

Визначення.Спосіб випадкового розподілу об'єктів дослідження в основну та контрольну групи з використанням спеціальних засобів (таблиць або лічильника випадкових чисел, підкидання монети та інших способів випадкового призначення номера групи, що включається спостереженню). За допомогою рандомізації зводяться до мінімуму відмінності між групами за відомими і невідомими ознаками, що потенційно впливають на результат, що вивчається.

Ризик

Атрибутивний- додатковий ризик виникнення несприятливого результату (наприклад, захворювання) у зв'язку з наявністю певної характеристики (фактору ризику) об'єкта дослідження. Це частина ризику розвитку хвороби, яка пов'язана з цим фактором ризику, пояснюється ним і може бути усунена, якщо цей фактор ризику усунути.

Відносний ризик- Відношення ризику виникнення несприятливого стану в одній групі до ризику цього стану в іншій групі. Використовується у проспективних та спостережних дослідженнях, коли групи формуються заздалегідь, а виникнення досліджуваного стану ще не відбулося.

Ковзаючий іспит

Визначення.Метод перевірки стійкості, надійності, працездатності (валідності) статистичної моделі шляхом послідовного видалення спостережень та перерахунку моделі. Чим подібніші отримані моделі, тим стійкіша, надійніша модель.

Подія

Визначення.Клінічний результат, що спостерігається у дослідженні, наприклад виникнення ускладнення, рецидиву, настання одужання, смерті.

Стратифікація

Визначення. Метод формування вибірки, у якому сукупність всіх учасників, відповідних критеріям включення до дослідження, спочатку поділяється на групи (страти) з урахуванням однієї чи кількох характеристик (зазвичай статі, віку), потенційно які впливають досліджуваний результат, та був із кожної з цих груп ( страт) незалежно проводиться набір учасників до експериментальної та контрольної групи. Це дозволяє досліднику дотримуватися балансу важливих характеристик між експериментальною та контрольною групами.

Таблиця сполученості

Визначення.Таблиця абсолютних частот (кількості) спостережень, стовпці якої відповідають значенням однієї ознаки, а рядки - значенням іншої ознаки (у разі двовимірної таблиці сполученості). Значення абсолютних частот розташовуються у клітинах на перетині рядів та колонок.

Наведемо приклад таблиці спряженості. Операцію на аневризмі було зроблено 194 пацієнтам. Відомий показник виразності набряку у пацієнтів перед операцією.

Набряк\ Вихід

немає набряку 20 6 26
помірний набряк 27 15 42
виражений набряк 8 21 29
m j 55 42 194

Таким чином, із 26 пацієнтів, які не мають набряку, після операції вижило 20 пацієнтів, померло – 6 пацієнтів. З 42 пацієнтів, які мають помірний набряк, вижило 27 пацієнтів, померло - 15 і т.д.

Критерій хі-квадрат для таблиць сполученості

Для визначення значущості (достовірності) відмінностей однієї ознаки залежно від іншої (наприклад, результату операції залежно від виразності набряку) застосовується критерій хі-квадрат для таблиць сполученості:


Шанс

Нехай ймовірність деякої події дорівнює p. Тоді ймовірність того, що подія не відбудеться, дорівнює 1-p.

Наприклад, якщо ймовірність того, що хворий залишиться живим через п'ять років дорівнює 0.8 (80%), то ймовірність того, що він за цей часовий проміжок помре дорівнює 0.2 (20%).

Визначення.Шанс - це відношення ймовірності того, що події відбудеться до ймовірності того, що подія не станеться.

приклад. У прикладі (про хворого) шанс дорівнює 4, оскільки 0.8/0.2=4

Таким чином, ймовірність одужання в 4 рази більша за ймовірність смерті.

Інтерпретація значення величини.

1) Якщо Шанс = 1, то ймовірність настання події дорівнює ймовірності того, що подія не відбудеться;

2) якщо Шанс >1, то ймовірність настання події більша за ймовірність того, що подія не відбудеться;

3) якщо Шанс<1, то вероятность наступления события меньше вероятности того, что событие не произойдёт.

Відношення шансів

Визначення.Відношення шансів (odds ratio) - це відношення шансів першої групи об'єктів до відношення шансів другої групи об'єктів.

приклад. Допустимо, що деяке лікування проходять і чоловіки, і жінки.

Імовірність того, що хворий чоловічої статі залишиться живим через п'ять років дорівнює 0.6 (60%); ймовірність того, що він за цей часовий проміжок помре дорівнює 0.4 (40%).

Аналогічні ймовірності для жінок дорівнюють 0.8 та 0.2.

Відношення шансів у цьому прикладі рівне

Інтерпретація значення величини.

1) Якщо відношення шансів = 1, то шанс для першої групи дорівнює шансу для другої групи

2) Якщо відношення шансів >1, то шанс для першої групи більший за шанс для другої групи

3) Якщо ставлення шансів<1, то шанс для первой группы меньше шанса для второй группы

Статистична значимість або рівень значимості - основний результат перевірки

статистична гіпотеза. Говорячи технічною мовою, це ймовірність отримання цього

результату вибіркового дослідження за умови, що насправді для генеральної

Спільно вірна нульова статистична гіпотеза - тобто зв'язку немає. Інакше кажучи, це

ймовірність того, що виявлений зв'язок носить випадковий характер, а не є властивістю

сукупності. Саме статистична значимість, р-рівень значимості є

кількісною оцінкою надійності зв'язку: що менше ця ймовірність, то надійніший зв'язок.

Припустимо, при порівнянні двох вибіркових середніх було отримано значення рівня

статистичної значимості р = 0,05. Це означає, що перевірка статистичної гіпотези про

рівність середніх у генеральній сукупності показала, що якщо вона вірна, то ймовірність

випадкової появи виявлених відмінностей становить трохи більше 5%. Інакше кажучи, якби

дві вибірки багаторазово витягувалися з однієї і тієї ж генеральної сукупності, то в 1

20 випадків виявлялося б таку ж чи більшу різницю між середніми цих вибірок.

Тобто існує 5% ймовірність того, що виявлені відмінності носять випадковий

характер, а чи не є властивістю сукупності.

Щодо наукової гіпотези рівень статистичної значущості – це кількісний

показник ступеня недовіри до висновку про наявність зв'язку, обчислений за результатами

вибіркової, емпіричної перевірки цієї гіпотези. Чим менше значення р-рівня, тим вище

статистична значущість результату дослідження, що підтверджує наукову гіпотезу.

Корисно знати, що впливає рівень значимості. Рівень значущості за інших рівних

умовах вище (значення р-рівню менше), якщо:

Розмір зв'язку (відмінності) більше;

Мінливість ознаки (ознак) менша;

Об'єм вибірки (вибірок) більший.

Односторонніеpі двосторонні критерії перевірки значущості

Якщо мета дослідження тому, щоб виявити відмінність параметрів двох генеральних

сукупностей, які відповідають різним її природним умовам (умови життя,

вік піддослідних тощо), то часто невідомо, який з цих параметрів буде більшим, а

який менше.

Наприклад, якщо цікавляться варіативністю результатів у контрольній та

експериментальної групи, то, як правило, немає впевненості в знаку відмінності дисперсій або

стандартних відхилень результатів, якими оцінюється варіативність. В цьому випадку

нульова гіпотеза полягає в тому, що дисперсії рівні між собою, а мета дослідження -

довести протилежне, тобто. наявність різницю між дисперсіями. При цьому допускається, що

Відмінність може бути будь-якого знака. Такі гіпотези називають двосторонніми.

Але іноді завдання полягає у тому, щоб довести збільшення чи зменшення параметра;

наприклад, середній результат експериментальної групі вище, ніж контрольної. При цьому

не допускається, що різницю може бути іншого знака. Такі гіпотези називаються

Односторонніми.

Критерії значимості, що служать для перевірки двосторонніх гіпотез, називаються

Двосторонніми, а для односторонніх – односторонніми.

Виникає питання про те, який із критеріїв слід обирати в тому чи іншому випадку. Відповідь

На це питання знаходиться за межами формальних статистичних методів та повністю

Залежить від цілей дослідження. У жодному разі не можна вибирати той чи інший критерій після

Проведення експерименту на основі аналізу експериментальних даних, оскільки це може

Привести до неправильних висновків. Якщо до проведення експерименту допускається, що різниця

Порівнюваних параметрів може бути як позитивним, так і негативним.

Схожі статті

2022 parki48.ru. Будуємо каркасний будинок. Ландшафтний дизайн. Будівництво. Фундамент.