Upload
others
View
16
Download
0
Embed Size (px)
Citation preview
КВМ
О. І. БОБИК Г. І. БЕРЕГОВА Б. І. КОПИТКО ___________________________________________________
ТЕОРІЯ ЙМОВІРНОСТЕЙ І МАТЕМАТИЧНА СТАТИСТИКА
Рекомендовано Міністерством освіти і науки України як підручник для студентів вищих навчальних закладів
2 0 0 6
КВМ
2
УДК 519.2(075) ББК 22.17.я7
Б 72
Бобик О. І., Берегова Г. І., Копитко Б. І. Теорія ймовірностей і мате-матична статистика: Навч. підручник. 2006. – 440 с.
Підручник містить основні поняття та методи теорії ймовірностей і математичної
статистики. Весь матеріал поділено на чотири розділи і 15 підрозділів, у кожному з яких різні поняття і методи виокремлено відповідними назвами пунктів. Усі поняття, методи і висновки проілюстровано прикладами, які розкривають їх суть і які зазвичай мають економічний зміст. Після кожного підрозділу вміщено перелік літератури для поглиблення знань, завдання для повторення теоретичного матеріалу, тести для самоконтролю і приклади для самостійного розв’язування. У кінці розділів подаються основні поняття і терміни.
Підручник розрахований, в першу чергу, на студентів економічних спеціальностей.
Рецензенти: Г. Л. Кулініч, доктор фізико-математичних наук,
професор кафедри загальної математики Київського національного університету імені Т. Г. Шевченка;
П. І. Каленюк, професор, доктор фізико-математичних наук,
завідувач кафедри обчислювальної математики і програмування Національного університету «Львівська політехніка».
П. І. Когут, професор, доктор фізико-математичних наук,
завідувач кафедри прикладної математики Дніпропетровського національного університету залізничного транспорту імені академіка В. Лазаряна.
Інформація про авторів:
Бобик О.І. – кандидат фізико-математичних наук, професор, завідувач кафедрою математики і статистики ЛБІ НБУ.
Берегова Г.І. – кандидат фізико-математичних наук, доцент кафедри математики і статистики ЛБІ НБУ.
Копитко Б.І. – доктор фізико-математичних наук, професор, завідувач кафедрою вищої математики ЛНУ ім. І.Франка
Рекомендовано до друку вченими радами:
ЛБІ НБУ і ЛНУ ім. І.Франка,
Гриф «Рекомендовано Міністерством освіти і науки України як підручник для студентів вищих навчальних закладів»
надано заступником державного секретаря (Лист № / від 2006 року).
© О. І. Бобик, Г. І. Берегова, Б. І. Копитко, 2006 © 2006
КВМ
3
ISBN
КВМ
4
ЗМІСТ
Передмова ................................................................................................................................8 Вступ .......................................................................................................................................10 РОЗДІЛ 1. ВИПАДКОВІ ПОДІЇ..........................................................................................12
1.1. Основні поняття теорії ймовірностей ..............................................................12 1.1.1. Стохастичний експеримент і простір елементарних подій .......................12 1.1.2. Випадкові події як підмножини у просторі елементарних подій..............15 1.1.3. Операції над подіями ..................................................................................17 1.1.4. Класичне означення ймовірності ...............................................................20 1.1.5. Основні поняття комбінаторики та їх застосування при обчисленні
ймовірностей..................................................................................................22
1.1.6. Властивості ймовірності .............................................................................27 1.1.7. Геометричне означення ймовірності..........................................................31 1.1.8. Статистичне означення ймовірності ..........................................................33 1.1.9. Імовірнісна модель стохастичного експерименту. Аксіоми теорії
ймовірностей...............................................................................................36 Завдання для самоконтролю..............................................................................42 Тести ....................................................................................................................44 Приклади ..............................................................................................................48
1.2. Умовна ймовірність. Незалежні події. Формула повної ймовірності
і формули Байєса ...............................................................................................51 1.2.1. Умовна ймовірність ...................................................................................51 1.2.2. Незалежні випадкові події .........................................................................54 1.2.3. Формула повної ймовірності .....................................................................59 1.2.4. Формули Байєса .........................................................................................61 Завдання для самоконтролю.............................................................................62 Тести ..................................................................................................................63 Приклади ..............................................................................................................65
1.3. Повторні незалежні випробування за схемою Бернуллі ...............................69
1.3.1. Формула Бернуллі ......................................................................................70 1.3.2. Локальна формула Муавра – Лапласа .......................................................72
КВМ
5
1.3.3. Інтегральна асимптотична формула Лапласа........................................... 78 1.3.4. Асимптотичні формули Пуассона ............................................................ 78 1.3.5. Найімовірніше число появ випадкової події ............................................ 80 Завдання для самоконтролю ............................................................................ 81 Тести ................................................................................................................. 82 Приклади.............................................................................................................. 84
Основні поняття і терміни .................................................................................................. 86 РОЗДІЛ 2. ВИПАДКОВІ ВЕЛИЧИНИ .............................................................................. 88
2.1. Дискретна (одновимірна) випадкова величина............................................. 93 2.1.1. Закон розподілу ймовірностей................................................................... 94 2.1.2. Основні закони розподілу ймовірностей................................................... 96 2.1.3. Чисельні характеристики .........................................................................100 2.1.4. Чисельні характеристики середнього арифметичного однаково
розподілених взаємно незалежних випадкових величин.......................117 Завдання для самоконтролю ............................................................................119 Тести ..................................................................................................................120 Приклади.............................................................................................................123
2.2. Неперервна (одновимірна) випадкова величина .........................................126
2.2.1. Функція розподілу ймовірностей..............................................................126 2.2.2. Густина (щільність) розподілу ймовірностей...........................................132 2.2.3. Чисельні характеристики ..........................................................................139 2.2.4. Основні закони розподілу.........................................................................147 Завдання для самоконтролю ............................................................................161 Тести ................................................................................................................163 Приклади.............................................................................................................166
2.3. Граничні теореми теорії ймовірностей: закон великих чисел
і центральна гранична теорема ......................................................................172 2.3.1. Суть закону великих чисел і центральної граничної теореми.................172 2.3.2. Нерівність Чебишова та збіжність за ймовірністю ..................................174 2.3.3. Теорема Чебишова і стійкість середнього арифметичного випадкових
величин......................................................................................................176 2.3.4. Теорема Бернуллі і стійкість відносних частот ........................................177 2.3.5. Центральна гранична теорема ..................................................................179 2.3.6. Інтегральна теорема Муавра – Лапласа....................................................183 Завдання для самоконтролю ............................................................................184
КВМ
6
Тести ..................................................................................................................184 Приклади ............................................................................................................186
2.4. Двовимірна випадкова величина ...................................................................187
2.4.1. Закон розподілу ймовірностей .................................................................188 2.4.2. Залежні і незалежні випадкові величини. Умовні закони розподілу......197 2.4.3. Чисельні характеристики двовимірної випадкової величини.
Коваріація і коефіцієнт кореляції ............................................................205 2.4.4. Умовні числові характеристики двовимірної випадкової величини.
Регресія ....................................................................................................215 Завдання для самоконтролю............................................................................219 Тести ................................................................................................................222 Приклади ............................................................................................................225
2.5. Функції випадкових аргументів .....................................................................227 2.5.1. Функція одного випадкового аргументу..................................................227 2.5.2. Функція двох випадкових аргументів ......................................................231 2.5.3. Чисельні характеристики ..........................................................................234 Завдання для самоконтролю............................................................................236 Тести ................................................................................................................237 Приклади ............................................................................................................238
Основні поняття і терміни.................................................................................................241
РОЗДІЛ 3. ЕЛЕМЕНТИ МАТЕМАТИЧНОЇ СТАТИСТИКИ ......................................245
3.1. Основні поняття та означення........................................................................246 3.1.1. Генеральна і вибіркова сукупності ...........................................................246 3.1.2. Статистичні ряди розподілу вибірки ........................................................248 3.1.3. Полігон та гістограма частот....................................................................252 3.1.4. Емпірична функція розподілу...................................................................253 3.1.5. Чисельні характеристики статистичного розподілу вибірки ..................256 Завдання для самоконтролю............................................................................264 Тести ..................................................................................................................265 Приклади ............................................................................................................266
3.2. Точкові оцінки параметрів розподілу............................................................268
3.2.1. Задача про точкові оцінки параметрів розподілу ....................................268 3.2.2. Означення точкової оцінки параметрів розподілу...................................269
КВМ
7
3.2.3. Точкова оцінка математичного сподівання .............................................272 3.2.4. Точкова оцінка дисперсії...........................................................................273 3.2.5. Оцінка середнього квадратичного відхилення.........................................275 3.2.6. Метод моментів оцінювання параметрів розподілу.................................277 3.2.7. Метод максимуму правдоподібності оцінювання параметрів
розподілу ....................................................................................................282 Завдання для самоконтролю ............................................................................284 Тести ................................................................................................................285 Приклади.............................................................................................................286
3.3. Інтервальні оцінки параметрів розподілу .....................................................288
3.3.1. Задача про інтервальне оцінювання параметрів розподілу .....................288
3.3.2. Розподіл 2 – «хі-квадрат» .......................................................................290
3.3.3. Розподіл Стьюдента ..................................................................................291 3.3.4. Розподіл Фішера – Снедекора...................................................................291 3.3.5. Інтервальне оцінювання математичного сподівання нормально
розподіленої величини...............................................................................292 3.3.6. Інтервальне оцінювання дисперсії і середнього квадратичного
відхилення нормально розподіленої випадкової величини .....................296 Завдання для самоконтролю ............................................................................299 Тести...................................................................................................................300 Приклади.............................................................................................................301
3.4. Статистична перевірка статистичних гіпотез ..............................................304
3.4.1. Означення статистичної гіпотези і задача про її статистичну перевірку.....................................................................................................304
3.4.2. Критерій статистичної перевірки гіпотези ...............................................306 3.4.3. Критерій узгодження Пірсона...................................................................310 3.4.4. Критерій узгодження Колмогорова..........................................................318 3.4.5. Перевірка гіпотези про порівняння середнього значення
(математичного сподівання) ознаки генеральної сукупності зі стандартом ..............................................................................................324
3.4.6. Перевірка гіпотези про рівність математичних сподівань двох нормально розподілених випадкових величин ...............................330
3.4.7. Перевірка гіпотези про рівність дисперсій двох незалежних випадкових величин..................................................................................336
Завдання для самоконтролю ............................................................................338 Тести...................................................................................................................340
КВМ
8
Приклади ............................................................................................................342 3.5. Основні поняття кореляційного та регресійного аналізу ...........................349
3.5.1. Статистичний опис системи двох випадкових величин .........................349 3.5.2. Вибірковий коефіцієнт кореляції..............................................................355 3.5.3. Основні поняття і методи регресійного аналізу ......................................362 Завдання для самоконтролю............................................................................367 Тести ................................................................................................................368 Приклади ............................................................................................................369
Основні поняття і терміни.................................................................................................373 РОЗДІЛ 4. ЕЛЕМЕНТИ ТЕОРІЇ ВИПАДКОВИХ ПРОЦЕСІВ ....................................378
4.1. Основні поняття теорії випадкових процесів ...............................................379 4.1.1. Означення випадкового процесу. Класифікація випадкових процесів...379 4.1.2.Закони розподілу та основні характеристики випадкових процесів........385 Завдання для самоконтролю............................................................................399 Тести ..................................................................................................................400 Приклади ............................................................................................................402
4.2. Марковські процеси з дискретними станами та дискретним часом….............. (ланцюги Маркова). ............................................................................................404 4.2.1. Означення марковського процесу. Граф станів.......................................404 4.2.2. Ланцюги Маркова та їх основні характеристики ....................................406 4.2.3. Класифікація станів і ланцюгів Маркова. ................................................417 4.2.4. Властивості ланцюгів Маркова……………………………………………420 Завдання для самоконтролю............................................................................430 Тести ..................................................................................................................432 Приклади ............................................................................................................433
Основні поняття і терміни.................................................................................................435 Правильні відповіді до тестів ............................................................................................438 Список рекомендованої літератури..................................................................................440 Додатки.................................................................................................................................441
КВМ
9
ПЕРЕДМОВА
Теорія ймовірностей і математична статистика є складовою
частиною дисципліни «Математика для економістів» і відіграє важливу роль у
базовій освіті спеціалістів економічного профілю. Це зумовлено, насамперед,
тим, що економічна інформація найчастіше має випадковий характер і
економічні задачі моделюються та досліджуються за допомогою ймовірнісних
і статистичних методів.
Практика викладання математики для студентів економічних спеціаль-
ностей свідчить, що засвоєння програми з теорії ймовірностей і математичної
статистики викликає в них певні труднощі, які пов’язані з розумінням
основних понять і методів та застосовуванням їх для розв’язання практичних
задач. Ситуація ще більше ускладнюється під час дистанційного навчання,
коли основними формами навчальної діяльності студентів є самостійне
вивчення матеріалу і виконання модульних завдань.
У підручнику тезисно і доступно викладено основні поняття та методи
теорії ймовірностей і математичної статистики.
У кожному конкретному випадку їх проілюстровано прикладами, що
сприяє глибшому їх засвоєнню.
Матеріал подано у формі розділів і підрозділів.
На початку кожного розділу є анотація, а після його закінчення – основні
поняття і терміни.
До кожного підрозділу (теми) наведено навчальну літературу, за допо-
могою якої студенти можуть поповнити і поглибити знання.
Після кожного підрозділу даються завдання для самоконтролю у вигляді
питань з основних понять, означень і відношень теоретичного матеріалу,
тестів, а також приклади для самостійного розв’язування. Тести мають
практичний характер, тобто студенти перевіряють свої знання, розуміння та
КВМ
10
осмислення матеріалу теми на конкретних моделях. У кінці підручника
подано еталони відповідей до тестових завдань, за допомогою яких студенти
можуть перевірити свої висновки. Приклади допоможуть студентам
поглибити знання з опрацьованого матеріалу відповідного підрозділу.
Книжка завершується довідковим матеріалом для розв’язання прак-
тичних задач – статистичними таблицями.
Підручник рекомендовано, перш за все, студентам економічних
спеціальностей.
КВМ
11
ВСТУП
Вивчення процесів та їх закономірностей у навколишньому
середовищі часто зумовлює потребу проводити певні експерименти і
спостерігати за їх наслідками. Такі експерименти називають також випро-
буваннями, а їх наслідки – подіями.
Події поділяються на три види: вірогідні, неможливі і випадкові.
Вірогідною називається подія, яка в разі виконання певної сукупності
умов обов’язково відбудеться. Наприклад, якщо всі працівники банку мають
вищу освіту, то подія «навмання вибраний працівник банку має вищу освіту» є
вірогідна.
Неможливою називається подія, яка за виконання певної сукупності умов
обов’язково не відбудеться. Наприклад, якщо гуртівня № 1 реалізовує тільки
продукти харчування, то подія «на гуртівні № 1 придбано пральну машину» є
неможлива.
Випадковою називається подія, яка за виконання певної сукупності умов
може відбутися або не відбутися. Наприклад, події: «при киданні монети
випаде герб», «при киданні грального кубика випаде грань із числом очок 6»,
«навмання вибране приватне підприємство є банкрут» – випадкові.
Предметом теорії ймовірностей у цілому є математичний аналіз випад-
кових подій. При цьому теорія ймовірностей не може передбачити, чи в
даному експерименті (випробуванні) та або інша подія відбудеться чи ні,
оскільки практично неможливо врахувати всі фактори, які можуть впливати на
результати експерименту (випробування).
Однак якщо проводити велику серію експериментів в однакових
умовах і спостерігати за їх наслідками (подіями), то можна помітити
певні закономірності, математичним аналізом яких займається теорія
ймовірностей.
КВМ
12
Тому предметом теорії ймовірностей є вивчення кількісних законо-
мірностей, які спостерігаються в масових однорідних випадкових подіях.
Знання закономірностей, які характерні для масових однорідних
випадкових подій, дає можливість передбачати їх подальший розвиток. У
зв’язку з цим методи теорії ймовірностей широко використовують у різних
галузях природознавства, економіки, техніки і т. д.
Теорія ймовірностей є теоретичною базою для математичної статистики.
Предметом математичної статистики є дослідження закономір-
ностей, яким підпорядковані масові випадкові явища, на підставі
статистичних даних – результатів спостережень. Ці закономірності
вивчають за допомогою методів теорії ймовірностей.
Іншими словами, математична статистика – це цільове застосування
теорії ймовірностей для дослідження статистичних даних із метою одержання
наукових і практичних висновків щодо закономірностей масових випадкових
явищ.
Слід зазначити, що методи теорії ймовірностей і математичної статис-
тики дістали свій подальший розвиток у таких нових економічних
дисциплінах, як «Економетрія», «Теорія ризику», «Теорія надійності» і т. п.
Тому знання основних понять та методів теорії ймовірностей і матема-
тичної статистики та вміння їх застосовувати для розв’язання практичних
задач є вкрай необхідні для роботи в ринкових умовах кожному освіченому
економістові.
КВМ
13
РОЗДІЛ 1
ВИПАДКОВІ ПОДІЇ
У цьому розділі викладено основні ймовірнісні поняття і методи, які пов’язані
з випадковими подіями. Тут розглядається:
поняття стохастичного експерименту і простору елементарних подій;
класифікація подій та алгебраїчні операції над подіями;
класичне, геометричне, статистичне та аксіоматичне означення ймовір-
ності випадкової події;
поняття умовної ймовірності та незалежності випадкових подій, правила
множення і додавання ймовірностей;
формула повної ймовірності і формули Байєса;
схема незалежних повторних випробувань і формула Бернуллі;
асимптотичні локальна та інтегральна формули Лапласа і формули Пуас-
сона, пов’язані зі схемою Бернуллі.
1.1. Основні поняття теорії ймовірностей
1.1.1. Стохастичний експеримент і простір елементарних подій
До вихідних понять теорії ймовірностей належать
поняття стохастичного експерименту, випадкової події і ймовірності
випадкової події.
КВМ
14
Стохастичними (випадковими) експериментами називаються експери-
менти, результати яких не можна передбачити наперед. Припускається, що з
розглядуваним експериментом можна пов’язати поняття сукупності всіх
можливих його результатів. Кожний із цих можливих результатів будемо
називати елементарною (нерозкладною) подією, або елементарним
результатом, а сукупність (множину) усіх таких можливих результатів –
простором елементарних подій (результатів). Отже, унаслідок аналізованого
випадкового експерименту обов’язково відбувається одна з елементарних
подій, до того ж одночасно з нею не може відбутися жодна з інших еле-
ментарних подій (події, які мають таку властивість, називають несумісними).
Домовимося позначати простір елементарних подій літерою , а еле-
ментарну подію – літерою і записувати (це означає, що належить ).
Приклад 1.1. Монету підкидають двічі. Описати простір елементарних подій даного
експерименту.
Розв’язання. Наслідками цього випробування можуть бути такі елементарні ви-
падкові події:
ГГ1щ (двічі випаде герб);
ГЦ2щ (за першого кидання випаде герб, а за другого – цифра);
ЦГ3щ (за першого кидання випаде цифра, а за другого – герб);
ЦЦ4щ (двічі випаде цифра).
Простором елементарних подій цього експерименту є множина:
,щ,щ,щ,щЩ 4321 або = ГГ, ГЦ, ЦГ, ЦЦ.
Приклад 1.2. У регіоні є два молокозаводи М1, М2 і чотири агрофірми Ф1, Ф2, Ф3
і Ф4. Для того, щоб сформувати групи партнерів (два постачальники – один
споживач), навмання вибирають по одному молокозаводу і дві агрофірми. Описати
простір елементарних подій даного експерименту.
Розв’язання. Наслідками цього експерименту можуть бути такі елементарні події:
2111щ ФФМ , 2127щ ФФМ ,
3112щ ФФМ , 3128щ ФФМ ,
КВМ
15
4113щ ФФМ , 4129щ ФФМ ,
3214щ ФФМ , 32210щ ФФМ ,
4215щ ФФМ , 42211щ ФФМ ,
4316щ ФФМ , 43212щ ФФМ ,
де kji ФФM означає, що після сформування групи партнерів до неї потрапили
молокозавод iM та агрофірми jФ і kФ , )(4,3,2,1,;2,1 kjkji .
Простором елементарних подій даного експерименту є множина:
,щ,,щ,щЩ 1221 або 432311211 ,,,Щ ФФМФФМФФМ .
Зауважимо, що в наведених прикладах 1.1 і 1.2 простір елементарних
подій є скінченною множиною (елементи такої множини можна полічити).
Нижче наведемо приклади, в яких простір елементарних подій є
нескінченною множиною.
Приклад 1.3. Монету кидають до першої появи герба. Описати простір
елементарних подій даного експерименту.
Розв’язання. Простором елементарних подій такого експерименту є множина:
щ,,щ,,щ,щЩ 21 n ,
де ГЦЦn
n 1
щ
означає, що герб випаде вперше в n-му експерименті, а щ
відповідає тій можливості, що герб ніколи не випаде (у цьому разі наш експеримент
продовжується нескінченно довго).
У даному випадку простір є нескінченною, але зліченною множиною (усі еле-
менти такої множини можна занумерувати).
Приклад 1.4. У квадрат на площині зі стороною 2а і з центром у початку координат,
сторони якого паралельні до осей координат, навмання «кидають» точку. Описати
простір елементарних подій.
Розв’язання. У цьому випадку можливими наслідками експерименту є попадання в
будь-яку точку описаного квадрата. Якщо х, y вважати координатами точки на
площині, то простір елементарних подій
ayaaxayx ,:,Щ
КВМ
16
є множиною нескінченною і незліченною (елементів цієї множини не можна ні
полічити, ні занумерувати).
1.1.2. Випадкові події як підмножини у просторі елементарних подій
У реальному досліді, крім взаємно виключних
елементарних результатів, може бути багато інших, так званих складених (або
подільних) випадкових подій. У прикладі 1.1 перелічено елементарні
результати експерименту: ;щ1 ГГ ;щ2 ГЦ ;щ3 ЦГ ,щ4 ЦЦ які
пов’язані з дворазовим киданням монети. У цьому досліді можна також
розглядати складену випадкову подію, яка полягає в тому, що герб випаде
хоча б один раз. Дана подія відбудеться тоді, і тільки тоді, коли відбудеться
одна з трьох елементарних подій: 1 або 2, або 3.
Складені випадкові події позначають великими латинськими літерами
A, B, C, … . Кожну реальну випадкову подію A в математичній моделі
ототожнюють з деякою підмножиною A множини , включаючи до
A тільки ті елементарні події , за яких настає подія A. Елементи множини
A називають елементарними подіями, які є сприятливими для появи події A.
Отже, надалі подія A – це деяка підмножина простору , що складається
з усіх елементарних подій , які є сприятливими для події A. Якщо результат
експерименту описується точкою і A, то в даному експерименті подія A
відбулася. Якщо точка A, то подія A в цьому експерименті не відбулася.
Сама множина також є подією. Цю подію називають вірогідною
(достовірною), оскільки вона обов’язково настає під час будь-якого
результату експерименту. Неможливою є подія, яка в процесі виконання
даного експерименту не може відбутися. Очевидно, неможливій події
відповідає порожня множина елементарних подій. Тому неможливу подію
позначають, як і порожню множину, через .
КВМ
17
Приклад 1.5. Шестигранний гральний кубик підкидають один раз. Визначити
елементарні події і події: А – випаде число очок, кратне 2; В – випаде число
очок, кратне 3; С – випаде яке-небудь число очок від 1 до 6; D – випаде число очок,
кратне 8.
Розв’язання. Елементарними є події 654321 щ,щ,щ,щ,щ,щ , де подія і – на верхній
грані випаде і очок.
Події 642 щ,щ,щA , 63 щ,щB – складені події, причому перша розкладається на
три, друга – на дві елементарні події. Подія С – вірогідна подія, бо яке-небудь число
очок від 1 до 6 обов’язково випаде. Подія D – неможлива, бо жодне з чисел від 1 до 6
не ділиться на 8.
Приклад 1.6. Із картотеки служби зайнятості навмання вибирають три картки, на
кожній з яких може бути позначено, що відповідний мешканець регіону
працевлаштований (П) або залишається безробітним (Б). Побудувати простір
елементарних подій та описати події: А – дві особи з трьох навмання вибраних
залишаються безробітними, В – не менше як дві особи з трьох навмання вибраних
працевлаштовані.
Розв’язання. Елементарними в даному експерименті (випробуванні) є події:
,щ1 ППП ,щ2 ППБ ПБП3щ , ПББ4щ , БПП5 , ,щ6 БПБ ББП7щ ,
.щ8 БББ
Простір елементарних подій 87654321 щ,щ,щ,щ,щ,щ,щ,щЩ .
Подія А={ББП, БПБ, ПББ}, а подія В ={ППП, ППБ, ПБП, БПП}.
Приклад 1.7. Припустімо, що монету кидають до першої появи герба. Описати
подію А, яка полягає в тому, що буде виконано не більше ніж три кидки.
Розв’язання. Оскільки герб може випасти під час першого, другого або третього
кидання монети, то
321 щ,щ,щA ,
де елементарні події 1 = Г – герб випав під час першого кидання, 2 = ЦГ – герб
випав під час другого кидання, 3 = ЦЦГ – герб випав під час третього кидання
монети.
КВМ
18
Приклад 1.8. Точку «кидають» у квадрат зі стороною 2а і центром у початку
координат, сторони якого паралельні до осей координат. Подія А полягає в тому, що
точка «попаде» на вписаний у цей квадрат круг радіуса а. Тоді
222:, ayxyxA .
1.1.3. Операції над подіями
Як відомо, для множин визначене відношення по-
рядку і над ними можна здійснювати відповідні алгебраїчні операції. Про-
аналізуємо змістове значення цих понять у разі, коли підмножини простору
інтерпретуються як події, спостережувані в деякому експерименті.
Означення. Подія А називається окремим випадком події В (або В є
наслідком А), якщо множина А є підмножиною множини В.
Позначаються ці відношення так само, як для множин: BA або AB .
Відношення BA означає, що кожного разу, коли відбувається подія А,
також відбувається і подія В. Наприклад, якщо подія А – під час кидання
грального кубика випаде грань із числом очок 4, а подія В – під час кидання
грального кубика випаде грань із парним числом очок, то BA і подія В є
наслідком події А.
Означення. Події А і В називаються рівносильними, якщо подія А є
окремим випадком події В ( BA ) і подія В є окремим випадком події
А ( AB ).
Рівносильність подій А і В позначають так: BA .
Означення. Сумою (об’єднанням) двох подій A і В називається подія
С = BA (С = A + B), що складається з елементарних подій, які входять до
складу хоча б однієї з подій А, В.
Інакше кажучи, подія BA полягає в тому, що відбудеться принаймні
одна з подій A або B.
КВМ
19
Означення. Добутком (перетином) двох подій A і B називається подія
),( BACBAC що складається з елементарних подій, які входять в
обидві події А і В.
Подія BA означає, що одночасно відбуваються обидві події A і B.
Поняття суми і добутку подій та їх інтерпретація поширюються на випа-
док будь-якого скінченного, а також зліченного числа подій. Зокрема, подія
121
nnn AAAA
відбувається тоді, і тільки тоді, коли відбувається принаймні одна з подій
Ап, ,,2,1 n а подія
121
nnn AAAA
відбувається тоді, і тільки тоді, коли відбуваються всі події Ап, п = 1, 2, ... .
Означення. Різницею двох подій A і B називається подія С = BA \
(С = А – В), що складається з елементарних подій, які входять до А і не
входять до В.
Подія BA \ полягає в тому, що подія A відбулася, а подія B не
відбулася.
Означення. Протилежною подією A до події А називається подія
A\ , тобто подія, що складається з усіх елементарних подій, які не
входять до А.
Отже, подія A відбувається тоді, і лише тоді, коли не відбувається подія А.
Означення. Дві події А і В називаються несумісними, коли їх добуток є
неможлива подія, тобто коли BA .
Несумісність подій А і В означає, що поява події А виключає можливість
появи події В, і навпаки.
КВМ
20
Означення. Декілька подій nAAA ,,, 21 називаються попарно
несумісними (або просто несумісними), якщо поява будь-якої з них виключає
появу кожної з решти, тобто ji AA при ji .
Означення. Події nAAA ,,, 21 утворюють повну групу, якщо в
результаті виконання експерименту принаймні одна з цих подій обов’язково
відбудеться, тобто коли
nAAA 21 . Особливо істотними для нас надалі будуть повні групи попарно
несумісних подій. Такою, зокрема, є сукупність усіх елементарних подій у
випадку, коли є скінченна множина. Повну групу несумісних подій завжди
утворюють будь-яка подія А та протилежна до неї подія A , оскільки
AA , AA .
Операції над подіями зручно ілюструвати за допомогою діаграм Ейлера –
Венна (рис. 1.1). На цих діаграмах простір елементарних подій зображено у
формі квадрата, подію А – точками круга, а подію В – точками трикутника.
BA BA А\В A
Рис. 1.1. Діаграми Ейлера – Венна
Приклад 1.9. Задано множину чисел {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}, з якої
навмання вибирають одне число. Подія А полягає в тому, що вибране число ділиться
на 3, подія В – навмання вибране число є парне. Описати простір елементарних подій
і знайти BA , ,BA .,,, BABABA
Розв’язання. Простір елементарних подій
}12,11,10,9,8,7,6,5,4,3,2,1{ ,
а)
б) в) г)
КВМ
21
а події
А = {3, 6, 9, 12}, B = {2, 4, 6, 8, 10, 12}.
За означеннями суми, добутку, різниці подій і протилежної події маємо:
BA = {2, 3, 4, 6, 8, 9, 10, 12}, BA = {6, 12},
A = {1, 2, 4, 5, 7, 8, 10, 11}, B = {1, 3, 5, 7, 9, 11},
BA = {1, 3, 5, 6, 7, 9, 11, 12}, BA = {2, 4, 8, 10}.
Коли розглядати стохастичний експеримент, то на інтуїтивному рівні
ми розуміємо, що різні випадкові події, які є можливими наслідками
експерименту, мають різні міри можливості для їх появи або непояви. Деяку
чисельну оцінку міри можливості появи випадкової події називають
імовірністю цієї події. У загальному випадку поняття ймовірності випадкової
події, як і вже введені нами поняття стохастичного експерименту,
елементарного результату і випадкової події, також належить до вихідних
понять теорії ймовірностей, тобто визначається аксіоматично. Перед тим, як
сформулювати аксіоми теорії ймовірностей, спинимося на основних підходах
до означення ймовірності.
1.1.4. Класичне означення ймовірності
Суть даного поняття пояснимо спочатку на прикладі.
Якщо в грошово-речовій лотереї є 1 000 білетів і на 200 з них припадає
грошовий виграш, а на 100 – речовий виграш, то, купуючи один білет, ми
інтуїтивно відчуваємо, що можливість одержати грошовий виграш є більшою,
ніж речовий. А найбільшою є можливість придбати невиграшний білет.
Виникає питання: як дати чисельну характеристику кожної можливості?
Нехай подія А – на куплений білет припаде грошовий виграш, подія В –
на куплений білет припаде речовий виграш. Серед усіх 1 000 рівноможливих
наслідків експерименту (придбання лотерейного білета) сприятливими для
КВМ
22
події А є 200, а для події В – 100 наслідків. Тоді для кількісної оцінки міри
можливості появи події А приймемо відношення 2,01000200
, а для кількісної
оцінки міри можливості появи події В – відношення 1,01000100
. Отримані
числа в подальшому назвемо ймовірностями даних подій.
Подамо тепер класичне означення ймовірності. Нехай простір
елементарних подій є скінченною множиною nщ,,щ,щ 21 , тобто є
лише n можливих результатів випробування. Будемо додатково вважати, що
всі елементарні події є рівноможливими. Рівноможливість подій означає, що
немає об’єктивних причин вважати одну з елементарних подій більш
імовірною порівняно з іншими. Позначимо через m число елементарних подій
зі всіх n , які є сприятливими для події А в цьому експерименті.
Означення. Класичною ймовірністю )(AP події А називається
відношення числа сприятливих для події А елементарних подій (наслідків) до
числа всіх рівноможливих і попарно несумісних результатів (наслідків)
експерименту, тобто
nmAP )( . (1.1)
Повернемося до нашого прикладу. Коли припустити, що, купуючи один
лотерейний білет, ми з однаковою ймовірністю можемо придбати будь-який із
1 000 білетів, доходимо висновку, що для обчислення ймовірностей подій А і
В можна застосувати класичне означення ймовірності. Зокрема, для випадку
події А 1000n і 200m , а для випадку події В 1000n і 100m .
Підставляючи значення для m і n у формулу (1.1), знаходимо, що
2,01000200
AP і 1,01000100
BP .
КВМ
23
1.1.5. Основні поняття комбінаторики та їх
застосування при обчисленні ймовірностей
Обчислюючи ймовірності подій (визначаючи числа m і n), часто необ-
хідно використовувати елементи комбінаторики, основними поняттями якої є
розміщення, переставлення і комбінації. Наведемо коротку інформацію про ці
поняття та їх застосування для обчислення ймовірностей.
Нехай М є n -елементною множиною і nk .
Означення. Розміщенням без повторень, або просто розміщенням із n
елементів по k елементів називають будь-яку впорядковану k-елементну
підмножину множини М.
Можна ще сказати, що розміщення – це кількість різних впорядкованих
сполук з k елементів n -елементної множини.
Із цього означення випливає, що два розміщення вважаються різними не
тільки тоді, коли вони відрізняються деякими елементами, а й тоді, коли вони
складені з однакових елементів і відрізняються їх порядком. Наприклад,
розміщеннями з трьох елементів 321 ,, aaa по два елементи є впорядковані
підмножини ),,(),,(),,( 311221 aaaaaa ),(),,(),,( 233213 aaaaaa . Число knA усіх
різних розміщень(без повторень) із n елементів по k елементів обчислюється
за формулою:
121 knnnnAkn , (1.2)
де k n .
Використовуючи позначення !21 nn (n-факторіал), формулу (1.2)
можемо переписати так:
.!
!kn
nAkn (1.3)
Зауважимо, що в останній формулі при nk може бути у знаменнику
множник !0 . Щоб формула (1.3) у цьому випадку мала зміст, вважатимемо за
означенням, що 1!0 .
КВМ
24
Означення. Розміщенням з повтореннями з n елементів по k елементів
називається будь-який впорядкований k-елементний набір виду 1 2, , ka a a ,
де 1 2, , ka a a - елементи множини М, які не обов’язково різні.
Розміщення з повтореннями з n елементів по k елементів ще називають
впорядкованими k-вибірками з поверненням з n -елементної множини. Ця
назва пояснюється тим, що розміщення з повтореннями з n елементів по k
елементів можна дістати наступним чином: вибрати з множини М спочатку
елемент 1a і записати його на першому місці, а потім повернути його в
множину М; далі вибрати елемент 2a M (може трапитися, що 2 1a a ) і
записати його на другому місці, а потім знову повернути його до множини М і
т.д. Повторюючи цю операцію k разів, одержимо деяке розміщення з
повтореннями з n елементів по k.
Число knA всіх розміщень з повтореннями з n елементів по k елементів
обчислюється за формулою
.k knA n (1.3)
Означення. Розміщення без повторень з n елементів по n елементів
називаються переставленнями з n елементів.
Із цього означення видно, що різні переставлення з n елементів
відрізняються лише порядком елементів (бо кожне розміщення містить усі
елементи даної n -елементної множини). Число Рn усіх переставлень із
n елементів обчислюється за формулою:
nnAP nnn 21! . (1.4)
Якщо серед елементів n–вибірки є однакові, то переставлення, які
утворюються одна з другої перестановленням однакових елементів, нічим між
собою не відрізняються. Тому число різних переставлень у цьому випадку
буде меншим ніж !n . Отже, ми приходимо до поняття нового виду вибірок –
переставлення з повтореннями.
КВМ
25
Нехай задано k елементів. Побудуємо n–вибірку з цієї множини
елементів. Перший елемент повторимо 1n разів, другий 2n рази,…, k-й
повторимо kn разів: 1 2 ... kn n n n .
Означення. Будь-яке впорядковання елементів n-вибірки, утвореної з k-
елементної множини в описаний вище спосіб називається переставленнями з
повтореннями.
Число ),...,,( 21 kn nnnP таких переставлень з повтореннями обчислюється
за формулою:
1 21 2
!, ,...,! ! ... !n k
k
nP n n nn n n
(1.4)
Якщо k=n і 1...21 knnn , то формула (1.4) зводиться до формули
(1.4).
Означення. Комбінацією без повторень, або просто комбінацією з n
елементів по k елементів називають будь-яку k -елементну підмножину
множини М.
Комбінації, на відміну від розміщень, – це невпорядковані підмножини за-
даної множини. Дві комбінації вважаються різними, якщо деякий елемент вхо-
дить в одну з них і не входить у другу. Наприклад, комбінаціями з трьох елемен-
тів 321 ,, aaa по два елементи є підмножини 323121 ,,,,, aaaaaa . Число knC
усіх різних комбінацій (без повторень) із n елементів по k елементів
обчислюється за формулою:
)!(!!
knknC k
n . (1.5)
Очевидно, k n . Виконуються також рівності 1
1,k n k k k kn n n n nC C C C C
.
Зв’язок між кількістю переставлення, розміщень та комбінацій
виражається формулою k kn n kA C P .
КВМ
26
(Пропонуємо три останні рівності перевірити самостійно.)
Означення. Комбінацією з повтореннями з n елементів по k елементів
називається будь-який невпорядкований k-елементний набір виду kaaa ,...,, 21 ,
де 1 2, ,..., ka a a - елементи множини М, які не обов’язково різні.
Число knC усіх комбінацій з повтореннями з n елементів по k елементів
обчислюється за формулою
)!1(!)!1(
1
nkknCC k
knk
n .
Приклад 1.10. У регіоні є 50 приватних підприємств, 10 з яких стали банкрутами.
Яка ймовірність того, що навмання вибране підприємство не є банкрутом?
Розв’язання. Число всіх можливих наслідків (елементарних подій) експерименту
n = 50. Число сприятливих наслідків (елементарних подій) для події А – навмання
вибране підприємство регіону не є банкрутом дорівнює m = 40. Отже,
.8,05040)(
nmAP
Приклад 1.11. Абонент, набираючи номер телефону, забув дві останні цифри і
набрав їх навмання, пам’ятаючи лише, що вони різні. Яка ймовірність події А –
набрані абонентом навмання дві останні цифри номера телефону є правильні?
Розв’язання. Число всіх можливих елементарних наслідків випробування є число
розміщень з 10-ти елементів по 2 елементи, тобто
.90!8109!8
!8!10
)!210(!102
10
An
Число сприятливих наслідків – елементарних подій для події А становить m = 1.
Отже, за формулою (1.1):
.0111,0901)(
nmAP
Приклад 1.12. На фірмі працюють 10 інженерів і 5 спеціалістів із питань ринку.
Керівник фірми вирішив для виконання спеціального завдання сформувати робочу
групу з 5-ти осіб. Яка ймовірність події А – вибрана навмання група з 5-ти осіб
включає 3-х інженерів і 2-х спеціалістів ринку?
КВМ
27
Розв’язання. Число n усіх елементарних подій даного випробування є число всіх
різних за складом груп, які можна сформувати з 15-ти працівників фірми по 5 осіб, тобто
.3003!10543211514131211!10
!10!5!15
)!515(!5!155
15
Cn
Число m усіх елементарних наслідків, які сприятливі для події А, обчислюємо таким
чином. Спочатку обчислимо число m1 різних груп, які можна сформувати з 10-ти
інженерів по 3, і число m2 усіх різних груп, які можна сформувати з 5-ти спеціалістів
із питань ринку по 2. За формулою (1.5) маємо:
;1203211098
!7!31098!7
!7!3!103
101
Cm
.102154
!3!254!3
!3!2!52
52
Cm
Число всіх груп із 5-ти осіб, кожна з яких включає 3-х інженерів і 2-х спеціалістів
ринку, отримаємо, коли до кожної групи з 3-х інженерів долучимо кожну групу з 2-х
спеціалістів ринку, тобто
.12001012025
310 CCm
Шукана ймовірність:
.4,030031200)( 5
15
25
310
C
CCnmAP
Приклад 1.13. Знайти ймовірність того, що серед десяти цифр банкноти:
а) немає цифри 3;
б) немає цифр 3 і 8;
в) знайдуться всі цифри.
Розв’язання. Десятизначний номер банкноти складається з цифр 0, 1, 2, 3, 4, 5, 6, 7,
8, 9, кожна з яких може повторюватися певне число разів. Тому число п всіх
можливих наслідків (число всіх можливих номерів банкноти) є число розміщень з
повтореннями з 10 елементів по 10, яке обчислюється за формулою (1.3):
10 1010 10n A .
Число всіх сприятливих наслідків для подій, які описані в пунктах а), б), в), є різним.
а) Число т сприятливих наслідків для події А – номер банкноти не містить цифри 3 є
число розміщень з повтореннями з 9-ти елементів по 10, тобто 10 109 9m A .
КВМ
28
Шукана ймовірність події А дорівнює 10 10910 1010
9( ) 0,348710
AP AA
.
б) Число т сприятливих наслідків для події В – номер банкноти не містить цифр 3 і 8
є число розміщень з повтореннями з 8-ми елементів по 10, тобто 10 108 8m A .
Шукана ймовірність події В дорівнює 10 10810 1010
8( ) 0,107410
AP AA
.
в) Число т сприятливих наслідків для події С – номер банкноти містить всі цифри є
число переставлень з 10-ти елементів:
10 10!m P .
Шукана ймовірність події В дорівнює
1010 10 9 910
10! 9! 362880( ) 0,0003610 10 10
PP AA
.
1.1.6. Властивості ймовірності
Сформулюємо основні властивості ймовірності.
1. Для кожної події A маємо, що 10 AP .
Ця властивість випливає з класичного означення ймовірності (форму-
ла 1.1), бо, очевидно, nm 0 .
2. Імовірність вірогідної події дорівнює 1: 1P .
Справді, за формулою (1.1) маємо, що 1nnP .
3. Якщо події А і В несумісні BA , то
.)()()( BPAPBAP (1.6)
Властивість 3 ще називають теоремою про додавання ймовірностей для
несумісних подій.
Обґрунтуємо властивість 3. Нехай n – кількість усіх елементарних
результатів, 1m – кількість елементарних результатів, що сприяють події А,
КВМ
29
2m – кількість елементарних результатів, що сприяють події В. Події А і В за
умовою несумісні, отже, кількість елементарних результатів, які сприяють
події BA , дорівнює 21 mm . Тому
,)()()( 2121 BPAPn
mn
mn
mmBAP
тобто маємо формулу (1.6).
Із властивості 3 випливає такий наслідок: якщо події nAAA ,,, 21
попарно несумісні (тобто ji AA при ji ), то
.)()()()( 2121 nn APAPAPAAAP (1.7)
Рівність (1.7) можна вивести з властивості 3 методом математичної індукції.
4. Нехай А і В – випадкові події, такі, що BA . Тоді
APBPABP \ . (1.8)
Рівність (1.8) випливає з таких міркувань. Оскільки BA , то
ABAB \ , до того ж A і AB \ є несумісні події. Тому, за власти-
вістю 3,
ABPAPBP \ APBPABP \ .
Ураховуючи, що 0\ ABP , із рівності (1.8) випливає наслідок: якщо
BA , то BPAP .
5. Імовірність суми двох довільних подій А і В дорівнює сумі їх імовір-
ностей, зменшеній на ймовірність добутку цих подій, тобто
BAPBPAPBAP . (1.9)
Дана властивість є теорема про додавання ймовірностей довільних подій.
Обґрунтуємо формулу (1.9). Запишемо подію BA як об’єднання трьох
попарно несумісних подій (див. діаграми Ейлера-Венна):
.\\ BABABBAABA (1.10)
Із властивостей 3 (наслідок) і 4 одержимо:
КВМ
30
\ \P A B P A A B P B A B P A B
= BAPBPAPBAPBAPBPBAPAP ,
що й потрібно було показати.
Зауваження. Із властивості 5 можна отримати формулу для обчислення
ймовірності суми будь-якого скінченного числа подій. Якщо nAAA ,,, 21
– довільні події, то
...
321321
2121 11 11 niii
iiin
i niiiii
n
ii AAAPAAPAPAP
nn AAAP 21
11 . (1.11)
(Доведіть формулу (1.11) для п = 3).
6. Імовірність протилежної події A до події А обчислюється за
формулою:
APAP 1 . (1.12)
Формула (1.12) випливає з таких міркувань. Оскільки AA і події
А і A несумісні, то, за властивостями 2 і 3, маємо:
APAPAAPP 1 APAP 1 .
Приклад 1.14. Агенція оцінює стан кредитування особи, що визначає її рейтинг як
«відмінний», «добрий», «задовільний» і «поганий». Імовірність, що особа отримає
«відмінний» рейтинг, становить 0,25, «добрий» – 0,3, «задовільний» – 0,3. Яка
ймовірність того, що: а) особа отримає «поганий» рейтинг; б) особа отримає не
більше, ніж «добрий» рейтинг?
Розв’язання. Введемо позначення подій:
А – особа отримала «відмінний» рейтинг; В – особа отримала «добрий» рейтинг;
С – особа отримала «задовільний» рейтинг; D – особа отримала «поганий» рейтинг;
E – особа отримала не більше, ніж «добрий» рейтинг.
КВМ
31
Подія DCBA є вірогідна і .1)( DCBAPP Оскільки події
А, В, С, D – попарно несумісні, то
)()()()()( DPCPBPAPDCBAP )(1)(1 APDP )()( CPBP .
Імовірність того, що особа отримає «поганий» рейтинг, становить:
.15,03,03,00251)( DP
Подія BCDE і )()()()( BPCPDPBCDPEP , оскільки події D, C і
B – несумісні. Отже, імовірність того, що особа отримає не більше, ніж «добрий»
рейтинг, дорівнює:
.75,03,03,015,0)( EP
Приклад 1.15. У коробці міститься 50 деталей, з яких 40 – стандартних. Знайти
ймовірність того, що серед 5-ти навмання вийнятих із коробки деталей є хоча б одна
нестандартна.
Розв’язання. Події А (серед 5-ти навмання вийнятих із коробки деталей є хоча б
одна нестандартна) і A (усі вийняті з коробки 5 деталей – стандартні) є протилежні,
тому з формули (1.12) маємо, що
).(1)( APAP
Обчислимо nmAP )( , де n – число всіх елементарних наслідків даного
випробування і m – число елементарних наслідків у цьому випробуванні, які
сприятливі для події A . Очевидно, що
n = 550C і m = 5
40C .
Тому
!50!35!45!40
!50!45!5
!35!5!40)( 5
50
540
CCAP =
.31,050494847464039383736
5049484746!45!35!454039383736!35
Шукана ймовірність .69,031,01)( AP
КВМ
32
1.1.7. Геометричне означення ймовірності
Природним узагальненням та розширенням безпо-
середнього обчислення ймовірностей у класичній схемі є «геометричний»
підхід для означення ймовірностей подій; його застосовують тоді, коли
простір елементарних подій є незліченною множиною елементарних подій
і, за умовами симетрії досліду, жодна з них не має переваги перед іншими
щодо можливості появи.
Нехай простір елементарних подій – відрізок числової прямої або
область на площині чи в просторі, а елементарні події – окремі точки в
межах цієї області. Припустімо, що область має скінченну міру т()
(на прямій – довжину, на площині – площу, у просторі – об’єм). Розглянемо
систему ℱ підмножин простору , які мають міру. Множини з ℱ назвемо
випадковими подіями. Якщо експеримент має властивість симетрії щодо
елементарних результатів (наприклад, деякий «точковий» об’єкт «навмання»
кидаємо в межах області), то всі елементарні події «рівноправні», тож
природно припустити, що ймовірність попадання елементарної події у будь-
яку частину пропорційна мірі цієї частини і не залежить від її розташування
і форми. Тоді ймовірність будь-якої події A ℱ можна обчислити,
користуючись таким означенням.
Означення. Геометричною ймовірністю P(A) події А називається
відношення міри Am до міри т(), тобто
P(A)= .mAm (1.13)
Отже, формула (1.13) є узагальненням класичної формули (1.1) для
випадку незліченної множини елементарних подій. Можна показати, що
геометрична ймовірність задовольняє властивості 1–6, які були наведені в
пункті 1.1.6 для випадку класичної схеми.
КВМ
33
Зауваження. За класичного означення ймовірності, Р(А) = 0 лише для
А = . За геометричного означення це не так. Справді, нехай – плоска
фігура, А – точка або лінія, що розміщена в . Тоді за формулою (1.13)
Р(А) = 0, хоча подія А є можливою – точка в разі її «кидання» на може
потрапити на А.
Приклад 1.16. На відрізку ОM довжини L навмання вибирають точку N. Знайти ймо-
вірність того, що менший із відрізків ON і NM має довжину, більшу ніж .31 L
Розв’язання. Нехай подія A – менший із відрізків ON і NM має довжину, більшу
ніж L31 . Подія А відбудеться, якщо точку N виберемо на відрізку ,21 OMNN кінці
якого ділять відрізок ОМ на три рівні частини. Шукана ймовірність:
.313
1
)Щ()()(
L
L
mAmAP
Приклад 1.17. Два студенти домовилися про зустріч у визначеному місці між 12-ю
і 13 годинами. Студент, який приходить на місце зустрічі першим, чекає свого колегу
15 хв. і відходить. Знайти ймовірність того, що студенти зустрінуться у визначеному
місці (подія А), якщо кожний студент вибирає час приходу на місце зустрічі між 12-ю
і 13 годинами навмання.
Розв’язання. Нехай 12 + x – час приходу першого студента, а 12 + y – час приходу
другого студента на місце зустрічі. Очевидно, ,10 x .10 y
Простір елементарних подій і подія А описуються рівностями:
10,10:, yxyx ,
41
41:,або
41:, xyxyxAyxyxA
і вони зображені на рис. 1.2: – квадрат ОАВС, А – виділена фігура ОMNBQP.
КВМ
34
Рис. 1.2. Геометричне зображення простору і події А до прикладу 1.15
Шукана ймовірність
OABC
MANOABCS
SSm
AmAP 2
143
43
2121
.4375,0167
1691
1.1.8. Статистичне означення ймовірності
Для більшості практичних задач, у тому числі
економічних, обчислити ймовірності випадкових подій, користуючись
класичним або геометричним означеннями, неможливо з різних причин.
Зокрема, дуже часто неможливо подати результат стохастичного експери-
менту як сукупність елементарних подій, які можна було би вважати
рівноможливими. Так, коли гральний кубик виготовлено з неоднорідного
матеріалу (центр ваги не збігається з геометричним центром кубика), то не
можна вважати рівноможливими випадання різних граней. Інший приклад.
Нехай виготовляються деякі вироби, при цьому подія А – виготовлений виріб
стандартний. Тут не можна визначити повної системи зі скінченної кількості
рівноможливих подій, для якої подія А була б допустимою. Кількість таких
прикладів можна збільшити. У подібних випадках для оцінки невідомої
ймовірності випадкової події можна використати статистичне означення
ймовірності. Надалі будемо припускати, що розглядаються лише такі
стохастичні експерименти, які можна повторювати будь-яке число разів, і що
КВМ
35
за багатократного їх повторення події, які відбулись у попередніх експери-
ментах, ніяк не впливають на події, які відбудуться в даному експерименті.
Розглянемо деякий стохастичний експеримент і подію А, спостережувану
в цьому експерименті. Повторимо експеримент n разів. Нехай Akn – число
експериментів, у яких подія А відбулася.
Означення. Відносною частотою )(AWn події А називається
відношення числа )(Akn експериментів, у яких подія А відбулася, до числа n
усіх експериментів, тобто
.)()(nAkAW n
n (1.14)
Відносна частота може бути обчислена після того, коли проведено серію
експериментів, і, загалом кажучи, вона змінюється, якщо здійснити іншу
серію з n експериментів або якщо змінити n . Однак практика показує, що за
достатньо великих n для більшості таких серій експериментів відносна
частота має властивість стійкості. Це означає, що зі збільшенням числа
експериментів )(AWn наближається до деякого числа )(AP .
Природно вважати, що це число й характеризує міру можливості події А.
Воно називається статистичною ймовірністю цієї події.
Означення. Статистичною ймовірністю події А називається число
)(AP , навколо якого коливається відносна частота )(AWn появи цієї події в
довгих серіях експериментів.
Наведене означення часто називають «статистичним означенням» імо-
вірності події А. Зауважимо, що практично за чисельне значення статистичної
ймовірності події А в разі великого числа експериментів може бути прийнята або
відносна частота, або ж число, близьке до відносної частоти цієї події.
Звернімо увагу на те, що відносна частота )(AWn має такі властивості:
1) 10 AWn ;
2) 1nW ;
КВМ
35
3) якщо А і В – дві спостережувані несумісні події, то
BWAWBAW nnn .
Наведені властивості випливають із того, що nAkn , nkn
(вірогідна подія відбувається під час кожного виконання експерименту), і
якщо А і В – несумісні події, то
BkAkBAk nnn .
Приклад 1.18. За даними статистики, яка була проведена у Швеції 1935 року, відносна
частота народження дівчаток характеризується такими числами (за місяцями року):
січень – 0,486 квітень – 0,471 липень – 0,462 жовтень – 0,491
лютий – 0,489 травень – 0,478 серпень – 0,484 листопад – 0,482
березень – 0,490 червень – 0,482 вересень – 0,485 грудень – 0,479.
Середнє арифметичне значення цих частот становить 0,482. Це число і приймається
за ймовірність народження дівчинки.
Приклад 1.19. У результаті соціологічного опитування тисячі осіб було визначено,
що за кандидата А проголосують 428 виборців, за кандидата Б – 501 виборець, а
решта електорату не визначилася. Знайти ймовірність того, що виборець проголосує
за кандидата Б, і визначити орієнтовну кількість виборців, які проголосують за нього,
якщо весь електорат – 70 млн осіб, а з них візьмуть участь у виборах 70%.
Розв’язання. За означенням статистичної ймовірності
Р(Б) Wn(Б) = 1000501 = 0,501,
де Р(Б) – імовірність того, що виборець проголосує за кандидата Б.
У виборах візьмуть участь n = 497,070 млн виборців. Кількість Бkn виборців,
які, імовірно, проголосують за кандидата Б, визначимо за допомогою формули
(1.14):
kп(Б) = п · Wn (Б) = 49 · 0,501 = 24,5 (млн).
КВМ
37
Природно, що в разі статистичного означення ймовірності події А
виконання властивостей 1–3 треба вимагати і від імовірності AP .
►Зауважимо також, що емпіричне означення статистичної ймовірності
події характеризує лише природно-науковий зміст поняття ймовірності, але не
є його формально математичним означенням.
Для того, щоб прийти до формального означення ймовірності, потрібно
аксіоматизувати властивості, що випливають зі статистичного змісту цього
поняття. Після того, як аксіоми будуть сформульовані, можемо будь-яку
систему величин, які відповідають сформульованій системі аксіом, називати
ймовірністю.
Зрозуміло, що для подальшого розвитку формальної теорії неістотно,
який реальний зміст вкладемо в поняття ймовірності. Проте, якщо
застосовувати результати теорії до явищ реального світу, то потрібно дати
інтерпретацію відношення поняття імовірності до об’єктивних явищ природи.
Власне практична інтерпретація отриманих імовірностей буде пов’язана зі
статистичним її означенням.
1.1.9. Імовірнісна модель
стохастичного експерименту. Аксіоми теорії ймовірностей
У попередніх пунктах ми ознайомилися з основними
підходами до означення ймовірності події. Було з’ясовано, що введені різні
означення ймовірності не охоплюють багатьох важливих реальних ситуацій, а
тому не можуть бути використані для побудови загальних імовірнісних
моделей. Виявляється, що загальну ймовірнісну модель можна описати,
означивши поняття ймовірності, як і поняття простору елементарних подій,
аксіоматично.
КВМ
38
Розглянемо спочатку дискретну ймовірнісну модель. Тут розглядається
стохастичний експеримент зі скінченним або зліченним числом елементарних
результатів, тобто
,щ,,щ,щ 21 i .
Припустімо, що кожній елементарній події iщ приписана деяка «вага»
ip , яка називається «ймовірністю» елементарної події iщ , і що ваги ip мають
такі властивості:
а) 0ip , б)
1
1i
ip .
Нехай А – будь-яка випадкова подія, спостережувана в даному експе-
рименті, тобто А – довільна підмножина простору .
Означення. Імовірністю AP події А називають суму ймовірностей ip
елементарних подій iщ , що сприяють події А:
щi
iA
P A p
. (1.15)
Не важко переконатися, що введена цим способом імовірність має такі
властивості:
0 1P A ;
1;)( P
якщо А і В – несумісні події B,A , то
BPAPBAP .
Означення. Кажуть, що для даного експерименту побудована
ймовірнісна модель P, , якщо:
1) указаний простір елементарних подій ,щ,,, 21 i ;
2) кожному результату i приписана «імовірність» ip , до того ж
0ip і
11
iip .
КВМ
39
Імовірність будь-якої події А, спостережуваної в даному експерименті,
визначається за формулою (1.15). Зауважимо, що класичну схему можна
розглядати як частковий випадок даної. Справді, припустімо, що
розглядається експеримент зі скінченним числом n однаково можливих
результатів nщ,,щ,щ 21 . Це означає, що природно під час побудови
ймовірнісної моделі цього експерименту приписати кожному результату iщ
імовірність n1 . Тоді формула (1.15) приводить до формули (1.1), тобто до
класичного означення ймовірності.
Для визначення ймовірностей елементарних подій у загальному випадку
приймаються до уваги інтуїтивні уявлення про ip як відносну частоту події iщ
в серії з великого числа повторів експерименту.
Приклад 1.20. Шестигранний гральний кубик підкидають один раз. Описати простір
елементарних подій . Визначити через елементарні результати подію В – випаде
число очок, кратне 3, та обчислити ймовірність цієї події.
Розв’язання. Простором елементарних подій тут є множина
654321 щ,щ,щ,щ,щ,щ , де подія iщ – на верхній грані кубика випаде i очок,
і = 1, 2, 3, 4, 5, 6. Тоді 63 щ,щB .
Якщо гральний кубик симетричний, то кожній елементарній події iщ припишемо
ймовірність 61 . Це означає, що нами буде побудована класична ймовірнісна модель
експерименту, який полягає в киданні шестигранного симетричного грального
кубика. Тоді 31
62BP .
Припустімо, що гральний кубик не є симетричний і маса кожної грані пропорційна
до її номера. У цьому випадку припишемо елементарній події iщ імовірність
КВМ
40
216
1
i
k
ip
k
i
, 6,5,4,3,2,1i .
Імовірність розглядуваної події 63 щ,щB буде дорівнювати 73
216
213)( BP .
Приклад 1.21. Симетричну монету кидають до першої появи герба. Знайти
ймовірність події А – відбудеться не більше як три кидання.
Розв’язання. Простором елементарних подій такого експерименту є множина
щ,,щ,,щ,щ 21 n ,
де ГЦЦЦn
n 1
щ
, щ – елементарна подія, яка означає, що герб ніколи
не випаде.
Припишемо події nщ імовірність n21 , а події щ – імовірність 0. Тоді
1
211
21
21щ
1щ
nni
i
P .
Отже, ми побудували ймовірнісну модель експерименту, що полягає в киданні
монети до першої появи герба. Обчислимо тепер імовірність події А
ЦЦГЦГГA ,, . Маємо, що
87
81
41
21
ЦЦГРЦГРГPAP .
Розглянемо тепер питання побудови загальної ймовірнісної моделі
стохастичного експерименту.
Нагадаємо, що за скінченної або зліченної теоретико-ймовірнісної схеми
спостережуваною подією можна вважати будь-яку підмножину простору
елементарних подій і ймовірність події визначається як сума ймовірностей
КВМ
41
елементарних подій, які сприяють цій події. Коли ж простір неперервний,
то не завжди можливо вважати подією будь-яку його підмножину.
У даному випадку також не можна побудувати ймовірнісну модель
експерименту, приписуючи ймовірності лише окремим елементарним подіям
(див. п. 1.1.7).
Отже, у загальному випадку доводиться мати справу не з усіма
підмножинами простору , а лише з певним їх класом, який є замкнений
відносно алгебраїчних операцій, що виконуються над множинами, тобто з
класом множин, до якого разом із множинами А і В належать множини
BAABBABABA ,,\,\,, .
Клас підмножин простору елементарних подій , що замкнений відносно
операцій об’єднання, віднімання і множення множин, а також який містить
множину , називається полем подій. Поле подій будемо позначати літерою ℱ.
Переходимо до формулювання аксіом, які визначають загальну ймо-
вірність моделі стохастичного експерименту.
Означення. Імовірністю AP події А називається числова функція, яка
визначена на полі подій ℱ і яка має такі властивості:
імовірність AP події А ℱ задовольняє нерівність 10 AP
(аксіома 1);
імовірність вірогідної події дорівнює одиниці: 1P (аксіома 2);
імовірність об’єднання двох несумісних подій А ℱ, В ℱ дорівнює
сумі ймовірностей цих подій: BPAPBAP , BA
(аксіома 3).
Прикладами об’єктів, для яких виконується система аксіом теорії
ймовірностей, є геометрична схема, а також дискретна ймовірнісна модель,
окремим випадком якої є класична схема.
КВМ
42
З аксіом теорії ймовірностей випливає низка наслідків (див. властивості
4–6 із п. 1.1.6), які можуть бути доведені так само, як це було зроблено для
класичної схеми.
У багатьох випадках вимагається розширений варіант аксіоми 3. А саме,
аксіома 3 постулює додавання ймовірностей для скінченного числа несу-
місних подій, а в розширеному варіанті маємо справу зі зліченним їх числом.
У цьому випадку аксіома 3 формулюється так:
якщо задана зліченна множина несумісних подій ...,...,,, 21 nAAA ,
( ji AA ( ji )) і
1niA ℱ, то
11 nn
nn APAP .
Звернімо увагу ще раз на той факт, що аксіоми теорії ймовірностей
постулюють існування ймовірності для всіх подій, що утворюють поле ℱ, і
задають певні правила дій із цими ймовірностями. Експериментальне ж
означення ймовірності будь-якої події А ℱ може бути здійснено в результаті
спроб за допомогою відносної частоти події А.
Отже, описана теоретико-ймовірнісна схема задається трьома компо-
нентами ,{ ℱ, Р}, тобто конкретним простором елементарних подій , полем подій ℱ та заданою на ℱ імовірністю Р. Трійка об’єктів ,{ ℱ, Р}, в
якій ℱ вважається замкнутим відносно злічених сум і добутків подій, а Р
задовольняє аксіоми 1 і 2, а також розширений варіант аксіоми 3, називається
ймовірнісним простором.
Зауваження. При розв’язуванні багатьох практичних задач ми
зустрічаємося з подіями, ймовірність яких дуже мала. Чи можна вважати, що
така подія в одиничному випробуванні не відбудеться? Такого висновку
зробити не можна, бо не виключено, хоч мало ймовірно, що подія
відбудеться.
КВМ
43
Однак досвід показує, що малоймовірні події в одиничному випробуванні
в переважній більшості не відбуваються. На основі цього факту приймають
такий „принцип неможливості малоймовірних подій”: якщо випадкова
подія має дуже малу ймовірність, та практично можна вважати, що в
одиничному випробуванні ця подія не відбудеться.
Наскільки малою повинна бути ймовірність, щоб можна було вважати її
появу в одиничному випробуванні неможливою, залежить від конкретної
задачі. Якщо, наприклад, імовірність аварії літака дорівнює 0,01, то було б
недопустимо вважати, що така подія не відбудеться і використовувати його
для перевезення пасажирів; якщо ж імовірність того, що літак запізниться
дорівнює 0,01, то можна практично вважати, що він прибуде вчасно. Досить
мала ймовірність, при якій (в даній конкретній задачі) подію можна вважати
неможливою, називається рівнем значущості, який на практиці вважають
числом, що міститься між 0,01 і 0,05.
Аналогічно можна сформулювати висновок про події, ймовірність яких є
близькою до одиниці: якщо випадкова подія має ймовірність близьку до
одиниці, то можна вважати, що в одиничному випробуванні ця подія
відбудеться.
Рекомендована література: [1, с. 17–45; 2, c. 4–12; 5, c. 17–30; 7, c. 5–28; 8,
с. 5–45].
Завдання для самоконтролю
Основні поняття, означення і відношення. Замість крапок запишіть таке продовження (доповнення) тексту, щоб отримати
правильне означення або твердження.
1. Вірогідною називається подія, яка …
2. Неможливою називається подія, яка …
3. Випадковою називається подія, яка …
4. Експерименти (випробування), результати яких не можна передбачити наперед,
називають …
КВМ
44
5. Кожний можливий результат експерименту (випробування) називають …
6. Простір елементарних подій – це …
7. Простір елементарних подій називається скінченним, якщо ..., і зліченним, якщо ...
8. Подія А називається окремим випадком події В, якщо ..., і це записують так: ...
9. Події А і В називаються рівносильними, якщо ...
10. Сумою двох подій А і В називається подія BAC , яка полягає в тому, що …
11. Добутком двох подій А і В називається подія BAC , яка полягає в тому, що …
12. Різницею двох подій А і В називається подія BAC \ , яка полягає в тому, що …
13. Випадкові події називаються несумісними, якщо …, і сумісними, якщо …
14. Протилежними називаються дві несумісні події, які …
15. Події nAAA ,,, 21 називаються попарно несумісними, якщо ...
16. Події nAAA ,,, 21 утворюють повну групу, якщо …
17. Згідно з класичним означенням імовірністю Р(А) події А називається …
18. Число nP усіх переставлень із n елементів без повторень обчислюється за формулою:
…, а число 1 2, ,...,n kP n n n всіх переставлень з повтореннями – за формулою ...
19. Число mnA усіх розміщень із n елементів по m елементів без повторень обчислюється за
формулою …, а число mnA всіх переставлень з п елементів по т елементів з повтореннями
– за формулою ...
20. Число mnC усіх комбінацій із n елементів по m елементів без повторень обчислюється за
формулою: …, а число mnC всіх комбінацій з п елементів по т елементів з повтореннями –
за формулою ...
21. Для кожної події А ймовірність Р(А) є число з проміжку ...
22. Імовірність вірогідної події дорівнює ..., а ймовірність неможливої події дорівнює ...
23. Якщо випадкові події А і В – несумісні, то ймовірність їх суми обчислюється за
формулою: ...
24. Якщо випадкові події А і В – сумісні, то ймовірність їх суми обчислюється за
формулою: ...
25. Якщо подія В є наслідком події А, то )\( ABP = ...
26. Якщо події nAAA ,,, 21 – попарно несумісні, то ймовірність їх суми
nAAAP 21 = ...
КВМ
45
27. Імовірності події А і протилежної до неї події A пов’язані рівністю ...
28. Геометрична ймовірність Р(А) події А – це …
29. Відносна частота Wn(A) події А – це …
30. Статистична ймовірність р(A) події А – це …
Тести Запишіть на бланку відповідей номер завдання та коди (порядкові номери або літери), що
відповідають тим варіантам відповідей, які вважаєте правильними. Бланк відповідей
заповнюйте за такою формою:
Номер завдання … k … Код відповіді … nk …
1. Маємо два шестигранних однорідних гральних кубики, кожна грань яких позначена
певним числом очок від 1 до 6. Підкидаємо два гральних кубики (експеримент).
Визначити типи подій:
а) подія А – на верхніх гранях випаде число очок, сума яких дорівнює одному з
натуральних чисел від 2 до 12.
Варіанти відповідей: 1. Вірогідна. 2. Випадкова. 3. Неможлива;
б) подія В – на верхніх гранях випаде число очок, сума яких дорівнює 9.
Варіанти відповідей: 1. Вірогідна. 2. Неможлива. 3. Випадкова;
в) подія С – на верхніх гранях випаде число очок, сума яких дорівнює 15.
Варіанти відповідей: 1. Вірогідна. 2. Неможлива. 3. Випадкова.
2. Розглянемо сім’ї, які мають по двоє дітей. Експеримент полягає в тому, що навмання
вибирають сім’ю і фіксують стать дитини. Елементарний результат ХД означає, що
старша дитина – хлопчик, молодша – дівчинка і т. д. Описати такі події:
2.1. Простір елементарних подій.
Варіанти відповідей: 1. },{ ДДХХ . 2. },,,{ ДДДХХДХХ .
3. },,{ ДДДХХХ .
2.2. Подія А – серед двох дітей є хоча б один хлопчик.
Варіанти відповідей: 1. }{ДДA . 2. },,{ ХДДХХХA . 3. },{ ДХХХA .
2.3. Подія В – серед двох дітей є одна дівчинка.
Варіанти відповідей: 1. },{ ХДДХB . 2. }{ДХB . 3. }{ХДB .
КВМ
46
2.4. Подія A .
Варіанти відповідей: 1. },{ ХДДХA . 2. }{ДДA . 3. }{ХХA .
2.5. Подія BA .
Варіанти відповідей: 1. },,{ ДДХДДХBA . 2. },{ ХХДХBA .
3. },{ ДДХХBA .
2.6. Подія BA .
Варіанти відповідей: 1. },{ ДХХДBA . 2. }{BA .
3. }{ДДBA .
3. Податкова адміністрація перевірила три навмання вибраних фірми на наявність у них
порушень нормативних актів про сплату податків і результати перевірки відзначила
знаком «+» фірми, в яких є порушення, знаком «–» – фірми, в яких немає порушень.
Описати такі події:
3.1. Простір елементарних подій.
Варіанти відповідей: 1. },,{Щ . 2. },,{Щ .
3. },,,,,,,{Щ .
3.2. Подія А – принаймні дві фірми мають порушення.
Варіанти відповідей: 1. },,,{ A . 2. },{ A .
3. }{ A .
3.3. Подія B – не більше ніж дві фірми мають порушення.
Варіанти відповідей: 1. },{ B .
2. },,,,,,{ B .
3. },{ B .
3.4. Подія B .
Варіанти відповідей: 1. }{ B . 2. },,,{ B .
3. },,,{ B .
3.5. Подія BA .
Варіанти відповідей: 1. BA = . 2. BA = }{ . 3. BA = A.
3.6. Подія BA .
Варіанти відповідей: 1. BA = },,{ . 2. BA ={+ + +}.
КВМ
47
3. BA = }{ .
3.7. Подія BA \ .
Варіанти відповідей: 1. BA \ = },,{ . 2. BA \ = }{ .
3. BA \ = }{ .
4. Група туристів проходить на кордоні митний контроль. Із 30-ти туристів шестеро не
задекларували валюти, яку вони перевозять. Митна служба вибирає для контролю
навмання певну групу туристів (експеримент). Знайти:
4.1. Імовірність того, що вибраний навмання один турист не задекларував валюти.
Варіанти відповідей: 1. –0,3. 2. 0,2. 3. 0,1.
4.2. Імовірність того, що вибраний навмання один турист задекларував валюту.
Варіанти відповідей: 1. 1,8. 2. 0,3. 3. 0,8.
5. В адвокатській фірмі працюють три адвокати. Особа звернулася до фірми з проханням за-
хищати її справу на судовому засіданні, і справу фірма прийняла. Імовірність того, що
справу захищатиме перший адвокат, дорівнює 0,3, другий адвокат – 0,45. Яка ймовірність
того, що: а) справу захищатиме третій адвокат; б) справу захищатиме перший або другий
адвокат?
Варіанти відповідей: а) 1. 0,25. 2. 0,7. 3. 0,55;
б) 1. 0,135. 2. 0,75. 3. 0,25.
6. Статистичний звіт підприємства може прийняти один із чотирьох експертів
статуправління. Імовірність того, що звіт прийме перший експерт, дорівнює 0,15,
другий експерт – 0,35, третій експерт – 0,2. Знайти ймовірність того, що: а) звіт прийме
четвертий експерт; б) звіт прийме другий або четвертий експерт.
Варіанти відповідей: а) 1. 0,5. 2. 0,3. 3. 0,0105;
б) 1. 0,105. 2. 1,05. 3. 0,65.
7. Національний банк України вирішив проаналізувати стан погашення кредитів,
наданих агрофірмам. Для перевірки було навмання вибрано 100 агрофірм і
з’ясовано, що 80 із них погашають кредити своєчасно. Знайти: а) статистичну
КВМ
48
ймовірність події А – фірма погашає кредит своєчасно; б) число m агрофірм регіону
з 900, які погашають кредити своєчасно.
Варіанти відповідей: а) 1. P(A)= 0,7. 2. P(A)= 0,8. 3. P(A)= 0,9;
б) 1. m = 630. 2. m = 810. 3. m = 720.
8. Результати соціологічного опитування населення області про оцінку роботи голови
обласної адміністрації дали такі результати:
Регіони Відповіді Усього позитивно негативно не знаю
Міський 200 150 250 600 Сільський 500 400 500 1400
Разом 700 550 750 2000
Із числа всіх опитаних вибирають навмання одного респондента. Знайти ймовірність
того, що:
а) вибраний респондент – із сільського регіону;
б) вибраний респондент оцінив роботу голови адміністрації позитивно;
в) вибраний респондент дав оцінку роботи голови адміністрації.
Варіанти відповідей: а) 1. 0,6. 2. 0,7. 3. 0,75;
б) 1. 0,35. 2. 0,45. 3. 0,65;
в) 1. 0,45. 2. 0,8. 3. 0,625.
9. Маємо квадрат зі стороною а і вписаний у нього круг. Точку навмання «кидаємо» на
квадрат. Знайти ймовірність того, що точка «попаде» на вписаний круг.
Варіанти відповідей: 1. 0,7. 2. 0,9. 3. 0,785.
10. Яка ймовірність події BAC , якщо події А і В несумісні?
Варіанти відповідей: 1. Р(С) = 1. 2. Р(С) = 0. 3. Р(С) = 0,5.
11. Чому дорівнює )...( 21 nAAAP , якщо події nAAA ...,,, 21 – попарно несумісні й
утворюють повну групу?
Варіанти відповідей: 1. 0,1. 2. 0. 3. 1.
12. Відомо, що подія А – вірогідна, а подія В – неможлива. Чому дорівнює )\( BAP ?
Варіанти відповідей: 1. )\( BAP = 0,1. 2. )\( BAP = 1. 3. )\( BAP = 0.
КВМ
49
13. Чому дорівнює )(P , де – простір елементарних подій?
Варіанти відповідей: 1. )(P = 0. 2. )(P = 1. 3. )(P = 0,5.
14. Чому дорівнює )( AAP ?
Варіанти відповідей: 1. 0. 2. 1. 3. –1.
15. Чому дорівнює )( AAP ?
Варіанти відповідей: 1. 0. 2. 1. 3. 0,5.
Приклади 1. Для фінансової перевірки підприємств міста навмання вибирають два
підприємства, кожне з яких може бути або рентабельним (Р), або банкрутом (Б).
Побудувати простір елементарних подій та описати події: А – хоча б одне підприємство є
рентабельним, В – перше підприємство є банкрутом, BA , BA ,
BABABA ,,, , BA \ .
2. Підкидають монету і гральний кубик. Описати простір елементарних подій та
випадкові події: А – випаде герб і цифра 5, B – випаде число очок, що ділиться на 2.
Знайти ймовірності описаних подій.
3. Побудувати простір елементарних подій у такому експерименті: кидають монету і
фіксують, чи випав герб; кидання триває доти, доки герб не випаде двічі.
4. У лотереї розігрується 1000 виграшів. Серед них один виграш – 50 грн, п’ять
виграшів по 20 грн, двадцять виграшів – по 10 грн і п’ятдесят – по 5 грн. Знайти
ймовірність того, що:
а) на один куплений квиток припаде виграш не менший ніж 10 грн;
б) куплений один квиток виграшний.
5. Гральний кубик кидають двічі. Яка ймовірність того, що сума очок, які випадуть,
ділиться на 3?
6. В урні є 10 куль: 3 білі та 7 чорних. З урни навмання виймають одну кулю. Яка
ймовірність того, що вийнята куля: а) біла; б) чорна?
7. Вкладники банку за сумами вкладів та віком мають такий процентний розподіл:
Суми вкладу
Вік менше ніж 1000$ від 1000$ до 5000$ більше ніж 5000$
КВМ
50
менше ніж 30 років 5% 15% 8% від 30 до 50 років 8% 25% 20% більше ніж 50 років 7% 10% 2%
Нехай подія А – у навмання вибраного клієнта вклад більший від 5000$, подія B –
вік навмання вибраного клієнта не менший ніж 30 років. Визначити: Р(А), Р(В),
( ), ( )P A B P A B .
8. Маємо дев’ять однакових за розміром карток, на кожній з яких записано одну з
цифр: 1, 2, 3, 4, 5, 6, 7, 8, 9. Навмання беруть чотири картки і розкладають в один рядок.
Яка ймовірність того, що при цьому одержимо цифру 1973?
9. Знайти ймовірність того, що серед десяти цифр номера банкноти:
а) немає цифри 6 (число сприятливих наслідків – розміщення з повтореннями);
б) немає цифр 0 і 8;
в) знайдуться всі цифри (число сприятливих наслідків – перестановки).
10. Обчислити ймовірність того, що дні народження 12 осіб припадатимуть на різні
місяці року (число сприятливих наслідків – перестановки, а число всіх наслідків –
розміщення з повтореннями).
11. У лабораторії працюють 12 жінок і 8 чоловіків. П’ятеро осіб повинні виїхати у
відрядження. Яка ймовірність того, що у відрядження поїдуть 3 жінки?
12. На семи картках написано 7 літер: А, В, И, К, Л, Н, Я. Послідовно виймають
п’ять карток і розкладають у порядку виймання. Яка ймовірність того, що ці п’ять карток
утворять слово ЯЛИНА.
13. На приватній фірмі працює 15 людей, причому п’ятеро з них – жінки. Керівник
навмання вибирає трьох працівників для відрядження. Знайти ймовірність того, що хоча б
одна з вибраних осіб виявиться жінкою (подія А).
14. У рівносторонній трикутник вписано круг. У цей трикутник кидають навмання
точку. Яка ймовірність того, що вона не попаде в круг?
15. Під час бурі на ділянці між 40 і 70 кілометрами телефонної мережі розірвався
провід. Яка ймовірність того, що він розірвався між 45 і 50 кілометром мережі?
16. Задано множину {0 ,0 1}x y . Яка ймовірність того, що навмання
вибрані два числа x,y )10,0( yx утворять координати точки, яка належить
області А= ( , ) : 0 , 0x y x y x .
17. Два судна повинні підійти до одного причалу. Появи суден – незалежні
випадкові події, рівноможливі протягом доби. Знайти ймовірність того, що одному зі
КВМ
51
суден доведеться чекати звільнення причалу, якщо час стоянки першого судна – одна
година, а другого – дві.
18. Дуелі в місті Обережності рідко закінчуються сумним кінцем. Річ у тому, що
кожний дуелянт прибуває на місце зустрічі у випадковий момент часу між 5-ю і 6-ю
годинами і, прочекавши суперника 5 хвилин, залишає місце дуелі. У разі, коли суперник
прибуде протягом цих п'яти хвилин, дуель відбудеться. Знайти ймовірність того, що дуель
закінчиться поєдинком?
19. У партії однотипних деталей, кількість яких дорівнює 400, контролер виявив 25
бракованих. Чому дорівнює відносна частота появи стандартних деталей?
20. При стрільбі з гвинтівки по мішені відносна частота влучення дорівнює 0,85.
Знайти число влучень, якщо було здійснено 20 пострілів.
Відповіді:
1. BAБББРВБРРБPPАБББРРБPP },,{},,,{},,,,{ ,
},{\,,},,{},{},{ РРРБBАВBАВBАРРРБВББАБРBA .
2. {( ,1),( ,2),( ,3),( ,4),( ,5),( ,6),( ,1),( ,2),( ,3),( ,4),( ,5),( ,6)}Ц Ц Ц Ц Ц Ц Г Г Г Г Г Г .
3. , , , , ,...ГГ ЦГГ ГЦГ ГЦЦГ ЦЦГГ . 4. а) 0,026; б) 0,076. 5. 7 0,19(4)36
P .
6. а) 0,3; б) 0,7. 7. Р(А)=0,3; Р(В)=0,72; ( ) 0,8P A B ; ( ) 0,22P A B . 8. 0,00033069.
9. а) 0,3487; б) 0,1074; в) 0,00036. 10. 0,0000537. 11. 0,3973. 12. 1/2520. 13. 67/91. 14.
0,3954. 15. 0,1(6). 16. 0,5. 17. 0,1207. 18. 0,1597. 19. 0,9375. 20. 17.
КВМ
52
1.2. Умовна ймовірність. Незалежні події. Формула повної ймовірності і формули Байєса
У цьому підрозділі дається означення умовної
ймовірності, вводиться поняття незалежності випадкових подій,
наводяться теореми і формули, що ґрунтуються на умовних імовірностях і
найчастіше використовуються у практиці.
1.2.1. Умовна ймовірність
Означення ймовірності події ґрунтується на припу-
щенні про існування деякого незмінного комплексу умов S. Якщо жодних
інших обмежень, крім умов S, під час обчислення ймовірності Р(А) не
накладається, то таку ймовірність називають безумовною. Однак часто
доводиться розглядати ймовірності випадкових подій із додатковою умовою,
що відбулася деяка подія В, яка має додатну ймовірність. Такі ймовірності
будемо називати умовними і позначати )( BAP або Р(А / В), або )(APB – це
означає ймовірність події А за умови, що подія В відбулася.
Пояснимо спочатку на прикладі суть умовної ймовірності та пов’язані
з нею питання.
Приклад 1.22. У регіоні є 50 фірм і тільки 10 із них користуються кредитами
банку. Зі списку фірм навмання вибирають дві підряд. Нехай подія А – друга
фірма не користується кредитами банків, подія В – перша фірма користується
кредитами банків. Обчислити ймовірності Р(А), Р(В), ),( BAP Р(А | В).
Розв’язання. У даній задачі простір Ω складається з 50 · 49 = 2450 елементів, з
яких
49 · 40 = 1960 елементарних результатів сприяють події А, 10 · 49 = 490 –
КВМ
53
сприяють події В і 10 · 40 = 400 – сприяють події BA . Користуючись
класичним означенням імовірності випадкової події, отримуємо:
,8,024501960)(,2,0
2450490)( APBP
.163,0498
2450400)( BAP
Коли відомо, що подія В відбулася, то, замість 2 450 можливих елементарних
результатів, може відбутися лише один із 10 · 49 = 490 результатів, з яких 10 · 40
= 400 сприяють події А. Тому
816,04940
490400)( BAP .
Як бачимо, додаткова інформація (подія В відбулася) про результат
експерименту змінила ймовірність події А:
0,8 = 816,0)()( BAPAP .
Відзначимо ще один факт, який використовується для обчислення умовної
ймовірності:
)()(
490400)(
2450490
2450400
BPBAPBAP
.
Виявляється, остання рівність допускає узагальнення в тому плані, що коли ми
перебуваємо в умовах класичної або геометричної схеми, то її можна строго
обґрунтувати. Такого ж висновку доходимо, використовуючи статистичний підхід
для означення ймовірності події. У випадку ж загальної ймовірнісної моделі ця
рівність приймається за означення умовної ймовірності.
Нехай – простір елементарних подій і ЩЩ, BA – випадкові
події.
Означення. Умовною ймовірністю події А за умови, що подія В відбу-
лася, називається відношення
0)(,)(
)()( BPBP
BAPBAP . (1.16)
Із цього означення та властивостей імовірності випливають такі
властивості умовної ймовірності:
КВМ
54
1) 0)( BAP ;
2) 1)Щ( BP ;
3) 1)( BBP ;
4) Якщо nAAA ...,,, 21 – попарно несумісні події ( ji AA
при
ji ), то
n
ii
n
iBAPBAP
i11
)( .
(Самостійно довести властивості 2, 4).
Із рівності (1.16) випливає правило множення ймовірностей: якщо
Р(В) > 0, Р(А) > 0, то
),()()()()( BAPBPABPAPBAP (1.17)
тобто ймовірність добутку двох подій дорівнює добуткові ймовірності
однієї з них на умовну ймовірність другої за умови, що перша подія
відбулася.
Практичне значення рівності (1.17) полягає в тому, що вона дозволяє
визначити ймовірність складеної події A B за відомими ймовірностями
подій-співмножників, обминаючи побудову для події A B простору еле-
ментарних подій Ω.
Нехай, наприклад, потрібно визначити ймовірність добутку подій А і
В у прикладі 1.21. У цьому випадку Р(В) = 2,05010
. Перед другою спробою
для вибору залишається тільки 49 фірм. Якщо перша вибрана фірма
користується кредитами банків (подія В відбулася), то 4940)( BAP .
Застосовуючи формулу (1.17), отримаємо, що 163,0498
4940
51)( BAP .
КВМ
55
Приклад 1.23. Колектив працівників фірми складається на 65% із жінок. Серед
працівників фірми 25% чоловіків і 35% жінок мають вищу освіту. Знайти
ймовірність того, що навмання вибраний працівник фірми є чоловік і має вищу
освіту.
Розв’язання. Нехай подія А – вибраний навмання працівник фірми має вищу
освіту, подія В – вибраний навмання працівник фірми є чоловік. За умовою
задачі 35,0)( BP ; 25,0)( BAP . Подія С = AB полягає в тому, що вибраний
навмання працівник фірми має вищу освіту і є чоловік. За формулою (1.17)
маємо:
.0875,025,035,0)()()()( BAPBPABPCP
Зауваження. Формулу множення ймовірностей (1.17) можна узагаль-
нити для випадку будь-якого скінченого числа подій. Нехай
nAAA ...,,, 21 – випадкові події такі, що Р( 121 ... nAAA ) > 0. Тоді
)...( 21 nAAAP
= ...)()()( 213121 AAAPAAPAP )...( 121 nn AAAAP . (1.18)
1.2.2. Незалежні випадкові події
А. Випадок двох подій.
Уведемо поняття незалежності двох випадкових
подій, яке в теорії ймовірностей відіграє дуже важливу роль. Нехай Ω –
простір елементарних подій і Щ,Щ BA – випадкові події.
Означення. Події А і В називаються незалежними, якщо
)()()( BPAPBAP . (1.19)
Отже, незалежність подій рівносильна тому, що ймовірність сумісної
появи двох подій дорівнює добуткові їх імовірностей.
КВМ
56
Приклад 1.24. Монету кидають двічі. Нехай А – подія, яка полягає в тому, що за
першим разом випав герб, В – подія, яка полягає в тому, що за другим разом випав
герб. З’ясувати, чи будуть незалежними події А і В.
Розв’язання. Простором елементарних подій даного експерименту є множина
},,,{Щ ЦЦЦГГЦГГ . Тоді
}{},,{},,{ ГГВАЦГГГВГЦГГА
і 41)(,
21
42)(,
21
42)( BAPBPAP .
Отже, )()()( BPAPBAP . Тому випадкові події А і В – незалежні.
Розглянемо найважливіші властивості ймовірностей для незалеж-
них подій.
1. Нехай P(B) > 0. Випадкові події А і В незалежні тоді, і тільки тоді,
коли )()( APBAP (тобто поява події В не змінює ймовірності
події А).
Обґрунтуємо цю властивість. Якщо події А і В незалежні і P(B) > 0, то
за формулами (1.16) і (1.19) маємо:
)()(
)()()(
)()( APBP
BРAPBP
BAPBAP
, (1.20)
тобто поява події В не змінює ймовірності події А.
Навпаки, якщо поява події В не змінює ймовірності події А, тобто
)()( APBAP , то з рівностей
)()()(
)( APBAPBP
BAP
одержуємо, що )()()( BPAPBAP і згідно з останнім означенням події
А
і В – незалежні. Оскільки виконання рівності (1.19) рівносильне тому, що
поява події В не змінює ймовірності події А, то останнє твердження можна
КВМ
57
також вважати означенням незалежності подій А і В (за умови, що Р(В) >
0).
2. Якщо події А і В – незалежні, то події А і B , A і В, A і B – також
незалежні.
Для обґрунтування цієї властивості досить показати, що події А і B –
незалежні. За допомогою діаграм Ейлера – Венна легко перевірити
рівність )(\ BAABA . Тоді, використовуючи формулу (1.8), одержуємо:
)()()(\()( BAPAPBAAPBAP .
Оскільки події А і В – незалежні, то )()()( BPAPBAP , і далі маємо:
)()()](1)[()()()( BPAPBPAPBAPAPBAP , тобто події А і B – незалежні.
Приклад 1.25. У коробці є 100 деталей, з яких 10 – нестандартні. Із коробки
навмання для перевірки виймають дві деталі підряд. З’ясувати, чи будуть
залежними або незалежними події А (перша вийнята деталь – нестандартна) і В
(друга вийнята деталь – нестандартна), якщо: а) перша вийнята деталь у
коробку не повертається;
б) перша вийнята деталь повертається в коробку.
Розв’язання. В обох схемах вибору деталей безумовні ймовірності подій А і В
однакові і становлять:
а) ;1,0991001099)(,1,0
10010)(
ВРАР
б) ;1,010010010100)(,1,0
10010)(
ВРАР
Проте значення умовних імовірностей цих подій залежить від прийнятої схеми.
У випадку а) маємо, що 091,0111
999)( ABP . Оскільки )()( BPABP , то за
властивістю 1 умовної ймовірності події А і В – залежні.
У випадку б) події А і В – незалежні, бо
)(1,010010)( BPABP .
КВМ
58
Приклад 1.26. Стан використання підприємствами наданих їм кредитів контро-
люється центральним і обласним банками. Центральний банк перевіряє
вибірково 10%, а обласний банк – 20% підприємств. Яка ймовірність того, що
навмання вибране підприємство буде перевірене поточного року центральним
банком і не перевірене обласним банком, якщо рішення щодо перевірки на
різних рівнях приймаються незалежно?
Розв’язання. Введемо позначення: подія А – підприємство буде перевірене
центральним банком, подія В – підприємство буде перевірене обласним банком.
Очевидно, Р(А) = 0,1 і Р(В) = 0,2.
За умовою задачі потрібно знайти ймовірність події С = BA . Події А і B – не-
залежні і 8,0)( BP , бо 80% підприємств не перевіряються обласним банком.
Тому маємо:
.08,08,01,0)()()()( BPAPBAPCP
Отже, приблизно 8 зі 100 підприємств будуть перевірені центральним банком і
не перевірені обласним банком.
Б. Випадок довільного числа подій
Якщо маємо сукупність подій, яка містить більше ніж дві події, то
формула для обчислення ймовірності їх добутку також спрощується, якщо
ці події незалежні в сукупності.
Означення. Випадкові події nAAA ...,,, 21 називаються незалежними в
сукупності, якщо для будь-яких nrniii r 2(...1 21 )
1 2 1 2( ... ) ( ) ( ) ... ( )
r ri i i i i iP A A A P A P A P A . (1.21)
Для незалежних у сукупності подій nAAA ...,,, 21 імовірність їх добутку
дорівнює добуткові ймовірностей цих подій, тобто:
КВМ
59
)(...)()()...( 2121 nn APAPAPAAAP . (1.22)
Якщо умова (1.21) виконується лише при r = 2, то події називаються
попарно незалежними. Виявляється, що попарно незалежні події можуть
не бути незалежними в сукупності. Про це свідчить приклад, наведений
С. Н. Бернштейном.
Приклад 1.27. На площину кидають тетраедр, три грані якого пофарбовані
відповідно в червоний, зелений, голубий кольори, а на четверту грань нанесено
всі три кольори. Розглянемо випадкові події: 1A – випаде грань із червоним
кольором; 2A – випаде грань із зеленим кольором; 3A – випаде грань із
голубим кольором. З’ясувати, чи будуть події 1A , 2A , 3A попарно незалежними?
Чи будуть ці події незалежними в сукупності?
Розв’язання. Очевидно, що 21
42)()()( 321 APAPAP ;
),()(41)( 2121 APAPAAP
),()(41)( 3131 APAPAAP
).()(41)( 3232 APAPAAP
Отже, події 1A , 2A , 3A – попарно незалежні. Проте ці події не є незалежними в
сукупності, бо
81)()()(
41)( 321321 APAPAPAAAP .
* * *
Нехай nAAA ...,,, 21 – випадкові події, що є спостережуваними в
деякому стохастичному експерименті. Припустімо, що ці події незалежні
в сукупності і їх імовірності )(...,),(),( 21 nAPAPAP є відомі. Знайти
ймовірність події А, яка полягає в тому, що в результаті виконання експе-
рименту відбудеться хоча б одна з подій nAAA ...,,, 21 .
КВМ
60
З умови задачі випливає, що n
iiAA
1 . Розглянемо протилежну подію
A . Ця подія полягає в тому, що в результаті виконання експерименту не
відбудеться жодної з подій nAAA ...,,, 21 , тобто одночасно відбудуться події
nAAA ...,,, 21 . Тому n
iiAA
1 , і внаслідок незалежності подій nAAA ...,,, 21
)(...)()()( 21 nAPAPAPAP .
Отже,
)(...)()(1)(1)( 21 nAPAPAPAPAP , (1.23)
тобто ймовірність появи хоча б однієї з незалежних подій nAAA ...,,, 21 дорів-
нює різниці між одиницею і добутком імовірностей протилежних до них
подій.
Приклад 1.28. Бізнесмен має контакти з трьома банками і може брати кредити в
кожному з них. Протягом 5-ти попередніх років перший банк погодився надати
кредит 6 разів, другий банк – 7 разів, третій банк – 9 разів при 10-ти звертаннях до
кожного з них. Яка ймовірність того, що в даний час хоча б один із банків виділить
бізнесменові кредит?
Розв’язання. Введемо позначення: подія iA – i-тий банк виділить бізнесменові
кредит, 3,2,1i ; подія А – хоча б один банк виділить бізнесменові кредит. За
умовою задачі,
106)( 1 AP ,
107)( 2 AP ,
109)( 3 AP
104
1061)(1)( 11 APAP ,
,103
1071)( 2 AP .
101
1091)( 3 AP
За формулою (1.23) одержуємо:
.988,0012,01101
103
1041)( AP
КВМ
61
Приклад 1.29. Два стрільці виконують постріли в ціль. Імовірність того, що
перший стрілець попаде в ціль, дорівнює 0,8, а другий – 0,9. Яка ймовірність
того, що вцілить хоча б один стрілець?
Розв’язання. 1-й спосіб. Нехай подія А – вцілить перший стрілець, подія В –
вцілить другий стрілець. За умовою задачі Р(А) = 0,8 і Р(В) = 0,9. Подія С – хоча
б один стрілець попаде в ціль – є сумою подій А і В, тобто .BAC Оскільки
події А і В – сумісні (поява однієї не виключає появи іншої) і незалежні, то,
використовуючи рівності (1.9) та (1.19), знаходимо, що
.98,09,08,09,08,0)()()()()()( BPAPBPAPBAPCP
2-й спосіб. Подія С полягає в тому, що відбудеться хоча б одна з подій А і В.
Враховуючи, що 1,09,01)(,2,08,01)( BPAP , і застосовуючи формулу
(1.23), маємо:
.98,01,02,01)()(1)( BPAPCP
Зауваження. На практиці для перевірки незалежності подій рідко
користуються рівностями (1.19), (1.20) або (1.21). Здебільшого
виходять з інтуїтивних міркувань, пов’язаних із характером
випробувань, а саме: події вважають незалежними, якщо між ними
нема причинного зв’язку. Переконавшись за допомогою таких
міркувань у незалежності подій, можна використовувати формули
(1.19) і (1.21) для обчислення ймовірностей їх добутків.
1.2.3. Формула повної ймовірності
Припустімо, що подія А може відбутися за умови
появи однієї, і тільки однієї з попарно несумісних подій nHHH ...,,, 21 , які
утворюють повну групу і які назвемо гіпотезами. Нехай відомі
ймовірності )(...,),(),( 21 nHPHPHP та умовні ймовірності
),(),( 21 HAPHAP )(..., nHAP . Як знайти Р(А) у даній ситуації?
КВМ
62
Теорема. Якщо nHHH ...,,, 21 – повна група попарно несумісних подій
і ,...,,2,1,0)( niHP i то для будь-якої події А має місце рівність
n
iii HAPHPAP
1)()()( . (1.24)
Доведення. Для доведення зауважимо, що оскільки події nHHH ...,,, 21
утворюють повну групу попарно несумісних подій, то подію А можна
записати так:
1 21 1
( ) ...n n
i i ni i
A A H A H A H A H A H A
,
де події AH i та AH j з різними індексами і та j – несумісні.
За правилом додавання та множення ймовірностей маємо:
1 2 1 1( ) ... ( ) |nP A P H A P H A P H A P H P A H
+ ,)()()()(...)()(1
22
n
iiinn HAPHPHAPHPHAPHP
що й потрібно було довести.
Рівність (1.24) називають формулою повної ймовірності. Приклад 1.30. У магазині реалізується продукція трьох фірм, і частка кожної,
відповідно, така: 1-ї фірми – 50%, 2-ї фірми – 30%, 3-ї фірми – 20%. Для
продукції кожної з фірм брак, відповідно, становить: для продукції 1-ї фірми –
2%, для продукції 2-ї фірми – 3%, для продукції 3-ї фірми – 5%. Яка
ймовірність того, що навмання придбана в магазині одиниця продукції є
доброякісна (подія А)?
Розв’язання. Тут можливі три події-гіпотези: 321 ,, HHH , які полягають у тому, що
придбана в магазині продукція вироблена на 1-й, 2, 3 фірмах, відповідно. Очевидно,
події 321 ,, HHH – несумісні й утворюють повну групу, а їх імовірності становлять:
;5,0)( 1 HP ;3,0)( 2 HP .2,0)( 3 HP Відповідні умовні ймовірності події А
становлять:
;98,002,01)( 1 HAP ;97,003,01)( 2 HAP ,95,005,01)( 3 HAP
КВМ
63
бо подія А (придбана навмання одиниця продукції доброякісна) є протилежна до
події A (придбана навмання одиниця продукції є бракована). Далі, за формулою
(1.24), шукана ймовірність:
.971,095,02,097,03,098,05,0)( AP
1.2.4. Формули Байєса
Розглянемо ту ж ситуацію, яка була описана на
початку п. 1.2.3 цього розділу: маємо повну групу несумісних подій-гіпотез
nHHH ...,,, 21 і подія А може відбутися лише разом з однією з цих подій. Із
деяких міркувань відомі ймовірності гіпотез niHP i ...,,2,1),( .
Відомими вважаються також умовні ймовірності niHAP i ...,,2,1),( .
Далі припустимо, що проведено стохастичний експеримент, у результаті
якого відбулася подія А. Тоді виникає питання про переоцінку ймовірностей
гіпотез із позиції їх сприяння появі події А, тобто обчислення ймовірностей
),( AHP i ni ...,,2,1 .
Теорема. Нехай набір подій nHHH ...,,, 21 утворює повну групу попарно
несумісних подій, до того ж 0)( iHP для кожного і = 1, 2, …, n. Тоді для
будь-якої випадкової події А такої, що P(A) > 0, виконуються рівності:
n
kkk
iii
HAPHP
HAPHPAHP
1)()(
)()()( . (1.25)
Доведення. Для доведення (1.25) використаємо формулу множення і
формулу повної ймовірності. Отримаємо:
)()()(
APAHPAHP i
i
n
kkk
ii
HAPHP
HAPHP
1)()(
)()(.
Формули (1.25) називаються формулами Байєса і виражають імовір-
ність подій Ні за умови, що подія А відбулася.
КВМ
64
Приклад 1.31. Деталі, які виготовляє завод, можуть бути перевірені щодо їх
стандартності одним із двох контролерів. Імовірність того, що деталь буде
перевірена першим контролером, становить 0,6, другим контролером – 0,4.
Імовірність того, що деталь буде визнана стандартною першим контролером, –
0,94, другим контролером – 0,98. Після перевірки деталь визнана стандартною
(подія А). Знайти ймовірність того, що деталь перевірив перший контролер.
Розв’язання. До проведення експерименту (перевірки деталі) можливі дві події-
гіпотези: 1H або 2H – деталь надійде на перевірку до 1-го або 2 контролера,
відповідно. Імовірності гіпотез: ;6,0)( 1 HP .4,0)( 2 HP Умовні ймовірності події
А: ;94,0)( 1 HAP .98,0)( 2 HAP Шукану ймовірність )( 1 AHP обчислимо за
формулою (1.25):
.59,098,04,094,06,0
94,06,0)()()()(
)()()(
2211
111
HAPHPHAPHPHAPHP
AHP
Отже, імовірність того, що деталь, яка була визнана стандартною, перевірив перший
контролер, становить 0,59.
Рекомендована література: [1, с. 46–58; 2, с. 13–18; 5, с. 31–53;
7, с. 29–38; 8, с. 46–53].
Завдання для самоконтролю
Основні поняття, означення і відношення
Замість крапок запишіть таке продовження (доповнення) тексту, щоб
отримати правильне означення або твердження. 1. Умовною ймовірністю події А за умови, що подія В відбулася, називається відношення
…
2. Умовна ймовірність суми двох несумісних подій 1A і 2A за умови, що відбулася по-
дія В, дорівнює …
3. Якщо P(B) > 0, P(A) > 0, то правильні рівності Р(А ∩ В) = Р (В) ..., Р(А ∩ В) = Р(А) ·
...
КВМ
65
4. Нехай nAAA ...,,, 21 – випадкові події такі, що 0)...( 121 nAAAP . Тоді
...)...( 21 nAAAP
5. Події А і В називаються незалежними, якщо …
6. Нехай P(В) > 0. Випадкові події А і В незалежні тоді, і тільки тоді, коли ...)( BAP
7. Нехай P(А) > 0. Випадкові події А і В незалежні тоді, і тільки тоді, коли ...)( ABP
8. Якщо події А і В – незалежні, то ...)( BAP ; ...)( BAP ; ...)( BAP .
9. Події 321 ,, AAA називаються незалежними в сукупності, якщо виконуються
рівності …
10. Якщо випадкові події 321 ,, AAA незалежні в сукупності, то ...)( 321 AAAP
11. Яке з тверджень правильне: «якщо події nAAA ...,,, 21 попарно незалежні, то вони
незалежні в сукупності» чи «якщо події nAAA ...,,, 21 незалежні в сукупності, то
вони попарно незалежні»?
12. Якщо випадкові події А і В сумісні і незалежні, то ймовірність їх суми BA
обчислюється за формулою: …
13. Якщо випадкові події nAAA ...,,, 21 незалежні в сукупності і
)(...,),(),( 21 nAPAPAP – імовірності цих подій, а подія А полягає в тому, що
відбудеться хоча б одна з подій nAAA ...,,, 21 , то Р(А) можна обчислити за
формулою: …
14. Формула повної ймовірності має вигляд … і виражає …
15. Формули Байєса мають вигляд … і виражають …
Тести Запишіть на бланку відповідей номер завдання та коди (порядкові номери або літери), що
відповідають тим варіантам відповідей, які вважаєте правильними.
1. Серед 10-ти пар взуття, які розміщені на полиці магазину, – шість пар 41-го розміру. З
полиці беруть двічі навмання по одній парі взуття, не повертаючи їх назад. Подія А –
перша пара взуття 41-го розміру, подія В – друга пара взуття 41-го розміру. Виконати
такі дії:
а) з’ясувати сумісність і залежність подій А і В.
КВМ
66
Варіанти відповідей: 1. Несумісні і незалежні. 2. Сумісні і незалежні.
3. Несумісні і залежні. 4. Сумісні і залежні;
б) обчислити ймовірність події В.
Варіанти відповідей: 1. 0,6. 2. 5/9. 3. 0,5.
2. Теоретична частина предмета складається з трьох розділів, у кожному з яких по 10
питань. Студент знає 5 питань з першого розділу, 6 питань – із другого і 8 питань – із
третього. Викладач дає студентові навмання по одному питанню з кожного розділу.
Знайти ймовірність того, що:
а) студент знає відповіді на всі три питання;
б) студент знає відповіді на питання другого і третього розділів і не знає відповіді на
питання першого розділу;
в) студент не знає відповіді на жодне з трьох питань.
Варіанти відповідей: а) 1. 0,24. 2. 0,23. 3. 0,18;
б) 1. 0,21. 2. 0,24. 3. 0,42;
в) 1. 0,06. 2. 0,05. 3. 0,04.
3. Імовірність того, що ціна акції зростатиме протягом ділового дня, становить 0,4. Якщо
тенденція зміни ціни акції будь-якого дня є незалежною від того, що сталося
напередодні, то яка ймовірність, що ціна акції: а) буде зростати чотири дні поспіль;
б) залишиться такою ж чи спадатиме три дні поспіль?
Варіанти відповідей: а) 1. 0,0256. 2. 0,32. 3. 1,6;
б) 1. 1,2. 2. 0,216. 3. 0,64.
4. Для отримання кредиту підприємець звертається до двох банків. Імовірність того, що
перший банк не відмовить йому в наданні кредиту, становить 0,7, другий – 0,85. Знайти
ймовірність того, що: а) перший або другий банк дасть згоду на кредитування; б) обидва
банки відмовляться надати кредит.
Варіанти відповідей: а) 1. 1,55. 2. 0,955. 3. 0,595;
б) 1. 0,045. 2. 0,105. 3. 0,255.
5. Карти вибирають навмання з колоди з 52-х карт без повернення їх назад. Визначити
ймовірність того, що: а) перші дві карти – піки; б) один за одним виберуть чотири тузи.
КВМ
67
Варіанти відповідей: а) 1. 1/4. 2. 4/17. 3. 1/17;
б) 1. 0,0769. 2. 0,0049. 3. 0,0000035.
6. Імовірність того, що в річній декларації про сукупний оподатковуваний дохід подано не
всі джерела доходів, становить 0,2. Яка ймовірність того, що серед вибраних навмання
п’яти декларацій хоча б в одній подано не всі джерела доходів?
Варіанти відповідей: 1. 0,32768. 2. 0,67232. 3. 0,00032.
7. Подія А може відбутися за умови появи однієї, і тільки однієї з трьох подій-гіпотез
321 ,, HHH , при цьому ,3,0)( 1 HP ,25,0)( 2 HP .45,0)( 3 HP Умовні ймовірності
події А: ,2,0)(1
APH 4,0)(2
APH , .5,0)(3
APH Обчислити: а) Р(А); б) )( 2HPA .
Варіанти відповідей: а) 1. 0,385. 2. 0,3. 3. 0,4;
б) 1. 0,16. 2. 0,58. 3. 0,26.
8. Потрібний товар можна придбати на ринку у двох фірмових кіосках. Імовірність того,
що в першому кіоску товар якісний, становить 0,9, у другому кіоску – 0,8. Знайти
ймовірність того, що товар, придбаний навмання в будь-якому з двох кіосків, якісний.
Варіанти відповідей: 1. 0,85. 2. 0,98. 3. 0,72.
9. Фінансовий звіт фірми складається з 20-ти таблиць, які готували два економісти.
Перший економіст підготував 12 таблиць, другий – 8 таблиць. Імовірність помилки при
складанні таблиць із боку першого економіста 0,1, із боку другого економіста – 0,2. У
вибраній навмання таблиці допущено помилку. Яка ймовірність, що цю таблицю
готував другий економіст?
Варіанти відповідей: 1. 0,43. 2. 0,14. 3. 0,57.
10. Із двох близнюків перший є хлопчик. Яка ймовірність, що другий – також хлопчик, якщо
ймовірність народження двох хлопчиків становить 0,27, двох дівчаток – 0,23, а для
різностатевих близнюків імовірність народження першим для обох статей однакова?
Варіанти відповідей: 1. 0,51. 2. 0,5192. 3. 0,612.
Приклади
КВМ
68
1. Імовірність своєчасного складання звіту для першого економіста становить
0,9, для другого ця ймовірність є додатним розв’язком рівняння 28 7p p .
Визначити ймовірність несвоєчасного складання звіту двома економістами.
2. Радіолокаційна станція веде спостереження за двома об’єктами. За час
спостереження перший об’єкт може бути загублений з ймовірністю 1 0,12p , другий
– з імовірністю 2 0,14p . Знайти ймовірність того, що за час спостереження станція
не виявить об’єктів.
3. По цілі стріляють трьома ракетами. Імовірність влучення кожною ракетою
в ціль дорівнює 0,95. Знайти ймовірність того, що після обстрілу:
а) ціль не буде поражена; б) ціль буде знищена.
4. Екзаменаційний білет містить три питання. Ймовірності того, що студент
зможе відповісти на перші два питання білета, дорівнюють по 0,9, а на третє – 0,8.
Знайти ймовірність того, що студент складе іспит, якщо для цього необхідно
відповісти: а ) на всі питання; б) хоча б на 2 питання.
5. У бібліотеці 10 книжок з історії, 40 з математики і 30 з економіки. Читач, що
зайшов у бібліотеку, замовив навмання 5 книжок. Яка ймовірність, що всі вони з
одного розділу науки?
6. У групі 30 студентів і серед них 13 хлопців. За списком навмання вибирають
4 студенти. Яка ймовірність, що серед них виявиться більше ніж 2 хлопці?
7. В ящику міститься 15 однотипних деталей. Із них 9 стандартні, а решта
браковані. Деталі виймають по одній без повернення. Так було вийнято 3 деталі.
Обчислити ймовірності таких випадкових подій: А – три деталі виявляться
стандартними; В – три деталі виявляться бракованими.
8. В офісі працюють сім чоловіків і три жінки. За табельними номерами
навмання відібрано три особи. Знайти ймовірність того, що всі відібрані особи є
чоловіками.
9. Імовірність переходу студента першого курсу на другий дорівнює 0,9, а
ймовірність закінчити інститут – 0,8. З якою ймовірністю можна стверджувати, що
студент другого курсу закінчить інститут?
10. Імовірність безвідмовної роботи блоку, що входить у систему, протягом
заданого часу дорівнює 0,85. Для підвищення надійності встановлюють такий самий
КВМ
69
резервний блок. Знайти ймовірність безвідмовної роботи системи з урахуванням
резервного блоку.
11. Перша фірма може може одержати заданий прибуток з ймовірністю 0,7, для
другої ця ймовірність є розв’язком рівняння 06135 2 pp . Визначити
ймовірність одержання заданого прибутку принаймні однією фірмою.
12. Оператор обслуговує три верстати, що працюють незалежно один від
одного. Імовірність того, що протягом однієї години не потребуватиме уваги
оператора перший верстат, дорівнює – 0,9, другий – 0,8, третій – 0,85. Знайти
ймовірність того, що протягом однієї години:
а) рівно один верстат вимагатиме уваги оператора (сума всеможливих
добутків подій, дві з яких беруться із запереченням);
б) рівно два верстати вимагатимуть уваги оператора;
в) хоча б один верстат вимагатиме уваги оператора (імовірність протилежної
події);
г) усі верстати вимагатимуть уваги оператора.
13. Імовірність не допустити хоча б однієї помилки під час заповнення 4-х
податкових декларацій становить 0,9984. Обчислити ймовірність того, що при
заповненні декларації буде допущено помилку.
14. Імовірність того, що подія А з’явиться хоча б один раз при 4 незалежних
випробуваннях, дорівнює 0,75. Знайти ймовірність появи події в одному
випробуванні (припускається, що ймовірність появи події в усіх випробуваннях одна
й та ж).
15. Два пункти сполучаються кількома лініями зв’язку і ймовірність
пошкодження кожної з них протягом часу Т дорівнює 0,8. Заміна будь-якої
пошкодженої лінії може бути проведена лише після пошкодження всіх ліній. Скільки
потрібно провести ліній, щоб імовірність функціонування зв’язку між пунктами
протягом часу T була більша ніж 0,99?
16. Імовірність того, що за одного пострілу стрілець попаде в мішень, дорівнює
0,6. Скільки пострілів повинен зробити стрілець, щоб з імовірністю не меншою ніж
0,8 він попав у мішень хоча б один раз?
17. Відносні частоти неполадок у роботі мікропроцесора, оперативної пам’яті і
решти пристроїв комп’ютера відносяться як 3 : 2 : 5. Імовірності виявлення неполадок у
КВМ
70
роботі мікропроцесора, оперативної пам’яті і решти пристроїв комп’ютера відповідно
дорівнюють 0,8; 0,9 і 0,9. Знайти ймовірність виявлення неполадок у роботі комп’ютера.
18. У спеціалізованій лікарні є в середньому 50% пацієнтів із хворобою К, 30%
– із хворобою L і 20% – із хворобою М. Імовірності повного вилікування кожної
хвороби відповідно дорівнюють 0,7; 0,8 і 0,9. Пацієнт, що лікувався в лікарні, був
виписаний здоровим. Знайти ймовірність того, що він лікувався від хвороби К.
19. 70% всіх електроламп, що є магазині, виготовлені на одному заводі, і 30% -
на іншому. Продукція першого заводу містить 90%, а другого – 96% стандартних
електроламп. Знайти ймовірність того, що навмання куплена в магазині
електролампа виявиться стандартною.
20. Відомо, що 6% всіх чоловіків і 0,5% всіх жінок – дальтоніки. Навмання
вибрана людина виявилася дальтоніком. Яка ймовірність того, що це жінка, якщо
вважати, що кількість жінок і чоловіків однакова?
21. Ймовірність того, що кольоровий телевізор не зламається протягом
гарантійного терміну дорівнює 0,75, для телевізора з чорно-білим зображенням ця
ймовірність на 0,1 більша. Знайти ймовірність того, що навмання вибраний
телевізор із п’яти кольорових і 10 чорно-білих не зіпсується протягом гарантійного
терміну.
22. Пасажир для придбання квитка може звернутись до однієї з 4 кас.
Відповідні ймовірності дорівнюють 1 2 1 10,3, 0,1, 0,2, 0,4p p p p .
Ймовірність того, що до моменту появи пасажира в касі буде квиток, дорівнює
відповідно 0,7; 0,4; 0,6; 0,2. Пасажир звернувся до однієї з кас і купив квиток. Яка
ймовірність того, що квиток пасажир придбав у другій касі?
23.* Для участі в студентських спортивних змаганнях виділено з першої групи
курсу 4, з другої – 6, з третьої групи – 5 студентів. Ймовірності того, що студент
першої, другої і третьої груп попадає в збірну інституту, відповідно рівні 0,9, 0,7, 0,8.
Навмання вибраний студент у результаті змагань попав у збірну. До якої з груп
ймовірніше всього належав цей студент?
Відповіді:
1. 0,0125. 2. 0,0168. 3. а) 0,000125; б) 0,999875. 4. а) 0,648; б) 0,954. 5. 0,0333. 6.
0,2035. 7. Р(А)=0,1846; Р(В)=0,044. 8. 7/24. 9. 0,(8). 10. 0,9775. 11. 0,88. 12. а) 0,329; б)
КВМ
71
0,056; в) 0,388; г) 0,003. 13. 0,0004. 14. 0,293. 15. n 20. 16. n 1. 17. 0,87. 18. 0,(45).
19. 0,918. 20. 0,0769. 21. 0,81(6). 22. 0,0(8). 23*. До другої.
КВМ
72
1.3. Повторні незалежні випробування за схемою Бернуллі
Припустімо, що проводиться певне число
однакових випробувань (експериментів), у кожному з яких можливі лише
два несумісні наслідки: деяка подія А може відбутися або не відбутися.
Наприклад, коли підкидаємо 10 разів монету, то за кожного підкидання
монети випаде або герб (подія А), або цифра (подія A ).
Означення. Випробування називаються незалежними стосовно деякої
події А, якщо ймовірність цієї події в кожному випробуванні не залежить
від результатів інших випробувань.
Означення. Серія повторних незалежних випробувань з одним із мож-
ливих результатів А або A , у кожному з яких подія А має одну і ту ж
імовірність появи pAP )( , називається схемою Бернуллі.
Отже, якщо випробування проводяться за схемою Бернуллі, то в
кожному з них можливий тільки один із двох наслідків: А або A , до того ж
імовірності pAP )( і qpAP 1)( є однаковими в кожному
випробуванні.
Побудуємо ймовірнісну модель експерименту, який полягає в послі-
довному здійсненні n незалежних випробувань з одним із двох можливих
результатів.
Наприклад, нехай n = 2. Тоді простором елементарних подій є
множина },,,{Щ AAAAAAAA . Оскільки випробування незалежні, то
ймовірності елементарних подій визначаємо так: ;)(;)( 2 pqAAPpAAP
;)( qpAAP 2)( qAAP .
У загальному випадку простір елементарних подій складається з n2
найрізноманітніших елементарних наслідків (наборів ω довжини n), куди
входять літери А і A . Беручи до уваги незалежність випробувань, маємо,
КВМ
73
що ймовірність одного елементарного наслідку становитиме mnm qp ,
якщо в набір ω входить m літер А.
У разі, якщо повторні випробування проводяться за схемою
Бернуллі, вирішується така основна задача: визначити ймовірність
)(mPn того, що подія А появиться рівно m разів у n випробуваннях за
умови, що ймовірність її появи в кожному окремому випробуванні
pAP )( .
Важливо наголосити, що при цьому не вимагається, щоб подія А
повторилася m разів у певній послідовності. Наприклад, якщо подія А
з’являється тричі в чотирьох випробуваннях, то можливі такі події:
AAAA , ,AAAA ,AAAA AAAA (подія А не з’явилась у четвертому або
третьому, або в другому, або в першому випробуваннях і в той же час в
інших випробуваннях вона з’явилася). 1.3.1. Формула Бернуллі
Теорема. Імовірність Pn(m) того, що в результаті n випробувань
(експериментів) за схемою Бернуллі подія А з’явиться рівно m разів
(m = 0, 1, 2, …, n), обчислюється за формулою Бернуллі: mnmm
nn qpCmP )( , (1.26)
де p = P(A) – імовірність появи події А в одному випробуванні;
q = 1 – p = P )(A .
Доведення. Справді, оскільки схема Бернуллі описується дискретною
ймовірнісною схемою, шукану ймовірність )(mPn визначаємо як суму
ймовірностей елементарних подій ω, що складаються з m літер А і n – m
літер A . Ми вже з’ясували, що ймовірність кожного такого
елементарного результату становить mnm qp . Отже, для знаходження
КВМ
74
ймовірності )(mPn треба визначити число наборів ω, кожний з яких
містить m літер А і n – m літер A , тобто встановити, скількома способами
можуть бути на n місцях розміщені m літер А. Очевидно, це число
дорівнює числу комбінацій із n елементів по m, тобто mnC . Остаточно
отримуємо: mnmm
nn qpCmP )( .
Формулу (1.26) називають ще біномною, а самі ймовірності )(mPn –
біномними ймовірностями. Така назва пов’язана з тим, що числа )(mPn
мають безпосереднє відношення до формули бінома Ньютона. Подаючи цю
формулу в запису: nn
nmmnm
nn
nn
nn pCpqCpqCqCpq ......)( 110 ,
бачимо, що вираз для )(mPn збігається з (m + 1)-м членом указаного бінома.
Отже,
)(...)(...)1()0()( nPmPPPpq nnnnn .
Оскільки q + p = 1, то звідси знаходимо:
.1)()1(...)1()0( nPnPPP nnnn
Вправа. Пояснити останню рівність, виходячи з теоретико-ймовірнісних
міркувань.
Приклад 1.32. Статистичні обстеження свідчать, що 90% сімей мають принаймні
один телевізор. Яка ймовірність того, що: а) три з чотирьох навмання вибраних
сімей мають телевізор; б) не менше ніж дві з чотирьох навмання вибраних сімей
мають телевізор?
Розв’язання. а) Нехай подія А – навмання вибрана одна сім’я має телевізор.
Очевидно, 9,0)( pAP і .1,09,01)(1 APq Шукану ймовірність того,
що подія А з’явиться тричі в чотирьох незалежних повторних випробуваннях,
обчислимо за формулою Бернуллі (1.26), якщо n = 4 і m = 3:
КВМ
75
;2916,01,09,041,09,0!1!3
!41,09,0)3( 333344
CP
б) Нехай подія В – не менше ніж дві сім’ї з чотирьох вибраних мають телевізор.
Дану подію можна представити як суму трьох попарно несумісних подій
432 ,, BBB , де подія )4,3,2( iBi полягає в тому, що і сімей із чотирьох мають
телевізор. Імовірності подій 432 ,, BBB можна визначити за формулою
Бернуллі:
;0486,001,081,061,09,0!2!2
!41,09,0)2()( 22222442
CPBP
;2916,01,0729,041,09,0!1!3
!41,09,0)3()( 13133443
CPBP
.6561,09,01,09,0)4()( 4044444 CPBP
Шукану ймовірність )42()( mPBP обчислюємо за правилом додавання
ймовірностей:
.9963,06561,02916,00486,0)4()3()2()42()( 444 PPPmPBP
Зауваження. Якщо числа n і m – великі, то обчислення ймовірностей
)(mPn і )( 21 mmmPn із використанням формули Бернуллі
викликає певні труднощі. У такому разі для обчислення цих
імовірностей застосовують асимптотичні (наближені) формули, які
випливають із локальної та інтегральної теорем Муавра – Лапласа і
граничної теореми Пуассона. Назва «гранична» в обох випадках
пов’язана з тим, що згадані теореми встановлюють поведінку
ймовірностей )(mPn або суми
2
1
)(m
mmn mP за певних умов, до яких
обов’язково входить умова n .
1.3.2. Локальна формула Муавра – Лапласа
КВМ
76
Нехай )(APp – імовірність появи випадкової події А в кожному
випробуванні, серія яких проводиться за схемою Бернуллі, .10 p Тоді для
великих значень n імовірність )(mPn появи події А рівно m разів у n
випробуваннях за схемою Бернуллі обчислюється за наближеною формулою:
npqxmPn
)()( 0 , якщо ,0 npq
npmx (1.27)
де 2
2
р21)(
x
ex
– функція Гаусса.
Функція Гаусса має важливі застосування в теорії ймовірностей і
математичній статистиці. З огляду на це опишемо її основні властивості:
)(x визначена для всіх ),( x і )(x > 0;
)(x є парною функцією, тобто )( x = )(x ;
0)(lim
xx
, тобто вісь Ох є асимптотою графіка );(x
)(x має максимум у точці 0x і .р2
1)0()(max x
Графік функції Гаусса зображено на рис. 1.3.
Рис. 1.3. Графік функції Гаусса
(х) р2
1 –1 0 1 х
КВМ
77
Функція Гаусса табульована (див. додаток 1). У таблиці додатка 1
наведено значення )(x для .99,30 x Для обчислення значень )(x
при від’ємних значеннях 099,3 x використовуємо парність функції, а
для 99,3|| x приймаємо, що )(x = 0.
Приклад 1.33. У регіоні 75% фермерів мають річний прибуток, що перевищує 1
млн гривень. Навмання вибирають 400 фермерів. Знайти ймовірність того, що
в їх
числі виявиться:
а) 270, б) 300, в) 320 фермерів, річний прибуток яких перевищує 1 млн грн.
Розв’язання. Позначимо через А подію, яка полягає в тому, що навмання
вибраний фермер має річний прибуток, більший за 1 млн грн. За умовою задачі,
n = 400, ,75,0p ,25,0q 270m або 300, або 320.
Шукані ймовірності )320(),300(),270( 400400400 PPP обчислюємо за формулою
(1.27), бо використання формули Бернуллі призводить до громіздких обчислень:
;7,87525,075,0400 npq
а) ;45,37,830
7,875,0400270
0
npq
npmx за таблицями додатка 1 знаходимо
0010,0)45,3( і обчислюємо:
;0001,07,8
0010,07,8
)45,3(7,8
)45,3()270(400
P
б) ;07,8300300
7,875,0400300
0
x за таблицями додатка 1 маємо, що
,3989,0)0( і обчислюємо:
;0458,07,8
3989,0)0()300(400
npq
P
в) ;3,27,8
207,8300320
7,875,0400320
0
x за таблицями додатка 1 маємо, що
,0283,0)3,2( і обчислюємо:
.0033,07,8
0283,07,8
)3,2()320(400
P
КВМ
78
Отже, імовірності того, що серед навмання вибраних 400 фермерів 270, 300, 320
фермерів мають річний прибуток, більший за 1 млн грн, відповідно, становлять
0,0001; 0,0458; 0,0033.
Друга наближена формула Лапласа тісно пов’язана з першою. Її
називають «інтегральною». Ця формула дозволяє оцінити не окремі
ймовірності )(mPn , а суми
2
1
)(m
mmn mP , тобто вона дає наближений вираз для
величини )( 21 mmmPn – імовірності того, що число появ події А в n
випробуваннях міститься між заданими межами 1m і 2m .
1.3.3. Інтегральна асимптотична
формула Лапласа
Нехай pAP )( – імовірність появи випадкової події в кожному
окремому випробуванні, серія яких проводиться за схемою Бернуллі. Тоді
для великих значень n імовірність )( 21 mmmPn того, що подія А
з’явиться від 1m до 2m разів у n випробуваннях за схемою Бернуллі,
виражається наближеною формулою:
2
1
2
221 р2
1)(x
x
z
n dzemmmP , (1.28)
де ,11 npq
npmx .2
2 npqnpmx
Для простішого запису формули (1.28) вводять функцію Лапласа:
x z
dzex0
2
2
р21)(Ф , (1.29)
яку називають ще стандартним інтегралом імовірності.
За допомогою функції Лапласа (1.29) формула (1.28) записується так:
)( 21 mmmPn )(Ф)(Ф 12 xx . (1.30)
[Обґрунтуйте формулу (1.30)].
КВМ
79
Функцію Лапласа також часто використовують у теорії ймовірностей
і математичній статистиці, тому опишемо її найпростіші властивості:
)Ф(x визначена для всіх ),( x , Ф(х) > 0, якщо х > 0 і Ф(х) < 0,
якщо х < 0;
)Ф(x – непарна функція: )Ф( x = – )Ф(x ;
;0)0Ф( 5,0)(Ф і 5,0)(Ф прямі y = 0,5 і y = –0,5 –
асимптоти графіка функції при x і x , відповідно;
)Ф(x – зростаюча функція, бо
2
21( ) 02
xx e
;
на інтервалі ),0( графік )Ф(x опуклий і на інтервалі )0,( –
угнутий, бо ( ) 0 0 ( ) 0 0x при x і x при x .
Функція Лапласа )Ф(x табульована (див. додаток 2). Значення )Ф(x
табульовані для 50 x . Значення )Ф(x для 05 x знаходимо за
таблицею додатка 2 і рівністю Ф(–х) = – ).Ф(x Значення )Ф(x приймаємо
рівним 0,5, якщо х > 5, і –0,5, якщо х < –5.
Графік )Ф(x зображено на рис. 1.4.
Рис. 1.4. Графік функції Лапласа
(х) 0,5 х
–0,5
КВМ
80
Приклад 1.34. Імовірність кожної людини захворіти на грип під час епідемії
становить 0,2. Яка ймовірність того, що серед 400 навмання перевірених осіб
хворими на грип виявляться від 70-ти до 100 осіб?
Розв’язання. Нехай подія А – вибрана навмання особа – хвора на грип. За
умовою задачі, ,2,0)( APp ,8,0)( APq ,400n ,701 m .1002 m
Для обчислення шуканої ймовірності )10070(400 mP використаємо формулу
(1.30). Спочатку обчислимо:
;8648,02,0400 npq
;25,1810
82,040070
1
x .5,2820
82,0400100
2
x
За таблицями додатка 2 знаходимо 4938,0)5,2(Ф і
3944,0)25,1(Ф)25,1(Ф
і одержуємо, що
)25,1(Ф)5,2(Ф)25,1(Ф)5,2(Ф)10070(400 mP
.8882,03944,04938,0
Отже, імовірність того, що серед навмання вибраних 400 осіб виявляться
хворими на грип від 70-ти до 100 осіб, становить 0,8882.
Нехай імовірність появи випадкової події А в кожному з n
незалежних випробувань за схемою Бернуллі становить .)(APp
Відносна частота по-
дії А є ,)(nmAWn де m – число появ події А в цих n випробуваннях.
Розглянемо задачу: для великих значень n оцінити ймовірність ви-
падкової події ,)( pAWn тобто події, яка полягає в тому, що
відхилення відносної частоти події А від її ймовірності p = )(AP за
абсолютним значенням не перевищує числа > 0.
Розв’язком сформульованої задачі є твердження: імовірність того,
що за n незалежних випробувань за схемою Бернуллі абсолютне значення
КВМ
81
відхилення відносної частоти )(AWn події А від імовірності )(APp цієї
події не перевищує числа > 0 для випадку великих значень n,
обчислюється за наближеною формулою:
,Ф2)(
pqnpAWP n (1.31)
де Ф(х) – функція Лапласа, q = 1 – p.
Приклад 1.35. Проводиться 100 випробувань за схемою Бернуллі з імовірністю
5,0p появи події А в кожному окремому випробуванні. Знайти межі, в яких
міститься частота події А з імовірністю 0,9544.
Розв’язання. За умовою задачі, ,100n ,5,0p 5,0q і
.9544,0е5,0)( AWP n
За формулою (1.31) маємо, що
4772,0)20(Ф25,0
100Ф29544,0
.
За таблицею значень функції Лапласа )(Ф x (див. додаток 2) знаходимо, що
.1,0220
Із нерівності
6,0)(4,01,05,0)(1,01,05,0)( AWAWAW nnn
і рівності 100
)( mAWn випливає, що
,60406,0100
4,0 mm
тобто з імовірністю 0,9544 подія А в описаних в умові задачі випробуваннях
може з’явитися від 40 до 60 разів.
Зауваження. Для якісної оцінки умов застосування наближених
формул (1.27) і (1.28) необхідно оцінити їх точність. Із цього приводу
зазначимо лише, що точність істотно залежить від взаємовідношення
величин n і p. Зокрема, добрі наближення формули (1.27) і (1.28) дають
КВМ
82
при ,21 qp їх часто використовують, коли 10npq . Звідси, до речі,
видно: що чим ближче одне з чисел p або q до нуля (друге число в цьому
випадку близьке до одиниці), то тим більшим слід вибирати n. Тому в
разі близькості однієї з величин p або q до нуля формулами (1.27) і (1.28)
зазвичай не користуються; для цього випадку значно точнішими є
наближені формули Пуассона.
1.3.4. Асимптотичні формули Пуассона
Наближені формули Пуассона для обчислення
ймовірностей )(mPn і )( 21 mmmPn є наслідком такого твердження:
якщо n і 0p так, що 0,pn , то
e
mqpCmP
m
nmnmm
nn !)( (1.32)
для будь-якого ...,2,1,0m .
Отже, при великих n і малих р ми можемо користуватися
наближеними формулами:
e
mmP
m
n !)( ; (1.33)
npem
mPmmmPm
mm
mm
mmnn
,
!)()(
2
1
2
1
21 . (1.34)
Формули (1.33) і (1.34) називаються асимптотичними (наближеними)
формулами Пуассона. Дослідження питання про точність цих формул ми не
розглядаємо. Обмежимося лише тим, що приймемо без доведення нерівність
2
!)( npe
mmP
Mm
m
Mmn
,
яка є правильною для будь-якої множини М, що належить {0, 1, 2, …}.
Зокрема, якщо М складається з одного числа m, маємо:
КВМ
83
2
!)( npe
mmP
m
n
.
Для виразу !m
em , який розглядається як функція двох змінних m і
, складено таблицю значень, що наведена в додатку 8.
Приклад 1.36. Під час виробництва деякої масової продукції ймовірність
випуску нестандартного виробу становить 0,01. Яка ймовірність, що в партії зі
100 виробів цієї продукції є 2 вироби нестандартні?
Розв’язання. Нехай подія А – навмання вибрана одиниця продукції –
нестандартна. За умовою задачі, імовірність 01,0)( APp є мала, число n
100 – велике. Тому для обчислення шуканої ймовірності )2(100P доцільно
використати формулу Пуассона (1.33).
У даному випадку pn 01,0100 = 1
і .184,021
!2)2( 1
2
100
eeP
Зауважимо, що обчислення за формулою (1.27) приводять до дещо іншого
результату:
.243,0)2(100 P
1.3.5. Найімовірніше число появ випадкової
події
Пояснимо суть цього поняття. У прикладі 1.35
було знайдено межі, між якими міститься частота події, а саме:
6040 m . Але ймовірності значень m, які розміщені між числами 40 і 60,
є різні, а це означає, що є більш імовірні і менш імовірні частоти події в
цьому проміжку, тобто є більш імовірне і менш імовірне число появ події.
Означення. Найімовірнішим числом появ події А в n випробуваннях за
схемою Бернуллі називається число 0m появ події А, імовірність якого
КВМ
84
перевищує або принаймні не є меншою за ймовірності решти можливих
наслідків випробувань (експериментів).
Найімовірніше число появ події в n випробуваннях за схемою
Бернуллі можна шукати по-різному. Зокрема, можна обчислити
ймовірності всіх можливих наслідків n випробувань і вибрати число
можливих появ події, для якого ймовірність є найбільшою. Однак
найімовірніше число 0m появ події
в n випробуваннях за схемою Бернуллі можна визначити з нерівності:
pnpmqnp 0 , (1.35)
де р і q є, відповідно, імовірності появи і непояви події в одному
випробуванні.
Аналізуючи (1.35), робимо висновок, що довжина проміжку [np – q, np +
p] дорівнює одиниці, і його кінці – або обидва нецілі числа, або обидва цілі
числа. Цей проміжок може містити в собі одне ціле число (якщо кінці –
нецілі числа) або два цілих числа (якщо кінці – цілі числа). Цілі числа, що
містяться в даному проміжку, і є тими значеннями m, за яких )(mPn набуває
найбільшого значення.
Приклад 1.37. Імовірність несплати податків для кожного з 500 підприємців
регіону (подія А) .1,0p Знайти найімовірнішу кількість підприємців регіону,
які не сплачують податків, і визначити відповідну ймовірність.
Розв’язання. За умовою задачі, .9,0,1,0,500 qpn Найімовірніше число 0m
підприємців регіону, які не сплачують податків, визначаємо з нерівності (1.35):
501,501,491,01,05009,01,0500 000 mmm ,
бо 0m – ціле число.
Шукану ймовірність обчислимо за формулою (1.27):
;7,6459,01,0500 npq
;07,6
1,0500500
npq
npmx
КВМ
85
500(0) 0,3989(50) 0,06.
6,7 6,7P
Рекомендована література: [1, с. 69–84; 2, с. 33–39; 4, с.102-105; 5, с.
55–63; 7, с. 49–64; 8, с. 57–62].
Завдання для самоконтролю
Основні поняття, означення і відношення
Замість крапок запишіть таке продовження (доповнення) тексту, щоб у ре-
зультаті отримати правильне означення або твердження. 1. Випробування (експерименти) називаються незалежними, якщо …
2. Серія з n випробувань (експериментів) підпорядкована схемі Бернуллі, якщо …
3. Якщо подія А може з’явитися в кожному окремому випробуванні зі ймовірністю р =
Р(А), то ймовірність її появи m разів у n випробуваннях за схемою Бернуллі
обчислюється за формулою: …
4. Якщо подія А може з’явитися в кожному окремому випробуванні зі ймовірністю р =
Р(А) і число випробувань n велике, а ймовірність p не є близькою ні до нуля, ні до
одиниці, то ймовірність її появи m разів у n випробуваннях обчислюється за
формулою: …
5. Функція Гаусса має такий запис: …
6. Функція Гаусса має такі властивості …
7. Функція Гаусса має такий графік …
8. Якщо подія А може з’явитися в кожному окремому випробуванні зі ймовірністю
р = Р(А) і число n велике, а ймовірність p не є близькою ні до нуля, ні до одиниці,
то ймовірність її появи від m1 до m2 разів у серії з n випробувань за схемою
Бернуллі обчислюється за формулою: …
9. Функція Лапласа записується як …
10. Функція Лапласа має такі властивості …
11. Функція Лапласа має такий графік …
12. Якщо подія А може з’явитися в кожному окремому випробуванні зі ймовірністю р =
Р(А) і число n велике, а ймовірність p не є близькою ні до нуля, ні до одиниці, то
ймовірність того, що абсолютне значення відхилення відносної частоти Wп(A) цієї
КВМ
86
події від імовірності р = Р(А) у серії з n випробувань за схемою Бернуллі за абсо-
лютним значенням не перевищує числа > 0, обчислюється за формулою: …
13. Якщо в серії з n випробувань за схемою Бернуллі подія А може з’явитися в
кожному окремому випробуванні з імовірністю р = Р(А) і число n велике, а число
р мале, то ймовірність появи події А m разів у цій серії випробувань
обчислюється за форму-лою: …
14. Найімовірнішим числом появи події в серії випробувань за схемою Бернуллі
називається …
15. Найімовірніше число 0m появи події А в серії з n випробувань за схемою
Бернуллі задовольняє нерівність …
Тести Запишіть на бланку відповідей номер завдання та коди (порядкові номери або літери), що
відповідають тим варіантам відповідей, які вважаєте правильними.
1. Стрілець виконує 100 пострілів по мішені. Імовірність попадання ним у мішень
становить р. Чи правильні твердження: а) описані випробування є незалежні
стосовно події А – стрілець попадає в ціль; б) серія описаних випробувань
проводиться за схемою Бернуллі?
Варіанти відповідей: 1. а) так, б) так. 2. а) так, б) ні.
3. а) ні, б) так. 4. а) ні, б) ні.
2. У коробці є 100 деталей, серед яких 80 стандартних. Із коробки послідовно
виймають по одній деталі. Чи правильні твердження: а) описані випробування
незалежні стосовно події А – вийнята деталь стандартна; б) послідовність
описаних випробувань проводиться за схемою Бернуллі?
Варіанти відповідей: 1. а) так, б) так. 2. а) так, б) ні.
3. а) ні, б) так. 4. а) ні, б) ні.
3. Імовірність народження хлопчика (подія А) дорівнює р = Р(А) = 0,51. У сім’ї
п’ятеро дітей. Яка ймовірність того, що серед них – два хлопчики?
Варіанти відповідей: 1. 0,48. 2. 0,31. 3. 0,52. 4. 0,62.
КВМ
87
4. Імовірність того, що власник квартири не має заборгованості в оплаті за
використання електроенергії (подія А), дорівнює р = Р(А) = 0,6. Яка ймовірність,
що з 2 400 власників квартир 1 400 не мають названої заборгованості?
Варіанти відповідей: 1. 0,0052. 2. 0,052. 3. 0,0041. 4. 0,041.
5. Імовірність хибного виклику пожежної команди (подія А) р = Р(А) = 0,2. Яка
ймовірність, що серед 100 викликів число хибних викликів виявиться від 20 до 40?
Варіанти відповідей: 1. 0. 2. 0,5. 3. 0,3.
6. Імовірність появи події А в кожному з 900 незалежних експериментів р = Р(А) = 0,5.
Знайти ймовірність того, що відносна частота появи події А відхилиться від її ймо-
вірності за абсолютною величиною не більше ніж на 0,02.
Варіанти відповідей: 1. 0,8231. 2. 0,6521. 3. 0,7698.
7. Прядильниця обслуговує 1 000 веретен. Імовірність обриву нитки на одному
веретені протягом однієї хвилини становить 0,004. Знайти ймовірність того, що
протягом однієї хвилини обірвуться 5 ниток.
Варіанти відповідей: 1. 0,1563. 2. 0,1482. 3. 0,1601.
8. Відділ технічного контролю перевіряє партію з 10-ти деталей. Імовірність того, що
деталь стандартна, – 0,75. Знайти найімовірніше число деталей, які будуть визнані
стандартними.
Варіанти відповідей: 1. 7. 2. 8. 3. 9.
9. Унаслідок маркетингових досліджень встановлено, що ймовірність реалізації одиниці
продукції – 0,8. Знайти ймовірність реалізації не менше ніж 75% із чотирьох навмання
вибраних одиниць продукції.
Варіанти відповідей: 1. 0,4096. 2. 0,8192. 3. 0,1808.
10. У місцевій лікарні 55% усіх новонароджених – хлопчики. Одного дня
народилося п’ять малюків. Яка найімовірніша серед них кількість хлопчиків?
Варіанти відповідей: 1. 2. 2. 4. 3. 3.
КВМ
88
Приклади
1. Два рівносильних гравці грають у шахи (нічиї до уваги не беруться). Що
ймовірніше: а) виграти дві партії з чотирьох чи три партії зі шести; б) виграти
одну партію з двох чи дві партії з чотирьох; в) виграти не менше ніж дві партії з
чотирьох чи не менше ніж три партії з п’яти?
2. Ймовірність того, що студент складе іспит з вищої математики дорівнює 0,85.
Нехай є підгрупа з 10 студентів. Знайти: а) найімовірніше число студентів цієї підгрупи, які
складуть іспит з вищої математики і обчислити відповідну ймовірність; б) ймовірність
того, що в цій підгрупі не здадуть іспит з даного предмету хоча б два студенти.
3. Виробник детекторів брехні вимагає, щоб детектори могли чітко розрізняти
правильні відповіді від неправильних на 85%. Детектор тестують використовуючи
50 запитань. Визначте:
а) найбільш ймовірне число правильних відповідей;
б) ймовірність того, що їх буде не більше, ніж 40;
в) ймовірність того, що їх буде від 35-ти до 43-ох?
4. Імовірність появи події в кожному зі 625 незалежних випробувань дорівнює
0,8. Знайти ймовірність того, що відносна частота появи події відхилиться від її
ймовірності за абсолютним значенням не більше ніж на 0,04.
5. Імовірність появи події в кожному з незалежних випробувань дорівнює 0,2.
Знайти найменшу кількість випробувань n, за якої з імовірністю 0,99 можна
очікувати, що відносна частота появи події відхилиться від її ймовірності за
абсолютним значенням не більше ніж на 0,04.
6. При виготовленні деталей у цеху брак становить у середньому 8%. Скільки
деталей має перевірити контролер, щоб ймовірність того, що абсолютна величина
відхилення відносної частоти появи стандартної деталі від ймовірності р
виготовлення такої деталі не перевищувала 0,002 , дорівнювала 0,988.
7. Для кожного з 900 першокурсників імовірність закінчити інститут дорівнює
0,9. Знайти межі, в яких перебуватиме відносна частота кількості першокурсників,
які закінчать інститут з імовірністю 0,88.
8. Пристрій складається з 800 елементів, що працюють незалежно один від
одного. Ймовірність відмови функціонування кожного з елементів дорівнює 0,0015.
Знайти ймовірність того, що за час роботи відмовлять не більше двох елементів.
КВМ
89
9. Знайти середню кількість помилок на сторінці рукопису, якщо ймовірність
того, що сторінка рукопису містить хоча б одну помилку, дорівнює 0,98.
10. Середня кількість викликів таксі, які надходять в диспечерський пункт
протягом хвилини, дорівнює три. Знайти ймовірність, що за дві хвилини надійде: а)
чотири виклики; б) менше чотирьох викликів; в) не менше чотирьох викликів.
11. Ймовірність того, що посіяне зерно ячменю проросте в лабораторних
умовах, у середньому дорівнює 0,9. Було посіяно 700 зернин ячменю в лабораторних
умовах. Визначити найімовірніше число зернин, що проростуть із цієї кількості
зернин, та обчислити ймовірність цього числа.
Відповіді
1. а) дві партії з чотирьох; б) одну партію з двох; в) не менше ніж дві партії з
чотирьох. 2. а) 9, 0,347; б) 0,4557. 3. a) 43; б) 0,1611; в) 0,5778. 4. 0,9876. 5. 661. 6.
п=116848. 7. (0,8844; 0,9156). 8. 0,8795. 9. 3,912. 10. а) 0,134; б) 0,151; в) 0,849. 11.
630; 0,05.
КВМ
90
Основні поняття і терміни
Випадкова подія – подія, яка за певних умов може відбутися або не
відбутися.
Елементарна випадкова подія – один із можливих найпростіших на-
слідків стохастичного експерименту.
Складена подія – подія, яка розкладається на елементарні події.
Подія, сприятлива для появи події А, – елементарна подія, яка є
складовою події А.
Несумісні події – події, які не можуть одночасно з’явитися в одному
випробуванні.
Простір елементарних подій – множина всіх елементарних подій, які
можуть відбутися в результаті експерименту.
Сума подій – подія, яка полягає в тому, що відбудеться принаймні
одна з цих подій.
Добуток подій – подія, яка полягає в тому, що відбудеться одночасно
кожна з цих подій.
Повна група подій – множина подій, одна з яких в результаті експе-
рименту обов’язково відбудеться.
Протилежні події – дві несумісні події, які утворюють повну групу.
Імовірність події – чисельна характеристика можливості події.
Частота події – число експериментів, у яких подія відбулася
(з’явилася).
Відносна частота події – відношення числа експериментів, у яких
подія відбулася, до числа всіх експериментів.
Умовна ймовірність події – імовірність даної події, яка обчислена за
умови, що відбулася деяка інша подія.
КВМ
91
Незалежні в сукупності події – множина подій, в якій кожні дві події –
незалежні і кожна подія незалежна з найрізноманітнішими добутками
інших подій.
Залежні події – дві події, коли ймовірність однієї з них залежить від
появи або непояви іншої.
Незалежні події – дві події, імовірність кожної з яких не залежить від
появи чи непояви іншої події.
Схема Бернуллі – послідовність незалежних випробувань, у кожному з
яких імовірність появи деякої події є однакова.
Функція Гаусса – функція виду 2
2
р21)(
x
ex
.
Функція Лапласа – функція виду .р2
1)(Ф0
2
2
x z
dzex
Найімовірніше число появ події – число появ події в схемі незалежних
випробувань за схемою Бернуллі, імовірність якого є найбільшою.
КВМ
92
РОЗДІЛ 2
ВИПАДКОВІ ВЕЛИЧИНИ
У цьому розділі розглядаються основні поняття і методи, які пов’язані з
випадковими величинами. Тут викладено:
поняття дискретної випадкової величини та основні закони її роз-
поділу;
чисельні характеристики дискретної випадкової величини;
поняття неперервної випадкової величини та основні закони її
розподілу;
чисельні характеристики неперервної випадкової величини та їх
вираження через густину розподілу;
імовірність попадання значень неперервної випадкової величини в
заданий проміжок і формули для її обчислення для різних законів
розподілу;
поняття про системи двох дискретних і неперервних випадкових
величин та їх закони розподілу;
умовні закони розподілу складових системи двох випадкових величин
(дискретних і неперервних).
КВМ
93
Охарактеризуємо тезисно основні поняття і зміст
другого розділу. У першому розділі йшлося про події та ймовірності подій. Тут
розвинено ці поняття, застосовуючи їх до кількісних ознак,
пов’язаних зі стохастичними експериментами. Оскільки результат
експерименту може змінюватися від випадку до випадку, то
розглядувана в ньому кількісна ознака, загалом кажучи, є змінною
величиною, до того ж випадковою.
Отже, випадкова величина – це величина, яка в результаті
експерименту з випадковим результатом набуває того або іншого
чисельного значення. Прикладами випадкових величин, що
набувають різних чисельних значень під впливом багатьох
випадкових факторів, можуть бути:
а) число очок, яке випаде на верхній грані за одне кидання
грального кубика;
б) число бракованих виробів серед n навмання вибраних;
в) число кидань монети до першої появи герба;
г) число викликів, які надходять на телефонну станцію
протягом деякого проміжку часу;
д) тривалість часу обслуговування покупця;
е) час виконання деякого завдання і т. д.
Випадкові величини позначатимемо великими літерами Х, Y, Z,
…, а їх можливі значення – малими літерами x, y, z, … латинського
алфавіту.
КВМ
94
У наведених прикладах траплялися два типи випадкових
величин: дискретні величини, множини можливих значень яких
скінченні або зліченні, – приклади а) – г), і неперервні величини,
множини можливих значень яких суцільно заповнюють деякий
інтервал, – приклади д), е).
Зазначимо, що, за теоретико-множинним трактуванням основних
понять теорії ймовірностей, випадкова величина Х є функція
елементарної події: )щ(XX , де – елементарна подія, яка належить
простору )щ( . При цьому множина можливих значень
випадкової величини Х складається з усіх значень, яких набуває
функція )щ(X . Якщо ця множина скінченна або зліченна, то
випадкова величина Х називається дискретною, якщо незліченна –
неперервною.
Наведемо приклади дискретної і неперервної випадкових
величин.
1. Симетричну монету кидають двічі. Нехай випадкова
величина Х – кількість появ герба. Простір елементарних подій
складається з чотирьох елементів:
)(щ),(щ),(щ),(щ 4321 ГГГЦЦГЦЦ .
Таблиця значень випадкової величини Х має таку форму:
i 1 2 3 4 Х( i ) 0 1 1 2
2. Нехай випадкова величина Y є час очікування трамвая на
зупинці. Якщо розклад руху трамваїв невідомий, але відомо, що
КВМ
95
проміжок часу між прибуттям трамваїв не перевищує Т, то значення
Y належить відрізку [0, Т].
Для того, щоб описати випадкову величину, необхідно вказати
не тільки множину її можливих значень (чого було б достатньо в
разі дослідження звичайної змінної величини), а й
охарактеризувати ймовірності всіх мож-
ливих подій, пов’язаних із випадковою величиною (наприклад,
імовірність того, що вона набуде того чи іншого значення або
потрапить у деякий інтервал). Такий повний опис випадкової
величини називається її законом розподілу.
Зауваження. У випадку довільного ймовірнісного простору
,( ℱ, P) не будь-які функції, визначені на , можна
розглядати як випадкові величини. Вивчаючи закони розподілу
випадкових величин, часто доводиться відповідати на питання:
яка ймовірність того, що значення випадкової величини Х()
належать до тієї чи іншої множини? Отже, для достатньо
широкого класу множин {B} на числовій прямій повинна бути
впевненість, що множина {: X()B} належить полю ℱ
випадкових подій, і тому можна розглядати ймовірність P{:
X()B}. Виявляється, достатньо припустити, що для кожного
інтервалу ),( х множина {: X() ),( х } = {: X() < х}
належить полю ℱ випадкових подій, і тоді для кожної множини
дійсних чисел В, яка зображається як об’єднання або перетин
КВМ
96
скінченного або зліченного числа проміжків, отримаємо {:
X() B} ℱ.
Означення. Нехай ,( ℱ, P) – імовірнісний простір. Кожна
дійсна функція X = X(), яка визначена на і така, що для
кожного дійсного числа х виконується співвідношення:
{: X()< х} ℱ,
називається випадковою величиною.
Умова, що входить в означення випадкової величини,
називається вимірністю X = X() відносно поля подій ℱ.
Означення. Функція дійсної змінної х, х R = ),( , визначена
рівністю
F(x) = Р{: X() < х} = Р{X < х},
називається функцією розподілу випадкової величини Х = Х().
Властивості функції розподілу описано в підрозділі 2.2. Тут
зазначимо лише, що функція розподілу є найбільш загальною
формою закону розподілу, придатною для характеристики всіх
випадкових величин (як дискретних, так і неперервних). Знаючи
функцію розподілу F(х) випадкової величини Х, можна обчислити
ймовірності будь-яких подій, які з нею пов’язані.
Іноді поведінку випадкової величини характеризують не
функцією розподілу, а яким-небудь іншим способом, наприклад,
густиною розподілу )()( xFxf . Кожну таку характеристику також
називають законом розподілу випадкової величини, якщо за її
КВМ
97
допомогою за певними правилами можна отримати функцію
розподілу.
Дуже часто в імовірнісних моделях доводиться розглядати
відразу кілька випадкових величин. Наприклад, число очок, які
випадуть за одночасного кидання двох гральних кубиків, є
можливими значеннями системи двох випадкових величин Х і Y, де
Х – число очок, яке випаде під час кидання 1-го кубика, Y – число
очок, яке випаде під час кидання 2-го кубика. У математичній
моделі в таких випадках на ймовірнісному просторі (, ℱ, P)
визначені кілька випадкових величин nXXX ...,,, 21 , які іноді
зручно розглядати як координати випадкової точки або
випадкового вектора
Х = ( nXXX ...,,, 21 ) із n-вимірного простору nR . При цьому випадкові
величини nXXX ...,,, 21 можуть бути як дискретними, так і
неперервними. Закон розподілу випадкового вектора, або, те ж саме,
n-вимірної випадкової величини ( nXXX ...,,, 21 ) у загальному
випадку визначається функцією розподілу (або «сумісною» функцією
розподілу) системи n випадкових величин ( nXXX ...,,, 21 ).
Означення. Функцією розподілу )...,,,( 21 nxxxF n-вимірної
випадкової величини ( nXXX ...,,, 21 ) називається ймовірність
сумісного виконання
n нерівностей: ,...,,2,1),,(;...,,, 2211 niRxxXxXxX inn
тобто
КВМ
98
}...,,,{)...,,,( 221121 nnn xXxXxXPxxxF .
Подія, яка записана у фігурних дужках, означає добуток подій
},{ 11 xX }{...,},{ 22 nn xXxX :
}{...}{}{}...,,,{ 22112211 nnnn xXxXxXxXxXxX .
Важливе поняття теорії ймовірностей – незалежність подій – є
суттєвим і для випадкових величин. Згідно з означенням незалежності
подій ми скажемо, що дві випадкові величини Х і Y називаються
незалежними, якщо незалежні всі пов’язані з ними події: наприклад,
{X < x} та {Y < y}; {X = ix } та {Y = jy } і т. д.
У термінах законів розподілу незалежність випадкових величин
можна визначити так: дві випадкові величини називаються
незалежними, якщо закон розподілу кожної з них не залежить від
того, якого значення набуде інша. Аналогічно, n випадкових
величин називаються незалежними, якщо сумісні закони розподілу
будь-якого числа з них не залежать від того, яких можливих
значень набули інші величини.
Поняття незалежності випадкових величин можна виразити в
термінах функцій розподілу.
Означення. Випадкові величини nXXX ...,,, 21 називаються
незалежними, якщо для будь-яких дійсних чисел nxxx ...,,, 21
правильна рівність )(...)()()...,,,( 221121 nnn xXPxXPxXPxxxF
або ),(...)()()...,,,( 221121 nnn xFxFxFxxxF
КВМ
99
де )( kk xF – функція розподілу величини kX , k = 1, 2, …, n.
Якщо остання рівність не виконується, то це означає, що випадкові
величини nXXX ...,,, 21 – залежні.
Із наведеного означення випливає, що коли випадкові величини, які
утворюють систему, незалежні, то функція розподілу системи цих величин
повністю визначається за допомогою функцій розподілу окремих величин, які
входять у цю систему.
2.1. Дискретна (одновимірна) випадкова величина
Дискретні випадкові величини використовуються для
опису та аналізу випадкових явищ і процесів у природознавстві, економіці і т. д.
Означення. Випадкова величина називається
дискретною, якщо множина її можливих значень є
скінченною або зліченною.
2.1.1. Закон розподілу
ймовірностей
Нехай X – дискретна випадкова
величина, можливими і єдино можливими значеннями
якої є числа ....,,, 21 nxxx Через )( ii xXPp позначимо
ймовірності значень ix величини Х, тобто ip є
КВМ
100
ймовірність того, що величина X набуває значення
0i ix , p .
Події , 1,iX x i n утворюють повну групу попарно
несумісних подій і тому
.1...211
n
n
ii pppp
Означення. Законом розподілу ймовірностей (законом
розподілу) дискретної випадкової величини називається
відповідність між усіма її можливими значеннями та їх
імовірностями.
Закон розподілу дискретної випадкової величини
записують таблично, аналітично або графічно.
Табличний запис закону розподілу (таблиця значень
ix випадкової величини та відповідних їм імовірностей
ip ) такий (табл. 2.1):
Таблиця 2.1
xi x1 x2 ... xп p1 р1 р2 ... рп
За допомогою табл. 2.1 можна визначити ймовірність
Bxi
ii
pBXP:
для будь-якої числової множини В. Зокрема, функція розподілу F(x) випад-
кової величини Х визначається рівністю:
КВМ
101
xxi
ii
pxXPxF:
,
у якій підсумовування проводиться за всіма індексами і, для яких ix x .
За аналітичного запису закону розподілу дискретної випадкової величини
потрібно знати формулу – аналітичний вираз залежності між значеннями ix
випадкової величини та їх імовірностями ip .
Для графічного зображення закону розподілу
дискретної випадкової величини на прямокутну систему
координат наносять точки ),( ii px і з’єднують їх
відрізками. Одержану фігуру називають імовірнісним
многокутником розподілу.
У випадку, коли множина різних значень ix
випадкової величини Х є нескінченною і зліченною, то її
закон розподілу також можна записати у формі таблиці
(див. табл. 2.1), яка складатиметься з двох нескінченних
рядків: ...,...,,,: 21 ni xxxx і ,...,,: 2211 xXPpxXPppi
...,nn xXPp , до того ж
1.1
iip
Приклад 2.1. У грошовій лотереї розігрується 2 виграші по 1 000 грн, 10 виграшів по
100 грн і 100 виграшів по 10 грн за загальної кількості білетів 10 000. Написати
закон розподілу випадкової величини X – виграшу власника одного лотерейного
білета.
Розв’язання. У цій задачі можливими значеннями дискретної випадкової вели-
чини X є числа ,10,100,1000 321 xxx 04 x . Відповідні їм імовірності
обчислюємо за формулою:
КВМ
102
nnp i
i ,
де in – число виграшних білетів на відповідну суму гривень, n – число всіх
білетів
лотереї.
Одержимо:
;0002,010000
21 p ;001,0
1000010
2 p ;01,010000
1003 p
.9888,0)01,0001,00002,0(11 3214 pppp
Закон розподілу описаної в задачі випадкової величини X має форму таблиці:
Х = xi 1000 100 10 0 p = pі 0,0002 0,001 0,01 0,9888
2.1.2. Основні закони
розподілу ймовірностей
Закон розподілу ймовірностей
дискретної випадкової величини може виражатися
різними аналітичними формулами.
А. Б і н о м н и й з а к о н р о з п о д і л у. Нехай
проводиться n незалежних випробувань за схемою
Бернуллі і р = Р(А) – імовірність появи події А в кожному
окремому випробуванні. Сформулюємо задачу: написати
закон розподілу дискретної випадкової величини X –
числа появ події А в цих n випробуваннях.
КВМ
103
Випадкова величина X може набути значень
....,,2,1,0 210 nxxxx n Імовірності можливих значень ix
випадкової величини X обчислимо за формулою
Бернуллі:
pqqpCiPp iniinni 1,)( (2.1)
і одержимо закон розподілу описаної випадкової
величини X (табл. 2.2). Таблиця 2.2
Х = xi 0 1 2 … n р = pi
nq 11 nn pqC 222 n
n qpC … np
Одержаний у формі такої таблиці закон розподілу
дискретної випадкової величини X називається
біномним.
Приклад 2.2. Прилад складається з чотирьох елементів і ймовірність наявності
технічних неполадок у кожному з них становить 0,5. Написати закон розподілу
випадкової величини Х – числа елементів приладу, в яких наявні технічні
неполадки. Визначити ймовірність того, що число елементів приладу, в яких
наявні технічні неполадки, буде більше ніж два.
Розв’язання. Випадкова величина X є дискретна і може набувати значень ,00 x
,11 x ,22 x 33 x , .44 x За формулою Бернуллі обчислимо відповідні
ймовірності ip цих можливих значень, знаючи, що 21,
21
qp :
161
2111
4400
40
qpCp ;
41
21
214
3311
41
qpCp ;
КВМ
104
83
21
216
22222
42
qpCp ;
41
21
21 3
343
Cp ;
161
21
21 04
444
Cp .
Зробимо перевірку: 1161
41
83
41
161
43210 ppppp .
Закон розподілу даної випадкової величини X має форму:
Х = хi 0 1 2 3 4 р = рi 16/1 1/4 3/8 4/1 16/1
Імовірність події В – число елементів приладу, в яких є більше ніж дві технічні
неполадки, дорівнює:
1 1 5( ) 3 44 16 16
P B P X P X .
Із таблиці також видно, що найімовірніше число елементів приладу, в яких є
технічні неполадки, .20 m
Б. Р о з п о д і л П у а с с о н а. Розподіл імовірностей
дискретної випадкової величини Х, яка набуває значень
ix : 0, 1, 2, …, n, … з імовірностями
...,,2,1,0,!
)(
iei
iXPpi
i (2.2)
називається законом розподілу Пуассона, що залежить від
параметра , > 0.
Розподіл Пуассона записують у формі таблиці (табл.
2.3). Таблиця 2.3
Х = xi 0 1 2 … n – 1 п …
р = pi e e
!1 e
!2
2 …
en
n
)!1(
1 e
n
n
! …
КВМ
105
Підсумовуючи всі ймовірності розподілу Пуассона і
використовуючи рівність
,!0
i
i
ie
отримуємо підтвердження основної властивості розподілу:
.1!! 00
eei
eie
i
i
i
i
Під час вивчення схеми Бернуллі було зауважено, що
при великих n для обчислення ймовірностей ( )nP i
доцільно використовувати асимптотичні формули
Пуассона, Лапласа, які полегшують ці обчислення.
Зокрема, з асимптотичної формули Пуассона випливає,
що за допомогою розподілу Пуассона можна
апроксимувати біномний закон розподілу, коли число
експериментів n необмежено зростає (n ) й одночасно
ймовірність
р = р(п) (імовірність успіху в одному експерименті)
необмежено зменшується (р0) так, що їх добуток пр
наближається до числа :
npnlim .
Приклад 2.3. Електронна пошта банку підтримує зв’язки із сотнею абонентів.
Імовірність того, що за одиницю часу на електронну пошту надійде
повідомлення від абонента, становить .02,0 Написати закон розподілу величини
Х – числа надходження сигналів від абонентів. Яка при цьому з подій є більш
КВМ
106
імовірною: В – за одиницю часу надійдуть сигнали від 3-х абонентів, С – за
одиницю часу надійдуть сигнали від 4-х абонентів?
Розв’язання. У даному випадку проводиться n = 100 випробувань за схемою
Бернуллі і випадкова величина X може набувати значень ,00 x ,11 x ,22 x
,33 x 4 4x , …, 100 100x . Імовірність події А – надходження сигналу від
одного абонента є мала, а число n = 100 є велике і ,202,0100 тому
відповідні ймовірності обчислюємо за формулою (2.2): 2
0 100(0) 0,1353;p P e
0,27072(1) -21001 ePp ;
0,27072)2( -21002 ePp ;
23 100
4(3) 0,1804;3
p P e
09020,32)4( 2-
1004 ePp ;
.................................................
99
0100100100 )(1)100(
mmPPp .
Закон розподілу описаної в задачі дискретної випадкової величини Х записуємо
у формі таблиці:
Х = xi 0 1 2 3 4 … р = pі 0,1353 0,2707 0,2707 0,1804 0,0902 …
Із наведеної таблиці видно, що 1804,0)( BP і ,0902,0)( CP тобто більш
імовірно, що сигнали надійдуть від 3-х абонентів, аніж від 4-х.
В. Г е о м е т р и ч н и й р о з п о д і л. Нехай знову
проводиться п випробувань за схемою Бернуллі і
КВМ
107
ймовірність появи події А в кожному випробуванні
становить р, а q = 1 – p. Випробування припиняються, як
тільки з’явиться подія А. Це означає, що коли подія А
з’явилася в т-му випробуванні, то в попередніх т – 1
випробуваннях вона не з’являлася.
Приймемо, що дискретна випадкова величина Х є
число випробувань, які необхідно провести до першої
появи події А. Можливими значеннями випадкової
величини Х є х1 = 1, х2 = 2, ... . Оскільки 1mq є
ймовірність того, що подія в т – 1 випробуваннях не
з’явиться, а р – імовірність того, що вона з’явиться в т-
му випробуванні, то 1( ) mP X m q p . (2.2)
Закон розподілу дискретної випадкової величини Х,
що виражається формулою (2.2), називається
геометричним, бо права частина цієї формули –
загальний член геометричної прогресії:
.11
1...... 12
qppqpqpqp m
Геометричний закон розподілу дискретної випадкової величини
записують у формі таблиці (табл. 2.4).
Таблиця 2.4
iX x 1 2 3 … т …
КВМ
108
ip p р pq pq2 … pqm – 1 …
2.1.3. Чисельні характеристики
Закон розподілу ймовірностей
повністю характерризує дискретну випадкову величину,
однак він не завжди відомий, і ми вимушені
обмежуватися в цих випадках меншими відомостями про
неї. Поряд із тим, іноді навіть зручніше користуватися
числами, які описують випадкову величину сумарно, і
вони називаються чисельними характеристиками цієї
величини. Розглянемо основні з них.
А. М а т е м а т и ч н е с п о д і в а н н я. Припустімо,
що дискретна випадкова величина X може набувати
значень nxxx ...,,, 21 з імовірностями nppp ...,,, 21 , тобто вона
описується законом розподілу у формі таблиці (див.
табл. 2.1).
Означення. Математичним сподіванням M(X)
дискретної випадкової величини X називається сума
добутків усіх можливих її значень на їх імовірності,
тобто
n
iiinn pxpxpxpxXM
12211 ....)( (2.3)
КВМ
109
Якщо множина значень дискретної випадкової
величини X є нескінченна і зліченна, то
1,)(
iii pxXM )3.2(
причому математичне сподівання існує, якщо ряд справа
у рівності )3.2( збіжний абсолютно.
Зауважимо, що значення математичного сподівання
випадкової величини не є випадкове [М(Х) – стала
величина].
Приклад 2.4. Закон розподілу дискретної випадкової величини Х задано
таблицею:
Х = хі -4 -3 2 3 6 8 р = рі 0,1 0,1 0,2 0,3 0,1 0,2
Обчислити М(Х).
Розв’язання. За формулою (2.3):
( ) 4 0,1 ( 3) 0,1 2 0,2 3 0,3 6 0,1 8 0,20,4 0,3 0,4 0,9 0,6 1,6 2,8.
M X
Математичне сподівання має такі основні
властивості:
1. Математичне сподівання сталої величини
дорівнює цій величині, тобто якщо ,constC то
( )M C C .
КВМ
110
Дійсно, сталу величину Х розглядатимемо як
дискретну випадкову величину Х, яка набуває одного
значення C з імовірністю р=1. Тому
( ) ( ) 1M X M C C C .
2. Сталий множник виноситься за знак
математичного сподівання, тобто якщо ,constC
то .)()( XMCCXM
Нехай дискретна випадкова величина Х задана
законом розподілу
iX x 1x 2x ... nx ip p 1p 2p ... np
Добуток сталої величини С на дискретну
випадкову величину Х є дискретна випадкова
величина СХ, яка набуває значень 1 2, , ..., nCx Cx Cx з
імовірностями 1 2, , ..., np p p . Тому
1 1 2 2 1 1 2 2( ) ... ... ( )n n n nM CX Cx p Cx p Cx p C x p x p x p CM X .
3. Математичне сподівання алгебраїчної суми двох
(або кількох) випадкових величин дорівнює
алгебраїчній сумі математичних сподівань цих
величин, тобто ( ) ( ) ( )M X Y M X M Y .
Нехай випадкові величини Х та Y задані
законами розподілу:
КВМ
111
iX x 1x 2x ... nx iY y 1y 2y ... my
ip p 1p 2p ... np jq q 1q 2q ... mq
Запишемо всі можливі значення величини
1 1 2 1: , ,X Y x y x y 1 1 2 2 2 2..., ; , , ..., ;n nx y x y x y x y
1 2...; , , ...,m m n mx y x y x y та їх імовірності
11 21 1 12 22 2 1 2, , ..., ; , , ..., ; ...; , , ...,n n m m nmp p p p p p p p p .
За формулою (2.3) маємо:
1 1 11 2 1 21 1 1 1 2 12( ) ( ) ( ) ... ( ) ( )n nM X Y x y p x y p x y p x y p
2 2 22 2 2 1 1 2 2( ) ... ( ) ... ( ) ( )n n m m m mx y p x y p x y p x y p
1 11 12 1 2 21 22 2... ( ) ... ...n m nm m mx y p x p p p x p p p
1 2 1 11 21 1... ... ...n n n nm nx p p p y p p p
2 12 22 2 1 2... ... ...n m m m nmy p p p y p p p .
Далі обгрунтуємо рівності:
11 12 1 1 21 22 2 2 1 2... , ... , ..., ... ;m m n n nm np p p p p p p p p p p p
11 21 1 1 12 22 2 2 1 2... , ... , ..., ... .n n m m nm mp p p q p p p q p p p q
Імовірність того, що випадкова величина Х набуде
значення ix дорівнює ip . Подія iX x може відбутися,
якщо величина X Y набуде значень 1ix y або 2ix y , ...,
або i mx y і ці події є несумісні. Тому за правилом
додавання ймовірностей несумісних подій маємо, що
1 2 ...i i i imp p p p .
КВМ
112
Аналогічно, подія jY y (її ймовірність jq ) є сумою
несумісних подій 1 ,jX Y x y 2 ,jX Y x y ..., n jX Y x y
(їх імовірності відповідно дорівнюють 1 2, , ...,j j njp p p і
тому за тим же правилом додавання імовірностей
несумісних подій
1 2 ...j j j njq p p p .
Використовуючи ці рівності маємо:
1 1 2 2 1 1 2 2( ) ... ... ( ) ( ).n n m mM X Y x p x p x p y q y q y q M X M Y
Врахувавши властивість 2, одержуємо:
( ) ( ) ( ) ( ) ( ) ( )M X Y M X Y M X M Y M X M Y .
4. Математичне сподівання добутку двох незалежних
випадкових величин (або кількох взаємно незалежних
випадкових величин) дорівнює добуткові
математичних сподівань цих величин, тобто якщо
X і Y – незалежні випадкові величини, то
)()()( YMXMYXM .
Нехай випадкові величини Х та Y задані
законами розподілу:
iX x 1x 2x ... nx iY y 1y 2y ... my
ip p 1p 2p ... np jq q 1q 2q ... mq
КВМ
113
Можливі значення випадкової величини X Y є:
1 1 2 1, ,x y x y 1 1 2 2 2 2..., ; , , ..., ;n nx y x y x y x y
1 2...; , , ...,m m n mx y x y x y . Позначивши через
11 21 1 12 22 2 1 2, , ..., ; , , ..., ; ...; , , ...,n n m m nmp p p p p p p p p - відповідні
ймовірності цих значень, за формулою (2.3) маємо:
1 1 11 2 1 21 1 1 1 2 12( ) ... n nM X Y x y p x y p x y p x y p
2 2 22 2 2 1 1 2 2... ...n n m m m mx y p x y p x y p x y p ... n m nmx y p .
Враховуючи, що випадкові величини Х і Y –
незалежні (це рівносильно тому, що події iX x і jY y
є незалежні), маємо:
ij i jp p q .
Тому математичне сподівання випадкової величини
XY можемо записати у вигляді:
1 1 1 1 2 1 2 1 1 1 1 2 1 2( ) ... n nM X Y x y p q x y p q x y p q x y p q 2 2 2 2 ...x y p q
2 2 1 1 2 2...n n m m m mx y p q x y p q x y p q ... n m n mx y p q
1 1 1 1 2 2 2 2 1 1 2 2... ...n n n ny q x p x p x p y q x p x p x p
1 1 2 2 1 1 2 2... ... ...m m n n n ny q x p x p x p x p x p x p
1 1 2 2 ... ( ) ( )m my q y q y q M X M Y
Зауваження. Властивості 3 і 4 поширюються на
випадок довільного числа дискртених випадкових
величин, а саме:
КВМ
114
математичне сподівання алгебраїчної суми
декількох випадкових величин дорівнює сумі їх
математичних сподівань, тобто:
1 2 1 2... ( ) ( ) ... ( )n nM X X X M X M X M X ;
математичне сподівання добутку декількох
взаємно незалежних випадкових величин
дорівнює добутку їх математичних сподівань,
тобто
1 2 1 2... ( ) ( ) ... ( )n nM X X X M X M X M X .
Сформульовані твердження можна довести методом
математичної індукції.
Імовірнісний зміст математичного сподівання:
математичне сподівання випадкової величини Х
наближено дорівнює середньому арифметичному
зваженому її спостережуваних значень.
Справді, розглянемо дискретну випадкову величину
Х, закон розподілу якої задано табл. 2.1. Нехай
проводиться N незалежних експериментів, у кожному з
яких випадкова величина Х набуває деякого значення з
множини {x1, x2, …, xn}. Припустімо, що значення х1
набуте N1 разів, значення x2 набуте N2 разів, …, значення
КВМ
115
xn набуте Nn разів. Тоді середнє арифметичне зважене x
обчислимо за формулою:
.)...(11
2211 NNxNxNxNx
Nx i
n
iinn
Відношення іi w
NN
є відносна частота (статистична
ймовірність) події iX x і тому
n
iii wxx
1,
тобто середнє арифметичне зважене спостережуваних значень випадкової
величини дорівнює сумі добутків її можливих значень на відповідні їм
відносні частоти.
Вивчення статистичної ймовірності випадкової події
показало, що за необмеженого збільшення числа
експериментів N відносна частота wі цієї події буде
наближатися до її ймовірності ip , тобто за великих N
маємо наближену рівність wі ≈ pi. Тому і середнє
арифметичне зважене x буде в цьому випадку також
наближатися до математичного сподівання М(Х), тобто
n
iiinn pxpxpxpxXMx
12211 ... . (2.3)
А це означає, що за досить великого числа
експериментів середнє арифметичне спостережуваних
КВМ
116
значень випадкової величини Х можна прийняти рівним
її математичному сподіванню.
Зауважимо, що математичне сподівання М(Х)
випадкової величини Х є точка числової прямої, в околі
якої «розсіяні» її значення ....,,, 21 nxxx
Приклад 2.5. Молокозавод має договори на постачання молока з трьома
фермерами і двома агрофірмами. Імовірність виконання договору одним
фермером становить 0,8, а однією агрофірмою – 0,6. Знайти середню кількість
постачальників сировини, які виконають договори.
Розв’язання. Нехай X – число фермерів і Y – число агрофірм, що виконають
договори. Складемо закони розподілу цих дискретних випадкових величин.
Для випадкової величини X маємо: ,8,0xp 2,0xq і можливі значення ,00 x
,11 x ,22 x .33 x Імовірності ixp обчислюємо за формулою Бернуллі:
;008,0)2,0()8,0( 30030 Cp x ;096,004,08,03)2,0(8,0 21
31 Cp x
;384,02,064,032,0)8,0( 2232 Cp x .512,0)2,0()8,0( 033
33 Cp x
Перевірка: .1512,0384,0096,0008,03210 pppp
Закон розподілу випадкової величини X має форму такої таблиці:
Х = xi 0 1 2 3 р = pix 0,008 0,096 0,384 0,512
.4,2536,1768,0096,0512,03384,02096,01008,00)( XM
Для випадкової величини Y маємо: ,6,0yp 4,0yq і можливі значення
2,1,0 210 yyy . Імовірності jyp обчислимо також за формулою Бернуллі:
;16,0)4,0()6,0( 20020 Cp y
;48,04,06,0121 Cp y
.36,0)4,0()6,0( 02222 Cp y
Перевірка: .136,048,016,0210 yyy ppp
КВМ
117
Закон розподілу випадкової величини Y має вигляд:
Y = yi 0 1 2 р = piy 0,16 0,48 0,36
.2,172,048,036,0248,0116,00)( YM
За ймовірнісним змістом математичного сподівання середнє число YX поста-
чальників молока наближено дорівнює )( YXM , тобто
.6,32,14,2)()()( YMXMYXMYX
Отже, середнє число постачальників дорівнює 3–4.
Зауваження. У разі проведення послідовності
експериментів (випробувань) за схемою Бернуллі
математичне сподівання числа появ події (випадкова
величина Х) у цих випробуваннях обчислюється за
спрощеними формулами:
математичне сподівання числа Х появ події в
одному випробуванні дорівнює ймовірності р появи
події в цьому випробуванні, тобто ;)( pXM
математичне сподівання числа Х появ події в n
випробуваннях за схемою Бернуллі дорівнює
добуткові числа n випробувань на ймовірність р
появи події в одному випробуванні, тобто .)( npXM
Справді, оскільки випадкова величина Х – число появ
події А в одному випробуванні може набути тільки
КВМ
118
одного з двох значень: 1 1x з імовірністю p і 2 0x з
імовірністю q , то
( ) 1 0M X p q p .
Якщо випадкова величина Х – число появ події А в п
випробуваннях за схемою Бернуллі, а iX - число появ
події А в одному і-му випробуванні, то
1 2 ... , ( ) , 1,n iX X X X M X p i n .
За властивістю 3 математичного сподівання 1 2 1 2( ) ... ( ) ( ) ... ( )n nM X M X X X M X M X M X
разів
...n
p p p n p
.
Приклад 2.6. Імовірність погашення банківського кредиту кожним клієнтом ста-
новить 0,7. Знайти математичне сподівання випадкової величини X – числа
клієнтів серед вибраних 10-ти, які своєчасно і в повному обсязі повернуть
кредити банкові.
Розв’язання. Оскільки своєчасне погашення кредиту одним клієнтом не
залежить від того, чи поверне кредит інший, і ймовірність своєчасного
погашення кредиту кожним клієнтом є однакова, то маємо послідовність
випробувань за схемою Бернуллі. У даному випадку ,10n 7,0p і
,77,010)( XM тобто в середньому 7 із 10-ти клієнтів погасять кредити
своєчасно.
Б. Д и с п е р с і я. Як зазначалося в п. А, математичне
сподівання дискретної випадкової величини є точка
числової прямої, в околі якої розсіяні її можливі
КВМ
119
значення. На практиці часто потрібно оцінити це
розсіювання. Дане питання вирішується за допомогою
дисперсії.
Нехай X – дискретна випадкова величина, закон
розподілу якої записано у формі таблиці (табл. 2.1).
Означення. Відхиленням дискретної випадкової
величини X від її математичного сподівання )(XM
називається різниця .)(XMX
Відхилення )(XMX є також дискретна випадкова
величина, яка має такий закон розподілу (табл. 2.5): Таблиця 2.5
xi – M(X) )(1 XMx )(2 XMx ... )(XMxn
р = pi 1p 2p ... np
Зауважимо, що математичне сподівання відхилення
Х – М(Х) дорівнює нулю: .0)()()()()( XMXMXMMXMXMXM
З останньої рівності випливає, що середнє значення
розсіювання випадкової величини X в околі її
математичного сподівання неможливо характеризувати
за допомогою зваженої суми відхилень )(XMxi , бо ці
різниці мають різні знаки і в сумі вони взаємно
анулюються. У такому разі можна було б узяти зважену
КВМ
120
суму абсолютних значень цих різниць )(XMxi . Однак на
практиці середнє значення розсіювання значень
випадкової величини Х в околі її математичного
сподівання М(Х) частіше оцінюють за допомогою
величини [X – M(X)]2, яка має такий закон розподілу
(табл. 2.6): Таблиця 2.6
[Х – M(X)]2 = [xi –
M(X)]2
21 )(XMx 22 )(XMx ... 2)(XMxn
р = pi 1p 2p ... np
Означення. Дисперсією ( )D X дискретної випадкової
величини X називається математичне сподівання
квадрата відхилення цієї величини від її математичного
сподівання, тобто
n
iii pXMxXMXMXD
1
22 .)()()( (2.4)
Використавши властивості математичного
сподівання, формулу (2.4) можна звести до вигляду:
22 )()()( XMXMXD
n
iii XMpx
1
22 )( . )4.2(
Формулу )4.2( одержимо з формули (2.4) ,
перетворивши її праву частину:
КВМ
121
2 2
1( ) 2 ( ) ( )
n
i i ii
D X x x M X M X p
2 2
1 1 12 ( ) ( )
n n n
i i i i ii i i
x p M X x p M X p
2 2 2 2
1 12 ( ) ( ) ( ) 1 ( )
n n
i i i ii i
x p M X M X M X x p M X
.
Із формули )4.2( випливає, що дисперсія дискретної
випадкової величини дорівнює різниці між
математичним сподіванням квадрата цієї величини і
квадратом її математичного сподівання.
У випадку, коли множина різних значень дискретної
випадкової величини Х є нескінченна і зліченна, то
,)()(2
1i
ii pXMxXD
або
,)()( 2
1
2
ii XMpixXD
за умови, що числові ряди в правих частинах цих формул є збіжні.
Дисперсія має такі властивості:
1. Дисперсія сталої величини дорівнює нулю, тобто
якщо ,constC то ( ) 0.D C
Дійсно, за означенням дисперсії
2( ) ( )D C M C M C .
КВМ
122
Оскільки ( )M C C , то
2( ) (0) 0D C M C C M .
2. Сталий множник виноситься у квадраті за знак
дисперсії, тобто якщо ,constC то )()( 2 XDCCXD .
За формулою (2.4)
2( ) ( )D CX M CX M CX .
Враховуючи властивість 2 математичного сподівання
( ) ( )M CX CM X одержимо:
2 22( ) ( ) ( )D CX M CX M CX M C X M X
22 2( ) ( )C M X M X C D X .
3. Дисперсія суми двох незалежних випадкових величин
(або кількох взаємно незалежних величин) дорівнює
сумі дисперсій цих величин: )()()( YDXDYXD .
Справді, за формулою )4.2(
22 )]([])[( YXMYXMYXD .
Врахувавши властивості математичного сподівання,
маємо:
22 2( ) 2 ( ) ( )D X Y M X XY Y M X M Y
2222 )]([)()(2)]([)()()(2)( YMYMXMXMYMYMXMXM
2 22 2( ) ( ) ( ) ( )M X M X M Y M Y D X D Y .
КВМ
123
Зауваження. Дана властивість поширюється на
випадок довільного числа випадкових величин: якщо
1 2, ,..., nX X X - взаємно незалежні випадкові величини, то
1 2 1 2... ...n nD X X X D X D X D X .
4. Дисперсія різниці двох незалежних випадкових
величин дорівнює сумі дисперсій цих величин:
)()()( YDXDYXD .
Цю властивість обгрунтуємо, використавши
властивості 2 і 3 дисперсії:
2( ) ( ) ( ) ( ) ( ) ( 1) ( ) ( ) ( ).D X Y D X Y D X D Y D X D Y D X D Y
Зокрема, якщо С – стала величина, то ( ) ( )D X C D X .
Зауваження. У разі проведення послідовності n
експериментів (випробувань) за схемою Бернуллі
дисперсія випадкової величини Х – числа появ події
А в цих випробуваннях обчислюється за формулою: ,)( npqXD
де р = const – імовірність появи події А в окремому
експерименті, q = 1 – p.
Наведена формула для обчислення дисперсії
випливає з таких міркувань. Якщо Х – число появ
події А в серії з п випробувань за схемою Бернуллі і
КВМ
124
iX - число появ цієї події в і-му випробуванні 1,i n ,
то
1 2 ... nX X X X .
Величини 1 2, , ..., nX X X - взаємно незалежні, тому
відповідно із зауваженням до властивості 3 дисперсії
маємо:
1 2 1 2( ) ... ( ) ( ) ... ( )n nD X D X X X D X D X D X .
Математичне сподівання числа iX появ події А в
одномі випробуванні дорівнює ймовірності р появи
цієї події: ( )iM X p .
Випадкова величина 2iX може набувати тільки
двох значень: 21 з імовірністю р і 20 з імовірністю
1q p . Тому
2 2 21 0iM X p q p .
Звіси випливає, що
2 2 2 (1 )i i iD X M X M X p p p p pq .
У результаті
разів
( ) ...n
D X pq pq pq npq
.
В. С е р е д н є к в а д р а т и ч н е в і д х и л е н н я.
Використовуючи дисперсію для характеристики
КВМ
125
розсіювання випадкової величини, стикаємося з однією
незручністю: якщо випадкова величина вимірюється в
деяких одиницях, то дисперсія вимірюватиметься у
квадратах цих одиниць. Тому доцільно мати
характеристику розсіювання значень випадкової
величини тієї ж вимірності, що й сама величина. Такою
характеристикою є середнє квадратичне відхилення.
Означення. Середнім квадратичним відхиленням
дискретної випадкової величини X називають корінь
квадратний із дисперсії )(XD і позначають ),(X тобто
.)()( XDX (2.5)
Відзначимо основну властивість середнього квадратичного відхилення:
якщо nXXXX ...21 , де nXXX ...,,, 21 – взаємно незалежні випадкові
величини, то
.)(...)()()( 22
21
2nXXXX
Дана рівність випливає безпосередньо з означення
середнього квадратичного відхилення і властивостей
дисперсії. За властивістю дисперсії
1 2 1 2( ) ... ...n nD X D X X X D X D X D X ,
1 2( ) ( ) ( ) ... ( ).nX D X D X D X
Оскільки 2 1,i iD X X i n , то остаточно маємо, що
.)(...)()()( 22
21
2nXXXX
КВМ
126
Приклад 2.7. Кожна з чотирьох електролампочок має дефект із імовірністю
1,0q ( 9,01 qp – імовірність того, що лампочка дефекту не має).
Послідовно беруть по одній лампочці, угвинчують у патрон і вмикають
електричний струм. Якщо під час увімкнення струму лампочка перегорить, то
вгвинчують наступну. Написати закон розподілу випадкової величини X –
числа лампочок, які будуть випробувані, та обчислити )(XD і ).(X
Розв’язання. Описана в задачі дискретна випадкова величина X набуває
можливих значень: ,11 x ,22 x ,33 x .44 x Імовірності подій iX x , і =
1, 2, 3 обчислюємо за формулою (2.2):
;9,09,0)1,0()1( 01 XPp
;09,09,01,0)2(2 XPp
.009,09,0)1,0()3( 23 XPp
Для обчислення ймовірності події Х = 4 використовуємо той факт, що ця подія є
сумою двох несумісних подій: 1B – під час послідовного випробування 4-х
лампочок три з них перегорять, а четверта не перегорить; 2B – під час
послідовного випробування 4-х лампочок усі вони перегорять. Тому
434 )1,0(9,0)1,0()4(XPp .001,0
Отже, закон розподілу випадкової величини Х має вигляд:
Х = xi 1 2 3 4 р = pi 0,9 0,09 0,009 0,001
Далі обчислюємо:
4
1)(
iii pxXM = ;111,1004,0027,018,09,0001,04009,0309,029,01
;357,1016,0081,036,09,0001,016009,0909,049,01)(4
1
22 i
ii pxXM
;122679,0111,1357,1)()()( 222 XMXMXD
.35,0122679,0)()( XDX
Г. М о д а і м е д і а н а.
КВМ
127
Означення. Модою дискретної випадкової величини Х називається те її
значення ix , ймовірність набуття якого є найбільшою.
Означення. Медіаною дискретної випадкової величини Х називається те
її значення у законі розподілу, для якого сума ймовірностей можливих
значень зліва і справа від нього не перевищує 0,5.
Математичне сподівання, мода, медіана та дисперсія характеризують
найбільш важливі риси розподілу випадкової величини, а саме, відповідно
його центральну тенденцію та ступінь розсіювання можливих значень
величини навколо середнього значення. Крім цих характеристик, у теорії
ймовірностей застосовуються деякі інші чисельні характеристики відповід-
ного призначення, кожна з яких характеризує випадкову величину з позиції
тих чи інших особливостей її розподілу.
Д. П о ч а т к о в і і ц е н т р а л ь н і м о м е н т и.
Означення. Початковим моментом s-го порядку дискретної випадкової ве-
личини X називають математичне сподівання величини sX і позначають s :
н ( )ss M X . (2.6)
Якщо закон розподілу випадкової величини Х задається табл. 2.1, то
n
isis px
1i, (2.6 )
бо можливими значеннями випадкової величини sX є 1 2, , ...,s s snx x x , а
ймовірності їх набуття дорівнюють 1 2, ,..., np p p відповідно.
Зокрема, )(1 XM , )( 22 XM , і для обчислення дисперсії маємо таку
формулу: 212)( XD .
КВМ
128
Означення. Центральним моментом s-го порядку дискретної випадкової
величини X називається математичне сподівання величини sXMX )( і
позначається s :
.)( ss XMXM (2.7)
Якщо закон розподілу випадкової величини Х задано табл. 2.1, то
,)(1
i
n
i
sis pXMx
(2.7 )
бо можливими значеннями випадкової величини ( ) sX M X є
1 2( ) , ( ) , ..., ( ) ss snx M X x M X x M X , а ймовірності набуття цих
значень дорівнюють 1 2, ,..., np p p відповідно. Зокрема, )(,0 21 XD .
Приклад 2.8. Обчислити початковий і центральний моменти 3-го порядку за даним
законом розподілу ймовірностей дискретної випадкової величини Х, що пред-
ставлений у формі таблиці:
Х = хі –8 –4 –1 1 4 8 р = рі 0,1 0,2 0,2 0,2 0,2 0,1
Розв’язання. За формулою (2.6), маємо:
1,082,042,012,0)1(2,0)4(1,0)8()( 333333333 ii pxXM
.01,082,042,012,012,041,08 333333
За формулою (2.7) і, враховуючи, що М(Х) = 0, маємо:
.0)()( 333 XMXMXM
Між центральними і початковими моментами існує зв’язок: одні вира-
жаються через інші. Зокрема, виконується рівність
,2122
яка випливає з таких обчислень:
КВМ
129
n
ii
n
i
n
iiiiii
n
ii pXMpxXMpxpXMx
1
2
1 1
22
12 )()(2)(
.)(1)()()(2 122
22
22XMXMXMXM
Аналогічно доводимо, що
.23 112332
Справді, користуючись формулою для куба різниці, знайдемо:
1)()()(3)(3)(
)(3)(3)(
3223
1
3
1
2
1 1
233
13
XMXMXMXMpXM
pxXMpxXMpxpXMx
n
ii
n
iii
n
i
n
iiiiii
n
ii
.23 12133
Зауважимо, що третій центральний момент 3 використовується для
характеристики асиметрії розподілу. Якщо розподіл симетричний відносно
математичного сподівання, то всі центральні моменти непарного порядку (якщо
вони існують) дорівнюють нулю. Тому природно за характеристику асиметрії
обрати який-небудь із непарних центральних моментів – найпростіше 3 . Але
незручність використання 3 полягає в тому, що його вимірність є кубом
розмірності випадкової величини. Щоб усунути цю незручність, за
характеристику асиметрії обирають безвимірну характеристику – відношення
третього центрального моменту до куба середнього квадратичного відхилення,
яке називають коефіцієнтом асиметрії, або просто асиметрією.
Е. А с и м е т р і я і е к с ц е с.
Означення. Асиметрією дискретної випадкової величини Х називається
число A , яке обчислюється за формулою:
КВМ
130
33
A . (2.8)
Для симетричного розподілу А = 0. Якщо A > 0 (А < 0), то маємо розподіл із
правосторонньою (лівосторонньою) асиметрією.
Четвертий центральний момент використовується для характеристики
ступеня концентрації можливих значень випадкової величини Х навколо
центру розподілу, або, іншими словами, для характеристики гостро-
вершинності чи плосковершинності розподілу (застосовується зазвичай для
характеристики неперервних випадкових величин). Ця властивість харак-
теризується за допомогою так званого ексцесу.
Означення. Ексцесом дискретної випадкової величини Х називається
число E , яке обчислюється за формулою:
344
E . (2.9)
Число 3 віднімається від відношення 4
4
у тому, що для
найбільш поширеного нормального розподілу (про нього
буде мова в пункті 2 цього розділу) відношення 44
= 3;
криві або ймовірнісні многокутники розподілу, які є
більш гостровершинні, ніж нормальний, мають додатний
ексцес, а більш плосковершинні – від’ємний ексцес.
Чисельною характеристикою Е користуються
здебільшого для симетричних або близьких до нього
розподілів.
КВМ
131
2.1.4. Чисельні характеристики
середнього арифметичного однаково розподілених взаємно незалежних випадкових величин
Розглянемо n взаємно незалежних
дискретних випадкових величин nXXX ...,,, 21 , які мають
однакові закони розподілу ймовірностей. Тоді їх чисельні
характеристики (математичне сподівання, дисперсія і
середнє квадратичне відхилення) також однакові, тобто
const,)( MXM i const,)( DXD i const,)( iX ni ,1 .
Нехай X – середнє арифметичне описаних випадкових
величин, тобто
nXXXX n
...21 .
Виникає питання: який зв’язок між чисельними
характеристиками випадкової величини X і випадкових
величин ?...,,, 21 nXXX
Відповідь на це питання дає таке твердження:
чисельні характеристики (математичне сподівання,
дисперсія, середнє квадратичне відхилення) середнього
арифметичного X n взаємно незалежних і однаково
КВМ
132
розподілених дискретних випадкових величин nXXX ...,,, 21
виражаються такими рівностями: ,)( MXM
nDXD )( , (2.10)
nX
)( .
Рівності (2.10) випливають з означень відповідних числових
характеристик та їх властивостей:
1 21 2
... 1 ...nn
X X XM X M M X X Xn n
1 21 1... nM X M X M X nM Mn n
;
1 21 22
... 1 ...nn
X X XD X D D X X Xn n
1 22 21 1... n
DD X D X D X nDnn n
;
DX D Xn n
.
Сформульоване твердження має важливе значення для практики.
Для встановлення певної ознаки даної величини проводять кілька вимі-
рювань, результати яких є випадковими величинами nXXX ...,,, 21 , бо вони
залежать від багатьох випадкових факторів. Ці величини мають однаковий роз-
поділ і є взаємно незалежними. Із наведеного твердження випливає, що за ха-
рактеристику досліджуваної ознаки доцільно обрати середнє арифметичне X
одержаних результатів вимірювань nXXX ...,,, 21 , оскільки розсіювання їх се-
реднього арифметичного є менше, ніж розсіювання кожного результату вимі-
рювання, і воно зменшується при n . Іншими словами, значення середнього
КВМ
133
арифметичного результатів вимірювань ознаки випадкової величини є надій-
нішим і ближчим до істинної характеристики цієї ознаки, ніж окремий результат.
Рекомендована література: [1, с. 93–113; 2, с. 40–46,
59–68; 5, с. 64–99;
7, с. 75–77, 213–225; 8, с. 63–183].
Завдання для самоконтролю
Основні поняття, означення і відношення. Замість крапок запишіть таке продовження (доповнення) тексту словами або форму-
лами, щоб у результаті отримати правильне означення або твердження.
1. Величина називається випадковою, якщо …
2. Випадкова величина називається одновимірною, якщо …, і n-вимірною, якщо …
3. Випадкова величина називається дискретною, якщо …
4. Закон розподілу дискретної випадкової величини – це …
5. Закон розподілу дискретної випадкової величини називається біномним, якщо …
6. Розподілом Пуассона дискретної випадкової величини називається …
7. Математичне сподівання дискретної випадкової величини – це …
8. Математичне сподівання дискретної випадкової величини має такий імовірнісний
зміст: …
9. Якщо Х і Y – дискретні випадкові величини, то М(Х + Y) = … і М(Х – Y) = …
10. Якщо Х і Y – незалежні дискретні випадкові величини, то М(Х · Y) = …
11. Якщо С = const і Х – дискретна випадкова величина, то М(С) = … і М(С · Х) = …
12. Якщо випадкова величина Х – число появ події А в n випробуваннях за схемою
Бернуллі і р = Р(А) – імовірність появи А в одному випробуванні, то М(Х) = …
13. Відхиленням дискретної випадкової величини Х від її математичного сподівання
називається …
14. Математичне сподівання відхилення дискретної випадкової величини Х від її
математичного сподівання М(Х) дорівнює …
КВМ
134
15. Дисперсією D(X) дискретної випадкової величини Х називається … , і вона
обчислюється за формулами: …
16. Дисперсія дискретної випадкової величини має такий імовірнісний зміст: …
17. Якщо Х і Y – незалежні дискретні випадкові величини, то D(X + Y) = … і D(X – Y)
= …
18. Якщо С = сonst і Х – дискретна випадкова величина, то D(C) = … і D(C · X) = …
19. Якщо випадкова величина Х – число появ події А в n випробуваннях за схемою
Бернуллі і р = Р(А) – імовірність появи події А в окремому випробуванні, то D(X)
= …
20. Середнім квадратичним відхиленням дискретної випадкової величини Х
називається …
21. Середнє квадратичне відхилення дискретної випадкової величини має такий
імовірнісний зміст: …
22. Середнє квадратичне відхилення суми кількох взаємно незалежних випадкових
величин 1 2, , ..., nX X X дорівнює …
23. Якщо випадкова величина Х – число появ події А в n випробуваннях за схемою
Бернуллі і р = Р(А) – імовірність появи події А в одному випробуванні, то D(Х) =
…
24. Початковим моментом s-го порядку дискретної випадкової величини Х
називається …
25. Центральним моментом s-го порядку дискретної випадкової величини
називається …
26. Асиметрія дискретної випадкової величини – це …
27. Ексцес дискретної випадкової величини – це…
28. Якщо nXXX ...,,, 21 – взаємно незалежні дискретні випадкові величини, а
nCCC ...,,, 21 – сталі величини, то )...( 2211 nn XCXCXCM …
29. Якщо nXXX ...,,, 21 – взаємно незалежні дискретні випадкові величини, а
nCCC ...,,, 21 – сталі величини, то )...( 2211 nn XCXCXCD …
30. Якщо nXXX ...,,, 21 – взаємно незалежні і однаково розподілені дискретні
випадкові величини ( у)у(,)(,)( iii XDXDMXM ), а X – їх середнє
арифметичне, то ...)у(...,)(..., )( XXDXM
КВМ
135
Тести Запишіть на бланку відповідей номер завдання та коди (порядкові номери або літери), що
відповідають тим варіантам відповідей, які вважаєте правильними.
1. Якими повинні бути числа 1p і 5p , щоб таблиця:
Х = хі х1 х2 х3 х4 х5
р = рі р1 0,1 0,3 0,2 р5
відображала закон розподілу випадкової величини Х, якщо ?2,051 pp
Варіанти відповідей: 1. 1,01 p , .3,05 p 2. 2,01 p , .2,05 p
3. 3,01 p , .1,05 p
2. У сейфі лежать 100 банкнот, з яких 20 – по 100 грн, 30 – по 50 грн і 50 – по 20 грн.
Зі сейфа навмання виймають одну банкноту. Написати закон розподілу
ймовірностей випадкової величини Х – вартості вийнятої банкноти у формі
таблиці:
Х= хі 100 50 20
р = рі 1p р2 р3
Варіанти відповідей: 1. 2,01 p , 5,02 p , .3,03 p
2. 2,01 p , 3,02 p , .5,03 p
3. 5,01 p , 3,02 p , 2,03 p .
3. Метеослужба міста, для прогнозування кількості снігових буранів протягом
поточного року, переглянула статистичні відомості за останні 50 років і
результати розподілу цих буранів подала у такій таблиці:
Кількість буранів 0 1 2 3 4 5 Частота (к-сть років) 2 4 8 12 14 10
КВМ
136
Написати закон розподілу статистичних імовірностей випадкової величини Х –
кількості можливих снігових буранів у поточному році і знайти ймовірність того,
що поточного року їх буде не менше ніж три (подія А).
Варіанти відповідей: 1. Р(А) = 0,72. 2. Р(А) = 0,48. 3. Р(А)= 0,28.
4. Статистика свідчить, що 20% сімей мають кабельне телебачення. Навмання
вибирають три сім’ї. Напишіть біномний закон розподілу випадкової величини Х
– числа сімей, які мають кабельне телебачення, із трьох навмання вибраних, і
обчисліть імовірність події А – не більше ніж одна сім’я із трьох навмання
вибраних має кабельне телебачення.
Варіанти відповідей: 1. 0,512. 2. 0,896. 3. 0,488.
5. Фірма відвантажила споживачеві 5 000 якісних виробів. Імовірність того, що під час
транспортування один виріб буде пошкоджений, становить 0,0002. Випадкова
величина Х – число пошкоджених виробів – розподілена за біномним законом із
параметрами п = 5000, р = 0,0002. Обчислити перші три ймовірності цього розподілу
),1(),0( 50005000 PP )2(5000P , використовуючи асимптотичну формулу Пуассона.
Указати на ймовірнісний зміст числа 2/е.
Варіанти відповідей. Число 2/е виражає ймовірність події:
А. Жоден виріб не буде пошкоджений.
Б. Два вироби будуть пошкоджені.
В. Не більше ніж один виріб буде пошкоджено.
6. Незалежні випадкові величини Х і Y задані такими законами розподілу:
Х = хі –2 2 Y = yj 1 2 3 р = рі … 0,7 q = qj 0,4 … 0,5
Заповніть порожні клітинки й обчисліть )( YXM .
Варіанти відповідей: 1. )( YXM = 0,8. 2. )( YXM = 1,68. 3. )( YXM = 2,3.
7. Незалежні випадкові величини Х і Y задані такими законами розподілу:
Х = хі –3 5 6 Y = yj 1 2 р = рі 0,6 … 0,2 q = qj 0,7 …
КВМ
137
Заповніть порожні клітинки й обчисліть D = )2,0( YXD .
Варіанти відповідей: 1. 0,9076. 2. 0,6976. 3. 3,698.
8. У пологовій лікарні протягом одного дня народилося п’ятеро дітей. Яке середнє
число серед них хлопчиків, якщо ймовірність народження хлопчика (подія А)
дорівнює 0,52?
Варіанти відповідей: 1. 2,25. 2. 2,4. 3. 2,6.
9. Випадкова величина Х може набувати двох можливих значень 21, xx з
імовірностями 21, pp , відповідно. Знайти 1x і 2x , якщо ,7,01 p М(Х) = 2,4,
21,0)( X і 21 xx .
Варіанти відповідей: 1. 1x = 2,6; 2x = 1,6. 2. 1x = 2,1; 2x = 3,1.
3. 1x = 2,6; 2x = 3.
10. Дисперсія кожного із 36 незалежних вимірювань деякої величини дорівнює 12 см.
Знайти дисперсію і середнє квадратичне відхилення середнього арифметичного
результатів цих вимірювань.
Варіанти відповідей: 1. 1/3 см і 3/1 см. 2. 2 см і 2/3 см. 3. 4 см і 2 см.
Приклади
1. Під час виготовлення деталі робітникові необхідно виконати чотири
незалежні між собою технологічні операції. Ймовірність того, що при виконанні
першої операції робітник не допустить дефекту, рівна 0,9; для другої, третьої і
четвертої операцій ця ймовірність становить відповідно 0,95; 0,75; 0,85. Побудувати
закон розподілу дискретної випадкової величини Х – числа операції, під час
виконання яких робітник не припуститься браку. Знайти функцію розподілу
випадкової величини Х та побудувати її графік.
2. У скриньці 6 однакових виробів, причому 4 з них пофарбовані. Зі скриньки
навмання виймають 3 вироби. Записати закон розподілу випадкової величини Х –
кількості пофарбованих виробів серед відібраних. Знайти функцію розподілу F(х) та
побудувати її графік.
КВМ
138
3. В ящику є 6 конусних і 15 циліндричних деталей. Навмання виймають 3
деталі. Написати закон розподілу випадкової величини Х – кількості циліндричних
деталей серед вийнятих. Знайти ( ), ( ), ( )M X D X X .
4. У лікарню за медичною допомогою звернулося 5 пацієнтів. Повне
видужання від їхньої хвороби спостерігається у 60% усіх хворих. Знайти: а) закон
розподілу випадкової величини Х – кількості пацієнтів, що повністю одужали; б)
ймовірність того, що повністю одужає не менше трьох пацієнтів; в) знайти М(Х) і
D(X).
5. Нехай Х – випадкова величина, яка має біноміальний розподіл із
параметрами п та р. Відомо, що ( ) 12,M X ( ) 4D X . Знайти п і р.
6. Партія, що нараховує 10 виробів, містить 3 бракованих. Зі всієї партії
довільно вибирають 3 вироби з метою перевірки їх якості. Знайти математичне
сподівання та дисперсію кількості бракованих виробів, що містяться в довільній
такій вибірці.
7. Імовірність виготовлення стандартної деталі дорівнює 0,96. Для перевірки
навмання взято 300 деталей. Скільки в середньому виявиться бракованих деталей
серед перевірених? Яким є середнє квадратичне відхилення кількості бракованих
деталей?
8. Статистика свідчить, що 9% працездатних мешканців регіону є безробітними.
Навмання вибирають 100 мешканців. Використовуючи формулу Пуассона, написати закон
розподілу ймовірностей випадкової величини Х – числа безробітних осіб серед навмання
вибраних 100 мешканців регіону. Знайти:
а) імовірність того, що не більше ніж двоє осіб серед вибраних мешканців регіону є
безробітними;
б) найімовірніше число безробітних осіб серед вибраних мешканців регіону.
9. Робітник виготовляє певний тип деталей. Ймовірність виготовлення
бракованої деталі дорівнює 0,01. Написати закон розподілу ймовірностей випадкової
величини Х – кількості бракованих деталей серед 150 виготовлених (за формулою
Пуассона). Знайти ймовірність того, що серед виготовлених деталей виявиться не
більше 2 бракованих.
КВМ
139
10. Ймовірність того, що стрілець влучить в мішень при одному пострілі
дорівнює 0,85. Стрільцю видають патрони доти, доки він не промахнеться. Знайти
закон розподілу випадкової величини Х – кількості патронів, виданих стрільцеві.
11. Екзаменатор задає студенту додаткові питання доти, доки студент не зможе
дати правильної відповіді. Ймовірність того, що студент знає відповідь на будь-яке
додаткове питання, дорівнює 0,8. Побудувати закон розподілу випадкової величини Х
– кількості додаткових питань, які задасть екзаменатор студенту. Знайти
ймовірність того, що екзаменатор дасть 3 питання.
12. Визначити математичне сподівання (середнє число), дисперсію та середнє
квадратичне відхилення випадкової величини Х, розподіл імовірностей якої задано
таблицею:
а) xi 10 20 30 40 50 pi 0,18 0,26 0,32 0,20 0,04 б) xi 9 10 20 40 50 pi 0,1 0,15 0,15 0,4 0,2 в) xi –1 0 2 3 5 pi 0,15 0,3 0,15 0,2 0,2
13. Випадкова величина Х набуває двох можливих значень х1 та х2 з
ймовірностями відповідно р1 та р2. Знайти х1 та х2 і записати її закон розподілу,
якщо:
а) х1 > х2 , p1 = 2/3, M(X) = − 1/3, D(X) = 8/9;
б) х1 < х2 , p2 = 0,9, M(X) = 1,7, σ(X) = 0,9;
в) х1 < х2 , p2 = 3/4, M(X) = 1/4, M(X2) = 7/4;
г) х1 > х2 , p1 = 0,4, p2 =0,6, M(X) = −1,4, D(X) = 0,24.
14. За заданим законом розподілу дискретної випадкової величини Х:
iX x −3 −2 1 3 5 7 ( )i iP X x p а 1,5а 0,5а 3,5а 2,5а а
Знайти: а) параметр а; б) ( 2)P X , ( 4 6)P X ; в) функцію розподілу
ймовірностей та побудувати її графік; г) ( ), ( ), ,s sM X D X A E .
15. Обчислити ( ), ( )D X X , якщо закон розподілу ймовірностей дискретної
випадкової величини Х задано функцією розподілу
КВМ
140
.71;749,0;4265,0;214,0;143,0;451,0;50
)(
xxxxx
xx
xF
Відповіді
1. ( 0) 0,0002,P X ( 1) 0,007,P X ( 2) 0,0808, ( 3) 0,367,P X P X
( 4) 0,545.P X 2. ( 1) 0,2, ( 2) 0,6, ( 3) 0,2.P X P X P X 3.
452133 266( 0) , ( 1) ,P X P X 63 91
133 266( 2) , ( 3)P X P X ; 2,143; 0,551;
0,742. 4. а) ( 0) 0,01024,P X ( 1) 0,0768,P X
( 2) 0,2304, ( 3) 0,3456,P X P X ( 4) 0,2592,P X ( 5) 0,07776P X ;
б) 0,68256; в) 3; 1,2. 5. 18; 23 . 6. 0,9; 0,49. 7. 12; 3,39. 8. а) 0062,0)2( XP ; б)
9. 9. ( 2) 0,809P X . 10. ( 1) 0,15,P X ( 2) 0,1275,P X
( 3) 0,108375P X , … . 11. ( 3) 0,032.P X 12. а) 26,6; 122,44; 11,065; б)
31,4; 237,14; 15,4; в) 1,75; 4,4875; 2,118. 13. а) 1/3; -5/3; б) -1; 2; в) –2; 1; г) –
0,8; -1,8. 14. а) 0,1; б) 0,3; 0,9; г) 2,45; 9,8475; -0,52; -0,93. 15. 14,7; 3,834.
КВМ
141
2.2. Неперервна (одновимірна) випадкова величина
На початку цього розділу ми
ознайомилися з поняттям випадкової величини, і там
було зазначено, що випадкова величина Х називається
неперервною, якщо її можливі значення суцільно
заповнюють деякий скінченний або нескінченний
проміжок на числовій прямій. Наведене поняття
неперервної випадкової величини ми далі уточнимо.
Нагадаємо також, що в разі, коли випадкова величина є
дискретною, то закон розподілу цієї змінної повністю
визначається переліком її можливих значень та від-
повідних їм імовірностей.
Однак для неперервної випадкової величини, яка має
незліченну множину можливих значень, така
характеристика розподілу непридатна. Дійсно, якщо
випадкова величина Х має значення, що суцільно
заповнюють інтервал ,a b , то записати її закон розподілу
у вигляді переліку мождивих значень та відповідних їм
імовірностей неможливо хоча б з тієї причини, що в
цьому випадку неможливо скласти перелік її значень.
Тому потрібно звернутися до загального способу
КВМ
142
характеристики розподілу такої величини. З цією метою
вводиться поняття функції розподілу ймовірностей
випадкової величини.
2.2.1. Функція розподілу ймовірностей
Нехай X – будь-яка випадкова
величина і x – довільне дійсне число.
Означення. Функцією розподілу ймовірностей
(функцією розподілу) )(xF випадкової величини X
називається ймовірність того, що в результаті
випробування вона набуде значення, меншого за число x,
тобто
).()( xXPxF (2.11)
Геометрично рівність (2.11) можна трактувати так:
)(xF є ймовірність того, що випадкова величина X
набуває значень, які зображаються на числовій прямій
точками, що лежать зліва від точки x.
Функцію розподілу ймовірностей випадкової
величини називають ще інтегральною функцією.
КВМ
143
Тепер уточнимо означення неперервної випадкової
величини: випадкову величину називають неперервною,
якщо її функція розподілу є неперервна і кусково-
диференційовна. Нагадаємо, що функція є кусково-диференційовна, якщо вона має непе-
рервну похідну всюди, крім, можливо, скінченного числа точок.
Наприклад, такою функцією є 2 , 0;, 0,
x xy
x x
яка має неперервну
похідну 2y x для всіх 0x і 1y для всіх 0x . У точці 0x похідна
цієї функції має розрив першого роду, бо 0
0limx
y
і 0
1limx
y
, а сама
функція є неперервна в цій точці. (Проілюструйте наведенні міркування на
графіку даної функції).
Зауважимо ще раз, що поняття функції розподілу ймовірностей вводиться
для будь-якої випадкової величини Х, у т. ч. дискретної, тільки в цьому
випадку вона не є неперервною.
Приклад 2.9. Дискретна випадкова величина X має закон розподілу
ймовірностей, що заданий таблицею:
iX x -2 1 4 6
ip p 0,2 0,1 0,3 0,4
Знайти функцію розподілу і нарисувати її графік.
Розв’язання. Якщо ,2x то 0)()( xXPxF , бо подія xX неможлива.
Якщо ,12 x то ,2,0)()( xXPxF бо подія X < x є рівносильна події Х = –
2, яка має ймовірність 0,2.
Якщо ,41 x то ,3,01,02,0)()( xXPxF бо подія xX є сумою двох
несумісних подій: 2X , що має ймовірність 2,0 , і 1X , яка має ймовірність
.1,0
КВМ
144
Якщо ,64 x то ,6,03,01,02,0)()( xXPxF бо подія xX у даному
випадку є сумою трьох несумісних подій: 2X , яка має ймовірність ,2,0
,1X яка має ймовірність 1,0 , і X = 4, яка має ймовірність .3,0
Якщо ,6x то ,1)()( xXPxF бо подія xX є вірогідною.
Отже, функція розподілу заданої дискретної випадкової величини має такий ана-
літичний вигляд:
.6,1;64,6,0;41,3,0;12,2,0
;2,0
)(
xxxxx
xF
Графік цієї функції (рис. 2.1) показує, що функція розподілу дискретної випадкової
величини має «східчастий» характер.
Рис. 2.1. Графік функції розподілу дискретної випадкової величини до прикладу
2.9
F(x) 1 0,6
0,3 0,2 –2 0 1 4 6 х
КВМ
145
Властивості функції розподілу:
1. Значення функції розподілу належать відрізку [0, 1],
тобто:
0F(x)1.
Це випливає з того, що )(xF є імовірність події X x і її
значення належать проміжку 0,1 .
2. Якщо x1 < x2, то )()( 21 xFxF , тобто F(x) – неспадна
функція.
Справді, нехай 2 1x x . Подія 2X x є сумою двох
несумісних подій 1X x та 1 2x X x , тобто
2 1 1 2X x X x x X x . За теоремою додавання
ймовірностей несумісних подій маємо: 2 1 1 2P X x P X x P x X x
2 1 1 2P X x P X x P x X x 2 1 1 2F x F x P x X x .
Оскільки 1 2 0P x X x , то 2 1F x F x , що і потрібно
було обгрунтувати.
3. )()(lim 000xFxF
xx
, тобто функція F(x) – неперервна
зліва.
Доведення цієї властивості опускаємо.
КВМ
146
4. Якщо можливі значення випадкової величини Х
належать інтервалу ;a b , то ( ) 0F x при x a і ( ) 1F x
при x b .
Дійсно, якщо 1x a , то подія 1X x є неможлива,
величина Х не набуває значень, які менші за число 1x , і
тому 1 1( ) ( ) 0F x P X x .
Якщо 2x b , то подія 2X x є вірогідна, оскільки всі
можливі значення величини Х є менші 2x , і тому
2 2( ) ( ) 1F x P X x .
Зауважимо, що звідси випливає таке твердження:
якщо можливі значення неперервної випадкової величини
розміщені на всій осі Ох, то виконуються такі
співвідношення:
lim ( ) 1x
F x
, lim ( ) 0x
F x
.
5. Імовірність того, що випадкова величина X набуде
значення з проміжку [а, b), дорівнює приросту її функції
розподілу на цьому проміжку, тобто:
)()()( aFbFbXaP . (2.12)
Дане твердження одержуємо з рівності 1 2 2 1( ) ( )P x X x F x F x
(див. доведення властивості 2), поклавши в ній 1x a і
2x b .
КВМ
147
6. Якщо випадкова величина Х неперервна, то
ймовірність того, що вона набуде будь-якого окремого
значення, дорівнює нулю, тобто 0)( 0 xXP для будь-
якого значення х0.
Справді, прийнявши у наведеній у попередній
властивості нерівності 1 0x x і 2 0x x x , маємо:
0 0 0 0P x X x x F x x F x .
Якщо 0x , то з неперервності функції ( )F x випливає,
що 0 0 0F x x F x , а це означає, що 0 0P X x .
Отже, говорити про ймовірність того, що неперервна
випадкова величина набуде одного певного зі своїх
можливих значень немає сенсу, а слід говорити тільки
про ймовірність попадання її значень у деякий (навіть як
завгодно малий) проміжок.
Дане твердження повністю відповідає вимогам
практичних задач, наприклад, при виготовленні деталей
з’ясовують імовірність того, що розміри деталей не
виходять за дозволені межі, і не ставлять питання про
імовірність їх співпадання з проектними розмірами.
7. Якщо випадкова величина Х неперервна, то для будь-
яких дійсних чисел а і b, a b правильні рівності:
КВМ
148
)( bXaP )( bXaP )( bXaP ).()()( aFbFbXaP
(2.12´)
Дані рівності випливають безпесоредньо з (2.12) та
властивості 6, бо, наприклад,
( ) ( )P a X b P a X b P X b F b F a .
Наведені властивості функції розподілу неперервної
випадкової величини дозволяють описати її графічне
зображення. Припустімо, що всі значення випадкової
величини Х зосереджені в інтервалі (а, b). Тоді графік
функції розподілу F(x) буде такий, як на рис. 2.2.
Рис. 2.2. Графік функції розподілу неперервної випадкової величини
Приклад 2.10. Випадкову величину X задано функцією розподілу:
.4,1
;42,12
;2,0
)(
x
xxx
xF
F(x)
1
КВМ
149
Нарисувати її графік та обчислити ймовірності: ),30( XP .525
XP
Розв’язання. Будуємо графік функції )(xF (рис. 2.3):
Рис. 2.3. Графік функції розподілу до прикладу 2.10
Шукані ймовірності обчислюємо за формулою (2.12′):
;2101
23)0()3()30(
FFXP
.431
451
25)5(5
25
FFXP
Із наведених обчислень випливає, що ймовірність попадання значень
випадкової величини X у проміжок 5 , 52
є більшою, ніж в інтервал ).3,0(
2.2.2. Густина (щільність) розподілу
ймовірностей
Поряд із функцією розподілу ймовірностей непе-
рервну випадкову величину можна задавати ще іншою функцією, яку
називають її густиною (щільністю) розподілу ймовірностей.
Означення. Густиною (щільністю) розподілу ймовірностей неперервної
випадкової величини X називають функцію ),(xf яка дорівнює першій
похідній функції розподілу ),(xF тобто:
).()( xFxf (2.13)
F(x)
1
КВМ
150
Надалі замість повної назви «густина розподілу ймовірностей непе-
рервної випадкової величини» будемо часто вживати скорочений
термін
«густина розподілу випадкової величини». Густину розподілу називають
ще диференціальною функцією розподілу.
Із наведеного означення випливає, що функція розподілу ( )F x є
первісна для густини розподілу ).(xf
Властивості густини розподілу:
1. Густина розподілу – невід’ємна функція: ( ) 0.f x
Ця властивість випливає з властивості 2 функції розподілу ( )F x ,бо
оскільки вона неспадна, то ( ) 0F x .
2. Імовірність того, що неперервна випадкова величина X набуде
значення з інтервалу ),,( ba дорівнює визначеному інтегралу від густини
її розподілу в межах від a до ,b тобто:
( ) ( )b
aP a X b f x dx . (2.14)
Справді, функція розподілу ( )F x є первісною для фустини розподілу
( )f x неперервної випадкової величини Х ( ) ( )f x F x , тому за
формулою Ньютона-Лейбніца і властивістю 7 функції розподілу ( )F x
маємо, що:
( ) ( ) ( )b
af x dx F b F a P a X b P a X b .
3. Невласний інтеграл від густини розподілу випадкової величини в
межах від – до дорівнює одиниці:
.1)( dxxf (2.15)
В цьому легко переконатися наступними обчисленнями:
КВМ
151
( ) ( ) 1 0 1f x dx dF x F x F F
.
Зокрема, якщо всі можливі значення неперервної випадкової величини
містяться в інтервалі ),,( ba то:
b
adxxf 1)( . (2.15)
Це випливає з того, що ( ) 1b
af x dx P a X b , бо подія a X b є
вірогідна.
4. Функція розподілу неперервної випадкової величини дорівнює ін-
тегралу від густини розподілу на проміжку :],( x
x
dttfxF .)()( (2.16)
Використовуючи означення функції розподілу і формулу (2.14),
маємо:
( ) ( )x
F x P X x P X x f t dt
.
За допомогою сформульованих властивостей можна описати графік
густини розподілу.
На рис. 2.4а зображено графік густини розподілу випадкової
величини Х, можливі значення якої містяться в інтервалі (а, b), а на рис.
2.4б – випадкової величини Х, значення якої розміщені на всій осі Ох.
f(x) f(x)
0 a b x 0 x x+x x а) б)
КВМ
152
Рис. 2.4. Графік густини розподілу
За допомогою графіка можна дати геометричне тлумачення сфор-
мульованих властивостей густини розподілу. Зокрема, рівність (2.15)
означає, що площа фігури, яка обмежена віссю Ох і графіком густини
розподілу, дорівнює одиниці; рівність (2.14) означає, що ймовірність
попадання значень випадкової величини Х в інтервал (a, b) дорівнює
площі криволінійної трапеції з основою ),,( ba яка зверху обмежена
графіком густини розподілу; імовірність того, що значення випадкової
величини Х міститься в інтервалі [x, x + x], наближено дорівнює f(x)x –
площі прямокутника з основою [x, x + x] і висотою f(x).
Приклад 2.11. Закон розподілу ймовірностей неперервної випадкової величини
заданий густиною:
.2,0
;20,cos
;0,0
)(
x
xx
x
xf
Знайти функцію розподілу )(xF , побудувати графіки функцій ),(xf )(xF та об-
числити ймовірності ;3/6/ XP .р6/ XP
Розв’язання. За формулою (2.16), маємо:
1) якщо ,0x то
xx
dtdttfxF ;00)()(
2) якщо ,2
0 x то
x xxxtdttdtdttfxF
0 0
0;sinsincos0)()(
КВМ
153
3) якщо ,2
x то
0 2
0 2
2
01sin0cos0)()(
xxtdtdttdtdttfxF .
Отже, функція розподілу:
.2,1
;20,sin;0,0
)(
x
xxx
xF
Графіки густини ( )f x і функції ( )F x зображені на рис. 2.5.
Із графіків функцій f(x) i F(x) (рис. 2.5) видно, що густина розподілу має розрив
у точці ,0x а в точці 2
x – неперервна.
Далі за формулою (2.14) обчислюємо:
3
6
3
6
;366,021
23
6sin
3sinsincos
36xxdxXP
2
6
2
62
.5,0211
6sin
2sinsin0cos
6xdxxdxXP
Приклад 2.12. Дано густину розподілу випадкової величини X:
.4,0;41,;1,0
)(xxxax
xf
f(x) F(x)
1 1
0 2 х 0 2
х
а) б) Рис. 2.5. Графіки густини і функції розподілу до прикладу 2.11
КВМ
154
Визначити число .a Знайти функцію розподілу )(xF і побудувати графіки ),(xf
).(xF Обчислити ймовірність ).20( XP
Розв’язання. З вигляду густини розподілу робимо висновок, що можливі значення
випадкової величини X зосереджені на проміжку ].4,1( На підставі рівності (2.15´)
маємо:
4
1
4
1
4
1114
321
3211 2
32
32
3 axadxxadxxa
.1431
3141)18(
32
aaa
При знайденому значенні а густина розподілу:
.4,0
;41,143
;1,0
)(
x
xx
x
xf
Функція розподілу 0)( xF при 1x і 1)( xF при .4x Якщо ,41 x то
).1(711
71
32
143
143 2
3
11
23
xxxtdttxFxx
Отже, функція розподілу:
.4,1
;41),1(71
;1,0
)(
x
xxx
x
xF
Далі будуємо графіки функцій ( )f x і ( )F x , як це зображено на рис. 2.6.
За формулою (2.14):
f(x) F(x) 7
3 1
143
0 1 4 х 0 1 4 х а) б)
Рис. 2.6. Графіки густини і функції розподілу до прикладу 2.12
КВМ
155
2
1
2/32
1
1
0
2
032
143
1430)()20( xdxxdxdxxfXP
= .261,0)122(71)12(
71 2/3
Приклад 2.13. Густина розподілу f(x) випадкової величини X має вигляд ламаної,
яку зображено на рис. 2.7.
Рис. 2.7. Графік густини розподілу до прикладу 2.13
Записати вирази для густини )(xf і функції )(xF розподілу ймовірностей.
Обчислити ).20( XP
Розв’язання. З геометричного вигляду густини розподілу випадкової величини Х
робимо висновок, що її значення зосереджені в інтервалі 1, 3 . Знайдемо
ординату точки В за умови, що площа ABC дорівнює одиниці, тобто
3
1( ) 1ABCS f x dx
.
Далі:
.211214
211
21
yyyBKACS ABC
Із рис. 2.7 маємо, що при 1x і 3x густина розподілу .0)( xf Напишемо
аналітичний вираз для )(xf на проміжках ]1,1( і ].3,1(
Рівняння прямої :AB
f(x)
B(1,y) А К С -1 0 1 3 х
КВМ
156
)1(41)1(
212
)1(1)1(
00
21 xyxyxy на проміжку ]1,1( )1(
41)( xxf .
Рівняння прямої ВС:
)3(41)3(
212
313
00
21 xyxyxy на проміжку ]3,1( ).3(
41)( xxf
Отже, густина розподілу випадкової величини Х, яка задана графічно на рис. 2.7, має
такий аналітичний вираз:
.3,0
;31),3(41
;11),1(41
;1,0
)(
x
xx
xx
x
xf
Функція розподілу 0)( xF при 1x і 1)( xF при .3x Знайдемо )(xF на
проміжках ]1,1( і ]3,1( за формулою (2.16):
для 1,1x маємо, що
x xx ttdtdttxF1 1
2
1 2)1(
41)1()1(
41)1(
41)( 2)1(
81
x ;
для 3,1x маємо, що
xxxtdttdtdttdttdttfxF
1
1
11
1
11
)3()3(41)1()1(
41)3(
41)1(
41)()(
12 2
1 1
1 1( 1) ( 3)8 8
xt t
2 21 1 1 1( 3) 1 ( 3) .
2 8 2 8x x
Отже, функція розподілу заданої випадкової величини Х має вигляд:
.3,1
;31,)3(811
;11,)1(81
;1,0
)(2
2
x
xx
xx
x
xF
Шукану ймовірність обчислимо за формулою (2.14):
1
0
2
1
2
1
21
0
2
2)3(
41
2)1(
41)3(
41)1(
41)20( xxdxxdxxXP
КВМ
157
.75,043
411
21
81
81
21
2.2.3. Чисельні характеристики
Чисельні характеристики дискретної випадкової
величини поширюються на неперервну випадкову величину. Формули
для їх обчислення одержуємо з відповідних формул для дискретної
величини, замінивши в них знак «підсумовування» знаком
«інтегрування», ix − на х, ip на dxxf )( .
А. М а т е м а т и ч н е с п о д і в а н н я
Означення. Математичним сподіванням (середнім значенням) непе-
рервної випадкової величини X називають число М(Х), яке визначається
рівністю:
b
adxxxfXM )()( , (2.17)
якщо можливі значення X зосереджені на інтервалі (a, b), або
dxxxfXM )()( , (2.17)
якщо можливі значення величини X містяться на всій осі Ох.
У другому випадку припускається, що інтеграл (2.17′) збігається
абсолютно, тобто існує
dxxfx )( .
Математичне сподівання неперервної випадкової величини є точка чис-
лової осі, яка характеризує її «середнє» значення або центр розподілу її
значень.
Б. Д и с п е р с і я
КВМ
158
Означення. Дисперсією )(XD неперервної випадкової величини X нази-
вають математичне сподівання квадрата її відхилення ),(XMX
тобто:
b
adxxfXMxXD )()]([)( 2 , (2.18)
якщо можливі значення величини X зосереджені на інтервалі (a, b), і
dxxfXMxXD )()]([)( 2 , (2.18)
якщо можливі значення величини X містяться на всій осі Ох.
Для обчислення дисперсії неперервної випадкової величини часто вико-
ристовують більш зручні формули:
b
aXMdxxfxXD ,)]([)()( 22 (2.19)
,)]([)()( 22
XMdxxfxXD (2.19)
які є аналогами формули (2.4) для дискретної випадкової величини.
Формулу (2.19) одержуємо з формули (2.18) за допомогою таких
обчислень:
2 2 2( ) 2 ( ) ( ) ( ) ( ) 2 ( ) ( )b b b
a a aD X x x M X M X f x dx x f x dx M X xf x dx
2( ) ( )b
aM X f x dx 2 ( ) 2 ( ) ( )
b
ax f x dx M X M X 2( ) 1M X
2 2( ) ( )b
ax f x dx M X .
Аналогічно, з формули (2.18 ) отримуємо формулу (2.19 ) .
В. С е р е д н є к в а д р а т и ч н е в і д х и л е н н я
КВМ
159
Означення. Середнє квадратичне відхилення )(X неперервної випад-
кової величини X визначається рівністю:
.)()( XDX (2.20)
Дисперсія і середнє квадратичне відхилення неперервної випадкової
величини характеризують «розсіювання» можливих її значень в околі
точки осі Ох, яка зображає математичне сподівання.
Зауваження. Чисельні характеристики ),(XM )(XD , )(X
неперервної випадкової величини X мають ті ж властивості, що й
відповідні чисельні характеристики дискретної випадкової величини.
Наприклад, рівності
( )M CX C M X ,
2 ( )D CX C M X
обгрунтовуються такими обчисленнями:
( ) ( ) ( )b b
a aM CX C x f x dx C x f x dx C M X ,
2 22 2( ) ( ) ( ) ( ) ( )b b
a aD CX Cx M CX f x dx C x M X f x dx C D X .
Г. М о д а і м е д і а н а
Математичне сподівання – не єдина характеристика центру розподілу
випадкової величини, яка застосовується в теорії ймовірностей; іноді
застосовують також інші характеристики, зокрема моду і медіану.
Означення. Модою Мо неперервної випадкової величини X називають
те її можливе значення 0x , за якого густина розподілу )(xf цієї величини
досягає максимуму, тобто:
КВМ
160
Мо = х0, де ).(max)( 0 xfxf (2.21)
Зауважимо, що мода дискретної випадкової величини є те з
можливих її значень, якому відповідає найбільша ймовірність.
Означення. Медіаною Ме неперервної випадкової величини X нази-
вають те її можливе значення, для якого виконується рівність: ).Me()Me( XPXP
Медіану Ме визначають із рівняння:
F(Ме) = 0,5, (2.22)
де F(x) – функція розподілу величини Х. Рівняння (2.22) отримуємо
такими міркуваннями:
Me Me (Me) ( ) ( ) (Me)P X P X F F F F
2 (Me)= ( ) ( ) 2 (Me) 1- 0 (Me) 0,5F F F F F .
Приклад 2.14. Густину розподілу неперервної випадкової величини X задано
функцією:
.3,0;30,
;0,0)( 2
xxaxx
xf
Виконати такі дії: 1) визначити a і );(XF 2) нарисувати графіки )(xf і );(XF
3) обчислити ),(XM )(XD , ),(X Мо, Ме.
Розв’язання. 1) Значення параметра a обчислюємо з умови, що
3
0
3
0
32
31131
311)( aaxadxxadxxf .
Оскільки можливі значення випадкової величини X зосереджені в інтервалі
),3,0( то функція розподілу 0)( XF при 0x і 1)( xF при 3x (див.
властивості функції розподілу). Вигляд функції )(xF на проміжку ]3,0(
обчислюємо за формулою (2.16):
x x
x xtdttxFdttfxF0
332 .
333331)()()(
0
КВМ
161
Отже, густина f(x) і функція F(x) розподілу мають, відповідно, такий вигляд:
.3,0
;30,3
1;0,0
)( 2
x
xx
x
xf
.3,1
;30,33
1;0,0
)( 3
x
xx
x
xF
2) Будуємо графіки )(xf і )(xF (рис. 2.8).
Рис. 2.8. Графіки густини і функції розподілу до прикладу 2.14
Густина розподілу заданої випадкової величини Х, як бачимо з рис. 2.8а, має
точку розриву 3x .
3) Математичне сподівання )(XM обчислюємо за формулою (2.17):
.299,14
3334
943
13
13
)(3
0
3
0
3
0
43
2
xdxxdxxxXM
Дисперсію )(XD обчислимо за формулою (2.19):
3
0
3
0
523
0
422
2 .1125,01627
59
1627
531
433
31
433
3)( xdxxdxxxXD
.3354,01125,0)( X
Моду Мо визначаємо з умови (2.21). Очевидно,
.7,13Mo)3()(max fxf
Медіану Ме визначимо з рівняння (2.22):
.37,1598,2Me598,2(Me)5,0)Me(33
1 333
f(x) F(x) 3
1
0 3 х 0 3
х
КВМ
162
Д. П о ч а т к о в і і ц е н т р а л ь н і м о м е н т и
Означення. Початковим моментом s-го порядку s неперервної
випадкової величини X називається математичне сподівання випадкової
величини ,sX тобто:
b
a
ss dxxfx )( , (2.23)
якщо розподіл випадкової величини Х зосереджений в інтервалі (а, b);
dxxfx ss )( , (2.23)
якщо розподіл випадкової величини Х зосереджений на всій числовій осі
Ох.
Означення. Центральним моментом s-го порядку s неперервної
випадкової величини X називається математичне сподівання випадкової
величини ,)]([ sXMX тобто:
,)()]([ b
a
ss dxxfXMx (2.24)
якщо розподіл випадкової величини Х зосереджений в інтервалі (а, b);
,)(])([ dxxfXMx ss
(2.24)
якщо розподіл випадкової величини Х зосереджений на всій числовій осі
Ох.
Очевидно, )(,0,)( 211 XDXM .
Е. А с и м е т р і я т а е к с ц е с
Означення. Асиметрією неперервної випадкової величини називається
число A , яке обчислюється за формулою:
.33
A (2.25)
КВМ
163
Із формули (2.25) випливає, що напрям асиметрії випадкової
величини визначається за допомогою центрального моменту 3 , який має
розмірність куба випадкової величини. Якщо 3 = 0, то випадкова
величина Х розподілена симетрично відносно математичного сподівання
М(Х). Коли 3 < 0 ( 3 > 0), то розподіл випадкової величини Х має
від’ємну (додатну) асиметрію (рис. 2.9а). Коефіцієнт асиметрії А є
безвимірною величиною. Його використовують для оцінки як напрямку,
так і сили асиметрії розподілу випадкової величини.
Означення. Ексцесом неперервної випадкової величини називають
число Е, яке визначається рівністю:
.344
E (2.26)
Ексцес Е, як і коефіцієнт асиметрії А, є безвимірною величиною. Він
характеризує «гостровершинність» графіка густини розподілу
розглядуваної випадкової величини у порівнянні з так званою кривою
нормального розподілу:
2
2
2)(
21)(
ax
exf ,
яка є перетвореною кривою Гаусса (див. 1.2.3).
Для нормального розподілу (див. п. 2.2.4, Б) ексцес Е = 0; криві, які є
більш гостровершинні, порівнюючи з нормальною, мають ексцес E > 0,
менш гостровершинні – ексцес E < 0 (рис. 2.9б).
f(x) f(x) 0sE
0sE
0sA 0sA 0sA 0sE
0 M(X)=a x 0 M(X)=a x
a) б)
КВМ
164
Рис. 2.9. Вплив асиметрії та ексцесу на графік густини розподілу
Приклад 2.15. Обчислити асиметрію і ексцес неперервної випадкової величини
Х, яка задана густиною розподілу:
.1,0;10),1(6;0,0
)(xxxxx
xf
Розв’язання. Обчислюємо спочатку середнє квадратичне відхилення )(X . За
формулами (2.17), (2.19) і (2.20) маємо:
1
0
1
0
1
0
4332 ;
21
41
316
4366)1(6)( xxdxxxdxxxxXM
1 12 4 5 1
2 3 4
00 0
1 1 1( ) 6 (1 ) 6 62 4 4 5 4
x xD X x x x dx x x dx
;05,0201
2056
41
103
41
2016
41
51
416
.224,005,0)( X
За формулами (2.24) і (2.25) обчислимо центральний момент 3 і асиметрію А:
dxxxxxxdxxxx 2
1
0
2331
03 8
143
236)1(6
21
dxxxxxx
1
0
523481
87
49
256
1
0
62345
6281
387
449
5256 xxxxx
.0048
83142724661
161
247
169
216
A
Оскільки ,0A то можливі значення заданої випадкової величини X розподілені на
осі Ох симетрично відносно математичного сподівання ( ) 0,5M X [переконайтеся в
цьому самостійно, нарисувавши графік )(xf ].
Для обчислення ексцесу знайдемо спочатку 4 . За формулою (2.24):
КВМ
165
dxxxx )1(621
41
04
1
0
34
224
314
4161
81
41
216 xCxCxCx
dxxxxxxxdxxx )(161
21
2326)( 2
1
0
2342
1
0
345 2273(6 xxx
dxxxx 62
161
169
1
0
21
0
31
0
41
0
51
0
6
2161
3169
42
527
636 xxxxx
1
0
7
7x =
1120160352105607845606
71
321
163
21
107
216
5603 ;
За формулою (2.26):
.857,04,12,13
4,133
)05,0(5603
4 E
Оскільки E < 0, то графік заданої густини розподілу є менш гостро-
вершинним, аніж графік нормальної кривої з параметрами а = 1 і =
0,224.
2.2.4. Основні закони розподілу
У випадку неперервних випадкових величин
закон розподілу їх імовірностей описують за допомогою густини
(щільності) розподілу f(x).
У цьому пункті розглянемо три основні закони розподілу
ймовірностей неперервної випадкової величини, які найчастіше
використовуються під час розв’язування практичних задач: рівномірний,
нормальний і показниковий. У розділі 3 «Елементи математичної
статистики» будуть введені ще три закони розподілу: розподіл хі-квадрат,
розподіл Стьюдента і розподіл Фішера – Снедекора.
КВМ
166
А. Р і в н о м і р н и й з а к о н р о з п о д і л у
Означення. Неперервна випадкова величина називається рівномірно
розподіленою на проміжку [a, b], якщо її густина f(x) на цьому проміжку є
стала, а поза ним дорівнює нулю, тобто:
,,0;const,;,0
)(bxbxaCax
xf
де С = const.
Оскільки за властивістю густини розподілу b
adxxf ,1)( то стала C не
може бути довільною і визначається з рівності:
b
a
b
a abCabCdxCCdx .11)(11
Отже, рівномірний розподіл імовірностей неперервної випадкової
величини, можливі значення якої зосереджені на проміжку [a, b], описується
густиною:
.,0
;,1;,0
)(
bx
bxaab
ax
xf (2.27)
Відповідна функція розподілу
0, ;
( ) , ;
1, .
x ax aF x a x bb a
x b
(2.28)
Графіки функцій )(xf і )(xF мають вигляд, як на рис. 2.10.
КВМ
167
Рис. 2.10. Графіки густини і функції рівномірного розподілу
Математичне сподівання, дисперсія і середнє квадратичне
відхилення рівномірно розподіленої на проміжку [a, b] випадкової
величини обчислюються за такими рівностями:
2)( abXM , (2.29)
12)()(
2abXD , (2.30)
( )2 3b aX
. (2.31)
Формули (2.29), (2.30), (2.31) одержуємо безпосередніми
обчисленнями:
2 2 21 1 1 1( ) ( ) ;2 2 2
bb b b
a a a a
x b a a bM X x f x dx x dx xdxb a b a b a b a
f(x) F(x) 1
ab1
0 a b x 0 a b x а) б)
КВМ
168
2 22 2 2 2
3 2 3 3 2
2 2 2 2 2 2 2
2 2 2 2 2 2
1 1 ( )( ) ( ) ( )2 4
1 ( ) 1 ( )3 4 3 4
1 ( ) ( ) ( ) 23 4 3 4
4 4 4 3 6 3 212 12
b b b
a a ab
a
a b a bD X x f x dx M X x dx x dxb a b a
x a b b a a bb a b a
b a b ab a a b b ab a a ab bb a
b ab a a ab b b ab a
2( ) ;12
b a
2( )( ) ( )12 2 3
b a b aX D X .
Приклад 2.16. Неперервна випадкова величина X рівномірно розподілена на
проміжку [–5, 4]. Виконати такі дії: 1) написати диференціальну та інтегральну
функції розподілу величини X; 2) обчислити ймовірності ( 3 2)P X ,
)60( XP ; 3) обчислити М(Х), D(X), )(у Х .
Розв’язання. 1) За формулою (2.27), диференціальна функція розподілу (густина
розподілу):
,4,0
;45,91
;5,0
x
x
x
xf
а за формулою (2.28) інтегральна функція розподілу:
.4,1
;45,591
;5,0
x
xx
x
xF
2) Шукані ймовірності можна обчислити за формулами (2.12′) або (2.14).
За формулою (2.12′):
95)53(
91)52(
91)3()2()23( FFXP ,
94)50(
911)0()6()60( FFXP ,
КВМ
169
а за формулою (2.14):
2
3 95)32(
91
32
91
91)23( xdxXP ,
4
0
6
4 94
04
910
91)60( xdxdxXP .
3) Чисельні характеристики обчислюємо за формулами (2.29), (2.30), (2.31):
6,2129)у(,75,6
1281
129)(,
21)(
2 XXDXM .
Із випадковими величинами, що мають рівномірний розподіл, часто
стикаються у вимірювальній практиці під час округлення відліків ви-
мірювальних приладів до цілих поділок шкали. Похибка заокруглення
відліку до найближчої цілої поділки є випадковою величиною Х, яка зі
сталою щільністю ймовірностей набуває будь-якого значення між
сусідніми цілими поділками.
Б. Н о р м а л ь н и й з а к о н р о з п о д і л у
Надзвичайно важливу роль у теорії ймовірностей відіграє
нормальний розподіл (закон Гаусса). Нормальний закон розподілу широко
застосовується в практичних задачах, він проявляється в усіх випадках,
коли випадкова величина Х є наслідком дії великого числа різних
випадкових факторів, кожний з яких окремо має на величину Х
незначний вплив.
Означення. Неперервна випадкова величина X називається розподі-
леною за нормальним законом, або нормально розподіленою, з параметрами
a і > 0, якщо її густина розподілу має вигляд:
КВМ
170
2
2
2)(
21)(
ax
exf , x . (2.32)
Параметри розподілу a і мають такий імовірнісний зміст:
параметр a дорівнює математичному сподіванню випадкової
величини X: )(XMa .
Дійсно, за формулою 2.17
2
2
2 2 2
( )2
2 2 2
1( )2 , ;
1 ( ) .2 2 2
x a
z z z
x a z x a z dx dzM X x e dx
x z x z
aa z e dz e dz z e dz
Перший інтеграл
2
2 2z
e dz
, як інтеграл Ейлера-Пуассона. Другий
інтеграл
2
2 0z
z e dz
, оскільки підінтегральна функція непарна і
проміжок інтегрування симетричний відносно початку координат. У
результаті маємо, що
( ) 22aM X a
.
Параметр дорівнює середньому квадратичному відхиленню
випадкової величини X: ).(X
За формулою (2.18) для обчислення дисперсії маємо: 2
2
2
( )2 2
22 2
1( ) ( )2 , ;
.2
x a
z
x a z x a z dx dzD X x a e dx
x z x z
z e dz
КВМ
171
Інтегруючи частинами в останньому інтегралі, одержимо:
22 2 2
2 2
2 2 22 2 2
2 2
;
;2
2 ,
zz z z
z z
u z du dz
z e dz zdv z e dz dv e d v e
e z e dz
бо за правилом Лопіталя 2 2 2
2 2
2 2
2 2 2
2 2
2 2
lim lim lim lim
1 1lim lim 0.
z z z
z zz z z z
z zz z
z ze z z e z e
e e
z e z e
Отже, 2
2( ) 2 ( ) ( )2
D X D X X
.
Зауважимо, що імовірнісний зміст параметрів нормального розподілу
надалі буде часто використовуватися в теоретичних питаннях і
практичних задачах теорії ймовірностей.
Графік густини нормального розподілу – функції (2.32) називається
нормальною кривою, або кривою Гаусса.
Для побудови графіка густини нормального розподілу (нормальної
кривої) сформулюємо властивості функції (2.32), які безпосередньо
випливають з її аналітичного вигляду:
функція f(x) визначена для всіх ),( x і її графік поширюється
на всю вісь Ох;
для всіх значень ),( x функція f(x) > 0 і графік її розміщений
над віссю Ох;
КВМ
172
0)(lim
xfx
і тому вісь Ох є горизонтальною асимптотою
графіка f(x);
для ax функція f(x) має однакові значення і тому графік f(x)
симетричний відносно прямої ax (якщо а = 0, то графік f(x)
симетричний відносно осі Оy);
функція f(x) має максимум в точці ax :
2
1)()(max afxf ;
функція f(x) має дві точки перегину: ,21,
ea
ea
21, .
Використовуючи сформульовані властивості густини нормального
розподілу, рисуємо нормальну криву (рис. 2.11).
Рис. 2.11. Графік густини нормального розподілу
Проаналізуємо, як змінюється нормальна крива розподілу зі зміною
параметрів а і . При цьому зауважимо, що згідно з властивістю 3
густини розподілу площа фігури між віссю Ох і графіком густини
розподілу ( )f x дорівнює одиниці для будь-яких а і .
Зміна величини параметра a за сталого значення параметра не
змінює форми нормальної кривої, а приводить тільки до її переміщення
вздовж осі Ox , а саме: якщо параметр a збільшується (зменшується), то
нормальна крива зміщується вправо (уліво) уздовж осі Ох.
f(x)
2
1
0 a – a a + x
КВМ
173
По-іншому змінюється нормальна крива зі зміною параметра за
сталого значення параметра а: зі збільшенням параметра . нормальна
крива стискується до осі Ох (стає більш пологою); зі зменшенням
параметра нормальна крива розтягується в додатному напрямку осі Оу
і стискується до прямої ax вздовж осі Ох (стає більш
«гостровершинною»).
Імовірність попадання значень нормально розподіленої випадкової
величини в заданий інтервал
Названа ймовірність є важливою характеристикою неперервної ви-
падкової величини і в даному випадку обчислюється за таким правилом:
імовірність попадання значень нормально розподіленої неперервної
випадкової величини в інтервал ),( дорівнює різниці значень функції
Лапласа Ф(х), якщо
ax і
ax б , тобто:
aa)X(P , (2.33)
де dzexx z
0
22
21)(
, а і – параметри нормального розподілу.
Дійсно, за формулою (2.14)
2
2
2 2 2
( )2
2 2 2
0 0
;12 ,
1 1 1 .2 2 2
x a
a a az z z
a
x a z x a z dx dzP X e dx
a ax z x z
e dz e dz e dz
Використовуючи інтегральну функцію Лапласа
КВМ
174
2
2
0
1( )2
zxx e dz
,
одержуємо:
a aP X .
Функція )(Ф x табульована (див. додаток 2) і зручна для обчислень.
Відзначимо часткові випадки формули (2.33):
aXP 5,0)( , (2.33)
aXP 5,0)( , (2.33)
оскільки
( ) ( ) 0,5a aP X P X ;
( ) ( ) 0,5a aP X P X .
Із формули (2.33) легко вивести, що:
,Ф2)(
aXP (2.34)
тобто ймовірність того, що абсолютна величина різниці значень
нормально розподіленої випадкової величини X і її математичного
сподівання )(XMa менша за будь-яке число ,0 дорівнює подвоєному
значенню функції Лапласа )(Ф x , якщо ,
x де – середнє квадратичне
відхилення цієї величини.
Формула (2.34) випливає з формули (2.33) за допомогою таких
обчислень:
КВМ
175
2 .
P X a P X a P a X a
a a a a
Приклад 2.17. Неперервна випадкова величина X розподілена за нормальним
законом із параметрами 4a і .5,1 Виконати такі дії: 1) написати вирази
для густини розподілу f(x) і функції розподілу )(xF і нарисувати їх графіки; 2)
обчислити ймовірності: ),72( XP ).3,04( XP
Розв’язання. 1) Густина розподілу і функція розподілу мають, відповідно,
вигляд:
5,4)4( 2
25,11)(
x
exf , .25,1
1)( 5,4)4( 2
dzexFx z
Функція F(x) > 0 і монотонно зростає за ),( x , бо .0)()( xfxF Далі:
tz,tz
,dt5,1dzt5,14zt5,14z
dz5,4
2)4z(
e25,1
1)x(Fx
lim
= ,1dte21 2
t2
бо 22
t2
dte (інтеграл Ейлера – Пуассона);
0)(lim
xFx
.
Будуємо графіки функцій )(xf і F(x) (рис. 2.12):
2) За формулою (2.33) маємо, що
f(x) F(x)
25,11 1
0,5
0 4 х 0 4 х а) б)
Рис. 2.12. Графіки густини і функції розподілу до прикладу 2.17
КВМ
176
)4(Ф)2(Ф
5,142Ф
5,147Ф)72( XP
.977168,0499968,04772,0)4(Ф)2(Ф
За формулою (2.34) обчислюємо:
.1586,00793,02)2,0(Ф25,13,0Ф2)3,04(
xP
П р а в и л о «т р ь о х с и г м»
Приймемо у формулі (2.34) 3 . Одержимо:
( 3 ) 2Ф(3) 2 0,49865 0,9973,P X a
тобто ймовірність події 3aX є близькою до одиниці, а це означає, що
ця подія є майже вірогідна, або подія 3 aX є малоймовірна. Звідси
маємо так зване правило «трьох сигм»: якщо випадкова величина
нормально розподілена, то практично вірогідно (тобто зі ймовірністю р =
0,9973 1), що абсолютна величина її відхилення від математичного
сподівання не перевищує потроєного середнього квадратичного відхилення.
Приклад 2.18. Середній дохід X на душу населення дорівнює 8 000 грн. В яких
межах можна практично гарантувати дохід Х на душу населення, якщо
випадкова величина Х нормально розподілена зі середнім квадратичним
відхиленням 200 грн?
Розв’язання. Використаємо правило «трьох сигм», за яким подія 3)(XMX
майже вірогідна. У даному випадку ,8000)( XXM 200 , і маємо:
.86007400600800060020038000 XXX
Отже, практично можна гарантувати, що середній дохід на душу населення
коливається в межах від 7 400 грн до 8 600 грн.
КВМ
177
В. П о к а з н и к о в и й р о з п о д і л
У практичних застосуваннях теорії ймовірностей, особливо в теорії
масового обслуговування, теорії надійності, часто трапляються випадкові
величини, які мають показниковий розподіл.
Означення. Неперервна випадкова величина Х називається розпо-
діленою за показниковим законом, або показниково розподіленою, з пара-
метром , якщо густина розподілу її ймовірностей
,0,
;0,0
xe
xxf x (2.35)
де > 0 – параметр розподілу.
Відповідна функція розподілу має вигляд:
0, 0;
1 , 0,x
xF x
e x
(2.36)
що випливає з таких міркувань: за формулою (2.16) маємо, що ( ) 0F x
для 0x , а для 0x
0
00 0 0
( ) ( ) ( ) ( ) 1x x x xt t t xF x f t dt f t dt e dt e d t e e
.
Графіки густини )(xf і функції )(xF показникового розподілу
наведено на рис. 2.13.
f(x) F(x) 1
0 x 0 x а) б)
Рис. 2.13. Графіки густини і функції показникового розподілу
КВМ
178
Параметр має такий імовірнісний зміст:
)(1XM
, (2.37)
)(1
)(1
XXD . (2.38)
Дійсно, за формулою 2.17
00 0 0
0
( ) ( )
1 1 1 ,( )
x x x x
x
M X x e dx x e d x x e e dx
eM X
бо 0
1lim lim lim 0x xx xx x x
xx e x ee e
.
За формулою 2.19 та інтегруючи частинами, отримаємо:
2 2 22 2 0
0 0
2 2 2 20
1 1( ) ( )
1 1 1 1 1 12 2 ,( )( )
x x x
x
D X x e dx x d e x e
x e dxXD X
бо 2
2 220
2 2lim lim lim lim 0x xx x xx x x x
x xx e x ee e e
.
Імовірність попадання значень показниково розподіленої випадкової
величини Х у заданий інтервал ),( виражається формулою:
.)( eeXP (2.39)
КВМ
179
Формулу (2.39) одержимо, обчислюючи шукану ймовірність за
формулою (2.14):
( )x x xP X e dx e d x e e e
.
Приклад 2.19. Неперервна випадкова величина X розподілена за показниковим
законом із параметром .10 Виконати такі дії: 1) написати густину )(xf і
функцію )(xF розподілу; 2) обчислити ),(XM D(X), ),(X Мо, Ме; 3) обчислити
ймовірність ).2,01,0( XP
Розв’язання. 1) Використовуючи формули (2.35) і (2.36), маємо:
;0,10;0,0
10 xex
xf x
.0,1
;0,010 xe
xxF x
2) За формулами (2.37) і (2.38) одержимо:
,101)( xM ,
1001)( xD .
101)( X
За означенням Мо = 0, бо max ( ) (0) 10f x f . Із рівняння F(Me) = 0,5 випливає,
що
.069,010
2lnMe2lnMe1021
211 Me10Me10 ee
3) За формулою (2.39):
.2326,01353,03679,011)2,01,0( 2212,0101,010
eeeeeeXP
Зауваження. Серед усіх законів розподілу неперервних випадкових
величин лише показниковому притаманна властивість відсутності
післядії, а саме: якщо випадкову величину пов’язати з часом, то для
показникового закону розподілу минуле не впливає на передбачення
подій у майбутньому.
Наприклад, якщо неперервна випадкова величина T – тривалість
безвідмовної роботи приладу має показниковий закон розподілу, то
час роботи приладу впродовж інтервалу часу ),0( 0t не впливає на
КВМ
180
величину ймовірності його безвідмовної роботи впродовж наступного
інтервалу часу ),( 00 ttt , а залежить тільки від довжини t цього
інтервалу. Функцію: tetTPtR )()( (2.40)
називають у цьому випадку показниковим законом надійності, а
параметр – інтенсивністю відмов.
Приклад 2.20. Час безвідмовної роботи деякого приладу є показниково
розподілена випадкова величина Т із параметром .02,0 Знайти ймовірність
того, що прилад працюватиме безвідмовно не менше ніж 100 год.
Розв’язання. Густина розподілу випадкової величини T – тривалість
безвідмовної роботи приладу – така:
.0,02,0;0 ,0
)( 02,0 tet
tf t
Дана випадкова величина T також описується функцією розподілу:
.0,1
;0,0)( 02,0 te
ttF t
Очевидно:
0,02 0 0,02100 2( 100) 1 ( 100) 1 0 100 1 ( ) 0,13534.P T P T P T e e e
Отже, шукана ймовірність того, що прилад працюватиме безвідмовно не менше
ніж 100 год., наближено становить 0,14.
Рекомендована література: [1, с. 114–124; 2, с. 47–57, 69–77;
5, с. 111–134, 149–155; 7, с. 78–90, 228–232, 247; 8, с. 63–183].
Завдання для самоконтролю
Основні поняття, означення та відношення
КВМ
181
Замість крапок запишіть таке продовження (доповнення) тексту словами чи
формулами, щоб отримати правильне означення або твердження.
1. Функція розподілу ймовірностей випадкової величини Х – це …
2. Випадкова величина Х називається неперервною, якщо …
3. Усі значення функції розподілу випадкової величини належать відрізку … і для
всіх ),( x вона є …
4. Імовірність попадання значень випадкової величини Х в проміжок ),[ за
допомогою її функції розподілу F(x) виражається формулою …
5. Густина (щільність) розподілу ймовірностей неперервної випадкової величини Х – це
…
6. Якщо всі значення неперервної випадкової величини Х зосереджені в інтервалі
),( і f(x) – густина розподілу її ймовірностей, то
dxxf )( … і геометрично це
означає, що …
7. Імовірність попадання значень неперервної випадкової величини Х в інтервал
),( обчислюється за формулою … і геометрично виражається площею
криволінійної трапеції …
8. Зв’язок між функцією розподілу F(x) і густиною розподілу f(x) виражається
рівностями …
9. Математичне сподівання М(Х) неперервної випадкової величини Х обчислюється
за формулою: …
10. Дисперсія D(X) неперервної випадкової величини Х обчислюється за формулами:
…
11. Середнє квадратичне відхилення )у( X неперервної випадкової величини Х
обчислюється за формулою: …
12. Модою Мо неперервної випадкової величини Х називається …
13. Медіаною Ме неперервної випадкової величини Х називається …, і її визначають
за допомогою рівняння …
14. Початковий момент s-го порядку s неперервної випадкової величини Х – це …
15. Центральний момент s-го порядку s неперервної випадкової величини Х – це …
16. Асиметрією неперервної випадкової величини називається …
17. Ексцесом неперервної випадкової величини називається …
КВМ
182
18. Розподіл імовірностей неперервної випадкової величини називається
рівномірним, якщо …
19. Функція розподілу рівномірно розподіленої випадкової величини має вигляд …
20. Чисельні характеристики )(),(),( XXDXM рівномірно розподіленої випадкової
величини Х, значення якої зосереджені в інтервалі ),( , виражаються
формулами …
21. Розподіл імовірностей неперервної випадкової величини Х називається
нормальним, якщо він описується густиною …
22. Нормальний розподіл неперервної випадкової величини характеризується двома
параметрами і , які мають такий імовірнісний зміст: …
23. Нормальна крива має вигляд … і при зміні параметрів розподілу змінюється так:
…
24. Імовірність попадання значень нормально розподіленої випадкової величини в
інтервал ),( обчислюється за формулою: …
25. Якщо неперервна випадкова величина Х розподілена за нормальним законом, то
)( XP … і )( XP …
26. Правило «трьох сигм» формулюється так: …
27. Показниковим називається розподіл імовірностей неперервної випадкової
величини Х, який описується густиною …
28. Параметр показникового розподілу неперервної випадкової величини Х
виражається через )(),(),( XXDXM рівностями …
29. Функція розподілу ймовірностей неперервної випадкової величини Х,
розподіленої за показниковим законом, має вигляд … і зображається графіком …
30. Імовірність попадання значень показниково розподіленої неперервної випадкової
величини Х в інтервал ),( обчислюється за формулою: …
Тести Запишіть на бланку відповідей номер завдання та коди (порядкові номери або літери), що
відповідають тим варіантам відповідей, які вважаєте правильними.
1. Для яких чисел А і В
КВМ
183
4,1;41,
;1,0)(
xxBAxx
xF
є функцією розподілу ймовірностей деякої неперервної випадкової величини?
Варіанти відповідей: 1. А =51 , В =
51 . 2. А =
31 , В =
31 . 3. А =
61 , В =
31 .
2. Для якого а функція
5,0
;52,
;2,0
)( 2
x
xxa
x
xf
є густиною розподілу ймовірностей даної неперервної випадкової величини?
Варіанти відповідей: 1. 3
10a . 2.
103
a . 3. 107
a .
3. Чи може функція розподілу випадкової величини мати значення з проміжку
2,23 ?
Варіанти відповідей: А. Може. Б. Не може. В. Залежно від конкретної ситуації.
4. Функція розподілу неперервної випадкової величини Х має вигляд:
.,1;1,ln;1,0
)(exexx
xxF
Для якого значення ),1( eb імовірність 21)1( bXP ?
Варіанти відповідей: А. e
b 1 . Б. eb . В.
eb
21
.
5. Чи може густина розподілу f(x) деякої неперервної випадкової величини набути
значення –0,1?
Варіанти відповідей: А. Не може. Б. Може. В. Залежно від конкретної ситуації.
6. Густина розподілу ймовірностей неперервної випадкової величини Х має вигляд:
КВМ
184
.50
;52),2(92
;20
)(
x
xx
x
xf
Для якого числа ]5,2(m імовірність ?9/8)5( XmР
Варіанти відповідей: А. 25
m . Б. 1m . В. 3m .
7. Можливі значення неперервної випадкової величини Х містяться на проміжку
2,0 і на цьому проміжку її функція розподілу xxF sin)( . Яка на цьому
проміжку густина розподілу f(x) цієї випадкової величини?
Варіанти відповідей: 1. xxf cos)( . 2. xxf cos)( . 3. xxf cos1)( .
8. Розподіл імовірностей неперервної випадкової величини Х, можливі значення якої
зосереджені на проміжку (0, 1], заданий на цьому проміжку густиною
розподілу 23)( xxf . Який вираз має функція розподілу заданої випадкової
величини на цьому проміжку?
Варіанти відповідей: 1. .6)( xxF 2. .)( 3xxF 3. .1)( 3 xxF
9. Розподіл імовірностей неперервної випадкової величини Х заданий густиною:
.2,0;20,5,0;0,0
)(xxx
xf
Чому дорівнює математичне сподівання М(Х)?
Варіанти відповідей: 1. М(Х) = 1. 2. 43)( XM . 3.
34)( XM .
10. Чому дорівнює середнє квадратичне відхилення )(X неперервної випадкової
величини Х, розподіл якої заданий густиною задачі 9?
Варіанти відповідей: 1. 3
1)( X . 2. 2)( X . 3. 92)( X .
11. Чому дорівнює мода Мо неперервної випадкової величини Х, яка задана густиною
задачі 6?
КВМ
185
Варіанти відповідей: 1. Мо = 0. 2. .32Mo 3. Мо = 5.
12. Чому дорівнює медіана Ме неперервної випадкової величини Х, яка задана
густиною задачі 4?
Варіанти відповідей: 1. eMe . 2. 2Me e . 3. 5,1Mo e .
13. Чому дорівнює асиметрія А неперервної випадкової величини Х, яка задана
густиною
задачі 9?
Варіанти відповідей: 1. 524
A . 2. 5
254A . 3. А = 0.
14. Чому дорівнює ексцес Е рівномірно розподіленої на проміжку (0, 1]
випадкової
величини Х?
Варіанти відповідей: 1. 56
E . 2. 6259
E . 3. 625
3E .
15. Як зміниться нормальна крива, якщо математичне сподівання М(Х) відповідної
неперервної випадкової величини збільшити на 2 одиниці?
Варіанти відповідей: А. Зміститься на 2 одиниці вправо.
Б. Зміститься на 2 одиниці вліво.
В. Зміститься на 2 одиниці вгору.
Г. Зміститься на 2 одиниці вниз.
16. Як зміниться найбільша ордината нормальної кривої, якщо середнє квадратичне
відхилення відповідної неперервної випадкової величини збільшити удвічі?
Варіанти відповідей: А. Збільшиться удвічі. Б. Збільшиться на 2 одиниці.
В. Зменшиться удвічі. Г. Зменшиться на 2 одиниці.
17. Неперервна випадкова величина Х розподілена за нормальним законом із
параметрами 30a і 10 . Яка ймовірність попадання значень випадкової
величини Х в інтервал (10, 50)?
Варіанти відповідей: 1. 0,9544. 2. 0,4772. 3. 0.
18. Випадкова величина Х нормально розподілена і М(Х) = 20, 10( )X . Яка
ймовірність події 320 X ?
КВМ
186
Варіанти відповідей: 1. 0,1179. 2. 0,2358. 3. 0,1281.
19. Для якого значення параметра m функція xmexf 1,0)( є густиною
показникового розподілу випадкової величини Х?
Варіанти відповідей: 1. m = –0,1. 2. m = 1. 3. m = 0,1.
20. Чому дорівнює ймовірність )20( XP , якщо випадкова величина Х показниково
розподілена з параметром 1,0 ?
Варіанти відповідей: 1. ≈ 0,865. 2. ≈ 0,0135. 3. ≈ 0,135.
Приклади
1. Густину розподілу ймовірностей f(x) випадкової величини задано
формулами:
а) 2 , якщо 0 1,( )
0, якщо 0 або 1;ax xf x
x x
б) 2( 3) , якщо 3 5,( )
0, якщо 3 або 5;a x xf x
x x
в) , якщо 0 9,( )
0, якщо 0 або 9;a x xf x
x x
г)
0, 0, ,2( )sin , 0, ;2
xf x
a x x
д)
0, 0, ln 2 ,
( ), 0, ln 2 .x
xf x
ae x
Для кожного випадку виконати такі дії:
1) знайти коефіцієнт а;
2) знайти функцію розподілу випадкової величини Х;
3) побудувати графіки густини ймовірностей та функції розподілу;
4) знайти ймовірність попадання випадкової величини Х у проміжок І, якщо:
КВМ
187
а) 10;2
I ; б) 3; 4I ; в) 0; 5I ; г) 4 3,I ; д) 0; 0,5I ;
5) знайти математичне сподівання, дисперсію та середнє квадратичне
відхилення випадкової величини Х;
6) обчислити асиметрію та ексцес.
2. Дано функції:
а) 21( )f x x ; б) 2( ) 0,5sin 0,5f x x ; в) 3 2
1 1( )(1 )
f xx
.
Чи є вони функціями густини розподілу ймовірності? Відповідь пояснити.
3. Функцію розподілу ймовірностей F(x) неперервної випадкової величини Х
задано формулою:
а) 2
0, якщо 2,
( ) ( 2) , якщо 2 4,1, якщо 4;
x
F x a x xx
б) 2
2
0, якщо 0,1 , якщо 0 2,6( )
2 2, якщо 2 3,1, якщо 3;
x
x xF x
ax x xx
в) 2
0, якщо 2 ,
( ) cos , якщо 2 0,
1, якщо 0;
x
x
F x a a x
x
Виконати такі дії:
1) знайти коефіцієнт а;
2) знайти густину розподілу f(x).
3) побудувати графіки функції розподілу та густини розподілу;
4) знайти математичне сподівання, дисперсію та середнє квадратичне відхилення;
5) знайти ймовірність попадання випадкової величини Х в інтервал:
а) 3; 10I ; б) 1; 3I ; в) 2 ; 0I .
КВМ
188
4. Густина розподілу ймовірностей випадкової величини Х задана графіком на
рис.2.7:
Обчислити ( ); ; .D X Me Mo
5. Якщо виконується графік руху на маршруті, то середній час очікування
пасажиром автобуса дорівнює 4 хвилини. Відомо, що час очікування має
рівномірний закон розподілу. Мінімальний час очікування дорівнює 0. Знайти
ймовірність того, що пасажир буде очікувати автобус від 3 до 6 хвилин.
6. Випадкова величина Х має рівномірний розподіл із математичним
сподіванням ( ) 3M X і дисперсією 4( ) 3D X . Знайти функцію розподілу
випадкової величини Х.
7. Математичне сподівання і дисперсія рівномірно розподіленої на
деякому відрізку випадкової величини Х відповідно дорівнюють 0,5 і 112
.
Знайти: а) густину розподілу величини Х; б) функцію розподілу ( )F x ; в)
імовірність попадання значень випадкової величини Х в інтервал 0; 3 .
8. Протягом години 10 t (t – час у годинах) на станцію прибуває одна і
лише одна електричка в заданому напрямку. Яка ймовірність того, що
пасажир, який прийшов на зупинку в момент часу t = 0, буде чекати
електричку не більше ніж 10 хвилин? Визначити, скільки в середньому часу
пасажир чекатиме електричку.
-2
13(0; )B
2 x
( )f x
0
С
4 ( 2;0)A
КВМ
189
9. Перехрестя доріг оснащене світлофором, який дозволяє проїзджати його
(зелене) протягом 1 хв. і забороняє (жовте світло, червоне світло) протягом 0,5
хв. Автолюбитель під’їзджає до перехрестя у випадковий момент часу. Знайти
ймовірність того, що він проїде перехрестя не зупиняючись. Знайти середній
час зупинки автомобіля перед світлофором.
10. Випадкова величина Х має рівномірний закон розподілу на проміжку
0,a . Відомо також, що 1 13 3
P X
. Знайти а, 2M X .
11. Банк провів дослідження про наявність річних заощаджень в осіб, вік
яких є не менший ніж 21 рік. Дослідження показали, що річні заощадження на
одну особу нормально розподіляються зі середнім числом 1 850 грн і середнім
квадратичним відхиленням − 350 грн. Визначити ймовірність того, що
навмання вибрана особа має заощадження:
а) більше ніж 2 200 грн;
б) менше ніж 1 500 грн;
в) у межах від 1 080 грн до 2 375 грн;
г) менше ніж 800 грн.
12. Результати тестування абітурієнтів вищих закладів освіти деякого міста
наближено можна вважати розподіленими за нормальним законом з середнім
значенням 500 балів і середнім квадратичним відхиленням 100 балів. Знайти:
а) який відсоток усіх результатів охоплюють оцінки від 300 до 700 балів? б)
яка найнижча оцінка серед 10% найвищих оцінок? в) яка кількість абітурієнтів
з 10000, можна сподіватися, матимуть оцінки, не нижчі від 675 балів?
13. Середня ціна деякої великої кількості акцій становить 12 грн 80 коп, а
середнє квадратичне відхилення 3 грн. Припускаємо, що ціни розподілені за
нормальним законом. Знайти: а) яку частку акцій продають за ціною, не
вищою від 10 грн? б) яка ймовірність того, що навмання взята акція матиме
КВМ
190
ціну від 11 до 14 грн? в) нижче від якої ціни продаються 20% найдешевших
акцій?
14. Деталі, які виготовляє цех, вважаються деталями вищого гатунку, якщо
відхилення їх розмірів від номіналу не перевищує за абсолютною величиною
2,6 мм. Випадкові відхилення розміру деталі розподіляються за нормальним
законом із середнім квадратичним відхиленням 2 мм, а систематичне
відхилення відсутнє. Визначити середню кількість деталей вищого гатунку
серед навмання вибраних 5 деталей.
15. Зріст дорослого чоловіка описується нормальним законом розподілу.
За статистикою середній зріст становить 175 см, а середньоквадратичне
відхилення дорівнює 7 см. Знайти ймовірність того, що зріст навмання взятого
чоловіка буде відрізнятися від середнього зросту не більше ніж на 7 см.
16. Помилки в обчисленнях, допущені бухгалтером при складанні балансу,
розподіляються у відсотках за нормальним законом з параметрами а = 1,5 і
= 0,01. Написати функцію і густину розподілу цих помилок та нарисувати їх
графіки. В яких межах містяться помилки обчислень з імовірністю 0,9973?
17. Середній дохід на душу населення в розмірі 8 000 грн вважається
випадковою величиною, яка розподілена нормально зі середнім квадратичним
відхиленням 200 грн. В яких межах практично можна гарантувати дохід
на душу населення з імовірністю 0,9973?
18. Час безвідмовної роботи верстата має показниковий закон розподілу.
Імовірність того, що верстат не відмовить за 5 годин роботи, дорівнює
0,60653. Знайти ( ), ( )M X D X .
19. Відомо, що середній час очікування чергового покупця, який підійде
до каси, дорівнює 0,2 хвилини. Час очікування касиром чергового покупця
можна вважати випадковою величиною Х із показниковим законом розподілу.
Касирові потрібно поміняти стрічку касового апарата. На це йому потрібно 2
хвилини. Яка ймовірність того, що за цей час не утвориться черга?
КВМ
191
20.* Випадкова величина Х має функцію розподілу:
11 , 1,( )
0, 1.
xF x x
x
Знайти а, для якого 13
P X a .
Відповіді
1. а) 1) 3; 4) 1/8; 5) 0,75; 0,0375; 0,1936; 6) –0,86; 0,095; б) 1) 3/8; 4) 1/8; 5).
4,5; 0,15; 0,387; 6) –0,86; 5,254. в) 1)1/18; 4) 0,41; 5) 5,4; 5,55; 2,36; 6) –12,23;
79,8. г) 1) 1; 4) 0,207; 5) 1; 3 ; 0,376; 6) –0,424; 2526. д) 1) 1; 4) 0,649; 5)
0,386; 0,039; 0,198; 6) –0,24; –1,12. 2. а) ні; б) ні; в) так. 3. а) 1) 0,25; 4) 10/3;
2/9; 0,47; 5) 0,75; б) 1) –1/3; 4) 5/3; 0,3(8); 0,62; 5) 5/6; в) 1) 0,5; 4) ; 27,74;
5,27; 5) 0,5. 4. 14/9; 4 2 3 ; 0. 5. 33 68
P X . 6.
0, 1;1( ) , 1 5;
41, 5.
xxF x x
x
7. а)
0, 0,1 ;( )
1, 0,1 ;
xf x
x
б) 0, 0;
( ) , 0 1;1, 1;
xF x x x
x
в)
1. 8. 16
; 0,5 год. 9. 2/3; 0,25 хв. 10. 0,5; 2 112
M X . 11. а) 0,1587; б)
0,1587; в) 0,9193; г) 0,00135. 12. а) 95,44%; б) 628 балів; в) 401 абітурієнт. 13.
а) 0,1762 від усіх акцій; б) 0,3811; в) 10 грн.28 коп. 14. 4 деталі. 15. 0,6826. 16.
1,47<x<1,53. 17. 7400<x<8600. 18. 10; 100. 19. 10e . 20. 3a .
КВМ
192
2.3. Граничні теореми теорії ймовірностей: закон великих чисел і центральна гранична теорема
2.3.1. Суть закону великих чисел і центральної граничної теореми
Багато результатів у теорії ймовірностей можна
розглядати як варіації, продовження та узагальнення двох основних теорем:
закону великих чисел і центральної граничної теореми. Обидві групи
відповідних теорем належать до граничної поведінки послідовностей випад-
кових величин.
Суть закону великих чисел полягає в тому, що в разі дуже великого
числа випадкових явищ усереднений їх результат практично перестає
бути випадковим і може бути передбачений із великою часткою
вірогідності.
У вузькому розумінні слова під «законом великих чисел» розуміють
групу математичних теорем, у кожній з яких за тих чи інших умов
встановлюється факт наближення середніх характеристик великого
числа дослідів до відповідних сталих – невипадкових величин. Із деякими
окремими випадками закону великих чисел ми вже стикалися раніше,
проте лише на описовому рівні. Зокрема, це стосується поведінки
відносної частоти події за необмеженого збільшення числа дослідів. На
підставі статистичної закономірності, що проявляється у властивості
стійкості відносної частоти, було введено фундаментальне поняття
ймовірності. Тепер, користуючись твердженням закону великих чисел
(див. п. 2.3.4), можна буде перевірити, як узгоджується вихідне
припущення про стійкість відносної частоти з висновками, які можна
отримати з теоретико-ймовірнісної моделі.
КВМ
193
Інший вид статистичної закономірності – стійкість середнього
значення. Логічною основою для неї є такий хід міркувань. Під час кожної
окремої спроби її результат, що характеризується деяким показником, під
впливом факторів буде відхилятися від деякого сталого значення в той чи
інший бік. Тому середнє значення показника за достатньо великого числа
спроб унаслідок взаємного погашення індивідуальних відхилень стає
стійким, наближаючись до деякого сталого числа, тобто практично не
залежить від випадку.
Поряд із тим значення теорем закону великих чисел полягає не
тільки
в можливості перевірки узгодження теоретико-ймовірнісної моделі з
досліджуваним явищем. Установлення факту статистичної стійкості
лежить в основі статистичних висновків і узагальнень, дозволяє на базі
вивчення завжди обмеженого числа дослідних даних робити висновки про
поведінку досліджуваного явища в інших подібних ситуаціях,
формулювати статистичні закономірності, яким ці явища підпорядковані.
Так, реєструючи протягом тривалого проміжку часу відносну частоту
браку продукції на певній операції, встановивши її стійкість і переходячи
до відповідної ймовірнісної моделі, тобто до ймовірності р браку, можна на
підставі теорем закону великих чисел передбачити (якщо збережуться
незмінними умови виконання цієї операції) відносну частоту браку
продукції в майбутньому, середнє очікуване число бракованих виробів у
партії з п одиниць продукції, можливі відхилення від середнього значення
і т. д.
Отже, закон великих чисел приводить до встановлення
детермінованих закономірностей у поведінці відносної частоти, середнього
значення або інших показників, що характеризують результат достатньо
КВМ
194
великого числа спроб в умовах непередбачуваності результату кожної
спроби окремо.
У цьому підрозділі ми розглянемо також другу групу граничних
теорем, які можна об’єднати однією назвою – центральна гранична
теорема. Як і закон великих чисел, вона має кілька форм. У всіх формах
центральної граничної теореми визначаються умови виникнення
нормального розподілу випадкової величини (закону Гаусса). Такі умови
часто трапляються на практиці, чим і пояснюється широке застосування
нормального закону до випадкових явищ. На підставі тверджень
центральної граничної теореми можна зробити висновок, що нормальний
розподіл виникає тоді, коли підсумовується багато незалежних (або слабо
залежних) випадкових величин, які є порівняльними щодо порядку свого
впливу на розсіювання суми.
Для спрощення викладу ми обмежимося тільки формулюванням
основних теорем, що складають зміст „закону великих чисел” та
роз’ясненням їх суті, а доведення їх опускаємо.
2.3.2. Нерівність Чебишова
та збіжність за ймовірністю
Теоретичну основу закону великих чисел
становлять нерівність Чебишова та поняття збіжності послідовності
випадкових величин за ймовірністю.
Нерівність Чебишова. Якщо випадкова величина Х має скінченні
математичне сподівання )(XM та дисперсію D(X), то для будь-якого
числа 0 виконується нерівність:
,)(1))(( 2
XDXMXP (2.41)
КВМ
195
тобто ймовірність того, що відхилення значень випадкової величини X від
її математичного сподівання )(XM буде меншим за абсолютним
значенням від додатного числа є не меншою, ніж 2)(1
XD .
Нерівність (2.41) називається нерівністю Чебишова і в разі малого
числа 0 вона дає оцінку знизу ймовірності того, що величина X набуде
значення, досить близького до її математичного сподівання ).(XM
Для оцінки ймовірності зверху використовують нерівність Маркова:
якщо випадкова величина Х набуває тільки невід’ємних значень і
( )M X , то для будь-якого 0K виконується нерівність:
( )M XP X KK
.
Приклад 2.21. Майстерня обслуговує 100 телевізорів. Імовірність того, що
кожний зі 100 телевізорів витримає гарантійний термін роботи, становить 0,9.
За допомогою нерівності Чебишова оцінити ймовірність випадкової події, яка
полягає в тому, що більше ніж 85 і менше ніж 95 телевізорів витримають
гарантійний термін роботи. Отриманий результат порівняти з імовірністю цієї
ж події, обчисленої за допомогою інтегральної формули Лапласа.
Розв’язання. Нехай випадкова величина X – число телевізорів, що витримають
гарантійний термін роботи.
Оскільки маємо 100n незалежних експериментів, у кожному з яких
імовірність появи події А (один телевізор витримає гарантійний ремонт)
,9,0p то
;909,0100)( npXM .91,09,0100)( npqXD
(Див. формули для обчислення математичного сподівання і дисперсії числа
появ події в послідовних випробуваннях за схемою Бернуллі.)
Маємо ланцюжок рівносильних нерівностей:
5)(5)(59085 XMXXMXX
і за нерівністю Чебишова:
КВМ
196
64,02516
2591)5)(()9085( XMXPXP ,
тобто ймовірність того, що від 85 до 95 телевізорів витримають гарантійний
ремонт, є не меншою ніж 0,64.
Достатньо точне значення шуканої ймовірності одержимо,
використовуючи асимптотичну інтегральну формулу Лапласа (1.30):
34
34
39086
39094)9486()9585( XPXP
342
=
.8164,04082,02)33,1(2
Порівнюючи отримані результати для (85 90)P X , робимо висновок, що в
даному випадку нерівність Чебишова дає грубу оцінку. Це означає, що
нерівність Чебишова для практики має обмежене значення. Проте теоретичне
значення цієї нерівності є дуже велике. На базі нерівності Чебишова доводяться
теореми закону великих чисел.
Збіжність послідовності випадкових величин за ймовірністю
Сформулюємо тепер математичне поняття збіжності послідовності
випадкових величин за ймовірністю.
Нехай задана послідовність випадкових величин:
Х1, Х2, ..., Хп, ...
Кажуть, що ця послідовність збігається за ймовірністю до
невипадкової величини а, якщо за необмеженого збільшення п імовірність
події aX n (де > 0 – як завгодно мале фіксоване число)
наближається до одиниці, тобто:
1lim
aXP nn.
КВМ
197
Іншими словами, якими б не були як завгодно малі наперед задані числа
> 0 і > 0, завжди можна знайти таке велике число N, що для всіх номерів п,
більших за N, виконується нерівність:
).(1 NnaXP n
2.3.3. Теорема Чебишова і стійкість
середнього арифметичного випадкових величин
Теорема. Нехай випадкові величини ,1X ...,,2X nX , … попарно
незалежні, мають скінченні математичні сподівання )( iXM = аі та
обмежені в сукупності дисперсії 22)( iiXD , і = 1, 2, ... . Позначимо:
,...21
nXXX
X nn
....,2,1,
...21
nn
aaaa n
n
Тоді для будь-якого числа 0
lim 1,n nn
P X a
(2.42)
тобто різниця між середнім арифметичним випадкових величин і
середнім арифметичним їх математичних сподівань збігається за
ймовірністю до нуля.
Суть теореми Чебишова полягає в тому, що хоч окремі випадкові
величини ...),2,1( iX i можуть набувати значень, досить віддалених від
своїх математичних сподівань аі, зате середнє арифметичне nX великого
числа цих випадкових величин із імовірністю, близькою до одиниці,
набуває значення, яке близьке до середнього арифметичного na їх
математичних сподівань. Тобто середнє арифметичне великого числа
незалежних випадкових величин втрачає випадковий характер і має
властивість стійкості.
КВМ
198
Теорема Чебишова знаходить важливе практичне застосування.
Зокрема, на цій теоремі ґрунтується вибірковий метод, який широко
використовується в статистиці. Суть його полягає в тому, що на підставі
вивчення певної ознаки для достатньо великої випадкової вибірки
об’єктів роблять висновок про всю їх сукупність (генеральну сукупність).
Наслідок із теореми Чебишова. Якщо всі члени послідовності
незалежних однаково розподілених випадкових величин 1 2, , ..., , ...nX X X
мають скінченні математичні сподівання M(Xi) = a і дисперсії ,)( 2iXD
то для будь-якого > 0
1lim
aXP nn, (2.42)
тобто середнє арифметичне випадкових величин збігається за ймовірністю до
математичного сподівання а.
2.3.4. Теорема Бернуллі і стійкість відносних частот
Теорема. Нехай n – число появ події А в n незалежних спробах
Бернуллі, n
AW nn
)( – відносна частота цієї події, P(A) = p – імовірність
появи події А в одній спробі. Тоді для будь-якого > 0
,1)(lim
pAWP nn (2.43)
тобто відносна частота події А збігається за ймовірністю до її
ймовірності р.
Із твердження теореми Бернуллі випливає, що коли число
випробувань п є достатньо великим, то для будь-якого числа 0 подія
pAWn )( є практично вірогідною, тобто відносна частота ( )nW A
події А має властивість стійкості.
КВМ
199
Зазначимо, що теорему Бернуллі можна розглядати як окремий
випадок наведеного вище наслідку з теореми Чебишова, оскільки
випадкова величина n може бути представлена сумою незалежних
однаково розподілених випадкових величин:
Хі 0 1 р q р
n
iin X
1, q = 1 – p, М(Хі) = р, ,)( pqXD i і = 1, 2, ... . Це означає, що в
теоремі Бернуллі йдеться про збіжність середнього арифметичного
випадкових величин Хі до математичного сподівання величини Хі, тобто
до ймовірності
р = Р(А).
Зауважимо також, що в умовах теореми Бернуллі нерівність Чебишова,
застосована до випадкової величини ),(AWn має вигляд:
.1)( 2
npqpAWP n (2.43)
Зауваження. На підставі теореми Бернуллі не слід робити висновок,
що .)(lim pAWnn
Остання рівність означає, що pAWn )( для
всіх ,Nn де N – деяке велике натуральне число і 0 – як
завгодно мале число. А теорема Бернуллі тільки стверджує, що
ймовірність pAWP n )( є близькою до одиниці при досить
великих п, а нерівність pAWn )( для деяких навіть великих п
може не виконуватися.
Приклад 2.22. Використовуючи нерівність (2.43), установити, яке число n
експериментів треба провести, щоб відхилення відносної частоти )(AWn появ
події А від імовірності 8,0)( AP за абсолютною величиною було меншим за
КВМ
200
01,0 з імовірністю, не меншою за 0,9. Отриманий результат порівняти з
оцінкою для п, обчисленою за допомогою інтегральної формули Лапласа.
Розв’язання. За умовою задачі ;8,0p ;2,0q .01,0 Із нерівності (2.43)
маємо:
1,001,0
2,08,09,001,0
2,08,0101,08,0)( 22 nnAWP n
,1600000001,0
16,01,001,0
2,08,01,0
12,08,0
01,02
2
nn
тобто заданого відхилення відносної частоти події від її ймовірності буде досягнуто,
якщо проведемо не менше ніж, 16 000 випробувань.
Застосуємо тепер для оцінки ймовірності заданого відхилення формулу (1.31).
Одержимо:
( ) 0,8 0,01 2 0,01 2 0,0250,8 0,2n
nP W A n
.
За умовою задачі:
.45,0)25,0(9,0)025,0(2 nn
За таблицею значень інтегральної функції Лапласа знайдемо (1,65) 0,45 .
Ураховуючи останню нерівність та беручи до уваги, що функція Ф(х) – монотонно
зростаюча, маємо:
.4356666665,1025,0 2 nnn
Звідси шукане число випробувань .4356n
Отже, у даному випадку, як і в прикладі 2.21, застосування нерівності Чебишова дає
грубу оцінку.
2.3.5. Центральна гранична теорема
Ми розглянули теореми закону великих чисел, які
встановлюють факт збіжності за ймовірністю послідовності деяких
випадкових величин до сталих їх характеристик незалежно від їх закону
розподілу. Група теорем, що стосуються граничних законів розподілу суми
випадкових величин, об’єднані загальною назвою – центральна гранична
КВМ
201
теорема. Центральна гранична теорема встановлює умови, за яких
указаний граничний закон є нормальним.
Наведемо одне з формулювань цієї теореми, доведеної О. М. Ляпуновим.
Центральна гранична теорема. Нехай ,1X ,...,,2 nXX … – послідовність
незалежних випадкових величин зі скінченними математичними сподіваннями
( )i ia M X і дисперсіями ,)(2ii XD і = 1, 2, ... . Уведемо нові випадкові
величини:
n
iin XY
1, для яких .)()(,)(
1
22
1
n
iinn
n
iin YYDaYM
Тоді, якщо виконана умова 13/ 2
2
1
lim 0
ni
in n
ii
b
, де 3| |i i ib M X a , то
для будь-якого числа х виконується така гранична рівність:
).(5,021
)()(lim 2
2
xdzexY
YMYPx z
n
nn
n
(2.44)
Рівність (2.44) означає, що закон розподілу нормованих відхилень суми
nY за n наближається до стандартного нормального закону розподілу. У
цьому випадку кажуть, що nY має асимптотично-нормальний розподіл.
У подальших своїх дослідженнях О. М. Ляпунов довів справедливість
граничного нормального розподілу за більш загальних умов: якщо існує таке
число ,0 для якого
n
iii
naXM
Y 1
2n
0)(
1lim ,
то для будь-якого числа х виконується гранична рівність (2. 44).
Ця гранична рівність отримала назву умови Ляпунова.
КВМ
202
На практиці центральна гранична теорема переважно використовується в
тому разі, коли доданки Хі мають однаковий розподіл. Наприклад, у
математичній статистиці вибіркові випадкові величини (див. розділ 3) мають
однакові розподіли, оскільки ми їх отримуємо на базі однієї і тієї ж
генеральної сукупності.
Наслідок із центральної граничної теореми. Нехай ,1X nXX ...,,2 , … –
послідовність незалежних однаково розподілених випадкових величин зі
скінченними математичними сподіваннями а = М(Хп), дисперсією
)(2nXD і
22
1)()(,)(,
nYDYnaYMXY nnn
n
iin .
Тоді для будь-якого х
).(5,021
)()(lim 2
2
xdzexY
YMYPx z
n
nn
n
(2.44)
Приклад 2.23. Кожна з незалежних випадкових величин ,iX ,100,1i
розподілена рівномірно на проміжку ].09,0;0[ Написати наближено густину і
функцію розподілу випадкової величини
100
1100 .
iiXY
Розв’язання. Кожна зі 100 випадкових величин iX має густину розподілу:
.09,0 ,0
;09,00,09,01
;0 ,0
)(
x
x
x
xfi
Обчислимо чисельні характеристики:
09,0
0
09,0
0
2;045,0
18,00081,0
209,01
09,01)( xdxxXM i
КВМ
203
09,0
0
209,0
0
322 045,0
309,01045,0
09,01)( xdxxXD i ;000675,0
100
1
100
1100 ;5,4100045,0)()(
ii
ii XMXMYM
100
1
100
1100 ;0675,0100000675,0)()(
ii
ii XDXDYD
.0675,0)( 100 Y
Оскільки для послідовності Х1, Х2, ..., Хп, ... виконані умови наслідку з центральної
граничної теореми, то на підставі рівності (2.44) робимо висновок, що розподіл
нормованої випадкової величини 0675,0
5,4100100
YZ можна наближено замінити на
розподіл стандартної нормальної випадкової величини ZN(0, 1) або, що те ж саме,
розподіл випадкової величини Y100 можна наближено замінити на нормальний
розподіл із параметрами M(Y100) = 4,5 і 0675,0)( 1002 Y . Тому наближені формули
для густини розподілу f(x) та функції розподілу F(x) випадкової величини Y100
будуть такі:
135,0)5,4( 2
0675,021)(
x
exf , dzexFx z
135,0
)5,4( 2
0675,021)( .
Приклад 2.24. У касі деякої установи залишилася сума d = 3 500 (грн). У черзі за
одержанням грошей стоять 20 осіб. Сума Х, яку потрібно виплатити окремій
особі, – випадкова величина з математичним сподіванням М(Х) = 150 (грн) і
середнім квадратичним відхиленням (Х) = 60 (грн). Знайти ймовірність того,
що суми d не вистачить для виплати грошей усім особам, які стоять у черзі.
Розв’язання. На підставі центральної граничної теореми для однаково
розподілених доданків iX при великому п (а п = 20 практично можна вважати
великим), випадкова величина
1
nn i
iY X
,
КВМ
204
де iX – сума, яку потрібно виплатити і-тій особі, має приблизно нормальний
розподіл із параметрами:
);()();()();()( XnYXDnYDXMnYM nnn
або
;2686020)(;300015020)( nn YYM
.0307,0)87,1(5,0268
300035005,01)3500(1)3500(
nn YPYP
Отже, з імовірністю, близькою до 0,0307, наявної в касі суми грошей не
вистачить для виплати всім бажаючим особам.
КВМ
205
2.3.6. Інтегральна теорема Муавра – Лапласа
Важливим наслідком центральної граничної
теореми є інтегральна теорема Муавра – Лапласа: якщо в кожному з n
незалежних експериментів (випробувань) за схемою Бернуллі ймовірність
появи деякої події А дорівнює P(A) = p і iX – число появ події А в і-му
випробуванні,
n
iin XY
1– сумарне число появ події А в n випробуваннях,
для якого ,1;)(;)( pqnpqYDnpYM nn то для будь-якого х:
)(5,021lim 2
2
xdzexnpq
npYPx z
n
n
, (2.45)
де )(xФ – інтегральна функція Лапласа.
Із даної теореми безпосередньо випливає відома нам з 1-го розділу
асимптотична інтегральна формула Лапласа, яка, нагадаємо, виражає
наближене значення ймовірності )( 21 mYmP n того, що число nY появ
події А в п незалежних випробуваннях за схемою Бернуллі міститься між
числами т1 і т2:
npqnpm
npqnpmmYmP n
1221 ФФ)( . (2.45)
Приклад 2.25. Відомо, що %30 власників квартир мають заборгованість в оплаті
комунальних послуг. Яка ймовірність того, що серед навмання вибраних 700
власників квартир число осіб, які не мають заборгованості, виявиться в межах від
400 до 500 чоловік?
Розв’язання. Нехай подія A – власник квартири не має заборгованості в оплаті
комунальних послуг. За умовою задачі ,700n ,7,0p ,3,0q m1 = 400, m2 =
500. Обчислимо: ,4907,0700 np .12,123,07,0700 npq
За формулою (2.45) маємо:
КВМ
206
12,12490400Ф
12,12490500Ф)500400( nYP
,7939,05,02939,0)43,7(Ф)82,0(Ф12,1290Ф
12,1210Ф
тобто ймовірність того, що серед 700 навмання вибраних власників квартир від 400 до
500 чоловік не мають заборгованості в оплаті комунальних послуг, дорівнює 0,7939.
Рекомендована література: [1, с. 126–131; 2, с. 98–104; 5, с. 101–110,
135–137; 7, с. 279–290; 8, с. 198–220].
Завдання для самоконтролю
Основні поняття, означення та відношення
Замість крапок запишіть таке продовження (доповнення) тексту словами
чи формулами, щоб отримати правильне означення або твердження. 1. Суть закону великих чисел полягає в тому, що за великого числа випадкових явищ
усереднений їх результат можна трактувати як …
2. Нерівність Чебишова має вигляд … і виражає оцінку ймовірності того, що …
3. Нерівність Чебишова стає тривіальною, якщо …
4. Теорема Чебишова виражає той факт, що ймовірність події … є близькою до
одиниці за умови, що …
5. Із теореми Чебишова випливає, що величина … є стійкою.
6. Теорема Бернуллі виражає той факт, що ймовірність події … є близькою до
одиниці за умови, що …
7. Із теореми Бернуллі випливає, що величина … є стійкою.
8. Центральна гранична теорема стосується характеру закону розподілу величини …
9. Центральна гранична теорема стверджує, що випадкова величина … має
близький до нормального закон розподілу за умов …
10. Формула Муавра – Лапласа має вигляд … і виражає ймовірність того, що …
КВМ
207
Тести
Запишіть на бланку відповідей номер завдання і коди (порядкові номери або
літери), що відповідають тим варіантам відповідей, які вважаєте
правильними. 1. Випадкова величина Х розподілена рівномірно на проміжку [2, 6]. За допомогою
нерівності Чебишова оцінити ймовірність події 2|)(| XMX .
Варіанти відповідей: 1. 95
. 2. 98
. 3. 32
.
2. Середня місячна зарплата Х працівників підприємства підпорядкована
нормальному закону розподілу з параметрами а = 500 грн і σ = 100 грн. За
допомогою нерівності Чебишова оцінити ймовірність події .3 aX
Варіанти відповідей: 1. .98,0 2. .89,0 3. .88,0
3. Імовірність вибрати правильну відповідь під час заповнення талона відповідей на
одне тестове завдання (подія А) p = 0,9. Студент дає відповіді на 30 тестових
завдань однакової важкості. За допомогою нерівності Чебишова в умовах теореми
Бернуллі оцінити ймовірність відхилення не більше ніж на 0,2 частоти )(AWn
правильної відповіді від її ймовірності.
Варіанти відповідей: 1. .925,0 2. .925,0 3. .9925,0
4. Імовірність банкрутства фірми (подія А) p = 0,2. Яке число n фірм потрібно
відібрати, щоб імовірність відхилення не більше ніж на 0,1 відносної частоти
)(AWn від імовірності події А була не меншою за 0,95?
Варіанти відповідей: 1. .320 2. .32 3. .320
5. Кожна з 500 випадкових величин iX має рівномірний закон розподілу
ймовірностей на проміжку [0; 0,1]. Написати закон розподілу для випадкової
величини
500
1iiXX .
Варіанти відповідей: А. 83,0
2)25(
83,01)(
x
exf .
КВМ
208
Б. 84,0
2)05,0(
42,01)(
x
exf .
В. .42,01)( 42,0
2)5,0(
x
exf
6. У регіоні 60% фірм займаються виробництвом харчової продукції. Яка
ймовірність того, що серед вибраних 100 фірм займаються виробництвом харчової
продукції від 50 до 70 фірм?
Варіанти відповідей: 1. 0,9624. 2. 0,9586. 3. 0,9431.
Приклади
1. Деякий проміжок часу на біржі зберігався відносно стабільний курс
валюти. На основі даних біржової статистики на цей період було складено
таку таблицю можливих змін курсу валют:
Можлива зміна курсу, %
1 0,5 0 0,5 1
Імовірність зміни 0,1 0,3 0,5 0,05 0,05
За допомогою нерівності Чебишева оцінити ймовірність того, що
.54,0)( XMX
2. Дано: P(|X - M(X)| < ) 0,9; D(X) = 0,004. Використовуючи нерівність
Чебишева, знайти .
3. Імовірність вчасної реалізації продукції дорівнює 0,4. Оцінити
ймовірність того, що в 100 незалежно реалізованих одиниць продукції
відхилення відносної частоти реалізації від імовірності 2/5 за абсолютним
значенням буде не меншим від 0,1 та порівняти з точним значенням.
4. Скільки потрібно перевірити деталей, щоб з імовірністю, не меншою
ніж 0,95, можна було б стверджувати, що абсолютна величина відхилення
частоти якісних деталей від імовірності деталі бути якісною, що дорівнює 0,9,
не перевищує 0,01?
КВМ
209
5. Математичне сподівання кількості опадів протягом року в даній
місцевості становить 60 см. Оцінити ймовірність того, що в даній місцевості
опадів буде не менше ніж 180 см.
6. Середнє добове споживання електроенергії в населеному пункті
дорівнює 12000 кВтгод. Оцінити ймовірність того, що протягом даної доби
споживання електроенергії буде більше ніж 50000 кВтгод.
7. У касі певного закладу в наявності є 4500 гривень. У черзі знаходиться
20 працівників. Сума Х, яку потрібно виплатити кожному є випадковою
величиною із математичним сподіванням, рівним 200 грн. і середнім
квадратичним відхиленням 55 грн. Знайти ймовірність того, що суми,
котра є в касі, не вистачить усім людям, які стоять у черзі.
8. Маємо 100 однакових елементів, що складають певний технічний
комплекс. Час безвідмовної роботи кожного і-го елементу є випадковою
величиною iT , що має показниковий закон розподілу із параметром 40 і
однаковим для всіх елементів. Випадкові величини 1 2 100, , ,T T T є
незалежними між собою. У разі відмови в роботі і-го елемента миттєво
здійснюється переміщення на і+1-й справний елемент. Загальний час
безвідмовної роботи комплексу дорівнює сумі iT , а саме 100
1i
iT T
. Знайти
наближено ймовірність того, що комплекс безвідмовно працює не менш як 20
год.
9. Імовірність того, що деталь не пройшла перевірку, дорівнює 0,1. Знайти
ймовірніcть того, що серед 500 випадково відібраних деталей виявиться
відбракованих від 60 до 100 деталей.
Відповіді
КВМ
210
1. 0,29, а точне значення 0,8. 2. =0,2. 3. 0,24; точне значення 0,0414. 4.
n18000. 5. 13
P . 6. P 0,24. 7. 0,9793. 8. 0,9772. 9. 0,0681.
2.4. Двовимірна випадкова величина
У попередніх підрозділах ми розглядали одновимірну
випадкову величину (дискретну і неперервну). На практиці трапляються
багатовимірні випадкові величини. Наприклад, прибуток навмання вибраного
підприємця визначається кількома одновимірними випадковими величинами:
обсягом випуску продукції, ринковими цінами на його продукцію, ринковими
цінами на сировину і т. д.
Означення. Якщо на одному і тому ж просторі елементарних подій
задані n одновимірних випадкових величин, то їх упорядковану
сукупність ( nXXX ...,,, 21 ) називають n-вимірною випадковою величиною,
або системою n випадкових величин, або n-вимірним випадковим
вектором.
Ми обмежимося двовимірною випадковою величиною (Х, Y), бо
перехід до випадкової величини більшої вимірності принципових змін не
викликає. Крім того, як випливає з підрозділів 2.1 і 2.2, основні поняття і
твердження для одновимірних дискретної та неперервної випадкових
величин є аналогічні. Тому для двовимірних дискретної і неперервної
випадкових величин викладемо їх паралельно.
Двовимірну випадкову величину (Х, Y) назвемо дискретною, якщо її
складові Х і Y є дискретними одновимірними випадковими величинами, і
неперервною, якщо її складові Х і Y є неперервними одновимірними
випадковими величинами. Складові Х і Y двовимірної випадкової
КВМ
211
величини
(Х, Y) називають ще її компонентами.
2.4.1. Закон розподілу ймовірностей
Закон розподілу ймовірностей двовимірної
випадкової величини, як і одновимірної, є її основною характеристикою.
А. В и п а д о к д и с к р е т н о ї в е л и ч и н и. Нехай ),( ji yxp –
імовірність того, що дискретна випадкова величина ),( YX набуде
можливих значень ),,( ji yx ,n,i 1 .m,j 1 Іншими словами, ),( ji yxp –
імовірність того, що одночасно Х набуде значення ix і Y набуде значення
jy , тобто )(),( jiji yYxXPyxp , або ),(),( jiji yYxXPyxp .
Означення. Законом розподілу ймовірностей (законом розподілу)
двовимірної дискретної випадкової величини ),( YX називають перелік її
можливих значень ),,( ji yx ,n,i 1 m,j 1 та відповідних їм імовірностей
).,( ji yxp
Названий закон розподілу записують у формі таблиці (табл. 2.7).
Таблиця 2.7
Закон розподілу ймовірностей випадкової величини (Х, Y)
ixX
jyY 1x 2x ... nx )( jyp
1y ),( 11 yxp ),( 12 yxp ... ),( 1yxp n )( 1yp
2y ),( 21 yxp ),( 22 yxp ... ),( 2yxp n )( 2yp . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. my ),( 1 myxp ),( 2 myxp ... ),( mn yxp )( myp
)( ixp )( 1xp )( 2xp … )( nxp 1
КВМ
212
Зазначимо, що закон розподілу дискретної випадкової величини ),( YX
має вигляд частини табл. 2.7, яка виділена жирними лініями. Останній рядок
(стовпець) цієї таблиці задає розподіл одновимірної компоненти Х(Y).
Справді, розподіл одновимірної випадкової величини Х можна
отримати, обчисливши за даними табл. 2.7 імовірності Р(Х = хі), які
позначимо через р(хі). Для цього достатньо зауважити, що подію (Х = хі )
можна представити як суму попарно несумісних подій:
1 2 ... ,i i i i mX x X x Y y X x Y y X x Y y
звідки за правилом додавання ймовірностей несумісних подій одержимо:
m
jjii yxpxp
1),,()( і = 1, 2, …, п. (2.46)
Аналогічно можна побудувати розподіл одновимірної випадкової
величини Y, обчисливши ймовірності :)()( jj ypyYP
n
ijij yxpyp
1),()( , j = 1, 2, …, т. (2.46)
Далі, оскільки кожна із систем подій )m,1,n,1i()yYxX( ji j або
, ( 1, , 1, )i jX x Y y i n j m утворює повну групу попарно несумісних
подій, то
1)()()(111 1
m
jj
n
ii
n
i
m
jji ypxpy,xp . (2.47)
Приклад 2.26. Одночасно кидають гральний кубик і монету. Написати закон
розподілу двовимірної випадкової величини ),( YX , де Х – число очок, що
випадуть на верхній грані кубика, Y – число появ герба на монеті.
КВМ
213
Розв’язання. Випадкова величина Х може набути одного з чисел 1, 2, 3, 4, 5, 6, а
випадкова величина Y – одного з чисел 0, 1. Звідси випливає, що ),( YX –
дискретна випадкова величина. Оскільки події ixX і jyY – незалежні, то
,1 1 1( ) ( ) ( ) ( ) ,6 2 12i j i j i jp x y P X x Y y P X x P Y y
і закон розподілу дискретної випадкової величини ),( YX має вигляд:
ixX
jyY 1 2 3 4 5 6 )( jyp
0 1/12 1/12 1/12 1/12 1/12 1/12 1/2 1 1/12 1/12 1/12 1/12 1/12 1/12 1/2
)( ixp 1/6 1/6 1/6 1/6 1/6 1/6 1
Б. В и п а д о к н е п е р е р в н о ї в е л и ч и н и. Розподіл
імовірностей двовимірної неперервної випадкової величини (X, Y), як і
для одновимірної, визначається за допомогою функції або густини
розподілу. Функцією розподілу ймовірностей можна характеризувати і
дискретну двовимірну випадкову величину.
Означення. Функцією розподілу ймовірностей двовимірної випадкової
величини (X, Y) називається функція ),( yxF , яка для будь-яких чисел х і y
визначає ймовірність сумісної появи подій X x і Y y , тобто:
F(x, y) = P(X < x, Y < y) = P(X < x ∩ Y < y). (2.48)
Іншими словами, функція розподілу ),( yxF двовимірної випадкової
величини (X, Y) є ймовірність того, що її складова X набуде значення,
меншого за число x, і складова Y набуде одночасно значення, меншого за
число y.
Геометрично рівність (2.48) тлумачимо так: функція розподілу
),( yxF є ймовірністю того, що значення двовимірної випадкової
величини (X, Y) (випадкові точки) попадають у безмежний прямокутник
із вершиною (x, y), який розміщений нижче і лівіше від цієї вершини (рис.
2.14).
КВМ
214
Рис. 2.14. Геометричне тлумачення двовимірної функції розподілу
Функція розподілу ),( yxF має такі властивості:
значення функції розподілу задовольняють подвійну нерівність:
1),(0 yxF ; (2.48)
),( yxF є неспадною функцією за кожним аргументом, тобто:
F(x2, y) ≥ F(x1, y), якщо х2 > х1;
F(x, y2) ≥ F(x, y1), якщо у2 > у1; (2.49)
для функції ),( yxF виконуються граничні співвідношення:
,0),( yF ,0),( xF
0),( F , 1),( F ; (2.50)
якщо y , функція розподілу ),( yxF двовимірної випадкової
величини ),( YX наближається до функції розподілу )(1 xF
складової X,
а якщо x – до функції розподілу )(2 yF складової Y, тобто:
);(),(),(lim 1 xFxFyxFy
)(),(),(lim 2 yFyFyxFx
; (2.51)
y
(x, y) х
0
КВМ
215
імовірність попадання значень двовимірної випадкової величини
),( YX у прямокутник ( , ) : ,Q x y a X b c Y d
обчислюється за формулою:
.),(),(),(),(),( caFcbFdaFdbFdYcbXaP (2.52)
Сформульвані властивості двовимірної функції розподілу ( , )F x y
доводяться аналогічно як відповідні властивості одновимірної функції
розподілу ( )F x . Проілюструємо це доведенням співвідношень (2.50) і
(2.51).
Співвідношення (2.50): рівності ( , ) 0,F y ( , ) 0,F x
( , ) 0F випливають з того, що відповідні сумісні події X і
Y y , X x і Y , X і Y є неможливі і їх імовірності
дорівнюють нулю; рівність ( , ) 1F обумовлена тим, що сумісна подія
X і Y - вірогідна та її ймовірність дорівнює одиниці. Ці
твердження мають наглядну геометричну інтерпретацію на рис. 2.14:
якщо x , то права сторона безмежного прямокутника переміщується
необмежено вліво і при цьому імовірність попадання випадкової точки у
цей прямокутник наближається до нуля. Аналогічну геометричну
інтерпретацію маємо, коли y або x і y .
Перше зі співвідношень (2.51) випливає з того, що подія Y є
вірогідна і тому ),()()(),( 1 xFxXPYxXPxF тобто у цьому
випадку ,F x є імовірність події X x або функція розподілу
складової X.
Аналогічно обгрунтовуємо друге співвідношення.
Зауваження. Якщо двовимірна випадкова величина (Х, Y) неперервна, то
функція розподілу F(x, y) неперервна і для будь-яких дійсних чисел х0 і
y0 імовірність Р(Х = х0, Y = y0) = 0. Звідси випливає, що в цьому випадку
КВМ
216
формулу (2.52) можна застосовувати також для обчислення
ймовірностей:
.),(),(),( dYcbXaPdYcbXaPdYcbXaP
Приклад 2.27. Функція розподілу ймовірностей двовимірної неперервної
випадкової величини ),( YX має вигляд:
.4,2,1
;42,2,6
2
;42,26,48
)2()6(
;4,26,8
6;2або,6,0
)y(
yx
yxy
yxyx
yxxyx
x,F
Обчислити ).31,12( YXP
Розв’язання. За формулою (2.52), враховуючи останнє зауваження, маємо:
)1,2()1,1()3,2()3,1(31,12 FFFFYXP
(1 6)(3 2) ( 2 6)(3 2) (1 6)( 1 2) ( 2 6)( 1 2)48 48 48 48
1 1 1(35 20 7 4) 12 .48 48 4
Означення. Густиною (щільністю) розподілу ймовірностей ),( yxf
двовимірної неперервної випадкової величини ),( YX називають другу
мішану похідну від її функції розподілу, тобто:
.),(2
yxFyxf
(2.53)
Густину розподілу ймовірностей двовимірної випадкової величини
ще називають двовимірною густиною розподілу.
Густина (щільність) розподілу ймовірностей ),( yxf має такі
властивості:
КВМ
217
густина розподілу ймовірностей невід’ємна: 0),( yxf ;
подвійний невласний інтеграл із безмежними межами
інтегрування від двовимірної густини розподілу дорівнює одиниці:
1),( dydxyxf . (2.54)
(Подвійний інтеграл (2.54) обчислюють так: спочатку обчислюють інтеграл за однією
змінною, вважаючи другу сталою, а потім за другою змінною);
якщо всі значення (х, у) двовимірної випадкової величини ),( YX
містяться в прямокутнику dxcbxa , і f(x, y) –
густина її розподілу, то
;1),( b
a
d
cdydxyxf (2.54)
функція розподілу ),( yxF двовимірної неперервної випадкової
величини ),( YX визначається за двовимірною густиною f(x, y) цієї
величини за допомогою рівності:
x y
ddfyxF ;),(),( (2.55)
якщо можливі значення двовимірної неперервної випадкової величини
),( YX розміщені в прямокутнику ,,:),( dYcbXayxQ то
формула (2.55) набуває вигляду:
x
a
y
cddfyxF ;),(),( (2.55)
імовірність попадання значень двовимірної неперервної випадкової
величини (X, Y) у прямокутник dYcbXayxQ ,:),(
виражається формулою:
С( ) ( , ) ;b d
a ca X b c Y d f x y dxdy (2.56)
КВМ
218
якщо f(x, y) – густина розподілу двовимірної випадкової величини (X,
Y), то густини f1(x) і f2(y) розподілів одновимірних випадкових
величин
Х і Y відповідно визначаються за формулами:
.)()(;)()( 21 dxyx,fyfdyyx,fxf (2.56)
Всі сформульвані властивості (крім останньої) двовимірної густини
розподілу ( , )f x y можна обгрунтувати аналогічними міркуваннями, як і у
випадку густини розподілу одновимірної випадковї величини.
Обгрунтуємо перше зі співвідношень (2.56 ) . Якщо 1( )F x - функція
розподілу складової X, то її густина розподілу
11
( )( ) dF xf xdx
.
Функція розподілу ( , )F x y двовимірної випадкової величини (X, Y)
виражається через густину її розподілу ( , )f x y рівністю (2.55), з якої
випливає, що
1( ) ( , ) ( , )x
F x F x f d d
.
Диференціюючи обидві частини одержаної рівності за х, одержимо:
11
( )( ) ( , ) ( , )dF xf x f x d f x y dydx
.
Аналогічно обгрунтовуємо друге співвідношення. Приклад 2.28. Двовимірна неперервна випадкова величина (X, Y) задана
густиною розподілу:
,),( ,0
;),( const,),( QyxQyxayxf
де 42,31:),( yxyxQ .
Знайти а і F(x, y). Обчислити (0 1 2 5)P X Y .
КВМ
219
Розв’язання. Сталу величину а визначаємо з умови (2.54):
.8118124111
4
2
3
1
3
1
4
2
3
1
4
2
aaayxadydxadydxa
Із знайденим значенням а двовимірна густина розподілу ),( yxf має вигляд:
.),( ,0
;),( ,81
),(Qyx
Qyxyxf
Функцію розподілу F(x, y) описаної в задачі двовимірної випадкової величини
знаходимо за формулою (2.55). Розглянемо випадки:
а)
x y
ddfyxFyx ;0),(),(2або1
б)
x y x y
ddddfyxFyx1 2 8
1),(),(42,31
= );2)(1(81
81
81
211 2
yxdd yxx y
в)
x y x y
ddddfyxFyx1 2 8
1),(),(4,31
);1(41)24)(1(
81
81
81 4
211
4
2
xxdd xx
г)
3
1 2
3
1 2 81
81),(),(42,3
yx y y
ddddddfyxFyx
= );2(21)2(4
81
81
23
1 yyy
д) 3, 4x y
x y
ddddfyxF3
1
4
2 81),(),(
4
2
3
181
= .12481
Отже, функція розподілу F(x, y) записується так:
КВМ
220
.4,3,1
;42,3),2(21
;42,31),2()1(81
;4,31),1(41
;2або1,0
),(
yx
yxy
yxyx
yxx
yx
yxF
Шукану ймовірність обчислюємо за формулою (2.56):
1
0
5
4
1
0
4
2
1
0
5
20
81),()52,10( dydxdydxdydxyxfYXP
=41)24(1
810
81 4
2
1
0 yx .
Оскільки функція розподілу F(x, y) відома, то цю ймовірність можна також об-
числити за формулою (2.52).
2.4.2. Залежні і незалежні випадкові
величини. Умовні закони розподілу
У попередньому пункті ми показали, як, знаючи за-
кон розподілу системи двох (дискретних або неперервних) випадкових
величин, знайти закон розподілу окремих величин Х і Y, які входять у
систему (Х, Y).
Виникає природне питання: чи не можна, знаючи закони розподілу
окремих випадкових величин Х і Y, що є компонентами двовимірної
випадкової величини (Х, Y), знайти їх сумісний закон розподілу?
Виявляється, що це можна зробити лише в одному частковому
випадку, коли випадкові величини Х і Y, які утворюють систему, є
незалежні.
КВМ
221
У найбільш загальному формулюванні дві випадкові величини нази-
ваються незалежними, якщо закон розподілу кожної з них не залежить від
того, якого значення набула інша.
У термінах функцій розподілу незалежність випадкових величин
можна визначити так: дві випадкові величини називаються незалежними,
якщо для будь-яких дійсних чисел х і y імовірність сумісної появи двох
подій Х < x
і Y < y дорівнює добуткові ймовірностей цих подій, тобто:
( ) ( ) ( )P X x Y y P X x P Y y , (2.57)
або
F(x, y) = F1(x) · F2(у). (2.57)
Якщо функція розподілу F(x, y) не може бути подана як добуток F1(x)
на F2(y), то величини Х і Y є залежні.
У випадку, коли Х і Y – дві незалежні дискретні випадкові величини,
сумісний закон розподілу яких описано табл. 2.7, то необхідна і достатня
умова незалежності Х і Y виражається системою рівностей:
( , ) ( ) ( ), 1, ; 1,i j i jp x y p x p y i n j m . (2.58)
Для неперервних випадкових величин необхідна і достатня умова
незалежності Х і Y виражається також через густини розподілу:
).()(),( 21 yfxfyxf (2.58)
Наприклад, у прикладі 2.26 дискретні випадкові величини Х і Y –
незалежні, оскільки для ймовірностей p(xi, yj), p(xi), p(yj) виконується
система рівностей (2.58):
)()(21
61
121),(),()(
21
61
121),( 21211111 ypxpyxpypxpyxp
і т. д.
КВМ
222
Такий самий висновок можна зробити щодо неперервних випадкових
величин із прикладу 2.28. Тут двовимірна випадкова величина (Х, Y)
задана густиною розподілу:
,),(0
,),(,81
),(Qyx
Qyxyxf
де ( , ) : 1 3, 2 4Q x y x y .
За допомогою формул (2.56) знаходимо густини розподілів f1(x) і f2(y):
);3,1(,0
);3,1(x,41
81
),()(
4
21
x
dydyyxfxf
).4,2(,0
);4,2(,21x
81
)(f)(
3
12
y
yddxyx,yf
Тоді з рівності )()(21
41
81),( 21 xfxfyxf маємо, що Х і Y –
незалежні.
Приклад 2.29. Закон розподілу двовимірної дискретної випадкової величини
),( YX задано таблицею:
X=xі
Y=yj 10 20 30 40 p(yj)
–8 –4 –2
0,01 0,07 0,1
0,03 0,1 0,2
0,02 0,07 0,1
0,04 0,06 0,2
0,1 0,3 0,6
p(xi) 0,18 0,33 0,19 0,3
З’ясувати, чи випадкові величини Х і Y – незалежні.
Розв’язання. Нагадаємо, що у внутрішніх клітинках таблиці містяться
ймовірності ( , )i jp x y , які визначають сумісний розподіл двох випадкових
величин Х і Y, а останній рядок та останній стовпець характеризують
КВМ
223
одновимірні розподіли компонент
Х і Y, відповідно.
У цій таблиці p(x1, y1) = 0,01, p(x1) = 0,18, p(y1) = 0,1, тому p(x1, y1) ≠ p(x1) · p(y1) і
випадкові величини Х і Y – залежні.
Приклад 2.30. Двовимірна неперервна випадкова величина (Х, Y) задана
густиною розподілу:
.),(,0
;),(),(),( QyxQyxyxayxf
де ( , ) : 0 1, 0 1Q x y x y . Визначити число а, густини розподілів
одновимірних компонент Х і Y та з’ясувати, чи випадкові величини Х і Y
незалежні.
Розв’язання. Значення величини а знаходимо з умови (2.54):
11)(1)(
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
dydxydydxxadydxyxadydxyxa
.1121
211
221
1
0
210
10
1
0
21
0
1
0
1
0
1
0
aayxyxadyydxdydxxa
Отже, випадкова величина (Х, Y) має густину розподілу ймовірностей:
.),(,0
;),(,),( QyxQyxyxyxf
За формулами (2.56) знаходимо густини розподілів 1( )f x і 2( )f y :
),1,0(,0
);1,0(,21
)1,0(,0
);1,0(,2
)1,0(,0
);1,0(,)(),()(
1
0
21
01x
xx
x
xyxy
x
xdyyxdyyxfxf
).1,0(,0
);1,0(,21
)1,0(,0
);1,0(,2
)1,0(,0
);1,0(,)(),()(
1
0
21
02y
yy
y
yyxx
y
ydxyxdxyxfyf
Оскільки 1 21 1( , ) ( ) ( )2 2
f x y x y x y f x f y
при ( , )x y Q , то випадкові
величини Х і Y – залежні.
КВМ
224
Якщо випадкові величини, які утворюють систему, залежні, то для
знаходження їх сумісного розподілу недостатньо знати закони розподілу
складових, а потрібно ще знати так званий умовний закон розподілу однієї з
них. Це питання тісно пов’язане з поняттям імовірності події А за умови, що
відбулася подія В, тобто з умовною імовірністю події А, яка виражається
формулою:
0)(,)(
)()( BPBP
BAPBAP
(див. підрозділ 1.2).
А. В и п а д о к д и с к р е т н о ї в е л и ч и н и. Нехай ),( ji yx –
можливі значення дискретної двовимірної випадкової величини (Х, Y),
mjni ,1,,1 . Через )|( ji yxp позначимо умовну ймовірність того, що
випадкова величина X набуде значення ix за умови, що випадкова величина Y
набула значення jy , а через )|( ij xyp – умовну ймовірність того, що
випадкова величина Y набуде значення jy за умови, що випадкова величина Х
набула значення ix .
Імовірності )|( ji yxp і )( ij xyp обчислюємо за формулами:
)(),(
)|(j
jiji yp
yxpyxp , (2.59)
)(),(
)|(i
ijij xp
xypxyp , (2.59)
, ,i j j ip x y p y x
які випливають з формули для обчислення умовної ймовірності події.
Означення. Умовним законом розподілу складової Х випадкової величини
(Х, Y) за фіксованого значення складової jyY називається перелік усіх
КВМ
225
можливих значень ix випадкової величини X та відповідних їм умовних
імовірностей )|( ji yxp .
Умовним законом розподілу складової Y двовимірної дискретної
випадкової величини (Х, Y) за фіксованого значення ixX називається
перелік усіх можливих значень jy випадкової величини Y та відповідних їм
умовних імовірностей )|( ij xyp .
Умовні закони розподілу складових Х і Y двовимірної дискретної
випадкової величини (Х, Y) записують, відповідно, у формі таких таблиць:
Таблиця 2.8
X = xi 1x 2x ... nx )( ji yxp )( 1 jyxp )( 2 jyxp ... )( jn yxp
n
iji yxp
11)|( .
Таблиця 2.9
Y = yj 1y 2y ... ny ( )j ip y x )( 1 ixyp )( 2 ixyp ... ( )n ip y x
m
jij xyp
11)( .
Звідси маємо такий висновок: знаючи безумовні закони розподілу
складових X і Y та умовний закон розподілу однієї з них, можемо скласти
закон розподілу двовимірної дискретної випадкової величини (X, Y) і
ймовірності ),( ji yxp можливих її значень ),( ji yx обчислюємо за
формулами:
).()(),(),()(),( ijiijjijji xypxpxypyxpypyxp
Приклад 2.31. Закон розподілу двовимірної випадкової величини ),( YX задано
таблицею прикладу 2.29:
X = xі
Y = yj 10 20 30 40 p(yj)
–8 –4 –2
0,01 0,07 0,1
0,03 0,1 0,2
0,02 0,07 0,1
0,04 0,06 0,2
0,1 0,3 0,6
p(xi) 0,18 0,33 o,19 0,3
КВМ
226
Записати умовні закони розподілу 4YX і .40XY
Розв’язання. Запишемо закон розподілу випадкової величини X за фіксованого
значення Y = –4. Для цього обчислимо умовні ймовірності:
;3,0
07,0)(
),()|(2
2121
ypyxpyxp ;
3,01,0
)(),()|(
2
2222
ypyxpyxp
;3,0
07,0)(
),()|(2
2323
ypyxpyxp .
3,006,0
)(),()|(
2
2424
ypyxpyxp
Умовний закон розподілу :4YX
X = xi 10 20 30 40
p(xi|y2) 3,007,0
3,01,0
3,007,0
3,006,0
Зробимо перевірку:
4
12 .1
3,006,0
3,007,0
3,01,0
3,007,0)|(
ii yxp
Запишемо закон розподілу випадкової величини Y за фіксованого значення
.40X Для цього обчислимо ймовірності:
;3,0
04,0)(
),()|(4
4141
xpxypxyp ;
3,006,0
)(),()|(
4
4242
xpxypxyp
.3,02,0
)(),()|(
4
4343
xpxypxyp
Умовний закон розподілу :40XY
Y = yj –8 –4 –2
p(yj|x4) 3,004,0
3,006,0
3,002,0
Перевірка:
3
14 .1
3,02,0
3,006,0
3,004,0)|(
jj xyp
Б. В и п а д о к н е п е р е р в н о ї в е л и ч и н и. Нехай (X, Y) –
двовимірна неперервна випадкова величина і f(x, y) – густина її сумісного
розподілу. Як уже зазначалося, закони розподілу складових Х і Y визна-
чаються рівностями:
КВМ
227
dyyxfxf
),()(1 , .),()(2 dxyxfyf
Означення. Умовною густиною )|( yx розподілу ймовірностей
складової Х двовимірної неперервної величини (X, Y) за фіксованого
значення
Y = y називається відношення густини f(x, y) її сумісного розподілу до
густини )(2 yf складової Y:
)(),()|(
2 yfyxfyx . (2.60)
Умовною густиною )|( xy розподілу ймовірностей складової Y дво-
вимірної неперервної величини (X, Y) за фіксованого значення Х = х назива-
ється відношення густини f(x, y) її сумісного розподілу до густини )(1 xf
складової Х:
)(),()|(
1 xfyxfxy . (2.60)
Умовна густина розподілу ймовірностей складової двовимірної
неперервної випадкової величини визначає її умовний закон розподілу.
Звідси маємо аналогічний, як у дискретному випадку, висновок: знаючи
густини розподілів складових Х і Y та умовну густину розподілу однієї з них,
можемо обчислити густину розподілу двовимірної неперервної випадкової
величини (Х, Y) за формулами:
).()(),(),()(),( 12 xyxfyxfyxyfyxf
Приклад 2.32. Знайти умовні густини розподілу )( yx і )( xy для залежних
неперервних випадкових величин Х і Y, які описано у прикладі 2.30.
Розв’язання. За допомогою формул (2.60), (2.60) та виразів для ),,( yxf f1(x), f2(y),
отриманих у ході розв’язування задачі 2.30, знаходимо:
КВМ
228
),1,0(,0
;)1,0(,
21
)(),()(
2x
xy
yx
yfyxfyx
де )1,0(y – фіксоване;
),1,0(y,0
;)1,0(,
21
)()()ш(
1
yx
yx
xfyx,fху
де )1,0(x – фіксоване.
Робимо перевірку:
1
0
1
0
1
0
1
021
1)(
21
1
21)( dxydxx
ydxyx
ydx
y
yxdxyx
.121
21
12
21
1 10
1
0
2
y
yxyx
y
1
0
1
0
1
0
1
021
1)(
21
1
21
y)( dyydyxx
dyyxx
dyx
yxdху
.121
21
12
21
11
0
210
x
x
yyxx
Повернемося до питання про залежність і незалежність випадкових
величин. Нагадаємо, що дві випадкові величини називаються незалежними,
якщо закон розподілу однієї з них не залежить від того, якого можливого
значення набула друга величина. У загальному випадку незалежність
складових Х і Y двовимірної випадкової величини (Х, Y) рівносильна
виконанню рівності (2.57), а критерії незалежності окремо для дискретного і
неперервного випадків визначаються співвідношеннями (2.58), (2.58). Звідси
випливає, зокрема, що коли величини Х і Y незалежні та неперервні, то їх
КВМ
229
умовні густини розподілів )( yx і )( xy збігаються з «безумовними»
густинами розподілів f1(x) і f2(y):
),()(
)()()(),()( 1
2
21
2xf
yfyfxf
yfyxfyx
).()(
)()()(),()( 2
1
21
1yf
xfyfxf
xfyxfxy
Очевидно, подібний висновок про рівність відповідних умовних і
безумовних розподілів двох незалежних випадкових величин можна
зробити і в дискретному випадку.
Зауважимо також, що поняття залежності випадкових величин не
можна змішувати зі звичною для нас у математиці функціональною
залежністю. У разі існування функціональної залежності між величинами
Х і Y кожному значенню Х = х за певним законом відповідає одне і тільки
одне значення
Y = y. Якщо ж ми маємо справу із залежними випадковими величинами,
то, в загальному випадку, знаючи значення однієї, можна тільки вказати
закон розподілу другої. Така залежність називається ймовірнісною (або
стохастичною). Отже, залежність між випадковими величинами може
бути більш або менш тісна: від повної її відсутності через різні ступені
ймовірнісної залежності аж до строгої, функціональної залежності, коли,
знаючи значення однієї випадкової величини, можна точно вказати
значення другої.
2.4.3. Чисельні характеристики двовимірної випадкової величини. Коваріація і коефіцієнт кореляції
КВМ
230
Чисельні характеристики складових X і Y дво-
вимірної випадкової величини ( ,X Y ) визначають за формулами, які є
аналогами для одновимірної випадкової величини. Специфічні
властивості деяких чисельних характеристик двовимірної випадкової
величини пов’язані зі залежністю її компонент.
А. В и п а д о к д и с к р е т н о ї в и п а д к о в о ї в е л и ч и н и.
Основні чисельні характеристики складових для дискретної двовимірної
випадкової величини ( ,X Y ) виражаються формулами:
математичні сподівання:
1 1 1
( ) ( ) ,n n m
i i i i ji i j
M X x p x x p x y
, (2.61)
m
1j
m
j
n
ijijjj y,xpyypyYM
1 1);()()( (2.61)
дисперсії:
n
iii xpXMxXD
1
2 )()()( =
n
i
m
jjii yxpXMx
1 1
2 ),,()( (2.62)
m
jjj ypYMyYD
1
2 )()()( =
m
j
n
ijij y,xpYMy
1 1
2 )()( (2.62)
або
n
i
m
jjii
n
iii XMyxpxXMxpxXD
1
2
1
22
1
2 ,)(),()()()( (2.63)
m
j
n
ijij
m
jjj YMy,xpyM(Y)ypyYD
1 1
22
1
22 ;)()()()( (2.63)
середні квадратичні відхилення:
,)()( xXDX (2.64)
.)()( yYDY (2.64)
КВМ
231
Приклад 2.33. Закон розподілу двовимірної дискретної випадкової величини (X,
Y) задано таблицею:
X = xі
Y = yj –2 4 6
3 5
a7,1 a3,0
a2,2 a8,1
a1,2 1,9a
Визначити число а і обчислити чисельні характеристики ),(XM ),(XD ),(X
),(YM ),(YD ).(Y
Розв’язання. З умови (2.47) маємо, що
.1,011019,18,13,01,22,27,1 aaaaaaaa
Із знайденим числом a і доповненими ймовірностями )( ixp і )( jyp таблиця
набуває такого змісту:
X = xі
Y = yj –2 4 6 p(yj)
3 0,17 0,22 0,21 0,6 5 0,03 0,18 0,19 0,4
p(xі) 0,2 0,4 0,4
За формулами (2.61), (2.61), (2.63), (2.63), (2.64), (2.64) обчислюємо чисельні
характеристики:
;6,34,26,14,04,064,042,0)2()()(3
1
iii xpxXM
;6,214,144,68,04,064,042,0)2()()( 23
1
2222 i
ii xpxXM
64,896,126,216,36,21)()()( 222 XMXMXD ;
;94,264,8)( xX
;8,328,14,056,03)()(2
1
jjj ypyYM
;4,15104,54,056,03)()( 222
1
22 j
jj ypyYM
96,044,144,158,34,15)()()( 222 YMYMYD ;
КВМ
232
.98,096,0)( yY
Б. В и п а д о к н е п е р е р в н о ї в и п а д к о в о ї в е л и ч и н и.
Основні чисельні характеристики для неперервної двовимірної
випадкової величини (Х, Y) виражаються формулами:
математичні сподівання:
,),()()( 1 dydxyxxfdxxxfXM (2.65)
,),()()( 2 dydxyxyfdyyyfYM (2.65)
де
dyyxfxf ),()(1 – густина розподілу складової Х,
dxyxfyf ),()(2
– густина розподілу складової Y.
Нагадаємо, що інтеграл за змінною у обчислюємо за умови, що х –
стала величина, а інтеграл за змінною х – за умови, що у – стала
величина;
дисперсії:
,),()()()()( 21
2 dydxyxfXMxdxxfXMxXD (2.66)
,),()()()()( 22
2 dydxyxfYMydyyfYMyYD (2.66)
або
,)(),()()()( 2221
2 XMdydxyxfxXMdxxfxXD (2.67)
,)(),()()()( 2222
2 YMdydxyxfyYMdyyfyYD (2.67)
КВМ
233
середні квадратичні відхилення:
,)()( XDX x (2.68)
)()( YDY y . (2.68)
Якщо всі значення двовимірної неперервної випадкової величини
містяться в прямокутнику ,a X b c Y d , то в усіх наведених
формулах
... замінюємо на
b
a
d
c... .
Приклад 2.34. Двовимірна неперервна випадкова величина (X, Y) задана
густиною:
,),(,0
;),(),(),( QyxQyxyxyxf
де .10,10:)( yxyx,Q Обчислити чисельні характеристики
М(Х), D(X), (X), М(Y), D(Y), (Y).
Розв’язання. Чисельні характеристики обчислюємо за формулами (2.65), (2.65),
(2.67), (2.67), (2.68), (2.68):
1
0
1
0
21
0
1
0
1
0
1
0
21
0
1
0
21
0
1
0)()()( dydxxdydxxydydxxdydxxyxdydxyxxXM
127
41
31
223
1
0
21
0
21
0
1
0
31
0
1
0
yxyxdyydxx ;
1
0
1
0
1
0
1
0
21
0
1
0
1
0
1
0
21
0
1
0)()()( dyydxxdydxydydxyxdydxyyxdydxyxyYM
127
31
41
322
1
0
31
0
1
0
21
0
21
0
21
0
yxyxdyydx ;
1
0
1
0
321
0
1
0
2127)()( dydxxdydxyxxXD
1
0
1
0
41
0
1
0
24144
49 yxdyydxx
14411
144492436
14449
61
41
14449
23
1
0
21
0
3
yx ;
КВМ
234
1
0
1
0
221
0
1
0
2127)()( dyydxxdydxyxyYD
1
0
31
0
21
0
31
0 3214449 yxdyydx
14411
14449
41
61
14449
4
1
0
41
0
yx ;
1211
14411)( xX ;
1211
14411)( yY .
Важливими чисельними характеристиками двовимірної випадкової
величини (Х, Y) є коваріація (або кореляційний момент) і коефіцієнт
кореляції, які певною мірою відіграють роль показників взаємозв’язку
між компонентами Х і Y.
Означення. Коваріацією (кореляційним моментом) xyK двовимірної
випадкової величини (Х, Y) називається математичне сподівання добутку
відхилень складових цієї величини від їх математичних сподівань:
( ) ( )xyK M X M X Y M Y . (2.69)
Використовуючи означення математичного сподівання, одержимо:
для дискретного розподілу
1 1
( ) ( ) ( , );n m
xy i j i ji j
K x M X y M Y p x y
(2.70)
для неперервного розподілу
.),()()( dydxyxfYMyXMxKxy (2.70)
Коваріацію xyK часто зручно виражати співвідношенням:
( ) ( ) ( )xyK M X Y M X M Y , (2.71)
яке у випадках дискретного і неперервного розподілів набуває вигляду:
n
i
m
jjijixy YMXMy,xpyxK
1 1)()()( , (2.72)
КВМ
235
)()(),( YMXMdydxyxxyfK xy . (2.72)
Формулу (2.71) отримуємо зі співвідношення (2.69) безпосередніми
обчисленнями з врахуванням властивостей математичного сподівання:
( ) ( ) ( ) ( )xyK M X Y X M Y Y M X M X M Y
( ) ( ) ( ) ( )M X Y M X M Y M Y M X M M X M Y
( ) ( ) ( ) ( ) ( ) ( )M X Y M X M Y M Y M X M X M Y
( ) ( )M X Y M X M Y .
Для незалежних випадкових величин коваріація дорівнює нулю. Дане
твердження є простим наслідком співвідношення (2.71), бо математичне
сподівання добутку двох незалежних випадкових величин дорівнює
добуткові математичних сподівань цих величин.
Коваріація двох випадкових величин (Х, Y) характеризує не тільки
ступінь залежності випадкових величин, а й також їх розсіювання
навколо точки [М(Х), М(Y)] на площині.
Вимірність коваріації xyK дорівнює добуткові вимірностей
випадкових величин Х і Y. Для того, щоб отримати безвимірну величину,
до того ж таку, яка характеризує тільки залежність між випадковими
величинами, а не їх розсіювання, вводиться поняття коефіцієнта
кореляції.
Означення. Коефіцієнтом кореляції xyr двовимірної випадкової
величини ( ,X Y ) називається відношення коваріації xyK до добутку
середніх квадратичних відхилень x і y цих величин:
.yx
xyxy
Kr
(2.73)
Отже, величина xyr характеризує ступінь залежності випадкових
величин Х і Y, до того ж не будь-якої залежності, а тільки лінійної, яка
КВМ
236
проявляється в тому, що зі зростанням однієї випадкової величини друга
має тенденцію також зростати або спадати: у першому випадку xyr > 0 і
кажуть, що випадкові величини Х і Y пов’язані додатною кореляційною
залежністю; у другому – xyr < 0 і кажуть, що випадкові величини
пов’язані від’ємною кореляційною залежністю.
Покажемо, що для будь-яких двох випадкових величин Х і Y:
| | 1 1 1xy xyr r . (2.74)
Розглянемо допоміжну випадкову величину 1 y xZ X Y і
обчислимо її дисперсію 2 2
1( ) 2 2x y x y xyD Z K .
Оскільки 1( ) 0D Z , то
2 22 2 0x y x y xy xy x yK K .
Аналогічно, розглянувши випадкову величину 2 y xZ X Y і
обчисливши її дисперсію, маємо нерівність:
xy x yK .
Об’єднаємо дві одержані нерівності для xyK і одержимо, що
x y xy x yK .
Далі ділимо цю подвійну нерівність на добуток 0x y і маємо, що
1 1 1 1 1xyxy xy
x y
Kr r
.
Модуль коефіцієнта кореляції випадкових величин Х і Y
характеризує ступінь тісноти лінійної залежності між ними. Якщо
лінійної залежності немає, то xyr = 0. Якщо між випадковими величинами
існує функціональна лінійна залежність:
Y = aX + b,
КВМ
237
то xyr = +1 при а > 0 і xyr = –1 при а < 0.
Означення. Дві випадкові величини Х і Y називаються корельованими,
якщо коваріація 0xyK (або коефіцієнт кореляції 0xyr ), і некорельо-
ваними, якщо коваріація 0xyK (або коефіцієнт кореляції 0xyr ).
Легко переконатися, що дві корельовані випадкові величини є також
залежні. Обернене твердження правильне не завжди, тобто якщо дві випадкові
величини залежні, то вони можуть бути як корельованими, так і
некорельованими.
Приклад 2.35. Для двовимірної випадкової величини, яку задано таблицею за-
дачі 2.33, обчислити xyK і xyr і зробити висновок про корельованість її
компонент.
Розв’язання. Обчислимо коваріацію за формулою (2.72):
19,06518,04503,0)2(521,06322,04317,0)2(3xyK 8,36,3
= .72,068,137,56,33,078,364,202,1
За формулою (2.73), маємо:
.25,088,272,0
98,094,272,0
xyr
Оскільки 0,xyr то між заданими величинами X і Y існує додатний
кореляційний зв’язок.
У даній задачі величини X і Y є залежні, бо як видно з їх закону розподілу
, ( ) ( )i j i jp x y p x p y .
Приклад 2.36. Для двовимірної випадкової величини (Х, Y), яка задана густиною
задачі 2.34, обчислити xyK і xyr і зробити висновок про корельованість її
компонент.
Розв’язання. У задачі 2.34 були обчислені чисельні характеристики складових
даної двовимірної випадкової величини: 127)( XM ,
127)( YM , ,
1211
x
КВМ
238
.1211
y
За формулою (2.72):
1
0
21
0
31
0
1
0
21
0
1
0
21
0
1
0 2314449
127
127)( yxdyydxxdyydxxdydxyxxyK xy
+144
114449
61
61
14449
32
1
0
31
0
2
yx ;
За формулою (2.73):
.09,0111
121112111441
xyr
Оскільки 0,xyr то між заданими величинами X і Y існує від’ємна
кореляційна залежність.
Легко переконатися, що задані величини є залежні,бо
11 21
0 0
1( ) ( ) ;2 2yf x x y dy xy x
11 22
0 0
1( ) ( )2 2xf y x y dx yx y
.
1 21 1( , ) ( ) ( )2 2
f x y x y x y f x f y
.
Отже, Х та Y є корельовані і залежні.
Приклад 2.37. Двовимірна випадкова величина ,X Y задана густиною:
2 2
2 2
1 , 1;( , )
0, 1.
x yf x y
x y
Обчислити ,xy xyK r і зробити висновок про корельованість випадкових величин
Х і Y.
Розв’язання. З’ясуємо питання про залежність Х і Y:
КВМ
239
2
2
12
1
1
1 2( ) ( , ) 1x
x
f x f x y dy dy x
, ];1,1[x
2
2
12
2
1
1 2( ) ( , ) 1y
y
f y f x y dx dx y
, ];1,1[y
2 21 2
1 1 1( , ) 1 1 ( ) ( )f x y x y f x f y
, ,122 yx
що свідчить про залежність компонент Х і Y.
Знайдемо чисельні характеристики ( )M X і ( )M Y :
12
11
2( ) ( ) 1 0M X x f x dx x x dx
;
12
21
2( ) ( ) 1 0M Y y f y dx y y dy
,
бо у кожному випадку підінтегральна функція непарна і проміжок інтегрування
симетричний відносно початку координат.
Кореляційний момент
,01),()]([)]([2
2
1
1
1
1
x
x
xy dyydxxdxdyyxfyMyXMxK
бо у внутрішньому інтегралі підінтегральна функція непарна і проміжок
інтегрування симетричний відносно початку координат. Отже, 0xy xyK r , тобто
випадкові величини Х і Y некорельовані і залежні.
2.4.4. Умовні чисельні характеристики двовимірної випадкової величини. Регресія
КВМ
240
До умовних чисельних характеристик однієї з випад-
кових величин, які є складовими системи (Х, Y), відносять умовне
математичне сподівання, умовну дисперсію та умовне середнє квадратичне
відхилення. Ці характеристики визначають на підставі умовних законів
розподілу.
А. В и п а д о к д и с к р е т н о ї в и п а д к о в о ї в е л и ч и н и
Для дискретної двовимірної випадкової величини (Х, Y) умовні
чисельні характеристики обчислюють за формулами:
умовні математичні сподівання:
n
i
n
i
n
ijii
jj
jiijiij y,xpx
ypypy,xp
xy|xpxyYXM1 1 1
)()(
1)(
)()()( , (2.75)
m
j
m
j i
ijjijji xp
xypyxypyxXYM
1 1 )(),(
)|()|(
m
jijj
ixypy
xp 1);,(
)(1 (2.75)
умовні дисперсії:
n
ijjiij yYXMyxpxyYXD
1
22 )|()|()|(
=
n
ij
j
jii yYXM
ypyxp
x1
22 )|()(
),();|(),(
)(1 2
1
2j
n
ijii
jyYXMyxpx
yp
(2.76)
m
j i
jij
m
jiijji xp
y,xpyxXYMx|ypyxX|YD
1
2
1
22
)()(
)|()()(
)|(2ixXYM );()(
)(1 2
1
2i
m
jjij
ixX|YMy,xpy
xp
(2.76)
умовні середні квадратичні відхилення:
)()( jj yY|XDyY|X ; (2.77)
.)|()|( ii xXYDxXY (2.77)
КВМ
241
Приклад 2.38. Закон розподілу двовимірної випадкової величини (X, Y) задано
таблицею прикладу 2.29:
X = xі Y = yj 10 20 30 40 p(yj)
–8 –4 –2
0,01 0,07 0,1
0,03 0,1 0,2
0,02 0,07 0,1
0,04 0,06 0,2
0,1 0,3 0,6
p(xi) 0,18 0,33 o,19 0,3 Обчислити ),4( YXM ),40( XYM ),4( YX ).40( XY
Розв’язання. За формулами (2.75)–(2.77) маємо:
4
12
2)06,04007,0301,02007,010(
3,01),(
)(1)4(
iii yxpx
ypYXM
;243,02,7)4,21,227,0(
3,01
4
1
22
2
21,040007,0100(
3,01)4|(),(
)(1)4|(
iii YXMyxpx
ypYXD
07,0900 ;7,1105763,0
206576)9663407(3,0
124)06,01600 2
.5,107,110)4|()4|( YXDYX
За формулами (2.75)–(2.77) одержуємо:
)2,0206,0404,08(3,0
1)40( XYM )4,024,032,0(3,0
1 ;2,33,0
96,0
3
1
24
2
406,01604,064(
3,01)40(),(
)(1)40(
jjj XYMxypy
xpXYD
;16,424,10)8,096,056,2(3,0
1)2,3()2,04 2
.04,216,4)40( XY
Б. В и п а д о к н е п е р е р в н о ї в и п а д к о в о ї в е л и ч и н и
Основні чисельні характеристики умовного розподілу ймовірностей
складових неперервної двовимірної випадкової величини визначаються
такими формулами:
умовні математичні сподівання:
КВМ
242
dxyxxyYXM )()( , (2.78)
dyxyyxXYM )()( ; (2.78)
умовні дисперсії:
)()()( 22 yYXMdxyxxyYXD
, (2.79)
)()()( 22 xXYMdyxyyxXYD
; (2.79)
умовні середні квадратичні відхилення:
,)()( yYXDyYX (2.80)
)()( xXYDxXY . (2.80)
Приклад 2.39. На підставі даних прикладу 2.30 обчислити )( yYXM і
).( xXYM
Розв’язання. Умовні густини розподілу )( yx і )( xy були знайдені в прикладі 2.32:
),1,0(,0
;)1,0(,5,0)(
x
xy
yxyx
де (0,1)y – фіксоване.
),1,0(,0
;)1,0(,5,0)(
y
yx
yxxy
де (0,1)x – фіксоване.
Шукані умовні математичні сподівання обчислюємо за формулами (2.78) і
(2.78):
КВМ
243
1
0
1
0
21
0 5,01)(
5,01)()|( dxxydxx
ydxyxx
ydxyxxyYXM
=1 13 2
0 0
10,5 3 2
x y xy
=
231
5,01 y
y= 2 3 2 3 ; (0,1);
6( 0,5) 3 6y y y
y y
1 1 12
0 0 0
1 1( | ) ( ) ( )0,5 0,5
M Y X x y y x dy y x y dy x y dy y dyx x
1 12 3
0 0
10,5 2 3
x y yx
=
31
25,01 x
x3 2 3 2 ; (0,1).
6( 0,5) 6 3x x x
x x
Означення. Умовне математичне сподівання випадкової величини Y при
заданому Х = х: M(Y|X = x) = f(x) називається регресією Y на Х; аналогічно
M(Х|Y = y) = g(y) називається регресією Х на Y. Графіки цих залежностей від х і y
називаються лініями регресії, або «кривими регресії» Y на Х і Х на Y,
відповідно. Приклад 2.40. Густина сумісного розподілу системи випадкових величин (X, Y)
задана функцією:
yxaaeyxf yx ,,const,),(22
.
Знайти а та обчислити регресії Y на Х і Х на Y.
Розв’язання. Сталу величину а визначаємо з умови (2.54):
11112222
aadyedxeadydxae yxyx
(ми використали інтеграл Ейлера – Пуассона
dxe x 2
).
Знайдемо закони розподілу складових X i Y:
22222 111)(1xyxyx edyeedyexf
;
22222 111)(2yxyyx edxeedxeyf
.
КВМ
244
За формулами (2.60) і (2.60) обчислимо умовні густини розподілу ймовірностей:
2
2
22
1)|(1
1x
y
yx
ee
eyx
;
2
2
22
1)|(1
1y
x
yx
ee
exy
.
Умовні математичні сподівання обчислюємо за формулами (2.78) і (2.78):
;02
12
1
)(2
111)|(
2
222 2
eee
xdedxxedxexyYXM
x
xxx
)(2
111)|( 2222
ydedyyedyeyxXYM yyy
02
12
1 2
eee y .
У даному випадку функції регресії 0)( xf і 0)( yg .
Рекомендована література: [1, c. 132–139; 2, с. 77–83; 5, с. 155–185;
7, с. 132–158].
Завдання для самоконтролю
Основні поняття, означення та відношення
Замість крапок запишіть таке продовження (доповнення) тексту словами
чи формулами, щоб отримати правильне означення або твердження.
1. Двовимірною випадковою величиною (Х, Y) називається …
2. Закон розподілу ймовірностей двовимірної дискретної випадкової величини (Х, Y) – це
…
3. Сума всіх імовірностей значень дискретної двовимірної випадкової величини
дорівнює …
4. Функцією розподілу ймовірностей двовимірної випадкової величини (Х, Y)
називається …
5. Значення функції розподілу двовимірної випадкової величини (Х, Y) задовольняє
подвійну нерівність …
КВМ
245
6. Функція розподілу F(x, y) двовимірної випадкової величини задовольняє
нерівності ),(),( 12 yxFyxF при … і ),(),( 12 yxFyxF при …
7. Для функції розподілу F(x, y) двовимірної випадкової величини виконуються
граничні
співвідношення: ...,),(lim
yxFx
...,),(lim
yxFy
...,),(lim
yxF
yx
...),(lim
yxF
yx
8. Функція розподілу F(x, y) двовимірної випадкової величини (Х, Y) пов’язана з
функціями розподілу )(1 xF і )(2 уF складових Х і Y такими співвідношеннями …
9. Імовірність попадання значень неперервної двовимірної випадкової величини (Х,
Y) у прямокутник },),({ dycbxayxQ виражається через її функцію
розподілу формулою: …
10. Густиною розподілу f(x, y) ймовірностей неперервної двовимірної випадкової
величини (Х, Y) називається …
11. Двовимірна густина розподілу f(x, y) задовольняє нерівність …
12. Якщо f(x, y) – двовимірна густина розподілу, то
dydxyxf ),( …
13. Якщо f(x, y) – густина розподілу двовимірної випадкової величини (Х, Y), усі
значення якої містяться в прямокутнику dxcbxayxQ ,:),( , то
b
a
d
cdydxyxf ),( …
14. Функція розподілу F(x, y) двовимірної неперервної випадкової величини (Х, Y)
виражається через густину її розподілу f(x, y) за допомогою формули: …
15. Імовірність попадання значень (х, у) двовимірної неперервної випадкової величини
(Х, Y) у заданий прямокутник dxcbxayxQ ,:),( виражається через
густину її розподілу f(x, y) формулою: …
16. Математичні сподівання М(Х) і М(Y) складових Х і Y двовимірної дискретної
випадкової величини (Х, Y) обчислюють за формулами: …
17. Математичні сподівання М(Х) і М(Y) складових Х і Y двовимірної неперервної
випадкової величини (Х, Y) обчислюють за формулами: …
КВМ
246
18. Дисперсії D(Х) і D(Y) складових Х і Y двовимірної дискретної випадкової
величини
(Х, Y) обчислюють за формулами: …
19. Дисперсії D(Х) і D(Y) складових Х і Y двовимірної неперервної випадкової
величини (Х, Y) обчислюють за формулами: …
20. Середні квадратичні відхилення (Х) і (Y) складових Х і Y двовимірної
випадкової величини (Х, Y) обчислюють за формулами: …
21. Коваріацією xyK двовимірної випадкової величини (Х, Y) називається …
22. Коефіцієнт кореляції xyr двовимірної випадкової величини (Х, Y) – це …
23. Якщо складові Х і Y двовимірної випадкової величини (Х, Y) незалежні, то її
коефіцієнт кореляції xyr …
24. Якщо коефіцієнт кореляції xyr двовимірної випадкової величини (Х, Y) не
дорівнює нулю, то її складові Х і Y є …
25. Дві випадкові величини Х і Y називаються корельованими, якщо …, і
некорельованими, якщо …
26. Умовним законом розподілу складової Х двовимірної дискретної випадкової
величини (Х, Y) за фіксованого значення jyY називається …
27. Умовним законом розподілу складової Y двовимірної дискретної випадкової
величини (Х, Y) за фіксованого значення ixX називається …
28. Умовні математичні сподівання )( jyYXM і )( ixXYM складових Х і Y
двовимірної дискретної випадкової величини (Х, Y) обчислюють за формулами:
…
29. Умовні дисперсії )( jyYXD і )( ixXYD складових Х і Y двовимірної
дискретної випадкової величини (Х, Y) обчислюють за формулами: …
30. Умовною густиною розподілу )( yx складової Х двовимірної неперервної
випадкової величини (Х, Y) за фіксованого значення Y = y називається …
31. Умовною густиною розподілу )( xy складової Y двовимірної неперервної
випадкової величини (Х, Y) за фіксованого значення Х = х називається: …
32. Умовні математичні сподівання )( yYXM і )( xXYM складових Х і Y
двовимірної неперервної випадкової величини (Х, Y) обчислюють за формулами:
…
КВМ
247
33. Умовні дисперсії )( yYXD і )( xXYD складових Х і Y двовимірної
неперервної випадкової величини (Х, Y) обчислюють за формулами: …
34. Умовні середні квадратичні відхилення )( yYX і )( xXY складових Х і Y
двовимірної неперервної випадкової величини (Х, Y) обчислюють за формулами:
…
35. Функцією регресії Y на Х називається … і функцією регресії Х на Y називається
…
Тести
Запишіть на бланку відповідей номер завдання і коди (порядкові номери або
літери), що відповідають тим варіантам відповідей, які вважаєте
правильними. 1. Одночасно кидають дві монети. Написати закон розподілу двовимірної
випадкової величини (Х, Y), де Х – число випадань герба на першій монеті, Y –
число випадань герба на другій монеті.
Варіанти відповідей:
А.
ixX
jyY 0 1 ixX
jyY 0 1 ixX
jyY 0 1
0 1/2 1/2 0 1/4 1/4 0 1/2 1/4 1 1/2 1/2
Б.
1 1/4 1/4
В.
1 1/4 1/2
2. Для якого значення а наведена таблиця виражає закон розподілу деякої
двовимірної випадкової величини (Х, Y)?
ixX
jyY –2 0 1 4 6
2 0,7a a 1,3a 0,5a 2a 5 0,9a 0,4a 1,4a 1,6a 0,2a
Варіанти відповідей: 1. 0,1. 2. 0,2. 3. –0,1.
3. Двовимірна випадкова величина (Х, Y) задана функцією розподілу:
КВМ
248
0, 0 або 0;
sin , 0 , ;2 2
( , ) sin sin , 0 , 0 ;2 2
sin , , 0 ;2 2
1, , .2 2
x y
x x y
F x y x y x y
y x y
x y
Обчислити ).3/4/,2/6/( YXP
Варіанти відповідей: 1. 0,8. 2. 0,06. 3. 0,08.
4. Знайти густину розподілу ймовірностей двовимірної випадкової величини (Х, Y),
яка задана функцією розподілу задачі 3.
Варіанти відповідей: А.
.),(,0;),(,coscos
),(yxyxyx
yxf
Б.
.),(,0;),(,sincos
),(yxyxyx
yxf
В.
.),(,0;),(,cossin
),(yxyxyx
yxf
де .2/0,2/0:),( yxyx
5. Двовимірна випадкова величина (Х, Y) задана густиною розподілу:
yxyx
yxf ,,)1)(1(
1),( 222 .
Знайти функцію розподілу.
Варіанти відповідей: А. 21
arctg x · arctg y;
Б. 1 arctg x –
21
1 arctg y –
21 ;
В. 1 arctg x +
21
1 arctg y +
21 .
6. Закон розподілу двовимірної випадкової величини (Х, Y) задано таблицею:
КВМ
249
ixX
jyY –1 2 4
3 0,1 0,2 0,1 5 0,2 0,1 0,3
Обчислити: а) )541( YXP ; б) )()( YMXM ; в) )()( YDXD ;
г) )()( YX ; д) xyr .
Варіанти відповідей: а) 1. 0,3. 2. 0,4. 3. 0,6;
б) 1. 0,21. 2. 7,98. 3. 1,32;
в) 1. 3,33. 2. 3,13. 3. 2,23;
г) 1. 2,98. 2. 3,14. 3. 3,05;
д) 1. 0,06. 2. 0,81. 3. 1,09.
7. Двовимірна випадкова величина (Х, Y) задана густиною розподілу:
,),(,0
;),(,641
),(yx
yxyxf
де 53,26:),( yxyx .
Обчислити: а) ;)50,20( YXP б) )()( YMXM ; в) )()( YDXD ;
г) )()( YX ; д) xyr .
Варіанти відповідей: а) 1. 5/64. 2. 5/32. 3. 5/16;
б) 1. –1. 2. –2. 3. 1;
в) 1. 16/3. 2. –16/3. 3. 0;
г) 1. 256/3. 2. 16/3. 3. 256/9;
д) 1. 0. 2. 3/8. 3. 3/16.
8. Двовимірна випадкова величина (Х, Y) задана таблицею:
ixX
jyY 2 5 8
0,4 0,15 0,30 0,35 0,8 0,05 0,12 0,03
Обчислити: а) )4,0( YXM ; б) )5( XYM ; в) )4,0( YXD ; г) )5( XYD .
Варіанти відповідей: а) 1. 4,6. 2. 5,75. 3. 6,925;
КВМ
250
б) 1. 0,514. 2. 0,216. 3. 1,8;
в) 1. 38,125. 2. 8,325. 3. 5,0625;
г) 1. 0,096. 2. 0,03. 3. 0,047.
9. Для двовимірної випадкової величини (Х, Y), яка задана густиною розподілу із
задачі 7, знайти: а) закон розподілу )(1 xf складової Х; б) закон розподілу )(2 yf
складової Y.
Варіанти відповідей: а) 1. 161)(1 xf . 2.
81)(1 xf . 3. 8)(1 xf , );26( x
б) 1. 101)(2 yf . 2. 8)(2 yf . 3.
81)(2 yf , ).53( y
10. Для двовимірної випадкової величини (Х, Y), яка задана густиною розподілу із за-
дачі 5, знайти: а) умовну густину );( yx б) умовну густину ).( xy
Варіанти відповідей: а) 1. )1(
12x
. 2. xarctgx )1(
12
. 3. 222 11
1
yx ;
б) 1. yarctgy )1(
12
. 2. )1(
12y
. 3. .1
122 x
Приклади
1. Дано дві дискретні випадкові величини X та Y
X = xi −1 0 Y = yj 0 2 4
p(xi) 0,1 0,9 p(yj) 0,2 0,4 0,4
Побудувати закон розподілу двовимірної випадкової величини (X; Y), якщо
випадкові величини X та Y є незалежні.
2. Імовірність появи випадкової події в кожному з чотирьох незалежних
екпериментів є величиною сталою і дорівнює 0,9. Розглядаються дві випадкові
величини: Х – число появи випадкової події в результаті цих експериментів; Y –
число експериментів, при яких подія не наставала. Обчислити ,xy xyK r .
КВМ
251
3. Задано дискретну двовимірну випадкову величину (X; Y):
Y=yj \ X=xi 2 5 8 0,4 0,15 0,30 0,35 0,8 0,05 0,12 0,03
Знайти: а) безумовні закони розподілу випадкових величин X і Y; б) умовний
закон розподілу випадкової величини X за умови, що випадкова величина Y набула
значення y1=0,4; в) умовний закон розподілу випадкової величини Y за умови, що
випадкова величина X набула значення x2 = 5.
4. Закон розподілу системи двох дискретних випадкових величин (X;Y) задано
таблицею:
Y = yj \ X = xi 5,2 10,2 15,2 2,4 0,1a 2a 0,9a 4,4 2a 0,2a 1,8a 6,4 1,9a 0,8a 0,3a
Знайти а. Обчислити M(X), D(X), (X); M(Y), D(Y), (Y); Kxy, rxy, P(5,2X<15,2;
2,4< Y 6,4).
5. Задано функцію розподілу двовимірної випадкової величини (X, Y):
1 3 3 3 , якщо 0, 0,( ; )0, якщо 0 або 0.
x y x y x yF x yx y
Знайти двовимірну густину розподілу ймовірностей системи (X; Y) та числові
характеристики її складових.
6. Густину розподілу ймовірностей системи випадкових величин задано
виразом:
cos( ), якщо ( ; ) ,( ; )
0, якщо ( ; ) ;a x y x y Q
f x yx y Q
де ( ; ) : 0 ; 0 .2 2Q x y x y
Визначити а і xyr . Обчислити 0 ,3 6 3P X Y
7. Двовимірну випадкову величину ,X Y задано густиною розподілу
ймовірностей:
cos cos , 0 0,5, 0 0,5;( , )
0, у решті випадків.a x y x y
f x y
КВМ
252
Знайти: а) сталу а; б) умовні густини розподілів складових та їх умовні
математичні сподівання.
8. Випадкові величини Х та Y незалежні. Випадкова величина Х розподілена
за нормальним законом з параметрами 0a і 2 0,5 . Випадкова величина Y
рівномірно розподілена на відрізку 0,1 . Знайти: а) густину ймовірності випадкової
величини ,X Y ; б) функцію розподілу ( , )F x y ; в) імовірність
( 1 1, | | 0,5)P X Y .
9.* Незалежні випадкові величини Х і Y задані густинами ймовірностей:
2
0, 0;( )
2 , 0;x
xf x
e x
4
0, 0;( )
4 , 0.y
yf y
e y
Знайти ( , ), ( , )f x y F x y .
Відповіді: 2. -0,36; -1.
3. а) Х 2 5 8 Y 0.4 0.8 xp 0.2 0.42 0.38 yp 0.8 0.2
б) | 0,4X Y 2 5 8 в) | 5Y X 0.4 0.8 ip 0.1875 0.375 0.4375 ip 0.714 0.286
4. а = 0,1; M(X) = 9,7; D(X)=17,25; (X) = 4,15; M(Y) = 4,4; D(Y) = 2,4; (Y) =
1,55; Kxy = −2,4; 0,373xyr ; P(5,2 X < 15,2; 2,4 < Y 6,4) = 0,49.
5. 2
0, якщо 0 або 0;( , )
3 ln 3, якщо 0, 0;x y
x yf x y
x y
( ) ( ) 0,91M X M Y ; ( )D X ( ) 1,657D Y ; ( )X ( ) 1,287Y . 6. а=0,5;
2
228 32xyr
; 0,25. 7. а) 2a ; б) | cosx y x ; | cosy x y ;
КВМ
253
1 1|2
M X Y
; 1 1|2
M Y X
. 8. а)
21 , 0,1 ;( , )
0, 0,1 .
xe yf x y
y
б)
2
2
0, 0;
1( , ) , 0 1;
1 , 1.
xt
xt
y
F x y y e dt y
e dt y
в)0,42.9.
;0,0,8;00,0
),( )42( yxeyабоx
yxf yx
;0,0)1)(1(;00,0
),( 42 yxeeyабоx
yxF yx
2.5. Функції випадкових аргументів
У цьому підрозділі розглянемо функції, аргументами
і значеннями яких є випадкові величини.
2.5.1. Функція одного випадкового аргументу
Нехай Х і Y – дві одновимірні випадкові величини.
Означення. Якщо кожному можливому значенню випадкової величини
Х відповідає одне можливе значення випадкової величини Y, то Y
називають функцією випадкового аргументу Х:
)(XY .
Далі розглянемо, як знайти розподіл імовірностей функції випадкового
аргументу за відомим законом розподілу аргументу.
А. В и п а д о к д и с к р е т н о г о а р г у м е н т у. Нехай розподіл
випадкової величини Х задано таблицею:
КВМ
254
Таблиця 2.10
ixX 1x 2x … nx ipp 1p 2p … np
Якщо різним можливим значенням аргументу Х відповідають різні
можливі значення функції Y, то ймовірності відповідних значень Х і Y є
рівні між собою. Тому закон розподілу випадкової величини )(XY має
вигляд:
Таблиця 2.11 )( ixY )( 1xY )( 2xY … )( пxY
ipp 1p 2p … np
При цьому, якщо в законі розподілу значення функції )(XY повто-
рюються, то кожне з них записують один раз, додаючи їх імовірності.
Приклад 2.41. Закон розподілу дискретної випадкової величини Х задано
таблицею:
ixX –3 –1 0 1 3 5
ipp 0,1 0,2 0,1 0,2 0,3 0,1
Написати закон розподілу для функції 12 2 XY .
Розв’язання. Із заданої функціональної залежності маємо:
12 2 ixY 17 1 –1 1 17 49
ipp 0,1 0,2 0,1 0,2 0,3 0,1
Ураховуючи, що значення 1 і 17 повторюються, знаходимо:
;4,03,01,0)17( YP
.4,02,02,0)1( YP
У результаті закон розподілу дискретної випадкової величини має вигляд:
iyY –1 1 17 49
ipp 0,1 0,4 0,4 0,1
КВМ
255
Б. В и п а д о к н е п е р е р в н о г о а р г у м е н т у. Нехай тепер
випадкова величина Х неперервна і густина розподілу задана функцією
f(x). Розглянемо спочатку випадок, коли функція )(X строго монотонна,
неперервна і диференційовна в інтервалі (а, b) усіх можливих значень
випадкової величини Х. Дане припущення гарантує існування
однозначної оберненої функції )(YX для заданої функції )(XY .
Тоді існує густина розподілу g(y) випадкової величини )(XY , яка
визначається рівністю:
)()()( yyfyg . (2.81)
Приклад 2.42. Неперервна випадкова величина Х задана густиною розподілу:
.1,0;10,2;0,0
)(xxxx
xf
Знайти густину розподілу g(y) для функції 3XY .
Розв’язання. Інтервал можливих значень для випадкової величини Y: 10 Y ,
бо 10 X .
Оскільки задана функція 3XY є строго монотонна (зростаюча), то існує
обернена до неї функція:
32
3331)()(
yyyyYX .
За формулою (2.81) маємо, що
31
32
332
312)()(2)(
yyyyyyg .
Отже, густина розподілу g(y) випадкової величини Y має вигляд:
.1,0
;10,32
;0,0
)( 31
y
yy
y
yg
КВМ
256
Перевіримо ще виконання умови 1)(1
0
dyyg :
.132)(
1
0
1
0
32
311
0
ydyydyyg
Зрозуміло, що за даною густиною розподілу g(y) випадкової величини )(XY
можна знайти функцію розподілу G(y) цієї величини за формулою:
dgyGy
)()( .
Зокрема, у даному прикладі при 0 1y будемо мати:
dgyGy
)()( =
dg )(0
+ dgy
)(0
= 3 232
0
32
31
0 323
232 yyd
yy
.
Отже, функцію розподілу G(Y) випадкової величини 3Y X запишемо так:
.1,1;10,
;0,0
)( 3 2
yyy
y
yG
Припустимо тепер, що функція )(XY в інтервалі (а, b) можливих
значень випадкової величини Х неперервна, диференційовна, але не є
монотонна. У цьому випадку обернена функція )(YX неоднозначна.
Число значень оберненої функції )(Y залежить від того, яке Y ми
взяли; позначимо ці значення )(1 Y , )(2 Y , ..., )(Yk . Тоді густину
розподілу g(y) випадкової величини XY можна визначити за
формулою:
,)()()(1
yyfyg i
k
ii
(2.82)
КВМ
257
де k – число значень оберненої функції, що відповідає одному y, і )(1 y ,
)(2 y , ..., )( yk – значення оберненої функції, які відповідають даному
y.
Приклад 2.43. Випадкова величина Х задана густиною:
.1,0
;11,67
;1,0
)( 3
x
xxx
x
xf
Знайти густину розподілу випадкової величини 2XY . Розв’язання. Можливі значення випадкової величини Y: 10 Y , бо 11 X .
У даному випадку зв’язок між можливими значеннями х і у випадкових
величин Х і Y виражаються функцією 2XY .
Обернена функція при даному Y має два значення:
YY )(1 , YY )(2 .
Обчислюємо похідні:
yy
21)(1 ,
yy
21)(2
.
За формулою (2.82), маємо:
6663367
127
127
21
67
21
67)( yyy
yyy
yyyyg .
Перевірка: .167
67 1
0
671
0
611
0
6 ydyydyy
Отже, густина розподілу випадкової величини 2XY виражається рівністю:
.1,0
;10,67
;0,0
)( 6
y
yy
y
yg
2.5.2. Функція двох випадкових аргументів
КВМ
258
Нехай X, Y, Z – одновимірні випадкові величини.
Означення. Якщо кожній парі значень випадкових величин Х і Y
відповідає одне можливе значення випадкової величини Z, то Z називають
функцією двох випадкових аргументів Х і Y:
).,( YXZ
Далі виникає задача: знайти закон розподілу випадкової величини Z,
знаючи сумісний закон розподілу випадкових величин Х і Y. На практиці
цю задачу найчастіше потрібно розв’язувати, коли ,YXZ ,YXZ
XYZ . Ми обмежимося тут розв’язуванням сформульованої задачі для
функції YXZ .
А. В и п а д о к д и с к р е т н и х а р г у м е н т і в. Якщо Х і Y –
дискретні випадкові величини, то випадкова величина Z X Y також
дискретна. Щоб скласти закон розподілу функції Z = X + Y, потрібно
знайти можливі значення Z та їх імовірності і записати у відповідну
таблицю.
Приклад 2.44. Дискретні незалежні випадкові величини Х і Y задані законами
розподілу у формі таблиць:
ixX 1 3 iyY 2 4
ipp 0,3 0,7 iqq 0,4 0,6
Написати закон розподілу випадкової величини .YXZ
Розв’язання. Можливими значеннями випадкової величини Z є суми кожного
можливого значення величини Х із кожним можливим значенням величини Y:
.743;523;541;321 22211211 zzzz
Потрібно ще знайти ймовірності цих можливих значень. Для того, щоб
jiij yxz , потрібно, щоб величина Х набула значення ix і величина Y –
КВМ
259
значення jy . А це означає, що подія ijzZ є добутком подій ixX і jyY .
Оскільки випадкові величини Х і Y незалежні, то ймовірність ijp події ijzZ є
добутком імовірностей подій ixX і jyY , а саме: jiij qpp .
У результаті маємо:
12,04,03,0)()()( 11111111 qpyYPxXPzZPp ;
18,06,03,0)()()( 21211212 qpyYPxXPzZPp ;
28,04,07,0)()()( 12122121 qpyYPxXPzZPp ;
42,06,07,0)()()( 22222222 qpyYPxXPzZPp .
Перевірка: 142,028,018,012,022211211 pppp .
Оскільки два значення 512 z і 521 z величини Z повторюються, то в таблиці
записуємо одне з них, додавши відповідні їм імовірності.
Отже, закон розподілу величини YXZ має вигляд:
izZ 3 5 7
ipp 0,12 0,46 0,42
Б. В и п а д о к н е п е р е р в н и х а р г у м е н т і в. Якщо
аргументи Х і Y – неперервні випадкові величини, то функція ),( YXZ
– також неперервна випадкова величина.
Щоб знайти закон розподілу g(z) випадкової величини YXZ у
випадку незалежних неперервних аргументів Х, Y, користуємося таким
правилом: якщо Х і Y незалежні неперервні випадкові величини і густини їх
розподілів є функції )(1 xf і )(2 yf , відповідно, то густина розподілу g(z)
випадкової величини Z виражається формулами:
dxxzfxfzg )()()( 21
(2.83)
або
.)()()( 12 dyyzfyfzg
(2.84)
КВМ
260
Формули (2.83), (2.84) називають згорткою, або композицією двох
законів. Приклад 2.45. Незалежні випадкові величини Х і Y задані густинами розподілу:
;0,
31
;0,0)(
31 xe
xxf x
.0,
41
;0,0)(
42 ye
yyf y
Знайти густину розподілу g(z) випадкової величини .YXZ
Розв’язання. За формулою (2.83):
0
20
21
0
2121 )(31)()()()()()()( 3 dxxzfedxxzfxfdxxzfxfdxxzfxfzg
x.
Якщо zx , то 0z x і 4)(2 4
1)( xzexzf ; якщо zx , то 0 xz і
0)(2 xzf . Ураховуючи ці рівності для )(2 xzf , далі знаходимо:
zz
z
zdxeedxeedxxzfedxxzfezg
xzxzxxx
002
02
1244333
121
121)(
31)(
31)(
34124124 )1()(0
zzzzxzeeeeee
z , 0z .
Перевірка: тут маємо, що розподіл величини Z зосереджений на проміжку [0, )
і
3 34 4
0 00 0
( ) 4 3 4 3 1z zz z
g z dz e e dz e e .
Зауваження. Якщо випадкові величини Х і Y не є незалежні, то
густина g(z) випадкової величини YXZ обчислюється за
формулами:
dxxzxfzg ),()( або ,),()(
dyyyzfzg
де ),( yxf – густина сумісного розподілу Х і Y.
2.5.3. Чисельні характеристики
КВМ
261
Оскільки величина )( XZ або ),( YXZ є
випадковою, то її вивчають також за допомогою чисельних характеристик.
Наведемо формули для їх обчислення у випадку функції одного випадкового
аргументу.
А. В и п а д о к д и с к р е т н о г о а р г у м е н т у. Нехай Х –
дискретна випадкова величина і ).(XY Основні чисельні
характеристики випадкової величини Y обчислюють за формулами:
математичне сподівання:
i
n
iii
n
ii pypxYM
11)()( , (2.85)
де )( ii xy – можливі значення величини Y, ip – їх імовірності (див. табл.
2.11);
дисперсія:
)()()()()()( 2
1
22
1
222 YMpyYMpxYMYMYD i
n
iii
n
ii
; (2.86)
середнє квадратичне відхилення:
)()( YDY . (2.87)
Приклад 2.46. Обчислити )(),(),( YYDYM для випадкової величини
12 2 XY , яка описана в задачі 2.40.
Розв’язання. За формулами (2.85)–(2.87) і за даними останньої таблиці задачі
2.40 обчислюємо:
;129,48,64,01,01,0494,0174,011,01)( YM
;2,2121441,2406,1154,01,01441,024014,02894,011,01)( YD
.57,142,212)( Y
Б. В и п а д о к н е п е р е р в н о г о а р г у м е н т у. Нехай Х –
неперервна випадкова величина, усі значення якої містяться на [a, b] і
КВМ
262
).(XY Основні чисельні характеристики випадкової величини Y об-
числюються за формулами:
математичне сподівання:
b
a
b
adyyygdxxfxYM ,)()()()( (2.85)
де f(x) – густина розподілу величини Х, g(y) – густина розподілу величини
Y;
дисперсія:
)()()()()()()()( 222222 YMdyygyYMdxxfxYMYMYD
b
a
b
a
; (2.86)
середнє квадратичне відхилення:
)()( YDY . (2.87)
Приклад 2.47. Обчислити )(),(),( YYDYM для неперервної випадкової
величини 3XY , яка описана густиною f(x) задачі 2.41.
Розв’язання. За формулами (2.85´)–(2.87´) маємо:
;4,052
522
1
0
1
0
51
0
4 xdxxdxxfxYM
або
;4,052
32
32
32)()(
1
035
1
0
1
0
1
0
35
32
31
ydyydyyydyygyYM
;09,01009
254
41
52
82
522
21
0
1
0
821
0
722
xdxxYMdxxfxYD
або
;09,0254
41
254
41
52
32)()()(
1
0
21
0
21
0
2 38
35
ydyyYMdyygyYD
3,009,0)()( YDY .
КВМ
263
Рекомендована література: [1, с. 141–146; 5, c. 139–144; 7, c. 173–192].
Завдання для самоконтролю
Основні поняття, означення та відношення
Замість крапок запишіть таке продовження (доповнення) тексту
словами або формулами, щоб отримати правильне означення або
твердження. 1. Функцією Y одного випадкового аргументу Х називається …
2. Законом розподілу функції )(XY дискретного аргументу Х називається …, і
він записується у формі таблиці …
3. Густина розподілу g(y) випадкової величини )(XY виражається формулою …,
якщо )(XY є монотонна, неперервна і диференційовна функція.
4. Густина розподілу g(y) випадкової величини )(XY , якщо )(XY не є моно-
тонна функція, виражається формулою: …
5. Функцією Z двох випадкових аргументів Х, Y називається …
6. Щоб записати закон розподілу випадкової величини YXZ у випадку, коли Х
і Y – дискретні незалежні випадкові величини, потрібно …
7. Якщо Х і Y – незалежні неперервні випадкові величини з густинами розподілів )(1 xf і
)(2 yf , то густина розподілу g(z) випадкової величини YXZ виражається
формулами: …
8. Якщо Х і Y – довільні неперервні випадкові величини і ),( yxf – густина їх сумісного
розподілу, то густина g(z) випадкової величини YXZ виражається однією з
формул: …
9. Чисельні характеристики функції )(XY у випадку дискретного випадкового
аргументу Х обчислюються за формулами: …
10. Чисельні характеристики функції )(XY у випадку неперервного випадкового
аргументу обчислюються за формулами: …
Тести
КВМ
264
Запишіть на бланку відповідей номер завдання і коди (порядкові номери або
літери), що відповідають тим варіантам відповідей, які вважаєте
правильними. 1. Закон розподілу дискретної випадкової величини Х задано таблицею:
Х = хі –2 -1 0 1 2 р = рі 0,2 0,1 0,4 0,1 0,2
Який закон розподілу величини 2XY ?
Варіанти відповідей:
А. 2ixY 0 1 4 Б. 2
ixY 0 1 4 В. 2ixY 0 1 2
ipp 0,4 0,2 0,4 ipp 0,4 0,3 0,3 ipp 0,4 0,4 0,4 2. Густина розподілу неперервної випадкової величини Х задана формулою:
.1,0;10,3
,0,0
)( 2
xxx
x
xf
Яка густина розподілу g(y) випадкової величини ?2XY
Варіанти відповідей: 1. )2,0(,2
)( yy
xg . 2. )2,0(,8
3)(2
yyxg .
3. )2,0(,4
)(2
yyxg .
3. Дискретні незалежні випадкові величини Х і Y задані законами розподілів у формі
таблиць:
Х = хі 0 1 jyY 2 3 р = рі 0,4 0,6 jqq 0,5 0,5
Який закон розподілу величини ?YXZ
Варіанти відповідей:
А. izZ 0 2 3 Б. izZ 2 3 4 В. izZ 2 3 4 ipp 0,4 0,2 0,4 ipp 0,2 0,5 0,3 ipp 0,2 0,2 0,3
4. Неперервні незалежні випадкові величини Х і Y задані густинами розподілів:
;0,
;0,0)(1 xe
xxf x
.0,
;0,0)(2 ye
yyf y
КВМ
265
Яка густина розподілу g(z) випадкової величини YXZ ?
Варіанти відповідей: 1. zzezg )( , .0z 2. ( ) zg z e , .0z
3. zz eezg
21)( , .0z
5. Для випадкової величини 2XY , яка описана у завданні 1, обчислити: а) M(Y);
б) D(Y); в) (Y);.
Варіанти відповідей: а) 1. 1,5. 2. 1,8. 3. 0,8;
б) 1. 1,36. 2. 2,85. 3. 3,36;
в) 1. 1,17. 2. 1,69. 3. 1,83.
6. Для випадкової величини XY 2 , яка описана в завданні 2, обчислити: а) M(Y);
б) D(Y); в) (Y);.
Варіанти відповідей: а) 1. 1,5. 2. 1,12. 3. 1;
б) 1. 1,55. 2. 0,15. 3. 1,35;
в) 1. 1,25. 2. 0,39. 3. 1,16.
Приклади
1. Дискретну випадкову величину задано законом розподілу
Х -4 -2 0 1 3 4 ip 0,05 0,2 0,2 0,3 0,1 0,15
Знайти: а) закон розподілу випадкової величини Y; б) функцію розподілу випадкової
величини Y; в) числові характеристики випадкової величини Y, якщо:
1) 2Y X ; 2) | |Y X X ; 3) 2
3Y
X
.
2.* Випадкова величина Х розподілена за нормальним законом розподілу з
параметрами 1a і 0,5 відповідно. Знайти закон розподілу випадкової величини
Y, якщо: 1) 3 2Y X ; 2) | |Y X .
3. Випадкова величина Х задана густиною розподілу
).2,1();2,1(
0
),2(92
)(
xxxxf
КВМ
266
Знайти густину розподілу випадкової величини Y та її математичне сподівання,
якщо: 1) 2XY ; 2) 1YX
; 3) 2Y X .
4. Задано незалежні випадкові величини Х та Y
Х -1 1 2 Y -2 0 1 p 0,3 0,5 0,2 p 0,3 0,4 0,3
Знайти закон розподілу випадкової величини Z, функцію розподілу та її числові
характеристики, якщо: 1) Z X Y ; 2) Z X Y .
5. Незалежні випадкові величини X і Y мають показниковий розподіл з
параметрами 52 21 i відповідно. Для випадкової величини YXZ знайти:
а) густину розподілу; б) функцію розподілу; в) математичне сподівання.
6*. Cистема випадкових величин ,X Y задана щільністю розподілу:
).1,0(),1,0(
)1,0(),1,0(
0,
)(
yy
абоxxyx
xf
Для випадкової величини Z X Y знайти: а) густину розподілу; б) функцію
розподілу; в) математичне сподівання.
7*. Кожна з незалежних випадкових величин Х та Y розподілена рівномірно на
проміжках 1,1 та 0,3 . Знайти густину розподілу випадкової величини Z, якщо
Z X Y .
Відповіді
1. 1а) Y 0 1 4 9 16 2) а) Y 0 2 6 8
pi 0,2 0,3 0,2 0,1 0,2 pi 0,45 0,3 0,1 0,15
3 а) Y 2/3 1/2 1/3 2/7 2 -2
pi 0,2 0,3 0,1 0,15 0,2 0,05
КВМ
267
1 в) 5,2; 35,76; 5,98; 2 в) 2,4; 8,64; 2,94; 3 в) 0,66; 0,752; 0,867.
2. 1) 2( 1)
4,51( )1,5 2
y
g y e
; 2) 2 2( 1) ( 1)
0,5 0,51( ) , 00,5 2
y y
g y e e y
. 3. 1)
).4;21(,0
);4;21(,
2ln1)log2(
92
)(2
y
yy
yyg 2) 3
2 1, ( 1;0,5);2( )
0, ( 1;0,5);
y yyg y
y
3)
1 , (1;4);( )
0, (1;4).
yyg y
y
4. 1) Z -3 -1 0 1 2 3 3
pi 0,09 0,27 0,15 0,2 0,23 0,06 0,06
( ) 0,3; ( ) 2,65; ( ) 1,63M Z D Z Z ;
2) Z -2 -1 0 1 2 3 4
pi 0,09 0,12 0,15 0,35 0,08 0,15 0,06
( ) 0,9; ( ) 2,65; ( ) 1,63M Z D Z Z .
5. а) 2 5103 , 0;
( )0, 0;
z ze e zg z
z
б) 5 22 51 , 0;
( ) 3 30, 0;
z ze e zG z
z
в) 0,7.
Основні поняття і терміни
Випадкова величина – величина, яка в результаті експерименту
(випробування) набуває одного з можливих значень із певною
ймовірністю.
КВМ
268
Дискретна випадкова величина – випадкова величина, множина
можливих значень якої є скінченна або зліченна.
Закон розподілу дискретної випадкової величини – відповідність між її
можливими значеннями та їх імовірностями.
Математичне сподівання дискретної випадкової величини – сума
добутків усіх її можливих значень на їх імовірності.
Відхилення дискретної випадкової величини від її математичного
сподівання – різниця між цією величиною та її математичним
сподіванням.
Дисперсія дискретної випадкової величини – математичне сподівання
квадрата відхилення цієї величини від її математичного сподівання.
Неперервна випадкова величина – випадкова величина, можливі
значення якої заповняють деякий інтервал, або випадкова величина,
функція розподілу якої неперервна і кусково диференційовна.
Функція розподілу F(х) випадкової величини (дискретної або
неперервної) – імовірність того, що випадкова величина набуде значення,
меншого за число х.
Густина (щільність) розподілу неперервної випадкової величини –
перша похідна від функції розподілу цієї величини.
Математичне сподівання неперервної випадкової величини – інтеграл
по числовій осі від добутку змінної, якою позначено можливі значення цієї
величини, на густину її розподілу.
Відхилення неперервної випадкової величини від її математичного
сподівання – різниця між цією величиною та її математичним сподіванням.
Дисперсія неперервної випадкової величини – математичне сподівання
квадрата відхилення цієї величини від її математичного сподівання.
КВМ
269
Початковий момент s-го порядку випадкової величини (дискретної
або неперервної) – математичне сподівання степеня s цієї величини.
Центральний момент s-го порядку випадкової величини (дискретної
або неперервної) – математичне сподівання степеня s відхилення цієї
величини від її математичного сподівання.
Асиметрія випадкової величини (дискретної або неперервної) – відно-
шення центрального моменту 3-го порядку до куба середнього квадра-
тичного відхилення цієї величини.
Ексцес випадкової величини (дискретної або неперервної) –
відношення центрального моменту 4-го порядку до четвертого степеня
середнього квадратичного відхилення цієї величини, зменшене на число
три.
n-вимірна випадкова величина – упорядкована сукупність
одновимірних випадкових величин, які задані на одному і тому ж просторі
елементарних подій.
Закон розподілу двовимірної дискретної випадкової величини – перелік
її можливих значень та їх імовірностей.
Функція розподілу двовимірної випадкової величини (Х, Y) –
імовірність сумісної появи подій xX і yY .
Густина розподілу ймовірностей двовимірної неперервної випадкової
величини – друга мішана похідна від функції розподілу.
Математичне сподівання складової двовимірної дискретної
випадкової величини – сума добутків усіх можливих значень відповідної
складової на їх імовірності.
Відхилення складової двовимірної випадкової величини від її матема-
тичного сподівання – різниця між цією складовою та її математичним
сподіванням.
КВМ
270
Дисперсія складової двовимірної дискретної випадкової величини –
сума добутків квадратів відхилень значень цієї складової від її
математичного сподівання на відповідні їм імовірності.
Математичне сподівання складової двовимірної неперервної
випадкової величини – інтеграл від добутку змінної, якою позначені
можливі значення відповідної складової, на густину її розподілу.
Дисперсія складової двовимірної неперервної випадкової величини –
інтеграл від добутку змінної, якою позначенні значення квадрата
відхилення цієї складової від її математичного сподівання на густину її
розподілу.
Середнє квадратичне відхилення складової двовимірної випадкової
величини – квадратний корінь із дисперсії відповідної складової.
Коваріація (кореляційний момент) двовимірної випадкової величини –
математичне сподівання добутку відхилень складових цієї величини від їх
математичних сподівань.
Коефіцієнт кореляції двовимірної випадкової величини – відношення
коваріації цієї величини до добутку середніх квадратичних відхилень
складових цих величин.
Корельовані випадкові величини – дві випадкові величини, коефіцієнт
кореляції яких не дорівнює нулю.
Некорельовані випадкові величини – дві випадкові величини,
коефіцієнт кореляції яких дорівнює нулю.
Умовна ймовірність складової двовимірної дискретної випадкової
величини – імовірність можливих значень однієї складової, обчислена за
умови, що друга величина набуває певного можливого значення.
Умовний закон розподілу складової двовимірної дискретної випадкової
величини – перелік усіх можливих значень відповідної складової та їх
умовних імовірностей.
КВМ
271
Умовне математичне сподівання складової дискретної двовимірної
випадкової величини – сума добутків можливих значень відповідної
складової на їх умовні ймовірності.
Умовна дисперсія складової двовимірної дискретної випадкової
величини – сума добутків квадратів відхилень значень цієї складової від її
умовного математичного сподівання на відповідні їм умовні ймовірності.
Густина розподілу складової двовимірної неперервної випадкової
величини – інтеграл від двовимірної густини розподілу за змінною, якою
позначені значення другої складової.
Умовна густина складової двовимірної неперервної випадкової
величини – відношення двовимірної густини розподілу цієї величини до
густини розподілу іншої складової.
Умовне математичне сподівання складової двовимірної неперервної
випадкової величини – інтеграл від добутку змінної, якою позначені
можливі значення відповідної складової, на її умовну густину.
Умовна дисперсія складової двовимірної неперервної випадкової
величини – інтеграл від добутку змінної, якою позначенні квадрати
відхилення значень цієї складової від її умовного математичного
сподівання на умовну густину розподілу даної складової.
Стохастична залежність між випадковими величинами –
аналітична залежність умовного розподілу однієї з них від значень, яких
набуває друга величина.
Функція одного випадкового аргументу – відповідність між
можливими значеннями двох одновимірних випадкових величин.
Закон розподілу значень функції одного дискретного аргументу –
перелік можливих значень функції та їх імовірностей.
Функція двох випадкових аргументів – відповідність між парами
можливих значень двовимірної випадкової величини і можливими
значеннями одновимірної випадкової величини.
КВМ
272
Закон розподілу значень функції двох дискретних випадкових
аргументів – перелік можливих значень функції та їх імовірностей.
РОЗДІЛ 3
ЕЛЕМЕНТИ МАТЕМАТИЧНОЇ СТАТИСТИКИ
Унаслідок вивчення цього розділу студенти повинні набути практичних
навичок та вмінь із таких основних питань математичної статистики:
побудова емпіричного ряду розподілу випадкової величини та
обчислення її емпіричних характеристик;
побудова емпіричної функції розподілу випадкової величини;
обчислення точкових оцінок параметрів розподілу випадкової
величини і побудова наближених законів розподілу її ймовірностей;
обчислення інтервальних оцінок параметрів розподілу;
перевірка статистичних гіпотез про закон розподілу і параметри
розподілу випадкової величини;
оцінка статистичної залежності між двома випадковими величинами;
КВМ
273
застосування вибіркової сукупності значень випадкової величини
(ознаки генеральної сукупності) для вивчення її властивостей та
аналізу економічних ситуацій.
КВМ
274
3.1. Основні поняття та означення
Математична статистика – розділ математики,
присвячений розробленню методів систематизації, опрацювання та аналізу
емпіричних числових даних, вивченню закономірностей масових явищ та їх
взаємозв’язків. Основне завдання математичної статистики полягає в тому,
щоб на основі результатів обмеженого числа спостережень за масовим
явищем виявити закономірності його поведінки, які дають можливість
подальшого прогнозування.
3.1.1. Генеральна і вибіркова сукупності
Вихідними поняттями математичної статистики є
поняття генеральної сукупності і вибірки. Під генеральною сукупністю
розуміють множину всіх реально існуючих або навіть тільки уявно
можливих однорідних об’єктів, які вивчають під кутом зору їх розподілу за
деякою ознакою. Наприклад, це можуть бути множини людей за віком,
множини тварин певного виду за вагою, множини орних земель за
врожайністю, множини виробів певного найменування за якістю, множини
акціонерних банків України за прибутком і т. д.
Оскільки практично будь-яка ознака генеральної сукупності
допускає кількісну оцінку, то замість того, щоб говорити про розподіл
одиниць сукупності за ознакою, можна говорити про розподіл деякої
випадкової величини Х; експеримент, з яким пов’язана випадкова
величина Х, полягає у виборі навмання одного представника даної
сукупності, а значення х, яке приймає Х, є значенням ознаки для цього
представника.
КВМ
275
Отже, із теоретико-ймовірнісного погляду генеральна сукупність – це
випадкова величина Х(), задана на просторі елементарних подій із
виділеним у ньому полем подій ℱ, для якого вказані їх імовірності р.
Зрозуміло, що повний опис закону розподілу випадкової величини Х
можна отримати, з’ясувавши значення ознаки для всіх без винятку
представників даної сукупності. В окремих ситуаціях так і роблять:
наприклад, дані про поділ жителів тієї чи іншої країни щодо статі, віку і т. д.
отримують у результаті загальних переписів населення, які проводяться
один раз на кілька десятиліть. Однак такий спосіб суцільного обстеження
всієї досліджуваної сукупності пов’язаний із низкою труднощів. Одна з них –
це зазвичай великий обсяг сукупності. У деяких випадках є ще й трудність
принципового характеру, яка полягає в тому, що сукупність, яку ми
розглядаємо, не існує в готовому вигляді, а є лише визначеною в уяві.
Наприклад, якщо нас цікавить розподіл похибки, яку допускає
вимірювальний прилад, то досліджувана сукупність становитиме перелік
усіх можливих вимірювань, які можна здійснити за допомогою даного
приладу. Зрозуміло, що обстежити всі елементи такої сукупності неможливо.
В останньому випадку кажуть, що генеральна сукупність є нескінченною.
Щоб подолати або обійти вказані труднощі, найчастіше чинять так:
обстеження всієї сукупності замінюють обстеженням невеликої (до того ж
вибраної навмання) її частини. Таку частину генеральної сукупності
називають вибіркою.
Із теоретико-ймовірнісного погляду, вибірка з даної генеральної
сукупності – це результати обмеженого ряду спостережень nxxx ...,,, 21
випадкової величини Х.
Число n спостережень, що утворюють вибірку, називають обсягом
вибірки, а числа nxxx ...,,, 21 – варіантами вибірки.
КВМ
276
У статистиці інтерпретація вибірки та її окремих елементів допускає,
залежно від контексту, два різних варіанти, до того ж при їх викладі зазвичай
спеціально не уточнюється, про який власне варіант ідеться.
У першому (практичному) варіанті інтерпретації вибірки під
nxxx ...,,, 21 розуміють фактично спостережувані в даному конкретному
п-кратному експерименті значення досліджуваної випадкової величини Х,
тобто конкретні числа.
Згідно з другим (теоретичним) варіантом інтерпретації під вибіркою
nxxx ...,,, 21 розуміють послідовність випадкових величин, і-тий член
якої ix лише означає результат спостереження, який ми могли б
отримати на
і-му кроці п-кратного експерименту, пов’язаного зі спостереженням
досліджуваної випадкової величини Х.
Якщо умови експерименту не змінюються від спостереження до
спостереження і якщо п-кратний експеримент організований у такий
спосіб, що результати спостереження на кожному (і-му) кроці ніяк не
залежать від попередніх і не впливають на майбутні результати
спостережень, то очевидно, що ймовірнісні закономірності поведінки і-го
спостереження теоретичної вибірки залишаються одими і тими ж для всіх
і = 1, 2, …, п і повністю визначаються законом розподілу ймовірностей
спостережуваної випадкової величини, тобто
)()()( xFxXPxxP i .
При цьому із взаємної незалежності спостережень вибірки випливає, що
послідовність випадкових величин
nxxx ...,,, 21
складається з незалежних компонент, тобто їх сумісна функція розподілу
)...,,,()...,,,( 221121 nnn zxzxzxPzzzF може бути зображена як:
)(...)()()(...)()()...,,,( 21221121 nnnn zFzFzFzxPzxPzxPzzzF .
КВМ
277
Якщо в межах теоретичного варіанта інтерпретації вибірки ряд
спостережень nxxx ...,,, 21 утворює послідовність незалежних і однаково
розподілених випадкових величин, то вибірка називається випадковою.
Надалі, використовуючи теоретичний варіант інтерпретації вибірки,
завжди будемо вважати, що ця вибірка є випадковою.
3.1.2. Статистичні ряди розподілу вибірки
Припустімо, що вивчають деяку генеральну ви-
падкову величину Х. Для цього проводять низку незалежних дослідів або
спостережень, у кожному з яких величина Х набуває того чи іншого
значення. Сукупність отриманих значень nxxx ...,,, 21 величини Х (де п –
число дослідів) і є утворена нами вибірка. Цю сукупність значень
випадкової величини Х часто називають статистичним рядом; останній
відіграє роль вихідного числового матеріалу, що підлягає подальшій
обробці та аналізу.
Перший етап обробки статистичного ряду – побудова так званого
простого варіаційного ряду. Його отримують з елементів наявної вибірки,
розмістивши ix (і = 1, 2, …, п) у порядку зростання (неспадання) їх
значень. Позначимо члени нового ряду, в якому варіанти розміщені за
зростанням, через )(ix , щоб відрізняти його від ix . Тоді простий
варіаційний ряд буде поданий як неспадна послідовність:
)()2()1( ...,,, nxxx ,
де .... )()2()1( nxxx
Наступний етап обробки вихідного статистичного ряду – побудова
статистичного (емпіричного) закону розподілу. Форма його запису
залежить від характеру досліджуваної випадкової величини Х.
КВМ
278
Нехай Х – дискретна випадкова величина. Тоді найбільш природна
форма статистичного закону розподілу вибірки описується за допомогою
так званого згрупованого варіаційного ряду. Його отримують у такий
спосіб: серед чисел простого варіаційного ряду відбирають усі різні і
розміщують їх у порядку зростання:
kxxx ...,,, 21 ,
де 1 2 ... ( ).kx x x k n При цьому для виділених варіант ix (і = 1, 2, …,
k) одночасно обчислюють відповідні їм частоти in або відносні частоти wi:
частота in дорівнює числу спостережень, в яких випадкова величина Х
набула значення ix , а відносна частота nn
wi
i , і = 1, 2, ..., k. Очевидно,
1,11
k
ii
k
ii wnn .
Зауваження. Для виділених варіант, що входять до згрупованого
дискретного варіаційного ряду, ми використали ті самі позначення,
які були прийняті при записі вихідного статистичного ряду. Проте
слід розуміти, що варіанти з цих двох рядів, які мають однакові
позначення, загалом кажучи, є різними числами.
Означення. Дискретним статистичним розподілом вибірки називається
відповідність між варіантами та їх частотами або відносними
частотами.
Дискретний статистичний розподіл вибірки можна подати у формі
таблиць:
дискретний статистичний розподіл частот:
Таблиця 3.1
хі x1 x2 ... хk ni n1 n2 ... nk
КВМ
279
k
iki nnnnn
121 ... ; (3.1)
дискретний статистичний розподіл відносних частот:
Таблиця 3.1
хі x1 x2 ... хk wi w1 w2 ... wk
,nnw i
i
k
iki wwww
121 .1... (3.1)
Розглянемо тепер випадок, коли випадкова величина Х – неперервна.
Характерною рисою неперервного розподілу є, як ми знаємо, той факт, що
ймовірність кожного окремого значення дорівнює нулю. Отже, у
вихідному статистичному ряді, як правило, не буде повторів, і тому
дискретний розподіл виявиться малопридатним для подальшого аналізу.
У такому разі статистичний закон розподілу вибірки записують як
інтервальний варіаційний ряд – частот або відносних частот. Для цього
весь діапазон зміни ознаки від найменшої (хmin) до найбільшої (хmax)
розбивають на певне число проміжків (частіше однакової довжини)
),[...,),,[),,[ 12110 mm zzzzzz і збирають в окремі групи елементи
сукупності, для яких величина Х набуває значень у кожному з проміжків.
Довжини проміжків необов’язково брати однаковими: трапляються
випадки, коли на тих ділянках числової осі, де спостережувані значення Х
розміщені густіше, зручніше брати проміжки більш вузькими, а там, де
рідше, – більш широкими (або ж об’єднати два або більше рівних за
довжиною проміжків в один). Межі проміжків краще брати «круглими»
числами. Це означає, що початок першого проміжку 0z , і кінець
останнього проміжку zm не обов’язково збігаються з, відповідно, хmin і xmax.
Вимагається лише, щоб
0z хmin і zm ≥ xmax. Якщо mz = (хmax), то будемо вважати, що в
інтервальному варіаційному ряді останній проміжок є відрізком.
КВМ
280
Частота in події ),[ 1 ii zzX обчислюється як число дослідів, в яких
значення випадкової величини Х потрапило в і-тий проміжок
),[ 1 ii zzX , а відносна частота цієї події ....,,2,1, minnw i
i
Означення. Інтервальним статистичним розподілом вибірки
називається відповідність між проміжками варіаційного ряду та їх
частотами або відносними частотами.
Інтервальний статистичний розподіл вибірки, як і дискретний, також
записують у формі таблиць:
інтервальний статистичний розподіл частот:
Таблиця 3.2
ii zz ,1 10 , zz 21, zz … mm zz ,1 ni n1 n2 ... nт
m
imi nnnnn
121 ;... (3.2)
інтервальний розподіл відносних частот:
Таблиця 3.2
ii zz ,1 10 , zz 21, zz … mm zz ,1 wi w1 w2 ... wт
m
imi wwww
121 .1... (3.2)
Зауважимо, що інтервальний статистичний розподіл вибірки викорис-
товують також у разі, коли випадкова величина дискретна і обсяг різних
варіант вибірки є досить великим.
Інтервальний статистичний розподіл вибірки за необхідності можна
замінити дискретним. Для цього досить частинні проміжки ii zz ,1
замінити числами – серединами цих проміжків (тобто прийняти
КВМ
281
21 ii
izzx
), а відповідні їм значення частот (відносних частот) залишити
без змін.
3.1.3. Полігон та гістограма частот
Статистичний розподіл вибірки можна задати гра-
фічно полігоном або гістограмою частот (відносних частот).
Полігон розподілу вибірки використовується для зображення як
дискретних, так і інтервальних варіаційних рядів, а гістограма – лише для
інтервальних рядів.
Означення. Полігоном частот називають ламану, відрізки якої послідовно
з’єднують точки );( 11 nx , );( 22 nx , ..., );( kk nx координатної площини.
Щоб побудувати полігон частот, на осі абсцис відкладають варіанти
xi , а на осі ординат – відповідні їм частоти ni .
Далі, точки ( ; )x ni i з’єднують відрізками прямих і отримують полі-
гон частот.
Означення. Полігоном відносних частот називають ламану, відрізки
якої послідовно з’єднують точки );( 11 wx , );( 22 wx , ..., );( kk wx .
Щоб побудувати полігон відносних частот, на осі абсцис
відкладають варіанти xi, а на осі ординат – відповідні їм відносні
частоти iw . Точки );( ii wx послідовно з’єднують відрізками прямих і
отримують полігон відносних частот.
Означення. Гістограмою частот називається східчаста фігура, яка
складена з прямокутників, основами яких є частинні проміжки ,;1 ii zz
,...,,2,1 mi а їх висоти .1
ii
ii zz
nh
КВМ
282
Щоб побудувати гістограму частот, на осі абсцис відкладають
частинні проміжки ii zz ;1 і на них, як на основі, будують прямокутники
з висотами .ih Площа кожного такого прямокутника дорівнює .in
Означення. Гістограмою відносних частот називається східчаста
фігура, яка складена з прямокутників, основами яких є частинні проміжки
),;[ 1 ii zz а їх висоти .~1
ii
ii zz
wh
Щоб побудувати гістограму відносних частот, на осі абсцис
відкладаємо частинні проміжки );[ 1 ii zz і на них, як на основі, будуємо
прямокутники з висотами .ih Площа кожного такого прямокутника
дорівнює .iw
3.1.4. Емпірична функція розподілу
Нагадаємо, що функція розподілу )(xF випадкової
величини X визначається рівністю
,)()( xXPxF
тобто функція розподілу )(xF означає ймовірність події X x . Її
називають ще теоретичною функцією розподілу випадкової величини X .
Позначимо через )(~ xn накопичену частоту для тих значень
випадкової величини X, що менші за будь-яке дійсне число .x
Означення. Емпіричною функцією розподілу )(* xF випадкової величини
X називається функція, яка для кожного дійсного числа x дорівнює
відношенню )(~ xn до обсягу вибірки n , тобто:
.)(~)(*
nxnxF (3.3)
КВМ
283
Отже, емпірична функція розподілу виражає для кожного дійсного
числа x відносну частоту події xX , тобто )()(* xXWxF n .
Емпіричну функцію розподілу можна вже побудувати за допомогою даних
простого варіаційного ряду )()2()1( ...,,, nxxx . Звідси одержимо, що )(* xF –
розривна східчаста функція, неперервна зліва, дорівнює нулю лівіше найменшого
і одиниці – правіше найбільшого значення випадкової величини Х. Теоретично
вона повинна мати п стрибків, де п – число дослідів, а величина кожного стрибка
повинна дорівнювати 1/п. Практично, якщо одне і те ж значення спостерігалося
кілька разів, відповідні стрибки зливаються в один, так що загальне число
стрибків дорівнює числу різних спостережуваних значень випадкової величини.
Кожний стрибок у точці ix дорівнює «кратності» in значення ix в статистичній
сукупності, поділеній на число дослідів п.
Отже, коли вихідні статистичні дані згруповані в дискретний варіаційний
ряд за табл. 3.1, то емпірична функція розподілу:
. ,1
; ,.........................................
; ,
; ,
; ,0
)(
1121
3221
211
1
*
k
kkk
xx
xxxn
nnn
xxxn
nn
xxxnn
xx
xF (3.4)
Її графік зображено на рис. 3.1а.
F*
1
)...(111 knn
n
)(121 nn
n
nn1
КВМ
284
0 х1 х2 х3 хk – 1 хk х
Рис. 3.1а. Графік емпіричної функції дискретного розподілу
Якщо ми маємо у своєму розпорядженні згрупований інтервальний
статистичний ряд, то можемо лише наближено побудувати емпіричну
функцію розподілу )(* xF . За значення х, для яких )(* xF обчислюється за
формулою (3.3), природно взяти межі частинних проміжків. У всіх інших
точках )(* xF визначається за допомогою лінійного інтерполювання. Це
означає, що геометрично )(* xF буде зображена неперервною ламаною
лінією, яка з’єднує послідовно точки ),( iiz , 00 ,
miwww ii ...,,2,1,...21 (рис. 3.1б).
F* 1...1 mm ww
111 ... mm ww … 212 ww 11 w 0 0z 1z 2z … 1mz mz x
Рис. 3.1б. Графік емпіричної функції інтервального розподілу
Аналітично емпірична функція розподілу інтервального статистичного
ряду вибірки записується так:
КВМ
285
,,1;),(
..............;),(
;),(
;,0
)(
1*
21*
2
10*
1
0
*
m
mmm
zxzxzxF
zxzxF
zxzxF
zx
xF (3.5)
де *1 1 0
1( ) ( ) , 0, 1,i
i i ii i
wF x x z i mz z
.
3.1.5. Чисельні характеристики
статистичного розподілу вибірки
У практичних задачах часто замість повного
вивчення даних вибірки буває достатньо обмежитися знаходженням їх
чисельних характеристик. Далі наведемо основні з них, припускаючи, що
статистичні дані згруповано в дискретний варіаційний ряд.
Означення. Вибірковим середнім x статистичного розподілу вибірки
називається середнє арифметичне значення її варіант xi з урахуванням їх
частот, тобто:
k
i
kkii n
xnxnxnxnn
x1
2211 ....1 (3.6)
Вибіркове середнє x є основною характеристикою статистичного
розподілу вибірки. Його узагальненням є поняття початкового
емпіричного моменту.
Означення. Вибірковим початковим емпіричним моментом s-го порядку
s статистичного розподілу вибірки називають середнє арифметичне
значення степенів порядку s варіант ix , тобто:
1
1 .ks s
s i ii
x x nn
(3.7)
КВМ
286
Якщо ,s 1 то 1 x – вибірковому середньому.
Переходимо до означення основних характеристик розсіювання значень
випадкової величини навколо її середнього значення, які також розра-
ховуються на основі вибірки.
Означення. Розмахом вибірки R називають різницю між найбільшим і
найменшим значеннями її варіант, тобто:
.1xxR k (3.8)
Означення. Вибірковою дисперсією D статистичного розподілу
вибірки називають середнє арифметичне значення квадратів відхилень
його варіант xi від вибіркового середнього ,x тобто:
k
iii nxx
nD
1
2 .1 (3.9)
Для обчислення вибіркової дисперсії часто зручніше використовувати
іншу формулу:
k
iii xnx
nD
1
221 . (3.9)
Вона випливає з формули (3.9):
k
ii
k
i
k
iiiiii
k
iii n
nxnx
nxnx
nnxxxx
nD
1
2
1 1
2
1
22 112121
.121 2
1
22
1
2 xnxn
xxxnxn
k
iii
k
iii
Вимірність дисперсії дорівнює квадрату вимірності значень
випадкової величини, що створює незручність у дослідженнях. Щоб її
усунути, за характеристику розсіювання значень випадкової величини за
результатами вибірки приймають вибіркове середнє квадратичне
відхилення , яке визначається рівністю:
k
iii nxx
nD
1
21 , (3.10)
КВМ
287
або
.11
22
k
iii xnx
nD (3.10)
Означення. Коефіцієнтом варіації V статистичного розподілу вибірки
називається відношення вибіркового середнього квадратичного відхилення
до середнього вибіркового, тобто:
%.100
x
V (3.11)
Означення. Вибірковим центральним емпіричним моментом s-го порядку
s статистичного розподілу вибірки називається середнє арифметичне
значення степенів порядку s відхилень його варіант від середнього
вибіркового значення x , тобто
1
1 .k s
s i ii
x x nn
(3.12)
Зокрема, 0 1 21, 0, .D
Для оцінки відхилення статистичного розподілу вибірки від
нормального розподілу використовують числові характеристики –
асиметрію та ексцес.
Означення. Вибірковою асиметрією A називають число, яке
обчислюється за формулою:
33 ,A
(3.13)
де 3 – вибірковий центральний емпіричний момент 3-го порядку, –
середнє квадратичне відхилення статистичного розподілу вибірки.
Означення. Вибірковим ексцесом E статистичного розподілу вибірки
називається число, яке обчислюється за формулою:
44 3,E
(3.14)
КВМ
288
де 4 – виібрковий центральний емпіричний момент 4-го порядку, а –
вибіркове середнє квадратичне відхилення статистичного розподілу
вибірки.
Якщо випадкова величина X розподілена за нормальним законом, то
її асиметрія та ексцес дорівнюють нулю. Тому, чим більше віддалені від
нуля асиметрія та ексцес статистичного розподілу вибірки, то тим менше
підстав сподіватися, що вибірка, з якої утворено варіаційний ряд,
утворена з нормально розподіленої генеральної сукупності.
Співвідношення (3.6), (3.7), (3.9)–(3.14) можуть бути використані при
обчисленні відповідних чисельних характеристик вибірки для випадків, коли
емпіричні дані записані як вихідний статистичний ряд або вони є згруповані
за допомогою інтервального варіаційного ряду. Зокрема, у першому з них у
згаданих співвідношеннях слід покласти k = n та 1in . У другому випадку ці
формули залишаються без змін, якщо вважати, що в них ix – середини
частинних проміжків ....,,2,1),,[ 1 mizz ii
Приклад 3.1. Для вивчення прибутків генеральної сукупності підприємств
регіону
(у % до обсягів виробництва) утворено вибірку, яка характеризується такими
даними: 8, 7, 6, 9, 10, 9, 11, 8, 9, 10, 8, 9, 6, 9, 8, 10, 7, 10, 12, 7. Виконати такі
вправи:
1) записати дискретний статистичний розподіл вибірки, побудувати полігони
частот і відносних частот та емпіричну функцію розподілу;
2) обчислити чисельні характеристики вибірки: вибіркове середнє, вибіркову
дисперсію, середнє квадратичне відхилення, розмах і коефіцієнт варіації – і
зробити висновки про генеральну сукупність;
3) записати інтервальну таблицю частот і відносних частот, поділивши
проміжок на 4 рівні частини, і побудувати гістограму та емпіричну функцію
розподілу;
КВМ
289
4) на підставі інтервальної таблиці розподілу частот обчислити вибіркові
емпіричні початкові і центральні моменти 1-го, 2, 3 і 4 порядків, а також
асиметрію і ексцес.
Розв’язання. У цьому прикладі величина X – відсоткове відношення прибутку
до обсягу виробництва одного підприємства. Обсяг вибірки .20n
1) Записуємо варіаційний ряд варіант, визначаємо частоти та відносні
частоти варіант і результати заносимо в таблицю:
ix 6 7 8 9 10 11 12
in 2 3 4 5 4 1 1 W ni /
n 2/20 3/20 4/20 5/20 4/20 1/20 1/20
Будуємо полігон частот як ламану, відрізки якої з’єднують точки ),,( ii nx і
полігон відносних частот – ламану, відрізки якої з’єднують точки )/,( nnx ii на
координатній площині (рис. 3.2а і рис. 3.2б). n i
7 6
4
3
2
1
0
5
8 9 1 0 1 1 1 2 x а)
КВМ
290
w i
7 6
4 / 2 0 3 / 2 0 2 / 2 0 1 / 2 0
0
5 / 2 0
8 9 1 0 1 1 1 2 x б)
Рис. 3.2. Полігон частот і відносних частот до прикладу 3.1
Емпірична функція розподілу має такий вигляд:
.12,1;1211,20/19;1110,20/18
;109,20/14;98,20/9;87,20/5;76,20/2;6,0
)(*
x x x
x x x x x
xF
Далі отримуємо графічне зображення емпіричної функції розподілу:
2) Обчислимо чисельні характеристики вибірки:
)(* xF 1
19/20 18/20 14/20
9/20 5/20 2/20
0 …6 7 8 9 10 11 12 x
Рис. 3.3. Графік функції розподілу до прикладу 3.1
КВМ
291
а) вибіркове середнє обчислюємо за формулою (3.6):
121111104958473622011
iii xn
nx ;65,8173
201
б) вибіркову дисперсію обчислюємо за формулою (3.9):
21 xxnn
D ii 222 )65,0(4)65,1(3)65,2(2201
2222 35,3135,2135,1435,05 4275,255,48201
або за формулою (3.9):
222222222 121111104958473622011 xxn
nD ii
265,8 =
;4275,28225,741545201
в) вибіркове середнє квадратичне відхилення обчислюємо за формулою (3.10):
;558,14275,2)()( xDx
г) розмах варіації R (різниця між найбільшим і найменшим значеннями
варіант) становить: R = 12 – 6 = 6; коефіцієнт варіації %.18%100
x
V
Із наведених обчислень можна зробити такі висновки:
середній прибуток одного підприємства становить 8,65% від обсягу виробництва;
середнє квадратичне відхилення відсоткового прибутку будь-якого
підприємця – 1,56%, тобто типовий відсотковий прибуток підприємців
міститься в межах від 7,09% до 10,21%.
3) Будуємо інтервальний варіаційний ряд, поділивши проміжок [6, 12] на 4 рівних
частини довжиною ,5,14
R і одержуємо інтервальну таблицю частот і відносних
частот:
ii zz ,1 [6; 7,5) [7,5; 9) [9; 10,5) [10,5; 12]
in 5 4 9 2 wi 5/20 4/20 9/20 2/20
(Останній проміжок є замкненим, бо maxmz x і варіанта 7 12x не попадала б у
проміжок 10,5; 12 )
КВМ
292
Гістограмою є східчаста фігура, яка складається з прямокутників з основами
),[ 1 ii zz і висотами ;3,35,1
51 h ;7,2
5,14
2 h ;65,1
93 h 3,1
5,12
4 h (рис. 3.4).
Емпірична функція розподілу, визначена на підставі інтервальної таблиці
частот, відповідно до формули (3.5) записується так:
*
0, 6;5 ( 6), 6 7,5;
20 1,54 5( 7,5) , 7,5 9;
20 1,5 20( )
9 9( 9) , 9 10,5;20 1,5 20
2 18( 10,5) , 10,520 1,5 20
x
x x
x xF x
x x
x
12;
1, 12.
x
x
Далі будуємо графік цієї функції (рис. 3.5).
hi
6 3,3
2,7 1,3
0 … 6 7,5 9 10,5 12 z
Рис. 3.4. Гістограма частот до прикладу 3.1
18/20 9/20 5/20
0 … 6 7,5 9 10,5 12 x
Рис. 3.5. Графік емпіричної функції розподілу до прикладу 3.1
F* 1
КВМ
293
4) Початковий емпіричний момент s-го порядку обчислюється за формулою (3.7).
Якщо таблиця розподілу частот дискретна, то ix є значення варіант, а у випадку
інтервальної таблиці частот за ix вибирають середини відповідних інтервалів. У
даному прикладі:
11 (6,75 5 8, 25 4 9,75 9 11, 25 2) 8,85 ( );20
M X
2 2 2 22
1 (6,75 5 8, 25 4 9,75 9 11, 25 2) 80, 4375;20
3 3 3 33
1 (6,75 5 8, 25 4 9,75 9 11, 25 2) 748,66;20
4 4 4 44
1 (6,75 5 8, 25 4 9,75 9 11, 25 2) 7113,89.20
Центральний емпіричний момент s -го порядку обчислюємо за формулою (3.12).
Для заданого інтервального розподілу маємо:
11 ( 2,1) 5 ( 0,6) 4 0,9 9 2, 4 2 0;20
2 2 2 22
1 ( 2,1) 5 ( 0,6) 4 0,9 9 2, 4 2 2,115 ( );20
D X
3 3 3 33
1 ( 2,1) 5 ( 0,6) 4 0,9 9 2,4 2 0,648;20
4 4 4 44
1 ( 2,1) 5 ( 0,6) 4 0,9 9 2,4 2 8,50.20
За формулою (3.13) для обчислення асиметрії, одержимо:
30,648 0,648 0, 21,
3,0762,115A
а за формулою (3.14) для обчислення ексцесу маємо:
248,5 8,53 3 1,1.
2,1152,115E
КВМ
294
Рекомендована література: [1, c. 165–213; 2, с. 106–107; 5, c. 196–197;
7, c. 187–196; 8, с. 222–224; 9, с. 88–152].
Завдання для самоконтролю
Основні поняття, означення і відношення Замість крапок запишіть таке продовження (доповнення) тексту, щоб отримати
правильне означення або твердження.
1. Генеральна сукупність – це …
2. Вибіркою з генеральної сукупності називається …
3. Обсягом вибірки називається …
4. Варіаційним рядом називається …
5. Інтервальний варіаційний ряд – це…
6. Дискретним статистичним розподілом вибірки є …
7. Інтервальним статистичним розподілом вибірки називається …
8. Полігоном частот є …
9. Гістограмою частот називається …
10. Полігон відносних частот – це…
11. Гістограмою відносних частот називається …
12. Емпіричною функцією розподілу називається …
13. За дискретного розподілу вибірки функція розподілу має аналітичний вигляд …
14. Графік емпіричної функції розподілу за дискретного розподілу вибірки має
вигляд …
15. За інтервального розподілу вибірки функція розподілу має аналітичний вигляд
…
16. Графіком функції розподілу за інтервального розподілу вибірки є …
17. Вибірковим середнім статистичного розподілу вибірки називається …
18. Вибірковим початковим емпіричним моментом s-го порядку статистичного
розподілу вибірки називається …
19. Розмах вибірки – це …
20. Вибірковою дисперсією називається …
21. Вибірковим середнім квадратичним відхиленням називається …
КВМ
295
22. Коефіцієнт варіації статистичного розподілу вибірки – це …
23. Вибірковий центральний емпіричний момент статистичного розподілу вибірки –
це…
24. Вибірковою асиметрією статистичного розподілу вибірки називається …
25. Вибірковим ексцесом статистичного розподілу вибірки називається …
Тести Запишіть на бланку відповідей номер завдання і коди (порядкові номери або літери),
що відповідають тим варіантам відповідей, які вважаєте правильними.
Для заданого статистичного розподілу вибірки
ix 4 5 6 7 8 9 10 11 12 13 20
in 1 2 1 3 3 5 2 2 2 3 1 потрібно виконати такі дії:
1. Знайти відносну частоту варіанти 10.
Варіанти відповідей: 1. 0,2. 2. 0,08. 3. 0,36.
2. Визначити частоту частинного інтервалу ]10,5( .
Варіанти відповідей: 1. 14. 2. 16. 3. 12.
3. Визначити ординату полігона відносних частот для варіанти 8.
Варіанти відповідей: 1. 0,6. 2. 0,3. 3. 0,12.
4. Визначити висоту прямокутника з основою ]10,5[ гістограми частот.
Варіанти відповідей: 1. 3,5. 2. 2,8. 3. 3,2.
5. Указати значення емпіричної функції розподілу на проміжку ( 10,9 .
Варіанти відповідей: 1. 0,6. 2. 0,2. 3. 0,28.
6. Знайти вибіркове середнє.
Варіанти відповідей: 1. 9. 2. 9,4. 3. 9,6.
7. Обчислити початковий емпіричний момент 3-го порядку.
Варіанти відповідей: 1. 1025,64. 2. 975,56. 3. 1177,96.
КВМ
296
8. Обчислити вибіркову дисперсію.
Варіанти відповідей: 1. 11,36. 2. 9,07. 3. 10,96.
9. Знайти вибіркове середнє квадратичне відхилення.
Варіанти відповідей: 1. 3,31. 2. 3,05. 3. 3,47.
10. Знайти коефіцієнт варіації.
Варіанти відповідей: 1. 31%. 2. 35%. 3. 38%.
Приклади
1. Вибірку задано у вигляді розподілу частот:
a) ix 2 5 7 б) ix 4 7 8 12
in 1 3 6 in 5 2 3 10
Знайти розподіл відносних частот, емпіричну функцію розподілу та
побудувати її графік.
2. За допомогою радіодальноміра було здійснено 18 вимірювань однієї і тієї
самої відстані. Результати вимірювання в метрах: 201, 195, 207, 203, 191, 208, 198, 210,
204, 192, 195, 211, 206, 196, 208, 197, 203, 200. Потрібно: а) побудувати дискретний
статистичний розподіл; б) побудувати полігон відносних частот; б) знайти емпіричну
функцію розподілу та побудувати її графік; г) обчислити , , ,R V x ; д) побудувати
інтервальний розподіл, поділивши інтервал значень на 5 рівних частин.
3. Для обчислення середньої врожайності ix озимої пшениці поле площею 3
000 га було поділено на 25 рівних ділянок. Фактичний урожай на кожній ділянці
наведено в таблиці, в якій in означає кількість ділянок із врожайністю ix :
ix 20 25 30 35 40 45
in 3 5 4 5 3 5
КВМ
297
Для заданої вибірки виконати дії: а) побудувати полігон відносних частот та
емпіричну функцію розподілу; б) обчислити , , ,x A E .
4. Для дослідження розподілу маси новонароджених ix була зібрана
інформація про 50 дітей. Ця інформація подана інтервальним статистичним
розподілом:
1,i iz z 1,0-1,5 1,5-2,0 2,0-2,5 2,5-3,0 3,0-3,5 3,5-4,0 4,0-4,5 4,5-5,0
in 1 4 5 15 15 7 2 1
Знайти: а) емпіричну функцію розподілу і побудувати її графік; б) побудувати
гістограму частот; в) обчислити , , ,x A E .
5. Кількість полотна ix , виготовленого ткачами за зміну, наведено у формі
інтервального статистичного розподілу:
1,i iz z 52,8-62,8 62,8-72,8 72,8-82,8 82,8-92,8 92,8-102,8 102,8-112,8 112,8-122,8
in 2 4 5 20 10 7 2
Потрібно: а) побудувати гістограму відносних частот; б) знайти функцію розподілу та
побудувати її графік; в) обчислити , , ,x A E .
6. Статуправління, провівши спостереження за кількістю працівників у філіях
ощадного банку, одержало такі дані:
3, 7, 6, 3, 4, 4, 7, 9, 4, 5, 5, 5, 3, 7, 8, 4, 9, 7, 7, 4, 8, 5, 3, 4, 7, 6, 7, 9, 6, 5.
За наведеними даними необхідно побудувати:
а) варіаційний ряд;
б) таблицю і полігон частот;
в) таблицю і полігон відносних частот;
г) гістограму частот, розбивши проміжок на 4 рівних частинних інтервали;
д) гістограму відносних частот;
е) емпіричну функцію розподілу та її графік.
Відповіді
2. г) %.3;05.6;4.201;20 VxR 3. б) 30,2;x
15,7; 0,22; 2,72A E 4. в) 2,98;x 0,35; 0,097;A 156,8E .
КВМ
298
5. в) ;90x ;6,13 ;26,0A 014,0E .
3.2. Точкові оцінки параметрів розподілу
3.2.1. Задача про точкові оцінки
параметрів розподілу
Відомо, що повною характеристикою випадкової
величини – ознаки генеральної сукупності є її закон розподілу. Для його
встановлення дослідними методами потрібні певні затрати ресурсів і часу.
Однак часто є підстави вважати, що той чи інший закон розподілу
випадкової величини є відомий (наприклад: пуассонівський, нормальний,
показниковий і т. д.). Але, щоб конкретизувати цей закон, потрібно знати
його параметри, які називають параметрами розподілу.
Зокрема, коли відомо, що закон розподілу випадкової величини
нормальний, тобто характеризується густиною
2
2
2)(
21),,(
ax
eaxf ,
то для його конкретизації потрібно визначити невідомі параметри а і ;
коли відомо, що закон розподілу випадкової величини показниковий,
тобто характеризується густиною
,0,;0,0
),(xex
xf x
то для його конкретизації необхідно визначити невідомий параметр .
Вивчаючи певну ознаку Х генеральної сукупності, ми можемо знати
характер закону розподілу випадкової величини Х, але параметри цього
закону розподілу невідомі. І тоді виникає задача: на основі одержаної
вибірки з генеральної сукупності визначити наближені числові значення
КВМ
299
невідомих параметрів розподілу. Такі наближені числові значення
параметрів розподілу називають їх точковими статистичними оцінками,
або скорочено – точковими оцінками.
Далі, у типових законах розподілу ймовірностей випадкової величини
параметри розподілу виражаються через чисельні характеристики цієї
величини (математичне сподівання, дисперсію, середнє квадратичне
відхилення). Тому сформульована задача зводиться до оцінки чисельних
характеристик випадкової величини.
Для розв’язання цієї задачі вибирають певну випадкову величину
(статистику), конкретна реалізація якої приймається за числове значення
параметра, який оцінюється.
3.2.2. Означення точкової оцінки параметрів розподілу
Нехай у генеральній сукупності спостерігається
випадкова величина Х, відомий закон розподілу якої містить невідомий
параметр . Потрібно знайти відповідну точкову оцінку * параметра за
результатами n незалежних випробувань, у кожному з яких випадкова
величина Х набуває певних значень nxxx ...,,, 21 (вибірка обсягу n).
Очевидно, що оцінка *и залежить від результатів вибірки, тобто
)....,,,(ии 21**
nxxx (3.15)
Означення. Будь-яку однозначну функцію )...,,,(ии 21**
nxxx , при
допомозі якої знаходять наближене значення параметра розподілу
випадкової величини Х, називають точковою оцінкою цього параметра.
Оскільки означена точкова оцінка є функцією випадкового вектора
(вибірки), то вона сама є випадковою величиною, розподіл якої залежить
від числа спостережень п і оцінюваного параметра . Це означає, що для
КВМ
300
різних конкретних вибірок, навіть одного обсягу, відповідні значення
функції * будуть, загалом кажучи, різними.
З огляду на те, що точкова оцінка * є випадкова величина, то має
бути відомий її закон розподілу.
Для того, щоб оцінка * була в певному сенсі «найкращою» для
параметра , тобто мала практичну цінність, вона мусить задовольняти
умови незміщеності, конзистентності та ефективності.
Означення. Точкова оцінка )...,,,(ии 21**
nxxx для параметра розпо-
ділу випадкової величини Х називається незміщеною, якщо її
математичне сподівання дорівнює точному значенню цього параметра,
тобто
и)и( * M .
У протилежному випадку точкову оцінку * називають зміщеною.
Суть незміщеної оцінки * параметра розподілу випадкової
величини Х полягає в тому, що вона «застрахована» від накопичення
односторонніх похибок – у бік збільшення або в бік зменшення.
Означення. Точкова оцінка ),,,(ии 21**
nxxx параметра розпо-
ділу називається конзистентною (змістовною), якщо * збігається (необ-
межено наближається) за ймовірністю до оцінюваного параметра при
необмеженому зростанні числа дослідів (спостережень), тобто вико-
нується така рівність:
1еииlim *
Pn
,
де 0е як завгодно мале число.
Для виконання даної граничної рівності достатньо, щоб дисперсія
оцінки необмежено наближалася до нуля при n , тобто
0)и(lim *
Dn
КВМ
301
і, крім того, щоб оцінка була незміщеною. Від останнього співвідношення
легко перейти до попереднього, якщо скористатися нерівністю Чебишова.
Якщо виконана достатня умова конзистентності оцінки *, то ця влас-
тивість означає, що зі збільшенням обсягу вибірки п розсіювання значень
точкової оцінки * зменшується, тобто при достатньо великому обсязі
вибірки оцінка * параметра розподілу стає як завгодно близькою до її
точного значення.
Оскільки * – випадкова величина, значення якої змінюються від
вибірки до вибірки, то міру її розсіювання навколо математичного
сподівання будемо характеризувати дисперсією D(*). Нехай * і *и~ – дві
незміщені оцінки параметра , тобто и)и( * M і и)и~( * M . Тоді, якщо
),и~()и ** DD( то за оцінку для приймають *.
Означення. Незміщена оцінка )...,,,(ии 21**
nxxx називається
ефективною, якщо вона має найменшу дисперсію серед усіх незміщених
оцінок параметра , обчислених за вибірками одного і того ж обсягу.
Із наведених міркувань випливає, що за статистичного оцінювання
параметрів розподілу випадкової величини Х треба прагнути, щоб точкова
оцінка була незміщеною, конзистентною та ефективною. Однак на практиці
не завжди вдається задовольнити одночасно ці три вимоги. Зокрема,
оцінюючи , ми прагнемо також, щоб функція ),,,( 21*
nxxx була, по
можливості, не дуже складною. Через те іноді мусимо нехтувати деякими із
перерахованих вище вимог до точкових оцінок.
Як уже зазначалося, часто параметри розподілу випадкової величини Х у
простий спосіб виражаються через її чисельні характеристики. Наприклад,
якщо випадкова величина Х нормально розподілена, то параметри розподілу
а = М(Х), = (Х); якщо випадкова величина Х має показниковий розподіл, то
КВМ
302
параметр розподілу )(
1XM
, або )(
1X
, або )(
1XD
. Тому, перш за
все, нас цікавить задача про оцінки основних чисельних характеристик
випадкової величини Х.
3.2.3. Точкова оцінка математичного сподівання
Нехай nxxx ...,,, 21 – вибірка, отримана в результаті n
незалежних спостережень над випадковою величиною Х – деякою ознакою
генеральної сукупності, яка має математичне сподівання М(Х) = а.
За точкову оцінку *M математичного сподівання а = М(Х) беруть
вибіркове середнє (емпіричне вибіркове):
n
iix
nxM
1
* 1 . (3.16)
Покажемо, що оцінка xM * є незміщеною для М(Х) = а. Справді, нехай
nxxx ...,,, 21 – п незалежних спостережень над випадковою величиною Х. За
умовою М(Х) = а і оскільки )...,,1( nixi є незалежними випадковими
величинами і мають однаковий закон розподілу, то )...,,1()( niaxM i .
Використовуючи властивості математичного сподівання, маємо:
,1)(11)(11
aann
xMn
xn
MxMn
ii
n
ii
тобто ,)( axM що й потрібно було довести.
Припустімо додатково, що випадкова величина Х має скінченну дисперсію 2)( XD . Тоді можна стверджувати, що оцінка xM * є конзистентною для
М(Х) = а. Для доведення розглянемо дисперсію ( )D x вибіркового середнього
значення .x Використовуючи властивості дисперсії, знаходимо:
КВМ
303
22 2
2 2 21 1 1
1 1 1 1 у( ) ( ) у уn n n
i ii i i
D x D x D x nn nn n n
.
Оскільки 0lim)(lim2
n
xDnn
, то це означає, що оцінка x є
конзистентною для параметра а.
Приймемо без доведення важливе для практики твердження: якщо
випадкова величина Х нормально розподілена з параметрами М(Х) = а і 2)( XD , то оцінка x має у класі всіх незміщених оцінок для
математичного сподівання а мінімальну дисперсію, яка дорівнює n
2 . Тому x
є ефективною оцінкою параметра а.
3.2.4. Точкова оцінка дисперсії
Якщо випадкова вибірка складається з п незалежних
спостережень nxxx ,,, 21 над випадковою величиною Х із математичним
сподіванням М(Х) = а і дисперсією 2)( XD , то за точкову
оцінку *D дисперсії 2)( XD беруть вибіркову дисперсію:
DD *
n
ii xx
n 1
2)(1 , (3.17)
яка є зміщеною оцінкою для параметра 2)( XD , або виправлену вибіркову
дисперсію:
n
ii
* xxn
DD1
2)(1
1~ , (3.17)
яка є незміщеною оцінкою для параметра D(X) = .2
Той факт, що оцінка D є зміщеною для D(X), випливає з рівності
1( ) ( )nM D D Xn
. (3.18)
Далі, ураховуючи співвідношення
КВМ
304
Dn
nD1
~
, (3.19)
одержимо:
)()(11
)(1
)~( XDXDn
nn
nDMn
nDM
,
тобто оцінка D~ є незміщеною оцінкою для 2)( XD .
Дріб 1n
n називають поправкою Бесселя. За малих п поправка Бесселя
значно відрізняється від одиниці. За п > 50 практично немає різниці між
D і D~ .
Можна показати, що оцінки D і D~ є конзистентними і не є ефективними.
У випадку, коли математичне сподівання а відоме і випадкова величина Х
нормально розподілена, то незміщеною, конзистентною та ефективною
оцінкою дисперсії 2у)( XD є оцінка
n
ii ax
nDD
1
2* .)(1 (3.20)
3.2.5. Оцінка середнього квадратичного
відхилення
Оскільки середнє квадратичне відхилення
)()( XDX , то за оцінку * параметра можна вибрати один із
варіантів вибіркового середнього квадратичного відхилення:
КВМ
305
** D , (3.21)
де *D – оцінка для дисперсії D(X), яка обчислюється за однією з формул
(3.17), (3.17) або (3.20).
Зазначимо, що всі оцінки для , які обчислюються за формулою (3.21),
не є незміщеними, ефективними, а є лише конзистентними.
Зауваження. Усі наведені вище формули, які були введені при визна-
ченні точкових оцінок математичного сподівання і дисперсії випадкової
величини, можуть бути використані для обчислення значень цих оцінок
щодо конкретних вибірок лише у випадку, коли вибірка задана вихідним
статистичним рядом. Якщо дані вибірки подано у формі згрупованого
варіаційного ряду (дискретного або інтервального), то для обчислення
відповідних вибіркових чисельних характеристик користуємося
формулами:
k
iii xn
nM
1
* ;1 (3.16)
;1)(1 2
1
2
1
2 xxnn
xxnn
DDk
iii
k
iii
*
(3.17)
.11
1)(1
1~ 2
1
2
1
2 xn
nxnn
xxnn
DDk
iii
k
iii
*
(3.17)
Приклад 3.2. Статистичні дослідження рівня денного доходу працюючого робітника
галузі дали такі результати:
ix – дохід у гривнях 6 7 8 9 10 11 12 13 14
in – число робітників 1 2 3 20 25 24 15 7 3
Обчислити точкові оцінки M(X), D(X), (X), де Х – рівень доходу одного працюючо-
го робітника.
КВМ
306
Розв’язання. За точкову оцінку математичного сподівання М(Х) беремо вибіркове
середнє і обчислюємо її за формулою (3.16):
1001* xM (16+27+38+209+2510+2411+1512+713+314) =
1001 1051 = 10,51.
Середній дохід протягом дня одного працюючого робітника галузі становить 10,51
гривні.
Точкову оцінку дисперсії D(X) обчислимо у двох варіантах (зміщену і незміщену).
Зміщену оцінку обчислюємо за формулою (3.17):
1001* DD [1(–4,51)2+2(–3,51)2+3(–2,51)2+20(–1,51)2+25(–0,51)2+24(0,49)2+
+15(1,49)2+7(2,49)2+3(3,49)2] = 100
1 [20,3401+ 24,6402+18,9003+45,602+6,5025+
+5,7624+33,3015+43,4007+36,5403) = 100
1234,99 = 2,3499.
Незміщена оцінка [див. формулу (3.19)]:
.3736,23499,299
100~* DD
Як бачимо, відхилення зміщеної оцінки DD * від незміщеної DD ~* становить
0237,0~ DD і є порівняно мале, бо обсяг вибірки n = 100 є достатньо великим.
Для середньоквадратичного відхилення маємо такі оцінки:
,5329,13499,2*
.5406,13736,2уу*
Приклад 3.3. Статистичні дослідження зростання продуктивності праці підприємств
регіону в даному році у відсотках до відповідного періоду попереднього року
виражаються інтервальною таблицею:
ii zz ,1 [80, 90) [90, 100) [100, 110) [110, 120) [120, 130)
in 2 14 60 20 4
Обчислити оцінки для M(X), D(X), (X), де Х – зростання продуктивності праці
одного підприємства регіону у відсотках до відповідного періоду попереднього року.
КВМ
307
Розв’язання. Точкову оцінку математичного сподівання М(Х) обчислимо за
формулою (3.16) з урахуванням того, що у випадку інтервального варіаційного ряду
для вибірки 2
1 iii
zzx :
1001* xM (285+1495+60105+20115+4125) =
1001
10600 = 106.
Середнє зростання продуктивності праці одного підприємства в даному році у
відсотках до відповідного періоду попереднього року становить 106%.
Зміщену точкову оцінку дисперсії D(X) обчислимо за формулою:
2
1
2* 1 xxnn
DDk
iii
з урахуванням того, що у випадку інтервального варіаційного ряду для вибірки
21 ii
izzx
:
1001* DD [2852 + 14 952 + 60 1052 + 20 1152 + 4 1252] – 1062 =
= 100
1 [14450 + + 126350 + 661500 + 264500 + 62500] – 11236 =
= 100
11129300 – 11236 = 57.
За формулою (3.19) обчислюємо незміщену точкову оцінку дисперсії:
).57(,575799
10099
100~* DDD
Для середньоквадратичного відхилення маємо такі оцінки:
,55,757*
.59,7)57(,57~*
3.2.6. Метод моментів оцінювання параметрів розподілу
Нехай на підставі даних вибірки nxxx ,,, 21 , отри-
маної внаслідок спостережень над випадковою величиною Х, потрібно
оцінити невідомий параметр m ...,,1 . При цьому припускається, що
закон розподілу випадкової величини Х відомий із точністю до параметра
КВМ
308
і визначається за допомогою функції ,xf , яка у випадку дискретної
випадкової величини Х задає ймовірність події Х = хі, а у випадку неперервної
випадкової величини Х – її густину розподілу. Тоді всі моменти випадкової
величини Х є функціями від :
)...,,()( 1 mssXM , (3.22)
де
i
mis
ims xfx ...,,,)...,,( 11 , (3.23)
якщо Х – дискретна випадкова величина, а ix – можливі значення Х, і
,...,,,)...,,( 11 dxxfx ms
ms
(3.24)
якщо Х – неперервна випадкова величина.
Статистичне оцінювання параметрів m ...,,1 методом моментів про-
водиться за такою схемою:
1. Обчислюємо т теоретичних початкових моментів:
mmmm ...,,...,,...,,,...,, 11211 ,
де ss XM .
2. На підставі даних вибірки nxxx ,,, 21 обчислюємо т відповідних
вибіркових початкових моментів. У даному разі це будуть моменти:
n
i
sims sx
n 11 ,1...,, = 1, 2, ..., т, (3.25)
якщо вибірка задана вихідним статистичним рядом, і
k
i
k
ii
siims snnxn
n 1 11 ,,1...,, = 1, 2, ..., т, (3.25)
якщо вибірка задана згрупованим варіаційним рядом.
КВМ
309
3. Прирівнюючи теоретичні та відповідні їм вибіркові моменти,
отримаємо систему рівнянь відносно компонент m ...,,1 оцінюваного
параметра
1 1( , ..., ) ( , ..., ),( 1, 2, ..., ).
s m s ms m
(3.26)
4. Розв’язуючи отриману систему рівнянь (3.26) (точно або наближено),
знаходимо шукані оцінки **2
*1 ...,,, m . Вони, очевидно, є функціями від
вибіркових значень nxxx ,,, 21 .
Ми виклали порядок дій, виходячи з початкових (теоретичних і
вибіркових) моментів. Ця схема зберігається також у разі іншого вибору
моментів: центральних або початкових і центральних у сукупності, який
визначається зручністю розв’язання системи рівнянь (3.26). Приклад 3.4. На основі вибірки ( nxxx ...,,, 21 ) знайти методом моментів точкові
оцінки параметрів розподілу нормально розподіленої випадкової величини Х.
Розв’язання. У цьому разі розподіл випадкової величини визначається густиною:
),(,21),,()( 2
2
2)(
xeaxfxfax
,
де а і – невідомі параметри.
Відповідно до описаної вище схеми виконуємо такі дії:
1. Обчислимо перші два початкові моменти 21 i . За формулою (3.24) знаходимо:
.),,()(1 adxaxxfXM
Для обчислення 2 використаємо співвідношення
22 )()()( XMXMXD ,
або
.212
2
Звідси одержимо
;21
22
2. На підставі вибірки nxxx ,,, 21 обчислимо два перші початкові вибіркові моменти:
КВМ
310
n
i
n
iii
n
ii Dxxx
nx
nxx
n 1 1
21
2222
11 ;)(11,1
3. Складаємо систему рівнянь:
.уу
,
,у
,
,у
,
,нну
,нн
,нн,нн
222221
21
211
22
11
D
xa
D
xa
xDa
xa
D
Отже, точкові оцінки параметрів нормального розподілу
xa * , D* .
Зауважимо, що коли б ми за теоретичні моменти вибрали 1 і 2
,м,н,у)(м,н:мiнковіі за вибір 22
2121 DxXDaXM то прийшли
б одразу до системи рівнянь:
,у
,2 D
xa
яка розв’язується швидше і простіше від попередньої.
Отже, точковими оцінками *a і * параметрів а і нормально розподіленої
випадкової величини, які знайдені методом моментів, є, відповідно, вибіркове
середнє значення x і вибіркове середнє квадратичне відхилення , тобто xa * ,
* .
Приклад 3.5. На основі вибірки ( nxxx ...,,, 21 ) знайти методом моментів точкову
оцінку параметра показникового розподілу випадкової величини Х.
Розв’язання. Показниковий розподіл характеризується густиною
.0,;0,0
),(xe
xxf x
Оскільки є тільки один невідомий параметр , то для його точкової оцінки достатньо
розглянути один із початкових або центральних моментів. Виберемо початковий
момент 1 . За описаною схемою:
1. Обчислюємо теоретичний початковий момент 1 за формулою (3.24):
,1),()(1
dxxxfXM
КВМ
311
2. На основі вибірки nxxx ...,,, 21 обчислюємо початковий вибірковий момент 1 за
формулою (3.25):
,1
11
n
ii xx
n
3. Складаємо рівняння:
.1,1,11 xx
Отже, точкова оцінка параметра дорівнює величині, яка обернена до вибіркового
середнього, тобто x1* .
Зауваження. Теоретичним обґрунтуванням методу моментів є закон ве-
ликих чисел (див. розділ. 2.3), згідно з яким при великому обсязі n вибірки
значення вибіркових моментів є «близькі» до відповідних характеристик
випадкової величини в генеральній сукупності. Отже, методом моментів
отримують конзистентні точкові оцінки параметрів розподілу, які, однак,
умови незміщеності, загалом кажучи, не задовольняють.
Для визначення методом моментів точкових оцінок параметрів розподілу
записують рівність вибіркових і теоретичних моментів. Поряд із тим,
прирівнюючи функції від цих моментів, можемо дістати точкові оцінки
для характеристик випадкової величини, які є функціями від теоретичних
моментів. Наприклад, асиметрія теоретичного розподілу:
32
333
)м(м
ум
A
є функція від центральних моментів другого і третього порядків.
Замінивши центральні моменти їх оцінками (вибірковими моментами),
одержимо точкову оцінку асиметрії:
.у
м3*
*3* A
КВМ
312
3.2.7. Метод максимуму правдоподібності оцінювання параметрів розподілу
Нехай, як і в попередньому випадку, вивчається ви-
падкова величина Х, розподіл якої заданий або ймовірностями її значень
f(xi, ), якщо величина Х дискретна, або густиною розподілу ,xf , якщо
величина Х неперервна, де m ...,,1 – невідомий векторний параметр.
Нехай ( )...,,, 21 nxxx – вибірка, отримана внаслідок п незалежних спостере-
жень над випадковою величиною Х. Ідея методу максимуму правдоподібності
полягає в тому, що за оцінку * приймають таке значення параметра , для
якого ймовірність отримання вже наявної вибірки є максимальною.
Опишемо схему застосування даного методу. Для цього розглянемо
функцію
,,...,,,...,, 211 nn xfxfxfxxL (3.27)
яку називають функцією правдоподібності. Вона зображує сумісний розподіл
випадкового вектора з незалежними компонентами, кожна з яких має той
самий розподіл, що й випадкова величина Х.
За оцінку невідомого параметра приймається таке його значення *,
для якого функція ,...,,1 nxxL , що розглядається як функція від при
фіксованих значеннях nxx ,,1 , досягає максимуму.
Дослідження функції ,...,,1 nxxL на максимум проводиться за
допомогою методів диференціального числення: знаходимо критичні точки
**1
* ...,, m із системи рівнянь
mixxL
i
mn ,1,0)...,,,...,,( 11
,
а далі досліджуємо критичну точку на екстремум за допомогою достатніх
ознак екстремуму функції багатьох змінних.
КВМ
313
Для спрощення обчислень зручно замість функції ,...,,1 nxxL
розглядати так звану логарифмічну функцію правдоподібності
,...,,In 1 nxxL , оскільки точки екстремуму функцій L і lnL збігаються, бо
ii
LL
L
1ln .
Методи диференціального числення дозволяють знайти критичні точки
функції lnL, тобто точки можливого екстремуму, а потім з’ясувати, в якій з
них досягається максимум.
Для цього розглядаємо спочатку систему рівнянь:
,...,,2,1
,0)...,,,...,,(ln 11
mi
xxLi
mn (3.28)
розв’язки якої )...,,( *1
*m – точки можливого екстремуму. Після цього за
відомою методикою, використовуючи достатні умови існування екстремуму
функції, знаходимо точку максимуму.
Приклад 3.6. Знайти методом максимуму правдоподібності оцінку параметра
розподілу Пуассона
e
xxfxXP
i
x
iimi
!),()( ,
де m – число проведених випробувань, ix – число появ події в і-му досліді.
Розв’язання. Складемо функцію правдоподібності за формулою (3.27):
,!!!!!!
),(),(),(2121
21121
n
n
xx
n
xxx
n exxx
ex
ex
ex
xfxfxfLnn
яку потрібно дослідити на екстремум.
Замість функції L розглянемо функцію
nxxxxxL nn !!!lnlnln 211
і дослідимо її на екстремум.
Обчислимо похідну:
nxxLdd
n
1ln 1 ,
і система (3.28) зводиться в цьому випадку до одного рівняння:
КВМ
314
xn
xxnxxLdd n
n
11 010ln .
Маємо для екстремуму одну критичну точку x . Переконаємося, що вона є
точкою максимуму функції lnL. Для цього обчислимо другу похідну:
2211
2
2ln
xnxxnxx
ddL
dd nn .
Тепер маємо:
0ln2
2
xnL
dd
x
,
і з достатньої умови екстремуму випливає, що функція lnL при x досягає
максимуму.
Отже, оцінкою найбільшої правдоподібності для параметра є вибіркове середнє, тобто
x* .
Зауваження. Метод максимуму правдоподібності оцінювання параметрів
розподілу має низку важливих переваг: вони конзистентні, асимптотично
нормально розподілені (за великих n їх розподіл близький до
нормального) і мають найменшу дисперсію порівняно з іншими
асимптотично нормальними оцінками; цей метод найбільш повно
використовує дані вибірки для оцінки параметрів, тому він особливо
корисний за малих обсягів вибірки. Недолік методу в тому, що він часто
вимагає складних обчислень.
Рекомендована література: [1, c. 219–245; 2, с. 107–110; 5, с. 197–213; 5,
c. 197–213; 8, с. 235–238; 9, c. 104–117].
Завдання для самоконтролю
Основні поняття, означення і відношення Замість крапок запишіть таке продовження (доповнення) тексту, щоб отримати
правильне означення або твердження.
1. Задача про точкову оцінку для параметра розподілу полягає в тому, що …
КВМ
315
2. Точковою оцінкою для параметра розподілу називається …
3. Точкова оцінка * для параметра розподілу називається незміщеною, якщо …
4. Точкова оцінка * для параметра розподілу називається конзистентною, якщо …
5. Незміщена точкова оцінка * для параметра розподілу називається ефективною, якщо …
6. Точковою оцінкою математичного сподівання М(Х) є число *M …
7. Точковою оцінкою дисперсії D(Х) є число *D …
8. Виправленою точковою оцінкою дисперсії D(Х) є число *D …
9. Точковою оцінкою середнього квадратичного відхилення )(у X є число *у …
10. Виправленою точковою оцінкою середнього квадратичного відхилення )(у X є число
*у …
11. Якщо )...,,,,( 21 mxf – густина розподілу випадкової величини Х, то точковими
оцінками **2
*1 ...,,, m для параметрів m ...,,, 21 за методом моментів є розв’язок
системи рівнянь: …
12. Якщо )...,,,,( 21 mxf – густина розподілу випадкової величини Х, то точковими
оцінками **2
*1 ...,,, m для параметрів m ...,,, 21 за методом максимуму
правдоподібності є точка максимуму функції L = …, яку називають …
Тести Запишіть на бланку відповідей номер завдання і коди (порядкові номери або літери), що
відповідають тим варіантам відповідей, які вважаєте правильними.
Випадкова величина Х – ознака генеральної сукупності характеризується вибіркою:
хі 4 5 6 7 пі 1 2 1 3
Виконайте такі завдання:
1. Визначіть точкову оцінку математичного сподівання М(Х).
Варіанти відповідей: 1. 5,12. 2. 5,86. 3. 5,94.
2. Визначіть точкову оцінку дисперсії D(X).
Варіанти відповідей: 1. 9,9424. 2. 9,2494. 3. 1,23.
КВМ
316
3. Визначіть виправлену точкову оцінку дисперсії D(X).
Варіанти відповідей: 1. 9,06. 2. 1,43. 3. 11,15.
4. Визначіть точкову оцінку середнього квадратичного відхилення )X( .
Варіанти відповідей: 1. 3,04. 2. 1,11. 3. 3,30.
5. Визначіть виправлену точкову оцінку середнього квадратичного відхилення )X( .
Варіанти відповідей: 1. 3,18. 2. 3,01. 3. 1,2.
6. Випадкова величина Х – ознака генеральної сукупності, яка розподілена за законом
Пуассона e
xxXP
i
x
ini
!)( , характеризується вибіркою:
хі 0 1 2 3 4 пі 132 43 20 3 2
Знайдіть точкову оцінку * параметра за допомогою методу моментів.
Варіанти відповідей: 1. * = 0,3. 2. * = 0,5. 3. * = 6,5.
7. Випадкова величина Х – ознака генеральної сукупності, яка розподілена за показ-
никовим законом )0()( xлexf лx , характеризується вибіркою:
хі 1 2 3 4 пі 8 6 4 2
За допомогою методу максимуму правдоподібності знайти точкову оцінку *
параметра .
Варіанти відповідей: 1. * = 1. 2. * = 1,5. 3. * = 0,5.
Приклади
1. 200 однотипних деталей були піддані шліфуванню. Результати вимірювання
наведені у вигляді дискретного статистичного розподілу:
ix , мм 3,7 3,8 3,9 4,0 4,1 4,2 4,3 4,4
in 1 22 40 79 27 26 4 1
КВМ
317
Визначити точкові незміщені статистичні оцінки для ( )M X , ( )D X та оцінку для ( )X .
2. У п’ятьох різних магазинах ціна однакового товару дорівює (у гривнях): 92,
94, 103, 105, 106. Знайти: а) вибіркову середню ціни цього товару; б) вибіркову та
виправлену дисперсії ціни; в) коефіцієнт варіації.
3. У результаті валютних торгів протягом чотирьох днів було встановлено
таку ціну за американський долар (у гривнях): 4,5; 4,53; 4,52; 4,51.
Знайти: а) вибіркову середню ціну долара; б) вибіркову та виправлену
дисперсію курсу долара; в) коефіцієнт варіації курсу долара.
4. У формі таблиці викладено результати виміру росту випадково відібраних
100 студентів
Зріст 154−158 158−162 162−166 166−170 170−174 174−178 К-сть студ. 10 14 26 28 12 10
Визначити точкові незміщені статистичні оцінки для ( )M X , ( )D X та оцінку для
( )X − де випадкова величина Х − зріст студента.
5. За результатами соціологічного опитування 50-ти чоловік визначено їх середню
зарплату на місяць у гривнях:
Зарплата 0−50 50−100 100−150 150−200 200−250 250−300
К-сть чоловік 2 3 20 15 8 2
Визначити точкові незміщені статистичні оцінки для ( )M X , ( )D X та оцінку для
( )X − де випадкова величина Х − середня заробітна платня на місяць.
6. На основі вибірки ( nx,,x,x 21 ) знайти методом моментів точкові оцінки
параметрів а та b рівномірного розподілу випадкової величини Х.
7. Знайти методом максимальної правдоподібності оцінку параметрів нор-мального
розподілу
8. На основі вибірки 1 2, ,..., nx x x знайти за методом максимальної правдоподібності
точкові оцінки параметрів а і b рівномірного розподілу випадкової величини Х.
Відповіді
КВМ
318
1.(3.17.) 4,004; 0,01598; 0,016;x D D 0,126 ; 0,127 . 2.(11)3.18. a)
100; б) 34; 42,5; в) 6,52%. 3.(12)3.19. a) 4,515; б) 0,0005; 0,00067; в) 0,57%. 4.(13)3.20.
165,92; 31,51; 5,6. 5.(14)3.21. 155; 2959,18; 53,4. 6. 3 , 3a x b x . 7.
2 2,a x . 8. 3 , 3a x b x .
3.3. Інтервальні оцінки параметрів розподілу
3.3.1. Задача про інтервальне оцінювання
параметрів розподілу
У підрозділі 3.2 розглянуто задачу про точкове
оцінювання параметрів розподілу випадкової величини Х (ознаки
генеральної сукупності) і методи знаходження точкових оцінок цих
параметрів на основі вибірки nxxx ,,, 21 .
Якщо обсяг вибірки досить великий, то точкова оцінка * параметра
розподілу є досить близькою до його точного значення. Якщо ж обсяг
вибірки невеликий, то між точковою оцінкою * і точним значенням
параметра розподілу можуть бути значні розбіжності. У зв’язку з цим
виникає питання про надійність точкової оцінки * параметра , тобто
про можливе відхилення точкової оцінки * від істинного значення
параметра або про оцінку абсолютної величини різниці *ии .
Зрозуміло, що точкова оцінка * параметра є тим точнішою, чим
менша величина різниці *ии . Якщо би вдалося встановити, що *ии <
δ, то число > 0 характеризувало б точність точкової оцінки * для
параметра . Однак статистичні методи не дозволяють категорично
стверджувати, що *ии < δ, бо * є випадкова величина.
КВМ
319
Можна лише говорити про ймовірність , з якою ця нерівність
виконується.
Означення. Надійністю (довірчою ймовірністю) точкової оцінки *
параметра розподілу називають імовірність , з якою виконується
нерівність *ии < δ, тобто
Р( *ии < ) = . (3.29)
На практиці надійність оцінки задається наперед, причому число
вибирають близьким до одиниці: = 0,95; = 0,99; = 0,999.
Співвідношення (3.29) перетворимо до рівносильного виразу:
.або, *** PP (3.29)
Означення. Інтервал ** , , для якого виконується рівність
(3.29′), називається довірчим (надійним) інтервалом, а його межі * і
* – довірчими (надійними) межами для параметра розподілу .
Інакше кажучи, довірчий інтервал для параметра розподілу є
інтервал ** , , який із імовірністю «накриває» точне
значення цього параметра.
Зрозуміло, що завжди бажано, щоб для заданої близької до одиниці
ймовірності довжина довірчого інтервалу була якомога меншою. Однак
практично завжди є така альтернатива: збільшення надійності
приводить до збільшення довжини довірчого інтервалу, і навпаки.
Загальний спосіб, за допомогою якого знаходять довірчий інтервал,
полягає в тому, що розв’язують рівняння (3.29) і визначають з нього
число . А для цього потрібно обчислити ймовірність ** P .
Останнє обчислення можна зробити, коли відомий закон розподілу
точкової оцінки (статистики) nxxx ,,, 21* або пов’язаної з нею іншої
КВМ
320
випадкової величини, бо при цьому можна використати відомі формули з
теорії ймовірностей:
)()(* FFP , або
в
* )( dxxfP ,
де F(x) – функція розподілу і f(x) – густина розподілу випадкової величини *.
Для розв’язання рівняння (3.29) або обчислення ймовірності
** P поряд із розглянутими розподілами випадкових величин
(пуассонівський, нормальний, показниковий) у статистиці застосовують ще
розподіли «хі-квадрат», Стьюдента і Фішера – Снедекора. Опишемо ці
розподіли. 3.3.2. Розподіл 2 – «хі-квадрат»
Нехай nXXX ,,, 21 – незалежні і нормально
розподілені випадкові величини, причому їх математичні сподівання
0)( iXM і середньоквадратичні відхилення 1)( iX для будь-якого i =
1, 2, …, n. Випадкова величина
n
iiX
1
22
має розподіл 2 із n ступенями вільності, який характеризується
густиною
,0,
;00)(
21
xexA
x,nx,R x
2n
n
, (3.30)
де An – стала, яка визначається з умови нормування:
.10
2/12
dxexA xn
n
КВМ
321
Описаний закон розподілу, що характеризується густиною (3.30), у
теорії ймовірностей і статистиці називають законом «хі-квадрат».
Розподіл «хі-квадрат» залежить від одного параметра n і при n він
наближається до нормального закону розподілу.
Таблиця щодо розподілу «хі-квадрат», яка буде використана нами
далі, міститься в додатку 5. 3.3.3. Розподіл Стьюдента
Нехай Z – нормально розподілена випадкова вели-
чина, причому M(Z) = 0, (Z) = 1, а V – незалежна від Z випадкова
величина, яка розподілена за законом «хі-квадрат» із п ступенями
вільності. Тоді випадкова величина
nVZT
має розподіл Стьюдента з k n ступенями вільності, який характе-
ризується густиною:
12 2
( , ) 1 , ( , )
n
nxS x n B xn
, (3.31)
де Bn – деяка нормуюча константа.
Розподіл Стьюдента також залежить від одного параметра n і при
n наближається до стандартного нормального розподілу. Таблиця
щодо розподілу Стьюдента, яка буде використана нами далі, міститься в
додатку 6.
3.3.4. Розподіл Фішера – Снедекора
КВМ
322
Нехай U і V – незалежні випадкові величини, які
мають 2ч – розподіли зі ступенями вільності 1k і 2k , відповідно.
Випадкова величина
2
1
//kVkUF
залежить від двох параметрів – ступенів вільності 1k і 2k і задається
густиною ймовірностей
1 21
1 2
1 2121 22
( , , ) 1
k kk
F k kkf x k k C x xk
, 0х , (3.32)
де коефіцієнт 1 2k kС визначається з умови нормування. Цей розподіл
отримав назву F-розподілу, або розподілу Фішера – Снедекора. Зокрема, F-
розподілу підпорядковується відношення дисперсій двох незалежних
вибірок обсягів п і т із двох нормально розподілених генеральних
сукупностей із рівними дисперсіями. У цьому випадку 11 nk і
12 mk .
Таблиця значень, пов’язана з F-розподілом, міститься в додатку 7.
3.3.5. Інтервальне оцінювання математичного сподівання нормально розподіленої величини
Нехай випадкова величина Х нормально
розподілена, тобто характеризується густиною
),(,2
1),,( 2
2
2)(
xeaxf
ax
,
в якій параметри а і можуть бути невідомі.
За інтервального оцінювання математичного сподівання нормально
розподіленої випадкової величини Х розглядають два випадки: 1) коли
КВМ
323
середньоквадратичне відхилення відоме; 2) коли середньоквадратичне
відхилення невідоме.
Нехай nxxx ,,, 21 – п незалежних спостережень над випадковою
величиною Х, на підставі яких необхідно знайти довірчий інтервал для
невідомого параметра а = М(Х).
Оскільки для математичного сподівання а = М(Х) точковою оцінкою
є середнє вибіркове )( * xa , то для знаходження довірчого інтервалу
** aaa потрібно розв’язати рівняння:
xaxPaaP || * . (3.33)
Розв’язки рівняння (3.33) шукаємо дещо по-різному залежно від того, чи
середнє квадратичне відхилення випадкової величини Х є відоме чи
невідоме.
У першому випадку для знаходження розв’язку рівняння (3.33) вико-
ристовуємо нормальний розподіл, а в другому – розподіл Стьюдента.
Розв’язавши рівняння (3.33) в обох випадках, дійдемо таких двох
висновків:
1) якщо випадкова величина Х (ознака генеральної сукупності)
нормально розподілена і її середньоквадратичне відхилення відоме, то з
надійністю її математичне сподівання М(Х) = а задовольняє нерівність
,tn
xatn
x ггуу
(3.34)
де
n
iix
nx
1
1 – середнє вибіркове, n – обсяг вибірки, гtt – розв’язок
рівняння 2
)( tЦ , що визначається за таблицею додатка 2 [ )(tЦ –
інтегральна функція Лапласа];
2) якщо випадкова величина Х (ознака генеральної сукупності)
розподілена за нормальним законом і її середньоквадратичне відхилення
КВМ
324
невідоме, то з надійністю її математичне сподівання М(Х) = а задовольняє
нерівність:
,~~
,, nгn tn
xatn
x
(3.34)
де x – вибіркове середнє, ~ – виправлене вибіркове середньоквадратичне
відхилення, n – обсяг вибірки, ntt ,г – розв’язок рівняння
t
dxnx,S0 2
)( ,
який знаходимо згідно з таблицею додатка 3 за даними значеннями n і
( ),( nxS – густина розподілу Стьюдента).
Приклад 3.7. Відомо, що випадкова величина Х (відсоткове відношення
ринкової і номінальної цін на акції на фондовому ринку) нормально
розподілена і середньоквадратичне відхилення (Х) = 1,9. Спостереження дали
такі результати:
98,2; 100,2; 98,1; 96,2; 99,8; 101,2; 99,2; 104,1; 102,6; 103,8; 101,2; 99,4; 106,1; 102,6;
100,6; 98,8; 98,2; 101,1; 100,6; 99,8.
Оцінити невідоме математичне сподівання випадкової величини Х за
допомогою довірчого інтервалу з надійністю = 0,95.
Розв’язання. Обсяг вибірки n = 20. Обчислимо вибіркове середнє випадкової
величини Х:
201
x (98,2+100,2+98,1+96,2+99,8+101,2+99,2+104,1+102,6+103,8+101,2+
+99,4+106,1+102,6+100,6+98,8+98,2+101,1+100,6+99,8) = 2012011,8 = 100,6.
За таблицею додатка 2 і даною надійністю = 0,95 знаходимо tt – розв’язок
рівняння 475,0)( tЦ і одержуємо, що 96,1t .
Далі, за нерівністю (3.34) маємо:
96,1209,16,10096,1
209,16,100 a
96,15,49,16,10096,1
5,49,16,100 a 83,06,10083,06,100 a
43,10177,99 a .
КВМ
325
Отже, з надійністю = 0,95 невідомий параметр а «накривається» довірчим
інтервалом (99,7; 101,43).
Приклад 3.8. Відомо, що зріст 15-річної дитини є випадковою величиною Х із
нормальним розподілом імовірностей, причому середнє квадратичне відхилення
= 8 см. Скільки потрібно виконати спостережень, щоб знайти інтервал
завширшки 6 см, який із імовірністю 0,99 «накриває» невідоме математичне
сподівання досліджуваної випадкової величини?
Розв’язання. Інтервал xx , , де
tn
д , «накриває» невідоме
математичне сподівання М(Х). Звідси випливає, що обсяг спостережень
.ду 2
г2
2tn За умовою задачі 2 = 6 = 3, = 8 і 495,0)( tЦ . Із таблиці додатка
2 за обчисленим значенням )(tЦ знаходимо 58,2t .
Далі обчислюємо:
.489
66,66458,238 2
2
2
n
Отже, за даними в задачі умовами треба виконати не менше ніж 48
спостережень, щоб із надійністю = 0,99 інтервал завширшки 6 см «накривав»
математичне сподівання зросту навмання вибраної 15-річної дитини.
Приклад 3.9. За спостереженнями випадкова величина Х – річний прибуток
фермерів (у тис. грн) характеризується таким статистичним розподілом
вибірки:
Прибуток )( ix 5 6 7 8 9 10 11 12 К-сть фермерів )( in 1 2 4 6 7 5 3 2
Припускаючи, що випадкова величина Х має нормальний закон розподілу
ймовірностей, знайти інтервальну оцінку невідомого математичного сподівання
М(Х) = а з надійністю 999,0 .
Розв’язання. У даному випадку середнє квадратичне відхилення невідоме, тому
для інтервальної оцінки параметра а використаємо нерівність (3.34). Для цього
обчислимо:
КВМ
326
1) вибіркове середнє
;77,8)1221131059786746251(301
x
2) виправлене середньоквадратичне відхилення
21
222222222 77,82930)1221131059786746251(
291~
= ;74,157,792395291
3) за даними n = 30 і = 0,999 з таблиці додатка 3 знаходимо .659,3, nt
Тепер за нерівністю (3.34) маємо, що
659,33073,277,8659,3
3074,177,8 a 659,3
47,574,177,8659,3
47,574,177,8 a
16,177,816,177,8 a .93,961,7 a
Отже, на підставі одержаних вибіркових спостережень інтервал (7,61; 9,93) із
імовірністю 0,999 «накриває» середній прибуток одного фермера.
3.3.6. Інтервальне оцінювання дисперсії
і середнього квадратичного відхилення нормально розподіленої випадкової величини
Опишемо тепер, як знайти інтервальну оцінку для
невідомих дисперсії і середнього квадратичного відхилення нормально
розподіленої випадкової величини Х. Оскільки дисперсія D(X) = D, середнє
квадратичне відхилення (Х) = пов’язані співвідношенням D(X) = 2(Х), то
достатньо оцінити (Х). Оскільки однією з точкових оцінок для середнього
квадратичного відхилення є виправлене середнє квадратичне відхилення * , то для цього потрібно розв’язати рівняння:
*P P , (3.35)
де – задана надійність.
КВМ
327
Для розв’язання рівняння (3.35) використовуємо розподіл «хі-
квадрат» і доходимо такого висновку: якщо випадкова величина Х (ознака
генеральної сукупності) нормально розподілена і розв’язок nqq , рівняння
q
n
qn
dtntR1
1
11
),( (3.36)
менший від одиниці ( nq , < 1), то з надійністю середнє квадратичне
відхилення випадкової величини Х задовольняє нерівність
)1(~)1(~,, nn qq , (3.37)
де ~ – виправлене вибіркове середнє квадратичне відхилення, ),( ntR –
густина розподілу «хі-квадрат». Розв’язок nqq , знаходимо за даними n
і з таблиці додатка 4.
Якщо qγ, п > 1, то нерівність (3.37) набуває вигляду:
)1(~0 ,nq , (3.37)
а рівняння (3.36) зводиться до такого:
q
n
dtntR
11
),( . (3.36)
Для знаходження розв’язку рівняння (3.36´) для заданих і n також
використовують таблицю додатка 4.
Приклад 3.10. За даними вибірки задачі 3.7 знайти довірчий інтервал для
нормально розподіленої величини Х – відсоткового відношення ринкової і
номінальної вартості цін на акції на фондовому ринку з надійністю = 0,95.
Розв’язання. Щоб знайти інтервальну оцінку для середнього квадратичного
відхилення описаної випадкової величини Х, запишемо варіаційний ряд для
варіант цієї величини та їх частоти:
ix 96,2 98,1 98,2 98,8 99,2 99,4 99,8 100,2
КВМ
328
in 1 1 2 1 1 1 2 1
100,6 101,1 101,2 102,6 103,8 104,1 106,1 2 1 2 2 1 1 1
Вибіркове середнє 6,100x обчислено в задачі 3.7. Обчислимо виправлене
вибіркове середнє квадратичне відхилення:
222222 )2,1(1)4,1(1)8,1(1)4,2(2)5,2(1)4,4(1(191~
2)8,0(2 21
)5,515,312,31226,02)5,0(102)4,0(1 22222222
= .37,292,106191 2
1
За таблицями додатка 4 при значеннях n = 20 i = 0,95 знаходимо, що q = nq , = 0,37.
Довірчий інтервал для середньоквадратичного відхилення визначається
нерівністю:
.25,3у49,137,137,2у63,037,2)37,01(37,2у)37,01(37,2
Отже, середнє квадратичне відхилення відсоткового відношення ринкової і
номінальної цін акцій на фондовому ринку за даними задачі 3.7 із імовірністю 0,95
«накривається» інтервалом (1,49; 3,25).
Приклад 3.11. За спостереженнями над випадковою величиною Х – прибутком
фермерів (у тис. грн), які наведено в задачі 3.9, знайти довірчий інтервал для
середнього квадратичного відхилення з надійністю = 0,999.
Розв’язання. У задачі 3.9 обчислено виправлене вибіркове середнє квадратичне
відхилення .74,1~ За відомими значеннями n = 30 і = 0,999 із таблиці додатка
4 знаходимо 63,0, nq .
За нерівністю (3.37) маємо, що
.84,264,0)63,01(74,1)63,01(74,1
Досить великий довірчий інтервал для пояснюється вимогою високої
надійності. Якщо, наприклад, надійність = 0,95, то
23,225,1)28,01(74,1)28,01(74,1 ,
КВМ
329
тобто довжина довірчого інтервалу зменшується більше ніж удвічі.
Приклад 3.12. За даними обласного статистичного управління, урожайність
цукрових буряків в області розподіляється за нормальним законом. За вибіркою
n = 10 знайдено виправлене вибіркове середнє квадратичне відхилення 16,0~
випадкової величини Х – урожайності цукрових буряків з 1 га. Знайти інтервал
довіри, що «накриває» середнє квадратичне відхилення випадкової величини Х
у генеральній сукупності з надійністю = 0,99.
Розв’язання. За даними значень n = 10 і = 0,99 із таблиці додатка 4 знаходимо
08,1, nq . Оскільки 1, nq , то для знаходження вказаного інтервалу довіри
використовуємо нерівність (3.37):
.33,00)08,11(16,00
Отже, інтервал (0; 0,33) із надійністю = 0,99 «накриває» середнє квадратичне
відхилення врожайності цукрових буряків з 1 га в генеральній сукупності.
Рекомендована література: [1, c. 219–245; 2, с. 108–114; 5, c. 213–233;
6, c. 213–223; 8, с. 235–238; 9, c. 124–142].
Завдання для самоконтролю
Основні поняття, означення і відношення Замість крапок запишіть таке продовження (доповнення) тексту, щоб отримати
правильне означення або твердження.
1. Задача про інтервальне оцінювання параметра розподілу полягає в тому, що …
2. Надійністю точкової оцінки *и для параметра розподілу и називають …
3. Довірчим (надійним) інтервалом для параметра и називається інтервал
д)ид,(и ** , для якого …
4. Розподіл 2 описується густиною …
5. Розподіл Стьюдента описується густиною …
6. Розподіл Фішера – Снедекора характеризується густиною …
КВМ
330
7. Якщо середнє квадратичне відхилення у випадкової величини Х відоме, то інтер-
вальна оцінка для параметра a = M(X) виражається нерівністю …, де величини,
які входять у цю нерівність, мають такий зміст: …
8. Якщо середнє квадратичне відхилення випадкової величини Х невідоме, то
інтервальна оцінка для параметра a = M(X) визначається нерівністю …, де
величини, які входять у цю нерівність, мають такий зміст: …
9. Якщо випадкова величина Х нормально розподілена і розв’язок n,qq г рівняння
qn
qn
dtnt,R1
1
11
г менший за одиницю, то інтервальна оцінка для середнього
квадратичного відхилення )у(у X визначається нерівністю …, де величини, які в
неї входять, мають такий зміст: …
10. Якщо випадкова величина Х нормально розподілена і розв’язок пг,qq рівняння
г)(
11
q
ndtnt,R більший за одиницю, то інтервальна оцінка середнього
квадратичного відхилення визначається нерівністю: …
Тести Запишіть на бланку відповідей номер завдання і коди (порядкові номери або літери),
що відповідають тим варіантам відповідей, які вважаєте правильними.
1. Випадкова величина Х – ознака генеральної сукупності, нормально розподілена зі
середнім квадратичним відхиленням 5 . Яким є довірчий інтервал для оцінки
математичного сподівання a = M(X) із надійністю 0,99, якщо вибіркове середнє
8,16x і обсяг вибірки п = 25?
Варіанти відповідей: 1. 10,8 < a < 20,4. 2. 14,22 < a < 19,38. 3. 17,1 < a < 25,8.
2. Випадкова величина Х – ознака генеральної сукупності, нормально розподілена зі
середнім квадратичним відхиленням .2,1 Для якого мінімального обсягу
вибірки оцінка математичного сподівання a = M(X) за вибірковою середньою є
інтервал довжиною 2 6,0 із надійністю 0,975?
КВМ
331
Варіанти відповідей: 1. n = 81. 2. n = 75. 3. n = 102.
3. Із нормальної генеральної сукупності зроблено вибірку:
хі –0,5 –0,4 –0,2 0 0,2 0,6 0,8 1 1,2 1,5 пі 1 2 1 1 1 1 1 1 2 1
яка характеризує випадкову величину Х – деяку ознаку генеральної сукупності. Оцінити
з надійністю 0,95 математичне сподівання a = M(X) за допомогою довірчого інтервалу.
Варіанти відповідей: 1. 0 < a < 0,4. 2. –0,7 < a < 0,1. 3. –0,04 < a < 0,88.
4. За даними вибірки обсягом n = 10 із генеральної сукупності нормально розподіленої
кількісної ознаки Х обчислено виправлене вибіркове середнє квадратичне відхилення
1,5~ . Знайти довірчий інтервал, який «накриває» середнє квадратичне відхилення
)(X із надійністю 0,999.
Варіанти відповідей: 1. 1,7 < < 10,1. 2. 5,2 < < 16,4. 3. 0 < < 14,28.
5. Виконано 12 вимірювань одним приладом (без систематичної похибки) деякої
величини. Виправлене вибіркове середнє квадратичне відхилення ~ випадкових
похибок вимірювань дорівнює ~ = 0,6. Знайти точність приладу з надійністю = 0,99,
якщо результати вимірювань розподіляються за нормальним законом.
Варіанти відповідей: 1. 0 < < 2. 2. 0,2 < < 1,4. 3. 0,06 < < 1,14.
Приклади
1. У санаторії випадковим чином було відібрано 30 осіб та виміряно їх зріст ix
(см). Отримані результати наведено у вигляді інтервального статистичного
розподілу:
1,i ix x 165,5−170,5 170,5−175,5 175,5−180,5 180,5−185,5
in 5 8 10 7
Із надійністю = 0,99 у припущенні, що випадкова величина Х − зріст
відпочивальника санаторію − нормально розподілена, знайти довірчий інтервал для
математичного сподівання, якщо 2 .
КВМ
332
2. У 20 осіб було виміряно кровяний тиск ix (в умовних одиницях). Результати
вимірювання наведено у вигляді дискретного статистичного розподілу:
ix 1,5 1,8 2,3 2,5 2,9 3,3
in 2 2 4 6 4 2
З надійністю 0,999 побудувати довірчий інтервал для математичного
сподівання нормально розподіленої випадкової величини Х – кровяного тиску особи,
якщо 1 .
3. Що відбувається з довірчим інтервалом для оцінки невідомого
математичного сподівання нормально розподіленої ознаки Х генеральної сукупності
за:
а) зростання обсягу вибірки;
б) зростання середнього квадратичного відхилення;
в) підвищення надійності;
г) збільшення вибіркового середнього?
4. Відомо, що зріст 10-річної дитини є випадковою величиною Х із нормальним
розподілом імовірностей, причому середньоквадратичне відхилення = 6 см.
Скільки треба виконати спостережень, щоб знайти інтервал завширшки 3 см, який з
імовірністю 0,95 “накриває” невідоме математичне сподівання досліджуваної
випадкової величини?
5. Для галузі, що включає 1 200 фірм, складено випадкову вибірку з 19 фірм. За
цією вибіркою виявилося, що у фірмі в середньому працює 77,5 чоловіка за
середнього квадратичного відхилення = 25 чоловік. Користуючись 95% довірчим
інтервалом, оцінити середню кількість працівників у фірмі та загальну кількість
працівників у всій галузі. Припускається, що кількість працівників фірми має
нормальний розподіл.
6. Верстат-автомат штампує валики. За вибіркою обсягом n = 100 обчислено
вибіркову середню діаметрів виготовлених валиків. Знайти з надійністю 0,95 точність , з
якою вибіркова середня оцінює математичне сподівання діаметрів виготовлюваних
валиків, якщо відомо, що = 2 мм.
КВМ
333
7. За вибіркою обсягом п = 50 обчислено вибіркове середнє прибутку фермерів
деякого регіону. Знайти з надійністю = 0,99 точність , з якою це вибіркове середнє
оцінює математичне сподівання прибутку фермера, якщо відомо, що = 3,12.
8. З генеральної сукупності одержано вибірку:
ix -0.5 -0.4 -0.2 0 0.2 0.6 0.8 1 1.2 1.5
in 1 2 1 1 1 1 1 1 2 1
Оцінити з надійністю 0,95 математичне сподівання нормально розподіленої
ознаки генеральної сукупності за вибірковою середньою при допомозі довірчого
інтервалу.
8. З партії однотипних деталей навмання було вибрано 32 шт, в кожній з яких була
виміряна глибина канавки ix . Результати спостережень наведено у вигляді
інтервального статистичного ряду:
1,i ix x 2,4-2,6 2,6-2,8 2,8-3,0 3,0-3,2 3,2-3,4
in 6 8 10 5 3
В припущенні, що випадкова величина Х – нормально розподілена, знайти з
надійністю 0,99 інтервал довіри для математичного сподівання Х.
10. У ході перевірки двох підприємств торгівлі ревізор визначив, що в одному
магазині для випадкової вибірки n = 10 рахунків середнє сальдо рахунку дорівнює 54
дол., а у другому, за такого ж обсягу вибірки − 45 дол. Використовуючи 95% довірчі
межі, оцінити різницю середніх сальдо рахунків для двох магазинів, якщо
середньоквадратичне відхилення сальдо для першого магазину 1 = 3 дол., а для
другого − 2 = 2 дол. Припускається нормальний розподіл сальдо рахунку.
11. У ході перевірки 20 газетних кіосків виявилось, що виправлене
середньоквадратичне відхилення добового виторгу цих кіосків дорівнює 500 грн.
Знайти з надійністю 95% довірчий інтервал, що накриває генеральне середнє
квадратичне відхилення, якщо виторг кіосків підпорядкований нормальному законові
розподілу.
КВМ
334
12. Автомат заповнює банки кавою. Взявши 20 банок, контролер визначив, що
різниця ix між масою банки і стандартною масою має частоту in , які задані
таблицею:
Знайти з надійністю 95% довірчий інтервал, що покриває середнє квадратичне відхилення
маси банки з кавою, якщо маса банки задовольняє нормальному закону розподілу.
Відповіді
1. (175,23; 177,11). 2. (1,71; 3,19). 4. 62n . 5. (65,5; 89,5); (78600, 107400). 6. 0,392. 7.
1,138 . 8. -0,04<a<0,87. 9. (2,724; 2,963). 10. (5,9; 12,1). 11. (315; 685). 12. (1,36; 2,96).
ix -5 -3 -2 0 1 4
in 2 1 6 7 3 1
КВМ
335
3.4. Статистична перевірка
статистичних гіпотез
3.4.1. Означення статистичної
гіпотези і задача про її
статистичну перевірку
Дані вибіркових спостережень часто становлять осно-
ву для прийняття одного з кількох альтернативних
рішень (продукція може бути бракованою або якісною,
технологічний процес порушується або ні, точність
обробки виробу в межах норми, нижча від норми або
вища від неї і т. д.). Із загальнометодологічного погляду
йдеться про висунення деякої гіпотези, яку відхиляють
або приймають після проведення деякого експерименту.
Якщо цей експеримент має статистичний (стохастичний)
характер, кажуть, що гіпотеза є статистичною.
Означення. Статистичною називають гіпотезу про
властивості (ознаки) генеральної сукупності, що
перевіряється на основі вибірки.
Статистичними гіпотезами можуть бути, наприклад,
такі твердження: розподіл імовірностей випадкової
КВМ
336
величини є нормальний; розподіл імовірностей
випадкової величини є пуассонівський; у нормальному
розподілі випадкової величини параметри а = 20 і = 1,5;
у показниковому розподілі випадкової величини
параметр = 5; випадкові величини Х і Y неза-
лежні і т. п.
У математичній статистиці виділяють два основні
типи статистичних гіпотез:
гіпотези про закон розподілу ймовірностей
випадкової величини (ознаки генеральної
сукупності);
гіпотези про значення параметрів розподілу
випадкової величини (ознаки генеральної
сукупності).
Статистичні гіпотези першого типу називають
непараметричними, а другого типу – параметричними.
Означення. Основною (нульовою) називають висунуту
гіпотезу і позначають 0H .
Альтернативною (конкуруючою) називають гіпотезу,
яка повністю або частково логічно заперечує нульову
гіпотезу, і позначають 1H .
КВМ
337
Наприклад, математичне сподівання нормально
розподіленої випадкової величини а = 10 – основна
гіпотеза; математичне сподівання нормально
розподіленої випадкової величини а 10 –
альтернативна гіпотеза. Записують це так: 10:0 aH ;
10:1 aH .
Означення. Параметричну гіпотезу називають
простою, якщо вона стверджує, що всі невідомі
параметри мають деякі числові значення, і складеною,
якщо вона складається зі скінченного або нескінченного
числа простих гіпотез.
Наприклад, якщо – параметр показникового
розподілу, то гіпотеза 5:0 H є проста, а гіпотеза
5:0 H є складена.
Задача про статистичну перевірку статистичних
гіпотез формулюється так. Розглядають деяку гіпотезу
про те, що розподіл імовірностей випадкової величини
має той чи інший вигляд, або параметри розподілу
мають ті чи інші значення.
Задача полягає в тому, щоб на основі вивчення
статистичних даних (вибірки) підтвердити
справедливість висунутої гіпотези чи спростувати її. При
КВМ
338
цьому вказується також імовірність того, що прийняте
рішення є правильним або помилковим.
Проблема зменшення ймовірності того, що прийняте
рішення є помилковим, є також однією із задач
математичної статистики.
У результаті статистичної перевірки гіпотези може
бути прийняте одне з двох правильних рішень:
гіпотеза приймається, і вона істинна;
гіпотеза відхиляється, і вона неістинна. Поряд із тим у результаті статистичної перевірки статистичної гіпотези
можуть бути допущені помилки (прийняті неправильні рішення) двох типів:
гіпотеза відхиляється, але вона істинна (помилка
першого роду);
гіпотеза приймається, але вона неістинна (помилка
другого роду). Виявляється, що помилка першого роду має вагоміші наслідки, ніж
помилка другого роду.
Виникає питання: як застрахувати себе від помилки
першого роду або принаймні звести до мінімуму ризик її
допущення? Для цього вводиться спеціальне число ,
яке виражає ймовірність відкинути правильну гіпотезу.
Означення. Імовірність допустити помилку першого
роду називають рівнем значущості і позначають через .
КВМ
339
Число задають наперед і найчастіше його
вибирають рівним 0,1; 0,05; 0,01. Якщо = 0,05, то це
означає, що ймовірність допустити помилку першого
роду є мала, а саме – ми ризикуємо її допустити у 5-ти
випадках зі 100.
Означення. Інформацію про випадкову величину, яка
міститься в гіпотезі, називають гіпотетичною, або
теоретичною, а інформацію про неї, яку отримують на
основі вибірки, називають статистичною, або емпіричною.
3.4.2. Критерій статистичної
перевірки гіпотези
Нехай 0H – нульова гіпотеза про
розподіл імовірностей випадкової величини (ознаки
генеральної сукупності) або про значення параметрів
цього розподілу. Далі на основі статистичних даних
(вибірки) потрібно вирішити: чи гіпотезу 0H прийняти,
чи гіпотезу 0H відхилити на користь альтернативної
гіпотези 1H .
Виникає питання: як дані вибірки пов’язати зі
сформульованою гіпотезою і за якими критеріями на
КВМ
340
основі кожної з різних вибірок прийняти ту чи іншу
гіпотезу?
Щоб дати відповідь на це питання, для гіпотези 0H
вводять певну чисельну характеристику, яка
обчислюється на основі вибірки і на підставі якої вирі-
шують: прийняти основну гіпотезу 0H чи альтернативну
гіпотезу 1H . Зрозуміло, що вибрана чисельна
характеристика для різних вибірок матиме, загалом
кажучи, різні значення, які наперед невідомі, і тому вона
є випадковою величиною.
Означення. Статистичним критерієм гіпотези (або
просто критерієм гіпотези) називається випадкова
величина К, за допомогою якої проводиться перевірка
гіпотези.
Випадкову величину К вибирають такою, щоб закон
розподілу її ймовірностей був відомий.
Означення. Значення випадкової величини К, яке
обчислене на основі певної вибірки, називають
емпіричним (спостережуваним) значенням критерію
гіпотези і позначають емпK )( cпK .
Виявляється, що за одних значень емпK гіпотеза 0H
приймається, а за інших його значень – відхиляється.
КВМ
341
Означення. Сукупність значень критерію К (випадкової
величини К), за яких нульова гіпотеза 0H відхиляється,
називається критичною областю, а сукупність значень
критерію К, за яких нульову гіпотезу 0H приймають,
називається областю прийняття гіпотези (областю
допустимих значень).
Звідси маємо таке правило перевірки статистичних
гіпотез: якщо емпіричне (спостережуване) значення
критерію емпK належить критичній області, то нульову
гіпотезу 0H відхиляють; якщо емпіричне значення кри-
терію емпK належить області прийняття гіпотези, то
гіпотезу 0H приймають.
Які ж області можуть бути критичними і як їх
шукати? Якщо випадкова величина К є одновимірна, то
критична область, як правило, є множиною точок
певних інтервалів на прямій, які відділені від області
прийняття гіпотези так званими критичними точками
крk . Тобто для знаходження критичної області достатньо
визначити критичні точки.
Розрізняють три види критичних областей:
КВМ
342
правостороння критична область – це та область
на числовій прямій, що визначається нерівністю :крkK
Область прийняття гіпотези
kкр Критична область К
0
лівостороння критична область – це та область на
числовій прямій, що визначається нерівністю :крkK
Область прийняття гіпотези К
Критична область kкр 0
двостороння критична область – це та область на
числовій прямій, що визначається сумою
інтервалів: )1(крkK і :)2(
крkK
Область прийняття
k(1)кр гіпотези k(2)
кр К
Критична область 0 Критична область
КВМ
343
Для знаходження критичної області задаються рівнем
значущості і шукають критичні точки крk із таких
співвідношень:
а) для правосторонньої критичної області:
);0()( kpкр kkKP (3.38)
б) для лівосторонньої критичної області:
);0()( kpкр kkKP (3.39)
в) для двосторонньої симетричної критичної області:
б)( (2))1( kpkp kKPkKP . (3.40)
Однак знайти дві критичні точки )1(крk і )2(
крk з одного
рівняння можна нескінченним числом способів. Тому
виявляється можливим ввести додаткову умову.
Найчастіше двосторонню критичну область будують як
симетричну, розділяючи порівну між «хвостами»
розподілу, тобто визначаючи )1(крk = –kkp і )2(
крk = kkp із
рівняння:
.0,2/)( kpkp kkKP (3.40) Отже, перевірка статистичної гіпотези проводиться за
такою схемою:
КВМ
344
1. Формулюють нульову гіпотезу 0H , альтернативну
гіпотезу 1H і задають рівень значущості для
перевірки гіпотези 0H .
2. Визначають критерій К для перевірки гіпотези 0H ,
який є випадковою величиною з відомим розподілом
її ймовірностей.
3. Визначають критичні області відносно даних
критерію К та рівня значущості . Для визначення
критичної області достатньо знайти критичні
точки крk за відповідними рівностями (3.38)–(3.40).
4. Знаходять емпіричне (спостережуване) значення
критерію емпK на основі конкретної вибірки.
5. Приймають рішення: якщо емпіричне значення
критерію емпK потрапляє в критичну область, то
нульову гіпотезу 0H відхиляють; якщо ж значення
емпK потрапляє в область допустимих значень, то
нульову гіпотезу 0H приймають.
Зрозуміло, що для певної гіпотези можна побудувати
багато різних критеріїв її перевірки, і за кожним таким
критерієм можемо одержувати різні результати щодо
прийняття нульової гіпотези 0H на основі тієї самої
КВМ
345
вибірки. Тому для означення кращого критерію
вводиться характеристика, яка називається
потужністю критерію.
Означення. Потужністю критерію називають
імовірність належності критерію критичній області за
умови, що істинна конкуруюча гіпотеза.
Тобто потужність критерію (наскільки вибраний
критерій добрий) визначається як імовірність не
допустити помилку другого роду при вибраному
критерії.
3.4.3. Критерій узгодження Пірсона
Припустімо, що вивчається
генеральна випадкова величина Х, стосовно якої
висунуто гіпотезу 0H про те, що її закон розподілу
описується гіпотетичною функцією розподілу )(xF або
густиною розподілу ( )f x . Зрозуміло, що у випадку
неперервної ознаки величини Х висунута гіпотеза буде
рівнозначна гіпотезі:
0H : {густина розподілу ймовірностей випадкової
величини Х є )(xf };
КВМ
346
а у випадку дискретної ознаки Х гіпотезу 0H можна
сформулювати так:
0H : {закон розподілу випадкової величини Х
визначається функцією ймовірності NipxXP ii ,)( }.
У даних гіпотезах PfF ,, можуть бути повністю
відомими функціями або визначеними лише з точністю
до невідомих параметрів.
Критерії, які призначені для перевірки
сформульованих гіпотез, називаються критеріями
узгодження. Критерії узгодження дозволяють відповісти
на питання про те, чи розбіжність між емпіричними і
теоретичними розподілами є настільки незначною, що
вона може бути приписана впливу випадковості, чи ні.
У даному пункті ми розглянемо один з таких
критеріїв, який називається критерієм Пірсона, або
критерієм 2ч («хі-квадрат»).
Нехай дані вибірки nxxx ...,,, 21 , які отримані внаслідок
п незалежних спостережень над випадковою величиною
Х, згруповані і подані у формі дискретного варіаційного
ряду (табл. 3.1 або 3.1), якщо ознака Х – дискретна, або
інтервального варіаційного ряду (табл. 3.2 або 3.2),
якщо ознака Х – неперервна. На підставі побудованого
КВМ
347
статистичного розподілу вибірки і за наперед заданим
рівнем значущості треба перевірити гіпотезу:
0H : {закон розподілу Х описується функцією
розподілу )(xF або густиною розподілу f(x)}, якщо
альтернативна гіпотеза:
1H : {закон розподілу Х не описується функцією
розподілу )(xF чи густиною розподілу f(x)}. Згідно з критерієм Пірсона для перевірки гіпотези 0H вводиться
випадкова величина (статистика) К:
m
i i
iim
i i
ii
ppwn
nnnK
1
2
1
22ч , (3.41)
де т – число груп у статистичному розподілі вибірки;
( )i in w – спостережувана частота (відносна частота)
ознаки Х в і-тій групі;
ii pnn – теоретична частота; рі – імовірність того, що значення Х належить до і-тої
групи, і вона розрахована за допомогою
гіпотетичної функції розподілу F (x) або густини
розподілу )(xf .
У більш повних курсах математичної статистики
доводиться, що статистика К при n прямує за
розподілом до випадкової величини, розподіленої за
законом 2 із числом k = т – s – 1 ступенів вільності, де т
КВМ
348
– число інтервалів статистичного розподілу вибірки; s –
число параметрів, що входять до гіпотетичного розподілу
F або f і які оцінюються на підставі спостережуваних
даних. Так, наприклад, коли перевіряється узгодження
досліджуваного розподілу з розподілом Пуассона, єдиний
параметр якого невідомий і оцінюється за вибірковими
даними, то k = m – 2 (коли параметр відомий і не
оцінюється за вибірковими даними, то k = m – 1); якщо
перевіряється узгодження з нормальним розподілом, для
якого за вибірковими даними оцінюються два параметри
i , то k = m – 3 і т. д.
Якщо маємо повне узгодження теоретичного і
статистичного розподілів, то К = 0, у протилежному
випадку K > 0. Обчисливши за формулою (3.41) 2емп емпK
і визначивши за заданим рівнем значущості та числом
ступенів вільності k із додатка 5 критичне значення
кркр k2 , маємо такі висновки:
а) гіпотезу 0H відхиляємо, якщо ;емп kpK k
б) приймаємо гіпотезу 0H , якщо емп kpK k .
Застосування критерію 2 вимагає дотримання таких
умов:
КВМ
349
1) експериментальні дані мають бути незалежними,
тобто вибірка повинна бути випадковою; 2) обсяг
вибірки має бути достатньо великим (практично не
меншим ніж 50 одиниць), а частота кожної групи – не
меншою за 5. Якщо остання умова не виконується, то
проводиться попереднє об’єднання нечисленних груп.
Опишемо детальніше схему перевірки за критерієм
Пірсона статистичної гіпотези про гіпотетичний закон
розподілу ймовірностей випадкової величини Х для
випадку, коли ця величина є неперервною.
Схема перевірки гіпотези про закон розподілу
ймовірностей неперервної випадкової величини за
критерієм Пірсона:
1. Вихідні статистичні дані (результати вибірки)
nxxx ...,,, 21 групують і записують як інтервальний
варіаційний ряд:
Таблиця 3.3 ii zz ,1 10 , zz 21, zz … mm zz ,1
in in in … mn iw 1w 2w … mw
У першому рядку відзначені часткові інтервали
згрупованого варіаційного ряду )[ 1 ii z,z , у другому – їх
КВМ
350
частоти in , у третьому – їх відносні частоти
(статистичні ймовірності) iw , тобто числа
,,1, minnw i
i
де n – обсяг вибірки, in – число спостережень, в яких
наставала подія X ),,[ 1 ii zz т – число груп (частинних
інтервалів), на які розбито вибірку. При цьому
.1,11
m
ii
m
ii wnn
2. Оскільки перевіряється гіпотеза про те, що розподіл
генеральної ознаки Х описується певною (конкретною)
функцією розподілу F(x), або, що те ж саме, густиною
розподілу f(x), то для кожного інтервалу ),[ 1 ii zz
можна визначити теоретичні ймовірності ip
попадання значень випадкової величини Х у цей
інтервал, а отже, і теоретичні частоти ii pnn . Для обчислення ймовірностей ip використовують формули:
)()()( 11 iiiii zFzFzZzPp (3.42)
або
....,,2,1,)(1
midxxfpi
i
z
zi
(3.42)
КВМ
351
Зазначимо, що для обчислення ймовірностей 1p і mp у
формулах (3.42), (3.42) покладають, відповідно, 0z і
mz . Тоді 11
m
iip .
Отримані результати обчислень зручно записати у
формі таблиці (табл. 3.4). Таблиця 3.4
ii zz ,1 10 , zz 21, zz … mm zz ,1 in n1 n2 … mn iw 1w 2w … mw ip 1p 2p … mp
ii pnn 1n 2n mn
Зауваження. Гіпотетичні функція розподілу )(xF або
густина розподілу )(xf , як правило,
характеризуються деякими чисельними
параметрами, точні значення яких можуть бути
невідомими. Тоді для обчислення теоретичних
імовірностей ip ці невідомі параметри замінюються їх
точковими оцінками, визначеними за допомогою
даних вибірки.
3. На підставі даних із табл. 3.4 обчислюють
спостережуване значення критерію Пірсона:
КВМ
352
m
i i
iiемп n
nnK1
2)( , де ii npn ; (3.43)
або
m
i i
iiемп p
pwnK1
2)( . (3.43)
4. За даним рівнем значущості і числом ступенів
вільності k = m – s – 1, де s – число параметрів
гіпотетичного розподілу, обчислених за даними
вибірки, із таблиці критичних значень розподілу 2
знаходять критичну точку .,2 kk кркр
Зауваження: 2кр є розв’язком рівняння
.),()(2
22
кр
dxmxRP кр
5. Зіставляємо значення емпK і крk : якщо кремп kK , то
гіпотезу 0H про вигляд густини розподілу відхиляють;
якщо ж кремп kK , то гіпотезу 0H приймають.
Приклад 3.13. Нехай Х – середній урожай з 1 га. За даними 100 спостережень
дістали такий інтервальний розподіл частот:
ii zz ,1 [13,5; 14,5) [14,5; 15,5) [15,5; 16,5) [16,5; 17,5)
in 6 10 18 28
[17,5; 18,5) [18,5; 19,5) [19,5; 20,5) 20 12 6
КВМ
353
За допомогою критерію Пірсона і для заданого рівня значущості = 0,05
перевірити гіпотезу 0H : досліджувана випадкова величина Х має нормальний
закон розподілу ймовірностей.
Розв’язання. Нормальний закон розподілу характеризується густиною розподілу
),(,21),,( 2
2
2)(
xeaxfax
,
де а = М(Х) і )(XD – параметри розподілу. Оскільки ці параметри
невідомі, то оцінюємо їх на підставі вибіркових даних. Одержимо:
1001* xa (146+1510+1618+1728+1820+1912+206) =
1001
1706 = 17,06.
991~ D (3,0626+2,06210+1,06218+0,06228+0,94220+1,94212+2,9426) =
9964,233 = 2,36.
54,136,2~~* D .
Заокругливши, виберемо а = 17, = 1,5 і перевіримо гіпотезу про те, що
випадкова величина Х має нормальний закон розподілу ймовірностей із
густиною
2
2
)5,1(2)17(
0 5,121)(
x
exf .
Для цього обчислимо спочатку статистичні ймовірності iw та теоретичні
ймовірності ip попадання випадкової величини Х в інтервали .,1 ii zz
Статистичні ймовірності обчислюємо за формулою nnw i
i :
;06,01 w ;10,02 w ;18,03 w ;28,04 w ;20,05 w ;12,06 w ;06,07 w
теоретичні ймовірності обчислюємо за формулою:
,у~у~1
1
xzЦxzЦzXzPp iiiii
де )(xЦ – інтегральна функція Лапласа.
Беручи до уваги наше зауваження щодо обчислення ймовірностей 1p і pm
0 , mz z одержимо:
КВМ
354
;05,00475,04525,05,067,15,15,2
5,15,2
5,1175,14
1
ЦЦ
ЦЦЦЦЦЦp
;11,01112,03413,04525,0167,15,15,1
5,15,2
5,15,2
5,15,1
5,1175,14
5,1175,15
2
ЦЦ
ЦЦЦЦЦЦp
;21,0212,01293,03413,033,015,15,0
5,15,1
5,15,1
5,15,0
5,1175,15
5,1175,16
3
ЦЦ
ЦЦЦЦЦЦp
5,15,02
5,15,0
5,15,0
5,1175,16
5,1175,17
4 ЦЦЦЦЦp
= ;26,02586,01293,0233,02 Ц
5,15,0
5,15,1
5,1175,17
5,1175,18
5 ЦЦЦЦp
= ;21,0212,01293,03413,033,01 ЦЦ
5,15,1
5,15,2
5,1175,18
5,1175,19
6 ЦЦЦЦp
= ;11,01112,03413,04525,0167,1 ЦЦ
67,1
5,15,2
5,1175,19
7 ЦЦЦЦЦЦp
= .05,00475,04525,05,0
Запишемо обчислені ймовірності у формі таблиці:
iw 0,06 0,10 0,18 0,28 0,20 0,12 0,06
ip 0,05 0,11 0,21 0,26 0,21 0,11 0,05
Обчислюємо 2емпемпK за формулою (3.43):
05,0010
11,0010
21,0010
26,0020
21,0030
11,0010
05,0010100
22222222 ,,,,,,,K емпемп
= 100 (0,002 + 0,0009 + 0,004 + 0,0015 + 0,0005 + 0,0009 + 0,002) = 100 · 0,0118 = 1,18.
Для заданого рівня значущості = 0,05 і числа ступенів вільності k = 7 – 2 – 1 = 4
із таблиці додатка 5 визначаємо .5,92 кркрk
Оскільки Kемп = 1,18 < kkp = 9,5, то гіпотеза 0H : випадкова величина Х має
нормальний розподіл – приймається.
КВМ
355
Приклад 3.14. Аналіз декларацій 750 фізичних осіб про сукупний річний дохід
подано в такій таблиці:
ix 0 1 2 3 4 5
in 424 233 68 20 1 1
де ix – відсоток незаявленого сукупного доходу, in – число осіб, які не заявили
ix % сукупного доходу. Перевірити гіпотезу про те, що відсоток незаявленого
сукупного доходу однієї особи під час оформлення нею декларації має розподіл
Пуассона, якщо рівень значущості = 0,01.
Розв’язання. Нехай випадкова величина Х – середній відсоток незаявленого
сукупного річного доходу однієї фізичної особи під час оформлення декларації.
За умовою задачі, потрібно перевірити нульову гіпотезу:
...,,2,1,0,!
:0
iei
iXPHi
де )(XM – невідомий параметр.
У прикладі 3.6 цього розділу за допомогою методу максимальної
правдоподібності було показано, що точкова оцінка параметра розподілу
Пуассона дорівнює вибірковому середньому x . У даному випадку
λ* = .6,0584,0438750
1514132026812330424750
1x
Обчислимо теоретичні ймовірності ip за формулою Пуассона, покладаючи в ній =
0,6:
.3,2,1,0,!6,0 6,0 iei
pi
i
Два останніх варіанти змінної Х у статистичному розподілі вибірки мають
частоти менші від п’яти і сума цих частот також менша від п’яти. Через те їх
об’єднаємо з варіантою Х = 3. Зауважимо також, що остання ймовірність 3p
буде визначатися як доповнення до одиниці:
;549,01!06,0)0( 6,0
6,00
0
eeXPp
КВМ
356
;329,06,0!16,0)1( 6,0
6,01
1
eeXPp
;099,02
36,0!26,0)2( 6,0
6,02
2
eeXPp
.023,0099,0329,0549,01)3(3 XPp
Для обчислення 2чемпемпK використаємо формулу (3.43):
3
0
22 )(ч
i i
iiемпемп n
nnK ,
де 22,68,233,424 3210 nnnn , а теоретичні частоти in визначаються
з рівності ii npn :
;75,411549,07500 n ;75,246329,07501 n
;25,74099,07502 n .25,17023,07503 n
Наступні етапи означення статистики 2ч запишемо у формі таблиці:
ix in ip ii npn ii nn iii nnn :)( 2 0 424 0,549 411,75 12,25 0,36 1 233 0,329 246,75 –13,75 0,77 2 68 0,099 74,25 –6,25 0,53
3 і більше 22 0,023 17,25 4,75 1,31
Сума 750 1 750 - 97,22 емп
На підставі даних вибірки нами оцінено параметр і s =1, а т = 4 (після
об’єднання останніх трьох варіант ознаки). Тому число ступенів вільності k = 4
– 1 – 1 = 2. Із таблиці критичних точок розподілу 2ч (див. додаток 5) для =
0,01 і k = 2 знаходимо критичне значення критерію .2,92 kpkpK
Оскільки ,2,997,2 кремп kK то сформульована гіпотеза 0H про те, що
відсоток не заявленого однією особою сукупного річного доходу під час
оформлення декларації має розподіл Пуассона за рівня значущості = 0,01,
приймається, бо вона не суперечить статистичним даним.
КВМ
357
3.4.4. Критерій узгодження Колмогорова
Критерій Колмогорова застосовують у
тому разі, коли гіпотетична функція розподілу )(xF
неперервна. Він ґрунтується на зіставленні теоретичної та
емпіричної функцій розподілу накопичених частот.
Модель А. Перевірка гіпотези 0H , яка полягає в тому,
що неперервна випадкова величина Х має повністю
визначену функцію розподілу ( )F x .
У даному випадку за міру узгодження між емпіричною
та теоретичною функціями розподілу А. М. Колмогоров
прийняв випадкову величину: *sup | ( ) ( ) |
xD F x F x
, (3.44)
( )F x є теоретичною функцією розподілу, а )(* xF -
емпіричною функцією розподілу, визначеною на підставі
простого варіаційного ряду:
)()2()1( ... nxxx ,
тобто
.,1
,11,
,,0
)(
)(
)1()(
)1(
*
n
ii
xx
nixxx ,ni
xx
xF (3.45)
КВМ
358
Отже, статистика D виражає максимальне відхилення
емпіричної функції розподілу )(x*F від гіпотетичної
функції )(xF . Оскільки теоретична і емірична функції
розподілу визначають, відповідно, імовірність і відносну
частоту однієї і тієї ж події, то для кожного х величина
)(x*F є ефективною оцінкою для )(xF і зі зростанням обсягу
вибірки п відбувається зближення )(x*F із )(xF . Тому,
принаймні для великих п, у тих випадках, коли гіпотеза
0H істинна, значення D не повинні істотно відрізнятися від
нуля. Звідси випливає, що критичну область критерію,
яка ґрунтується на статистиці D, треба задавати
нерівністю .крdD
Особливістю статистики D є те, що (у разі
правдивості гіпотези 0H ) її розподіл не залежить від виду
функції )(xF . Для невеликих значень п точний розподіл D
протабульований і для розрахунку точних значень
критичних меж крd , які визначаються з рівняння
)( крtDP , (3.46)
де – заданий рівень значущості, можна використати
відповідні таблиці (див. додаток 9). У разі практичного застосування критерію Колмогорова діємо так:
КВМ
359
1. Записуємо вихідний статистичний ряд як простий
варіаційний ряд:
)()2()1( ... nxxx .
2. Обчислюємо всі різниці
( )( )ii F xn для ni ,1
і найбільше з цих значень, узятих за абсолютною
величиною, позначаємо через d :
inixF
nid
1max . (3.47)
3. Обчислюємо всі різниці
( )1( )i
iF xn
і найбільше з цих значень, узятих за абсолютною
величиною, позначаємо через d :
n
ixFd ini
1max1
. (3.48)
4. Вибираємо більше з чисел d , d :
),max( ddd . (3.49)
5. За даним рівнем значущості та п визначаємо з
таблиці додатка 9 таке критичне значення крd
статистики Колмогорова D, для якого виконується
рівняння (3.46). Критичною областю є тоді відрізок [ крd ,
КВМ
360
1]. Якщо обчислене значення d < крd , то висунута гіпотеза
0H приймається, а якщо крdd , то гіпотеза 0H
відхиляється.
Приклад 3.15. Результатами п’ятиелементної вибірки є числа: 0,18; 0,56; 0,87;
1,37; 2,46. За рівня значущості = 0,05 за допомогою критерію Колмогорова
перевірити гіпотезу 0H про те, що вибірку було взято з генеральної сукупності,
в якій функція розподілу досліджуваної ознаки Х
0, 0,
( )1 , 0,x
xF x
e x
тобто що Х описується показниковим законом розподілу.
Розв’язання. За допомогою таблиці значень показникової функції xe обчислюємо
значення гіпотетичної функції розподілу ( )F x для і = 1, …, 5: F(x(1)) = 1 – e–0,18 =
0,1647, F(x(2)) = 1 – e–0,56 = 0,4288, F(x(3)) = 1 – e-0,87 = 0,5810,
,7459,01)( 37,1)4( exF F(x(5)) = 1 – e-2,46 = 0,9146. Отримані дані подано в
четвертому стовпці наведеної нижче таблиці, в якій, окрім цього, містяться дані
обчислень, необхідних для означення d і d :
і )(ix
ni ( )( )iF x
ni 1 ( )( )i
i F xn )(1
)(ixFn
i
1 0,18 0,2 0,1647 0 0,0353 0,1647 2 0,56 0,4 0,4288 0,2 0,0288 0,2288 3 0,87 0,6 0,5810 0,4 0,0190 0,1810 4 1,37 0,8 0,7459 0,6 0,0541 0,1459 5 2,46 1 0,9146 0,8 0,0854 0,1146
Із таблиці отримуємо .2288,0,2288,0,0854,0 ddd Значення d = 0,2288
порівнюємо з визначеним за допомогою таблиці додатка 9 критичним
значенням .563,0)95,0()1( 5 ddd nкр Оскільки ,крdd то робимо
висновок, що дані вибірки не заперечують висунутої гіпотези, якщо = 0,05.
КВМ
361
Модель Б. Перевірка гіпотези 0H , яка полягає в тому,
що неперервна випадкова величина Х має функцію
розподілу ( )F x , що залежить від невідомих параметрів.
Якщо гіпотетична функція розподілу ( )F x залежить від
невідомих параметрів, які оцінюються на підставі
вибірки, то закон розподілу статистики D залежить як
від теоретичної функції розподілу ( )F x , так і в загальному
випадку від невідомих значень параметрів.
Процедура групування вихідних статистичних даних
в інтервальний варіаційний ряд також впливає на
розподіл статистики D. Однак, якщо довжини частинних
проміжків інтервального ряду достатньо малі, а обсяг
вибірки достатньо великий (порядку кількох сотень), то
в таких випадках для обчислення критичних значень
критерію Колмогорова можна користуватися граничним
розподілом статистики D, який, знову ж таки, уже не
залежить ні від гіпотетичної функції ( )F x , ні від
групування даних вибірки.
Граничний розподіл статистики D визначається
співвідношенням:
j
tjj
netKtnDP
222)1()()(lim , (3.50)
КВМ
362
яке виконується для будь-якого фіксованого t > 0, а
критичне значення критерію nD визначається
наближено рівністю:
,)(1)( кркр tKtnDP
де – заданий рівень значущості критерію.
Граничний розподіл Колмогорова також
протабульований і для розрахунку значень критичної межі
крt можна користуватися відповідними таблицями.
Критичні значення крt для кількох рівнів значущості
подаємо у формі
таблиці: 0,1 0,05 0,01 tkp 1,224 1,354 1,628
Критичні значення граничного ( n ) розподілу
Колмогорова:
.)( крtnDP (3.51)
Якщо обчислене значення d n добутку n на
спостережуване значення d статистики D (3.44) є більше
або дорівнює крt , то гіпотеза 0H за рівня значущості
відхиляється; якщо d n < крt , то гіпотеза 0H
приймається.
КВМ
363
Зауважимо, що у випадку згрупованих статистичних
даних у формі інтервального варіаційного ряду для
обчислення спостережуваного значення d статистики D
достатньо: а) обчислити значення емпіричної і теоретичної
функцій розподілу для верхніх меж часткових інтервалів;
б) знайти абсолютні величини їх відповідних різниць
,*ii zFzF і = 1, ..., k; в) з отриманих абсолютних величин
різниць вибрати максимальну, яка, власне, і буде збігатися
з d.
Приклад 3.16. Унаслідок 100 спостережень за зростанням заробітної плати
працівників підприємства за певний період одержали такі результати:
% зростання зарплати ),[ 1 ii zz [0, 1) [1, 2) [2, 3) [3, 4) [4, 5) К-сть
працівників in 8 12 7 10 12 Відносні частоти iw 0,08 0,12 0,07 0,10 0,12
[5, 6) [6, 7) [7, 8) [8, 9) [9, 10)
9 8 13 10 11 0,09 0,08 0,13 0,10 0,11
Використовуючи критерій Колмогорова, перевірити гіпотезу 0H про те, що
досліджувана випадкова величина Х – середнє зростання заробітної плати
працівників підприємства протягом даного періоду має рівномірний розподіл
на проміжку [0, 10], прийнявши за рівень значущості число = 0,1.
Розв’язання. Рівномірний закон розподілу випадкової величини на відрізку [0,
10] характеризується гіпотетичною (теоретичною) функцією розподілу:
.10,1
,100,10
,0,0
)(
x
xxx
xF
КВМ
364
Оскільки функція ( )F x повністю визначена, то ми відразу можемо обчислити її
значення F(zi) для верхніх меж часткових проміжків. Значення емпіричної
функції розподілу )(*izF отримаємо, використавши формулу:
,10...,,1,)(1
*
iwzFi
ssi
де sw – відносні частоти часткових проміжків, що виписані в третьому рядку
вихідної таблиці.
Етапи обчислення спостережуваного значення d статистики D містить така
таблиця:
і ii zz ,1 in iw )(*izF ( )iF z *
)( ( )i iF z F z
1 [0, 1) 8 0,08 0,08 0,10 0,02 2 [1, 2) 12 0,12 0,20 0,20 0,00 3 [2, 3) 7 0,07 0,27 0,30 0,03 4 [3, 4) 10 0,10 0,37 0,40 0,03 5 [4, 5) 12 0,12 0,49 0,50 0,01 6 [5, 6) 9 0,09 0,58 0,60 0,02 7 [6, 7) 8 0,08 0,66 0,70 0,04 8 [7, 8) 13 0,13 0,79 0,80 0,01 9 [8, 9) 10 0,10 0,89 0,90 0,01
10 [9, 10) 11 0,11 1 1 0,00 Сум
а п = 100
Із таблиці знаходимо спостережуване значення d статистики D:
d = max│F*(zi) – F(zi)│ = 0,04.
Звідси маємо, що .4,004,010 nd Із таблиць розподілу Колмогорова для nD
за рівнем значущості = 0,1 знаходимо критичне значення .224,1крt Оскільки
224,14,0 nd , то гіпотезу 0H приймаємо. Це означає, що різниця між
значеннями емпіричної і теоретичної функцій розподілу є статистично
неістотною.
Зауваження. Ми розглянули критерії для перевірки
гіпотез про закони розподілу випадкової величини Х
– ознаки генеральної сукупності. Поряд із цим на
КВМ
365
практиці часто виникає потреба, знаючи характер
закону розподілу випадкової величини, перевірити
гіпотези про параметри його розподілу. Такі критерії
також існують. Далі наведемо деякі критерії для
перевірки гіпотез про значення параметрів
нормально розподілених випадкових величин.
3.4.5. Перевірка гіпотези про
порівняння середнього значення (математичного сподівання) ознаки генеральної сукупності зі стандартом
У критеріях для перевірки гіпотези про
значення математичного сподівання 00 : aaH , тобто
гіпотези, що математичне сподівання )(XMa досліджуваної
ознаки Х генеральної сукупності збігається зі стандартом
0a , використовуємо статистику x – середнє вибіркове.
Залежно від інформації щодо генеральної сукупності, якою
володіємо, розрізняємо такі моделі.
КВМ
366
Модель А. Гіпотеза про значення математичного
сподівання нормального закону розподілу за відомої
дисперсії. Нехай випадкова величина Х нормально
розподілена з невідомим математичним сподіванням
)(XMa , але відомою дисперсією )(2 XD .
Потрібно на основі вибірки перевірити нульову
гіпотезу 00 : aaH про рівність математичного сподівання
а певному числу 0a . При цьому припускаємо, що відомі
такі величини:
а) дані вибірки обсягу n;
б) середнє квадратичне відхилення = );(X
в) гіпотетичне значення математичного сподівання
0a ;
г) рівень значущості (0 < < 1).
Із вивченого нами матеріалу випливає, що вибіркове
середнє x у вибірці з нормального розподілу з
параметрами ),( 2a має нормальний розподіл із
параметрами )/,( 2 na , тому в розглядуваній задачі
нормоване вибіркове
середнє
naxZ )( 0
КВМ
367
за умови істинності гіпотези 0H також матиме
нормальний розподіл із параметрами (0, 1). Використовуючи цей факт, можна побудувати критерій для перевірки
нульової гіпотези.
Правило 1. Якщо нульова гіпотеза 00 : aaH , а
конкуруюча гіпотеза 01 : aaH , то перевірку гіпотези 0H
проводимо за такою схемою:
обчислюємо емпіричне значення критерію за
формулою:
naxZемп
0 ; (3.52)
знаходимо за таблицею значень функції Лапласа
(див. додаток 2) критичне значення крz ,
використовуючи рівняння:
2
1 крzЦ ; (3.53)
робимо висновок про висунуту гіпотезу:
якщо кремп zZ , то гіпотезу 0H приймаємо;
якщо кремп zZ , то відхиляємо гіпотезу 0H на
користь альтернативи .1H
Зауваження. Якщо нульова гіпотеза 00 : aaH , а
конкуруюча гіпотеза 01 : aaH або 01 : aaH , то
КВМ
368
перевірку цих гіпотез також проводимо за схемою
правила 1 із такими змінами:
замість рівняння (3.53) для знаходження
критичного значення крZ використовуємо
рівняння:
221)
крЦ(z ; (3.54)
робимо висновки стосовно висунутої гіпотези H0:
1) якщо Zемп < zkp , то немає підстав відхилити
гіпотезу H0;
якщо ,kpемп zZ то гіпотезу H0 відхиляємо на
користь альтер-
нативної гіпотези H1: a > a0;
2) якщо Zемп > –zkp , то немає підстав відхилити
гіпотезу H0;
якщо Zемп < –zkp , то гіпотезу H0 відхиляємо і
приймаємо
гіпотезу H1: a < a0.
Приклад 3.17. Із нормально розподіленої генеральної сукупності з відомим
середнім квадратичним відхиленням 5 одержано вибірку обсягу n = 50 і за
нею знайдено вибіркове середнє 7,27x . Потрібно для рівня значущості
05,0 перевірити нульову гіпотезу 29: 00 aaH за наявності
КВМ
369
конкуруючої гіпотези
а) 01 : aaH ; б) 01 : aaH .
Розв’язання. Обчислимо емпіричне значення критерію за формулою (3.52):
.838,15
50)297,27(
емпZ
Тепер розглянемо наведені в задачі випадки:
а) для альтернативної гіпотези 01 : aaH знаходимо крz за формулою (3.53) із
таблиці додатка 2:
.96,1475,02
05,01)
кркр zЦ(z
Оскільки кремп zZ 96,1838,1 , то приймаємо гіпотезу ;0H
б) для альтернативної гіпотези 01 : aaH знаходимо крz за формулою (3.54) із
таблиці додатка 2:
.65,145,02
05,021
кркр zzЦ
Оскільки 1,838 1,65 ,емп крZ z то відхиляємо гіпотезу ,0H а приймаємо
гіпотезу 1H .
Модель Б. Гіпотеза про значення математичного
сподівання нормального закону розподілу при невідомій
дисперсії. Нехай випадкова величина Х нормально
розподілена з невідомими математичним сподіванням
)(XMa і дисперсією 2)( XD .
Потрібно на основі вибірки перевірити нульову
гіпотезу H0 : a = a0 (про рівність математичного
сподівання а певному числу a0).
Припускаємо, що відомі лише такі величини:
КВМ
370
а) дані вибірки обсягу n;
б) гіпотетичне значення математичного сподівання a0;
в) рівень значущості (0 < < 1).
Оскільки середнє квадратичне відхилення X
невідоме, то для перевірки гіпотези 0H тут ми вже не
зможемо скористатися статистикою Z через те, що для
неї неможливо буде обчислити спостережуване значення
емпZ . У даному випадку використовуємо статистику
~)( 0 naxT ,
де x – вибіркове середнє значення, а ~ – виправлене
вибіркове середнє квадратичне відхилення. Можна
показати, що за умови правдивості гіпотези H0 випадкова
величина Т має розподіл Стьюдента з числом k = п – 1
ступенів вільності.
Подальша побудова критичної області для дво- та
односторонніх перевірок гіпотези здійснюється
аналогічно, як викладено вище, з тією лише різницею,
що критичні точки (тут замість крz вони будуть
позначатися через крt ) визначаються за таблицею
розподілу Стьюдента, а не Лапласа. Розподіл Стьюдента
симетричний, як і нормальний, проте має менший
КВМ
371
(від’ємний) ексцес, тому у «хвостах» розподілу охоплено
більшу площу. Отже, за того самого рівня значущості
значення крt буде більшим, аніж крz , тобто довірчий
інтервал ширший, аніж побудований на базі
нормального розподілу.
Правило 2. Якщо нульова гіпотеза 00 : aaH , а
конкуруюча гіпотеза 01 : aaH , то перевірку гіпотези 0H
проводимо за схемою:
обчислюємо емпіричне значення критерію
~0 naxTемп , (3.55)
де x – середнє вибіркове значення, а ~ – виправлене
вибіркове середнє квадратичне відхилення, обчислене для
конкретної вибірки;
із таблиці критичних точок розподілу Стьюдента
(див. додаток 6) за заданим рівнем значущості ,
зосередженим у верхньому рядку таблиці, і числом
ступенів вільності k = n – 1 знаходимо критичну
точку ;),(. ktt kpдвосторкр
робимо висновок про гіпотезу:
якщо кремп tT , то приймаємо гіпотезу 0H ;
КВМ
372
якщо кремп tT , то гіпотезу 0H відхиляємо на користь
альтернативи 1H .
Зауваження. Якщо нульова гіпотеза 00 : aaH , а
конкуруюча гіпотеза 01 : aaH або 01 : aaH , то
сформульовані гіпотези також перевіряємо за схемою
правила 2 із такими змінами:
із таблиці критичних точок розподілу Стьюдента
(додаток 6) за заданим рівнем значущості , який
розміщений у нижньому рядку таблиці, і числом
ступенів вільності k = n – 1 знаходимо критичну
точку ;, ktt kpправостор.kp
робимо висновки стосовно висунутої гіпотези H0:
1) якщо Темп < tправостор. kp (, k), то немає підстав
відхилити гіпотезу H0;
якщо kpправостор.емп tT (, k), то гіпотезу H0
відхиляємо на користь гіпотези H1: a > a0;
2) якщо Темп > –tпраовостор. kp (, k), то приймаємо
гіпотезу H0;
якщо Темп < –tправостор. kp (, k), то гіпотезу H0
відхиляємо і приймаємо гіпотезу H1: a < a0.
КВМ
373
Приклад 3.18. Для вибірки обсягу n = 16 значень нормально розподіленої
випадкової величини Х генеральної сукупності знайдено вибіркове середнє
2,118x та виправлене середнє квадратичне відхилення .6,3~ Потрібно для
рівня значущості 05,0 перевірити нульову гіпотезу 120: 00 aaH за
конкуруючої гіпотези: а) 01 : aaH ; б) 01 : aaH .
Розв’язання. Обчислимо емпіричне значення критерію за формулою (3.55):
.26,3
161202,118
емпT
Розглядаємо два випадки, які сформульовано в задачі:
а) у випадку альтернативної гіпотези 01 : aaH за таблицею додатка 6 для
числа ступенів вільності k = n – 1 = 15 і рівня значущості 05,0 , що
зосереджений у верхньому рядку таблиці, знаходимо:
.13,2)15;05,0(. kpдвосторкр tt
Оскільки кремп tT 13,22 , то приймаємо гіпотезу ;0H
б) у випадку альтернативної гіпотези 01 : aaH за таблицею додатка 6 для
числа ступенів вільності k = n – 1 = 15 і рівня значущості ,05,0 що
зосереджений у нижньому рядку таблиці, знаходимо:
.75,1)15;05,0(. правосторкр tt
Оскільки кремп tT 75,12 , то гіпотезу 0H відхиляємо, а приймаємо гіпотезу
1H .
Модель В. Гіпотеза про значення математичного
сподівання будь-якого закону розподілу за великого обсягу
вибірки. Нехай випадкова величина має будь-який закон
розподілу з невідомим математичним сподіванням
М(Х) = а і скінченною, але невідомою дисперсією
.)( 2XD
КВМ
374
Як і в попередніх моделях, потрібно на підставі даних
випадкової вибірки перевірити нульову гіпотезу
00 : aaH (про рівність математичного сподівання а
певному числу 0a ).
Припускаємо, що відомими є такі величини:
а) дані вибірки обсягу п ( 100n );
б) гіпотетичне значення математичного сподівання 0a ;
в) рівень значущості (0 < < 1).
Перевірка гіпотези 0H у цій моделі здійснюється
аналогічно, як у моделі А, за правилом 1 із тією лише
різницею, що для обчислення спостережуваного
значення критерію за формулою (3.52) невідоме середнє
квадратичне відхилення треба замінити на вибіркове
середнє квадратичне відхилення D , знайдене за
даними вибірки.
3.4.6. Перевірка гіпотези про рівність математичних сподівань двох нормально розподілених випадкових величин
Нехай задані дві статистичні сукупності, що характерризуються незалежними нормально
розподіленими випадковими величинами X і Y із параметрами, відповідно, ),( 2xxa і ),( 2
yya , де
)(),( 2 XDXMa xx , )(),( 2 YDYMa yy . Якщо математичні сподівання xa і ya невідомі, то
висувається гіпотеза про їх рівність, тобто yx aaH :0 . Для перевірки гіпотези 0H за наявності відповідної альтернативної
гіпотези 1H із кожної сукупності проводиться вибірка: з першої – обсягу п, унаслідок якої отримуємо вибіркове середнє x , з
КВМ
375
другої – обсягу т, з якої отримуємо вибіркове середнє y . Усі критерії перевірки гіпотези 0H ґрунтуються на порівнянні
статистик x і y . Тут ми знову розглядаємо кілька моделей.
Модель А. Дисперсії ознак Х і Y відомі. Нехай
випадкові величини Х і Y незалежні, нормально
розподілені, математичні сподівання яких xa і ya
невідомі, а дисперсії 2x і 2
y відомі. Перевіряємо гіпотезу
yx aaH :0 (про рівність математичних сподівань
випадкових величин Х і Y).
Вважаємо, що відомими є такі величини:
а) дані двох незалежних вибірок обсягів n і m значень
випадкових величин Х і Y, відповідно;
б) дисперсії 2x і 2
y ;
в) рівень значущості (0 < < 1).
Позначимо через )...,,(),...,,( 11 mn yyxx – вибірки
значень випадкових величин Х і Y, відповідно. У
припущеннях даної моделі випадкова величина
m
ii
n
ii y
mx
nyx
11
11
розподілена за нормальним законом із параметрами
mnaa yx
yx
22
, , нормована різниця
КВМ
376
mn
aayxZ
yx
yx22
)()(
має нормальний розподіл із параметрами (0, 1).
У припущенні, що гіпотеза 0H – істинна, статистика Z
набуває виразу:
mn
yxZyx22
.
Правило 1. Якщо нульова гіпотеза 0 : ,x yH a a а
конкуруюча гіпотеза 1 : ,x yH a a то перевірка
сформульованих гіпотез проводиться за схемою:
обчислюємо емпіричне значення критерію за
формулою:
mYD
nXD
yxZемп )()(
; (3.56)
де x , y – середні вибіркові значення вибірок для Х і Y
відповідно;
за таблицею функції Лапласа (див. додаток 2)
знаходимо критичну точку крz із рівності:
2
1Ц крz ; (3.57)
робимо висновок про гіпотезу:
КВМ
377
якщо кремп zZ , то приймаємо нульову гіпотезу 0H ;
якщо кремп zZ , то гіпотезу 0H відхиляємо на
користь альтернативної гіпотези .1H
Зауваження. Якщо нульова гіпотеза 0 : ,x yH a a а
конкуруюча гіпотеза 1 : x yH a a або 1 : x yH a a , то
перевірка гіпотези проводиться також за схемою
правила 1 із такими змінами:
рівняння (3.57) для знаходження критичного
значення крz замінюється рівнянням:
;221)Ц
кр(z (3.58)
робимо такі висновки стосовно нульової гіпотези
H0:
1) якщо Zемп < zkp, то немає підстав відхилити
гіпотезу H0;
якщо ,zZ kpемп то гіпотезу H0 відхиляємо на
користь альтернативної гіпотези 1 : x yH a a ;
2) якщо Zемп > –zkp , то приймаємо гіпотезу H0;
якщо Zемп < –zkp, то гіпотезу H0 відхиляємо і
приймаємо альтернативну гіпотезу 1 : x yH a a .
КВМ
378
Приклад 3.19. Для нормально розподілених випадкових величин Х і Y утворено
вибірки обсягами 40n і 50m , відповідно, і обчислено їх вибіркові середні
значення 8,9x і 6,9y . Необхідно перевірити гіпотезу yx aaH :0 за
альтернативної гіпотези yx aaH :1 , якщо 3,021 і = 0,01.
Розв’язання. За формулою (3.56) знаходимо емпZ :
.143,3
5009,0
4009,0
6,98,9
емпZ
За таблицею додатка 2 для функції )(xЦ знаходимо розв’язок рівняння
495,0)( крzЦ 58,2крz . Оскільки 58,2143,3 кремп zZ , то гіпотезу
yx aaH :0 відхиляємо.
Модель Б. Дисперсії ознак Х і Y невідомі (випадок
малих вибірок). Нехай випадкові величини Х і Y
незалежні, нормально розподілені, для яких як
математичні сподівання xa і ya , так і дисперсії 2x і 2
y є
невідомі. Перевіряємо гіпотезу yx aaH :0 (про рівність
математичних сподівань випадкових величин Х і Y).
Вважаємо, що відомими є величини:
а) дані двох незалежних вибірок обсягів n і m значень
випадкових величин Х і Y, відповідно, які є невеликими
(n + m 122);
б) рівень значущості (0 < < 1). Тепер зробимо додаткове припущення, що дисперсії обох сукупностей
хоч невідомі, проте рівні, тобто 2x = 2
y . Зауважимо, що дане припущення
КВМ
379
дуже часто вимагає спеціальної перевірки, про яку йтиметься в наступному
пункті. Якщо прийняти це припущення, то для перевірки гіпотези 0H
використовується статистика
,)2(~)1(~)1( mn
mnmn
DmDn
yxTyx
емп
(3.59)
яка за умови виконання гіпотези 0H має розподіл Стьюдента з числом
k = n + m – 2 ступенів вільності.
Правило 2. Якщо нульова гіпотеза ,:0 yx aaH а
конкуруюча гіпотеза ,:1 yx aaH то перевірку гіпотези 0H
проводимо за схемою:
знаходимо емпіричне значення критерію за формулою
(3.59), де x , y – вибіркові середні значення, а ,~xD yD~ –
виправлені вибіркові дисперсії, які обчислені за
конкретними вибірками для випадкових величин Х і
Y;
за таблицею критичних точок розподілу
Стьюдента для заданого рівня значущості ,
зосередженого у верхньому рядку таблиці додатка
6, і числа ступенів вільності k = n + m – 2 знаходимо
критичну точку ),(. ktt kpдвосторкр ;
робимо висновок про гіпотезу:
якщо кремп tT , то приймаємо нульову гіпотезу ;0H
КВМ
380
якщо кремп tT , то гіпотезу 0H відхиляємо на користь
альтернативи .1H
Зауваження. Якщо нульова гіпотеза 0 : ,x yH a a а
конкуруюча гіпотеза 1 : x yH a a або 1 : x yH a a , то
перевірку гіпотези 0H проводимо за схемою правила 2
із такими змінами:
за таблицею критичних точок розподілу Стьюдента
(додаток 6) для заданого рівня значущості , який
розміщений у нижньому рядку таблиці, і числа
ступенів вільності k = n + m – 2 знаходимо
критичну точку );,(. ktt kpправосторкр
робимо висновки стосовно висунутої гіпотези H0:
1) якщо Tемп < tkp , то нульову гіпотезу H0
приймаємо;
якщо ,tT kpемп то гіпотезу H0 відхиляємо і
приймаємо альтернативну гіпотезу 1 : x yH a a ;
2) якщо Tемп > –tkp , то немає підстав відхилити
гіпотезу H0;
якщо Tемп –tkp, то гіпотезу H0 відхиляємо на
користь альтернативної гіпотези 1 : x yH a a .
КВМ
381
Приклад 3.20. За двома незалежними малими вибірками значень випадкових
величин Х і Y, обсяги яких, відповідно, становлять n = 5 і m = 6, знайдено
вибіркові середні ,3,3x 48,2y та виправлені вибіркові дисперсії 25,0~xD і
.108,0~yD Для рівня значущості = 0,05 перевірити нульову гіпотезу
0 : ,x yH a a за конкуруючої гіпотези 1 : ,x yH a a
Розв’язання. За формулою (3.59) знаходимо емпT :
.27,365
)265(65108,0525,04
48,23,3
емпT
Для рівня значущості = 0,05 та числа ступенів вільності k = 5 + 6 – 2 = 9
знаходимо за таблицею додатка 6 критичну точку 26,2)9;05,0( двостор.крt .
Оскільки ,26,2t27,3T двостор.кремп то гіпотезу відхиляємо.
Модель В. Дисперсії ознак Х і Y невідомі (випадок
великих вибірок). Нехай випадкові величини Х і Y
незалежні, нормально розподілені, для яких як
математичні сподівання xa і ya , так і дисперсії 2x і 2
y є
невідомі. За даними вибірок великих обсягів п і т
( 100, mn ) та за даним рівнем значущості
(0 < < 1) перевіряємо гіпотезу yx aaH :0 (про рівність
математичних сподівань випадкових величин Х і Y) за
відповідної альтернативи 1H .
За умов даної моделі критерій перевірки гіпотези 0H
будуємо аналогічно, як і в моделі А, з тією лише різницею,
КВМ
382
що для обчислення спостережуваного значення статистики
за формулою (3.56) замість невідомих дисперсій xD і yD
приймаємо вибіркові дисперсії xD і yD , які обчислюємо за
допомогою даних вибірок.
3.4.7. Перевірка гіпотези про рівність дисперсій двох незалежних випадкових величин
Задача про перевірку гіпотези про
рівність двох дисперсій виникає досить часто; наприклад,
під час аналізу стабільності виробничого процесу до і після
введення нової технології (коливання у випуску продукції
вимірюється за допомогою квадратичного відхилення),
вивчення якості вимірювальних приладів (зіставлення
дисперсій показників окремих приладів), вивчення
ступеня однорідності двох сукупностей щодо деякої ознаки
(кваліфікації робітників, стажу персоналу і т. д.). Потреба
перевірити рівність дисперсій виникає, як ми
переконалися раніше, і під час порівняння середніх
величин сукупностей.
КВМ
383
Отже, нехай випадкові величини Х і Y, що
характеризують дві статистичні сукупності, незалежні,
нормально розподілені з невідомими дисперсіями 2)( xXD і 2)( yYD відповідно. Перевіряємо гіпотезу
220 : yxH (про рівність дисперсій випадкових величин Х
і Y).
Вважаємо, що відомими є такі величини:
а) дані двох незалежних вибірок обсягів п і т для
випадкових величин
Х і Y, відповідно;
б) рівень значущості (0 < < 1).
Нехай )...,,(),...,,( 11 mn yyxx – незалежні випадкові
вибірки для випадкових величин Х і Y, відповідно.
Критерій перевірки гіпотези 0H базується на зіставленні
виправлених вибіркових дисперсій xD~ і yD~ , обчислених за
даними вибірок. Так, у припущеннях розглядуваної моделі
випадкова величина
y
xDDF ~~
, де yx DD ~~ , (3.60)
за умови виконання гіпотези 0H розподілена за законом
Фішера – Снедекора з 11 nk і 12 mk ступенями
вільності.
КВМ
384
Правило. Якщо нульова гіпотеза ,: 220 yxH а
конкуруюча 221 : yxH , то перевірку гіпотези 0H
здійснюємо за схемою:
знаходимо спостережуване значення критерію за
формулою (3.60), де xD~ і yD~ – виправлені вибіркові
дисперсії, які обчислені за конкретними вибірками
для випадкових величин Х і Y;
за таблицею критичних точок розподілу Фішера –
Снедекора (див. додаток 7) для заданого рівня
значущості і ступенів вільності 11 nk і 12 mk
знаходимо критичну точку правосторонньої
критичної області );,,( 21 kkff кркр
робимо висновок щодо прийняття гіпотези 0H :
якщо кремп fF , то гіпотезу 0H приймаємо;
якщо кремп fF , то гіпотезу 0H відхиляємо на користь
альтернативної гіпотези .1H
У випадку, коли Dx < Dy, критерій узгодження F = Dy /
Dx і k1 = m – 1, k2 = n – 1.
Зауваження. Якщо нульова гіпотеза 220 : yxH , а
конкуруюча гіпотеза 221 : yxH , то перевірку гіпотези
КВМ
385
0H здійснюємо за сформульованим правилом, в якому
змінюється лише методика знаходження критичного
значення крf , а саме: із таблиці критичних точок
розподілу Фішера – Снедекора критичну точку
),,2/( 21 kkff кркр визначаємо за рівнем значущості 2/
(удвічі меншому від заданого) і числами ступенів
вільності 11 nk і .12 mk
Приклад 3.21. Важливою мірою ризику, пов’язаного з володінням акцією, є
дисперсія (варіація в часі) її ціни. Фінансовий аналітик хоче перевірити гіпотезу
про те, що акція А тягне за собою більший ризик, аніж акція В. Випадкова
вибірка цін акції А (ознака Х) із 25 вибраних днів дала результат 52,6~ xD , а
вибірка цін акції В (ознака Y) із 22 вибраних днів дала результат .47,3~yD Для
рівня значущості 01,0 перевірити гіпотезу 220 : yxH за конкуруючої
гіпотези .: 221 yxH
Розв’язання. Припустімо, що розподіл цін є наближено нормальний і що дві
множини обстежених даних про ціни акцій можуть бути прийняті як незалежні
вибірки, утворені з двох статистичних сукупностей цін.
Отже, для перевірки гіпотези 220 : yxH за альтернативи 22
1 : yxH ми
можемо скористатися описаним нами правилом.
За формулою (3.60) знаходимо емпF :
.88,147,352,6
емпF
Для рівня значущості 01,0 та чисел ступенів вільності k1 = 25 – 1 = 24, k2 = 22 – 1
= 21 знаходимо за таблицею критичних точок розподілу Фішера – Снедекора (див.
додаток 7) критичну точку 80,2)21;24;01,0( кркр ff . Оскільки
КВМ
386
,80,288,1 кремп fF то гіпотеза 220 : yxH приймається. Це означає, що дані
вибірок не дають підстави фінансовому аналітикові вважати, що акція А тягне за
собою більший ризик, аніж акція В.
Рекомендована література: [1, c. 249–263; 2, с. 114–121; 5, c. 281–287; 8,
с. 248–257; 9, c. 142–161].
Завдання для самоконтролю
Основні поняття, означення і відношення Замість крапок записати таке продовження (доповнення) тексту, щоб отримати
правильне означення або твердження.
1. Статистичною гіпотезою називається …
2. У математичній статистиці гіпотези поділяються на два типи: …
3. Основною (нульовою) називають гіпотезу …
4. Альтернативною (конкуруючою) називають гіпотезу …
5. Параметричну гіпотезу називають простою, якщо …, і складеною, якщо …
6. Рівнем значущості називається …
7. Гіпотетичною (теоретичною) гіпотезою називають інформацію, яка …
8. Статистичною (емпіричною) гіпотезою називають інформацію, яка …
9. Статистичним критерієм гіпотези називається …
10. Емпіричне (спостережене) значення критерію гіпотези – це …
11. Критичною областю критерію гіпотези називається …
12. Областю прийняття гіпотези (областю допустимих значень) називається …
13. Правостороння критична область – це та область на числовій прямій, яка визначається
нерівністю …
14. Лівостороння критична область – це та область на числовій прямій, яка визначається
нерівністю …
15. Двостороння критична область – це та область на числовій прямій, яка визначається
нерівностями …
16. Перевірка статистичної гіпотези проводиться за такою схемою: …
17. Потужністю критерію гіпотези називається ймовірність того, що …
КВМ
387
18. Критерієм узгодження Пірсона називається …
19. Гіпотеза про закон розподілу ймовірностей випадкової величини за критерієм Пірсона
перевіряється за такою схемою: …
20. Гіпотеза про вигляд функції розподілу за критерієм Колмогорова перевіряється за
такою схемою: …
21. Якщо дисперсія 2)( XD нормально розподіленої випадкової величини Х (ознаки
генеральної сукупності) відома, то гіпотеза 00 )(: aXMH за наявності альтернативи
01 )(: aXMH перевіряється за такою схемою: …
22. Якщо дисперсія )(XD нормально розподіленої випадкової величини Х (ознаки
генеральної сукупності) невідома, то гіпотеза 00 )(: aXMH за альтернативи
01 )(: aXMH перевіряється за такою схемою: …
23. Якщо дисперсія 2)( XD нормально розподіленої випадкової величини Х (ознаки
генеральної сукупності) відома, то гіпотеза 00 )(: aXMH за альтернативи
01 )(: aXMH або 0)( aXM перевіряються за такою схемою: …
24. Якщо дисперсії )(XD і )(YD нормально розподілених випадкових величин Х і Y
(ознак генеральної сукупності) відомі, то гіпотеза )()(:0 YMXMH за альтернативи
)()(:1 YMXMH перевіряється за такою схемою: … 25. Якщо дисперсії )(XD і )(YD нормально розподілених випадкових величин Х і Y
(ознак генеральної сукупності) невідомі, то гіпотеза )()(:0 YMXMH за альтер-
нативи )()(:1 YMXMH перевіряється за такою схемою: …
26. Якщо дисперсії )(XD і )(YD нормально розподілених випадкових величин Х і Y
невідомі, то гіпотеза )()(:0 YDXDH за відповідної альтернативи 1H перевіряється
за такою схемою: …
Тести Запишіть на бланку відповідей номер завдання і коди (порядкові номери або літери),
що відповідають тим варіантам відповідей, які вважаєте правильними.
1. Для вивчення випадкової величини Х (ознаки генеральної сукупності) утворено вибірку
обсягом n = 200, яка нараховує 7 різних варіант. На основі цієї вибірки обчислено
КВМ
388
емпіричне значення критерію Пірсона .95,32 емпемпK Для даного рівня значущості
01,0 перевірити гіпотезу 0H : випадкова величина Х нормально розподілена.
Варіанти відповідей: А. Гіпотезу приймають. Б. Гіпотезу відхиляють.
2. Для вивчення випадкової величини Х (ознаки генеральної сукупності) зроблена вибірка
обсягом n = 200, яка записана у формі інтервального ряду, в якому 4 частинних
інтервали. На основі даної вибірки обчислено емпіричне значення критерію Пірсона
.6,32 емпемпK Для даного рівня значущості 05,0 перевірити гіпотезу 0H :
випадкова величина Х розподілена за показниковим законом.
Варіанти відповідей: А. Гіпотезу приймають. Б. Гіпотезу відхиляють.
3. Для вивчення випадкової величини Х (ознаки генеральної сукупності) зроблено вибірку
обсягом n = 200, яка нараховує 10 різних варіант. На основі цієї вибірки обчислено
емпіричне значення критерію Пірсона .8,162 емпемпK Для заданого рівня значу-
щості 05,0 перевірити гіпотезу :0H випадкова величина Х рівномірно розподілена.
Варіанти відповідей: А. Гіпотезу приймають. Б. Гіпотезу відхиляють.
4. Для вивчення випадкової величини Х (ознаки генеральної сукупності) зроблено вибірку
обсягом n = 200, яка нараховує 4 різних варіанти. На основі вибірки обчислено емпіричне
значення критерію Пірсона .88,22 емпемпK Для заданого рівня значущості 05,0
перевірити гіпотезу :0H випадкова величина Х розподілена за законом Пуассона.
Варіанти відповідей: А. Гіпотезу приймають. Б. Гіпотезу відхиляють.
5. Із нормально розподіленої генеральної сукупності Х із відомим середнім квадратичним
відхиленням σ = 5,2 зроблено вибірку обсягом n = 200 і обчислено середнє вибіркове
8,2x . Для заданого рівня значущості 05,0 перевірити нульову гіпотезу
6,2: 00 aXMaH за конкуруючої гіпотези .6,2)(:1 XMaH
Варіанти відповідей: А. Приймають гіпотезу 0H . Б. Гіпотезу 0H відхиляють.
6. За вибіркою обсягом n = 16 значень нормально розподіленої випадкової величини Х
(ознаки генеральної сукупності) обчислені вибіркове середнє 110x і виправлене
КВМ
389
середнє квадратичне відхилення ~ = 4. Для заданого рівня значущості 05,0 пере-
вірити гіпотезу 120)(: 00 aXMaH за конкуруючої гіпотези .120)(:1 XMaH
Варіанти відповідей: А. Приймають гіпотезу 0H . Б. Гіпотезу 0H відхиляють.
7. Для вивчення двох незалежних нормально розподілених випадкових величин Х і Y
(ознак генеральних сукупностей) зроблено вибірки обсягами n = 40, m = 50 і обчислено
вибіркові середні 100x і .120y Генеральні дисперсії відомі: ,80)( XD 100)( YD .
Для заданого рівня значущості 01,0б перевірити гіпотезу )()(:0 YMXMH за
конкуруючої гіпотези ).()(:1 YMXMH
Варіанти відповідей: А. Приймають гіпотезу 0H . Б. Гіпотезу 0H відхиляють.
8. Для вивчення двох незалежних нормально розподілених випадкових величин Х і Y
(ознак генеральних сукупностей) зроблено вибірки обсягами n = 12, m = 18 та
обчислено вибіркові середні 30x і 28y і виправлені вибіркові дисперсії ,84,0~ xD
.40,0~yD Для рівня значущості 05,0 перевірити гіпотезу )()(:0 YMXMH за
конкуруючої гіпотези ).()(:1 YMXMH
Варіанти відповідей: А. Приймають гіпотезу 0H . Б. Гіпотезу 0H відхиляють.
9. Наведені дані належать до двох незалежних випадкових вибірок числа проданих
автомобілів «Nissan Pulsar», які виготовляють спільно фірми «Nissan» і «Alfa Romeo».
Одна з тих вибірок була утворена до ( ix ), а друга – після ( iy ) оголошення про те, що
модель «Nissan Pulsar» не буде більше виготовлятися в Італії:
ix 329 234 423 328 400 399 326 452 541 680 456 220
iy 212 630 276 112 872 788 345 544 110 129 776 -
Чи можна вважати, що дисперсія місячного продажу автомобіля «Nissan Pulsar» після
оголошення про припинення продукції залишилася незмінною?
Вказівка. Припускаючи, що розглядувана ознака для обох сукупностей розподілена
нормально, перевірити нульову гіпотезу про рівність двох дисперсій. За рівень
значущості прийняти, наприклад, .1,0
Варіанти відповідей: А. Дисперсія місячного продажу змінилася.
Б. Дисперсія місячного продажу не змінилася.
КВМ
390
Приклади
1. Зібрано дані про число відвідувачів ix супермаркета протягом хвилини та
записано результати у вигляді інтервальної таблиці частот:
1,i ix x (3;8] (8;13] (13;18] (18;23] (23;28] (28;33] (33;38]
in 6 8 15 40 16 8 7
Користуючись критерієм Пірсона, при рівні значущості =0,05 перевірити, чи
узгоджується гіпотеза про нормальний розподіл випадкової величини Х – числа
відвідувачів супермаркета протягом хвилини - з емпіричним розподілом вибірки?
2. Зібрано дані про кількість ix підприємств харчової промисловості у 200 районах
України
ix 5 7 9 11 13 15 17 19 21
in 15 26 25 30 26 21 24 20 13
Користуючись критерієм Пірсона, при рівні значущості =0,05 перевірити гіпотезу
про нормальний розподіл ознаки Х – кількості підприємств харчової промисловості.
3. У результаті випробування 300 елементів на тривалість роботи отримано
інтервальний статистичний розподіл:
1,i ix x 0-5 5-10 10-15 15-20 20-25 25-30 30-35
in 143 55 40 25 14 12 11
Користуючись критерієм Пірсона, при рівні значущості 0,01 , перевірити гіпотезу
про показниковий закон розподілу ознаки Х – часу роботи елементів.
4. В результаті випробування 417 ламп було отримано емпіричний розподіл
тривалості їх роботи:
1,i ix x 0-300
300-600
600-900
900-1200 1200-1500 1500-1800 1800-2100
in 166 93 63 39 31 17 8
При рівні значущості 0,01 за критерієм Пірсона перевірити гіпотезу про
показниковий закон розподілу ознаки Х – часу роботи лампочки.
КВМ
391
5. Для визначення засміченості партії насіння пшениці насінням бур’янів ix було
перевірено 1000 випадково відібраних проб і отримано наступний емпіричний розподіл:
ix 0 1 2 3 4 5 6
in 400 371 174 41 7 5 2
Вимагається при рівні значимості 0,01 перевірити гіпотезу 0H про те, що
випадкова величина Х – кількість насіння бур’янів – розподілена за законом Пуассона.
6. У результаті перевірки 400 контейнерів з фарфоровими виробами було
встановлено, що кількість пошкоджених виробів Х має статистичний розподіл:
ix 0 1 2 3 4 5 6 7
in 159 139 67 21 9 3 1 1 Вимагається при рівні значимості 0,05 перевірити гіпотезу про те, що випадкова
величина Х – кількість пошкоджених виробів – розподілена за законом Пуассона.
7. Відділ технічного контролю перевірив 170 партій виробів по 10 виробів у кожній
партії. У результаті отримано такий статистичний розподіл ознаки Х:
ix 0 1 2 3 4 5 6
in 29 49 41 26 18 5 10
( ix − кількість нестандартних виробів в одній партії, in − кількість партій, які містять ix
нестандартних виробів). Користуючись критерієм Пірсона, за рівня значимості 0,01,
перевірити гіпотезу про те, що випадкова величина Х розподілена за біноміальним
законом розподілу.
8. У бібліотеці випадково відібрано 100 вибірок по 4 книги. Реєструвалась кількість
пошкоджених книг. У результаті отримано такий статистичний розподіл ознаки Х:
ix 0 1 2 3 4
in 32 35 23 7 3
( ix - кількість пошкоджених книг в одній вибірці). Користуючись критерієм Пірсона, при
рівні значимості 0,05 перевірити гіпотезу про те, що випадкова величина Х розподілена за
біноміальним законом розподілу.
9. Вимірювали швидкість руху автомібілів ix на певній ділянці шляху. Результати
вимірювання наведено у вигляді статистичного розподілу:
ix 60 65 70 75 80 85 90 95
in 2 5 6 7 9 8 6 7
КВМ
392
Вважаючи, що Х – швидкість руху автомобіля є випадковою величиною, перевірити
за критерієм Колмогорова за рівня значимості 0,01 гіпотезу про нормальний закон
розподілу Х із математичним сподіванням 80x і середнім квадратичним відхиленням
10 .
10. Результатом п’ятиелементної вибірки є: 0,18, 0,56, 0,87, 1,37, 2,46.
Вимагається за рівня значимості 0,05 за допомогою критерію Колмогорова
перевірити гіпотезу про те, що вибірка взята з популяції, в якій випадкова величина Х
розподілена за показниковим законом з параметром 1.
11. Протягом 6 годин реєстрували прибуття автомобілів до бензозаправки і
отримали емпіричний розподіл:
1,i ix x 9−10 10−11 11−12 12−13 13−14 14−15
in 12 40 22 16 24 6
Використовуючи критерій Колмогорова за рівня значущості 0,05 перевірити
гіпотезу про те, що випадкова величина Х − година прибуття автомобіля на бензозаправку
− розподілена рівномірно на проміжку 9; 15 .
12. При розробці норм виробітку на підприємстві проведено 26 незалежних
вимірів продуктивності праці робітників, що виконують певну операцію.
Спостережена продуктивність праці дорівнює x =5,2 одиниці товару за 1 люд.-год., а
середнє квадратичне відхилення = 0,4 одиниці товару за 1 люд.-год. Потрібно
перевірити гіпотезу, що при масовому випуску цієї продукції середня продуктивність
праці m складе 5,5 одиниць товару за 1 люд.-год. при альтернативній гіпотезі m<5,5
одиниць товару за 1 люд.-год. і рівні значущості =0,01.
13. Розбіжність вимірів діаметрів Х кульок є випадковою величиною, що має
нормальний закон розподілу 2( ;5 )N a . При рівні значимості 0,05 перевірити гіпотезу
0 : 250H a мм, якщо альтернативна гіпотеза має вигляд: а) 1 : 250H a ; б)
1 : 250H a ; в) 1 : 250H a . Відомо, що вибіркове середнє діаметрів виміряних у
100 однотипних кульок 245x мм.
КВМ
393
14. Припускається, що ціни на золото на Нью-Йоркській товарній біржі
протягом місяця коливаються за нормальним законом розподілу. На січень цього
року було прогнозовано середню ціну − 345 доларів за трійську унцію. У результаті
торгів протягом 20 днів роботи біржі було встановлено середню ціну − 347,23 долара
за унцію за виправленого середньоквадратичного відхилення 2,1 − долара за унцію.
Визначити за рівня значущості 0,05 об’єктивність прогнозу за альтернативи,
що прогноз не об’єктивний.
15. Кількість бензину, необхідного на проїзд 100 км мікроавтобусом IVECO,
підпорядковується нормальному закону розподілу і повинна задовольняти стандарту
15 літрів на 100 км. В результаті тестування 20 мікроавтобусів встановлено середні
витрати пального на 100 км пробігу – 16 літрів при виправленому середньому
квадратичному відхиленні 4,5 літра. Вимагається при рівні значущості 010,
перевірити гіпотезу про відповідність стандарту мікроавтобусів за кількістю
витраченого бензину на 100 км пробігу при альтернативній гіпотезі, що бензину
потрібно буде більше.
16. Вимірювання барометром атмосферного тиску протягом 50 діб задано у
вигляді статистичного розподілу:
ix , мм рт. ст. 745,5 747,5 749,5 751,5 753,5 755,5 757,5
in 7 9 13 11 6 3 1
Вважаючи, що ознака Х – атмосферний тиск – є випадковою величиною, яка має
нормальний закон розподілу, при рівні значущості 0,001 перевірити гіпотезу
0 : 750H a при конкуруючій гіпотезі: а) 1 : 750H a ; б) 1 : 750H a ; в)
1 : 750H a .
17. Результати вимірювання зросту юнаків віком 18 років записано у вигляді
інтервального закону розподілу ознаки Х – зросту юнаків:
1,i ix x 162−166 166−170 170−174 174−178 178−182 182−186
in 3 5 6 7 5 4
КВМ
394
Вважаючи, що випадкова величина Х має нормальний закон розподілу, за
рівня значущості 0,001, перевірити гіпотезу 0 : 170H a за можливих
альтернативних гіпотез: а) 1 : 170H a ; б) 1 : 170H a ; в) 1 : 170H a .
18. За вибіркою обсягу n=50 знайдено середній розмір x =20,1мк діаметра
оптичного волокна, виготовленого автоматом № 1, а за вибіркою обсягу m=50
знайдено середній розмір y =19,8 мк діаметра оптичного волокна, виготовленого
автоматом № 2. Генеральні дисперсії відомі: D(X)=1,750 мк2, D(Y)=1,375 мк2. При
рівні значущості =0,01 перевірити нульову гіпотезу 0 : ( ) ( )H M X M Y при
конкуруючій гіпотезі: а) 1 : ( ) ( )H M X M Y ; б) 1 : ( ) ( )H M X M Y ; в)
1 : ( ) ( )H M X M Y . Припускається, що випадкові величини X, Y розподілені
нормально і вибірки незалежні.
19. Для дослідження розтягування певного типу гуми після хімічної обробки
було відібрано 5 її мотків, кожний з яких було розділено навпіл і одна його половина
була піддана хімічній обробці, а друга – ні. Потім за допомогою приладу, що вимірює
розтягування матеріалу, мотки гуми були виміряні і результати вимірювання
наведені у вигляді двох статистичних розподілів ознак Х та Y, які мають нормальний
закон розподілу з відомими значеннями генеральних дисперсій ( ) 0,24D Х ,
( ) 0,21D Y :
ix 15,6 16,0 16,4 16,8 17,2 17,6 iy 16,7 17 17,5 18,2
in 1 1 3 6 2 1 im 2 3 3 1
При рівні значущості 0,05 перевірити гіпотезу )Y(M)X(M:H 0 при
конкуруючій гіпотезі: а) 1 : ( ) ( )H M X M Y ; б) 1 : ( ) ( )H M X M Y ; в)
1 : ( ) ( )H M X M Y .
20. На підприємстві розроблено два методи виготовлення виробів. Щоб
перевірити, чи однаково матеріалоємнісні ці методи, зібрано статистичні дані про
витрати сировини на одиницю готової продукції в процесі роботи двома методами:
Х (І-й метод) 2,0 2,7 2,5 2,9 2,3 2,6 У (ІІ-й метод) 2,5 3,2 3,5 3,8 3,5 -
КВМ
395
Припускаючи, що витрати сировини розподілені в обидвох методах за
нормальним законом, перевірити гіпотезу 0H , що математичні сподівання
металоємності обидвох методів рівні: М(Х)=М(Y) при альтернативній гіпотезі
)()(:1 YMXMH і рівні значущості =0,01.
21. Протягом доби двома приладами вимірювали напругу в електромережі.
Результати вимірювання подано у вигляді статистичних розподілів:
ix 225 228 231 235
in 2 3 5 2
iy 214 217 221 226 230 236
im 1 1 5 3 2 2
Припускаючи, що випадкові величини Х та Y (виміряна на двох приладах
напруга у вольтах) є незалежними і мають нормальний закон розподілу
ймовірностей, за рівня значущості 0,001, перевірити правильність нульової гіпотези
0 : ( ) ( )H M X M Y за конкуруючої гіпотези: а) 1 : ( ) ( )H M X M Y ; б)
1 : ( ) ( )H M X M Y ; в) 1 : ( ) ( )H M X M Y .
22. Результати вимірювання споживання масла за добу одним жителем у двох
різних областях країни задаються двома статистичними розподілами:
ix 15,9 17,9 20,9 21,9 23,9 24,9 iy 15,5 19,5 24,5 30,5
in 1 3 5 4 2 1 im 2 6 4 1
Ознаки Х та Y (добове споживання масла в мг) є незалежними випадковими
величинами, які мають нормальний закон розподілу ймовірностей. Перевірити
вірність гіпотези )()(:0 YDXDH при конкуруючій гіпотезі: а)
)()(:1 YDXDH при рівні значущості =0,02; б) 1 : ( ) ( )H D X D Y при рівні
значущості =0,05?
23. Вимірювалась жива маса поросят, які відгодовувались на двох свинофермах.
Результати вимірювання задаються двома статистичними розподілами:
ix 200 204 210 213 iy 198 201 196 205 209 203
in 2 6 4 1 im 1 2 6 2 1 1
Ознаки Х та Y (жива маса поросят в кг) є незалежними випадковими величинами,
які мають нормальний закон розподілу ймовірностей. При рівні значущості =0,001
КВМ
396
перевірити вірність гіпотези )()(:0 YDXDH при альтернативних гіпотезах: а)
)()(:1 YDXDH при рівні значущості =0,1; б) 1 : ( ) ( )H D X D Y при рівні
значущості =0,01?
Відповіді
1. Ні. 2. Гіпотеза про нормальний розподіл відхиляється. 3. Відхиляємо гіпотезу про
показниковий закон розподілу. 4. Приймаємо гіпотезу H0 про показниковий закон
розподілу. 5. Приймаємо гіпотезу H1. 6. Гіпотезу H1 про пуассонівський закон
розподілу випадкової величини Х відхиляємо 7. Приймаємо гіпотезу H0: випадкова
величина Х розподілена за біноміальним законом розподілу. 8. Приймаємо гіпотезу
H0: випадкова величина Х розподілена за біноміальним законом розподілу. 9.
Приймаємо гіпотезу H0 про нормальний закон розподілу. 10. Приймаємо гіпотезу H0
про показниковий закон розподілу. 11. Приймаємо гіпотезу H0 про рівномірний закон
розподілу. 12. приймаємо гіпотезу H1. 13. а) приймаємо гіпотезу H1; б) приймаємо
гіпотезу H0; в) приймаємо гіпотезу H1. 14. Прогноз не справдився (H1). 15. Приймаємо
гіпотезу H1. 16. а) приймаємо гіпотезу H0; б) приймаємо гіпотезу H0; в) приймаємо
гіпотезу H0. 17. а) приймаємо гіпотезу H1; б) приймаємо гіпотезу H1; в) приймаємо
гіпотезу H1. 18. а) приймаємо гіпотезу H1; б) приймаємо гіпотезу H1; в) приймаємо
гіпотезу H1. 19. а) приймаємо гіпотезу H1; б) приймаємо гіпотезу H0; в) приймаємо
гіпотезу H1. 20. відхиляємо гіпотезу H0. 21. а) приймаємо гіпотезу H0; б) приймаємо
гіпотезу H0; в) приймаємо гіпотезу H0. 22. а) приймаємо гіпотезу H0; б) приймаємо
гіпотезу H1. 23. а) приймаємо гіпотезу H0; б) приймаємо гіпотезу H0.
КВМ
397
3.5. Основні поняття кореляційного та регресійного аналізу
3.5.1. Статистичний опис системи двох випадкових величин
Підставою для статистичного аналізу
залежності між випадковими величинами Х і Y є дані
вибірки, утвореної внаслідок незалежних спостережень
над двовимірною величиною (Х, Y). Елементи вибірки
зображуються за допомогою впорядкованих пар чисел
niyx ii ,1),,( , де ix – вибіркове значення ознаки Х, iy –
вибіркове значення ознаки Y, що відповідають і-му
спостереженню, п – обсяг вибірки.
Вихідний статистичний матеріал часто подають у
формі таблиці (табл. 3.5).
Таблиця 3.5
хі 1x 2x … nx
yі 1y 2y … ny
Якщо обсяг вибірки п достатньо великий, то, як і в
одновимірному випадку, проводиться групування
статистичних даних. Припустімо, що серед вибіркових
значень ознаки Х можна виділити т різних значень або
частинних інтервалів, а серед вибіркових значень ознаки Y
є k різних значень або частинних інтервалів. Після
КВМ
398
встановлення даних фактів будуємо таблицю. Будемо
вважати для визначеності, що досліджувана двовимірна
величина (Х, Y) дискретна. Тоді в першому рядку таблиці
записуємо виділені варіанти випадкової величини Х, а в
першому стовпці – виділені варіанти випадкової величини
Y (див. табл. 3.6). Через ji yxn позначимо частоту появи
події ),(),( jiji YXyYxX kjmi ...,,1,...,,1 . Частоти ji yxn ,
які відзначені у внутрішніх клітинках таблиці, разом із
відповідними їм парами чисел ),( ji yx становлять
емпіричну структуру закону сумісного розподілу
випадкових величин Х і Y.
Нарешті, в останньому рядку (стовпці) таблиці
записуємо частоти варіант )( ji yx , які позначаємо через
)(ji yx nn . Числа
ji yxn , ji yx nn , пов’язані між собою
співвідношеннями:
....,,1,;...,,1,11
kjnnminnm
iyxy
k
jyxx jijjii
Частоти ixn та
jyn разом із відповідними їм варіантами ix та jy
характеризують емпіричні закони розподілу одновимірних випадкових
величин Х та Y. Відзначимо ще одну очевидну рівність:
m
i
k
jy
m
ix
k
jyx nnnn
jiji1 111
. (3.61)
КВМ
399
Таблиця 3.6
Статистичний опис двовимірної випадкової величини X = xi
Y = yj 1x 2x … mx jyn
1y 11 yxn 12 yxn … 1yxm
n 1yn
2y 21yxn
22 yxn … 2yxmn
2yn … … … … … …
ky kyxn1
kyxn
2 … km yxn
kyn
ixn 1xn
2xn … mxn п
Наведену табл. 3.6 прийнято називати кореляційною
таблицею. Іноді при побудові емпіричного закону
сумісного розподілу двох випадкових величин Х і Y у
кореляційній таблиці замість частот ji yxn ,
ji yx nn ,
записують відповідні їм відносні частоти i jx yw , ,
i jx yw w , де
,,,n
nw
nn
wn
nw j
ji
i
ji
ji
yy
xx
yxyx і = 1, ..., т, j = 1, ..., k,
і
1 1 1 11
i j i j
m k m kx y x y
i j i jw w w
. (3.62)
У цьому випадку кореляційна таблиця буде такою, як
це показано в табл. 3.7.
КВМ
400
Таблиця 3.7
Закон розподілу двовимірної випадкової величини X = xi
Y = yj 1x 2x … mx jyw
1y 11 yxw
12 yxw … 1yxm
w 1yw
2y 21 yxw
22 yxw … 2yxm
w 2yw
… … … … … … ky
kyxw1
kyxw
2 …
km yxw kyw
ixw 1xw
2xw … mxw 1
Зауваження. Якщо для побудови кореляційної таблиці
замість варіант візьмемо частинні інтервали, то
будемо вважати, що в табл. 3.6 і 3.7 числа )( ji yx
означають середини відповідних інтервалів.
Проілюструємо введені нами поняття на конкретному
прикладі (табл. 3.8).
Таблиця
3.8
Закон розподілу конкретизованої випадкової величини X = xi Y = yj 10 20 30 40 50 60 jyn
15 5 7 – – – – 12 25 – 20 22 – – – 42 35 – 30 40 20 – 90 45 – – 10 11 20 6 47 55 – – – 9 7 3 19
ixn 5 27 62 60 47 9 n = 210
У першому рядку наведеної табл. 3.8 записано
спостережувані значення 10, 20, 30, 40, 50, 60 випадкової
величини Х, а в першому стовпці – спостережувані
КВМ
401
значення 15, 25, 35, 45, 55 випадкової величини Y. На
перетині стовпців і рядків розміщені частоти ji yxn
спостережуваних пар ),( ji yx значень випадкових величин
X, Y. Наприклад, частота 22 показує, що пара значень
(30, 25) спостерігалась 22 рази. Усі частоти розміщені в
прямокутнику, сторони якого позначено жирними
відрізками. Прочерки в клітинках цього прямокутника
означають, що відповідна пара значень X, Y не
спостерігалася. Наприклад, пари (10, 25), (10, 35), (30, 15) і
т. д. не спостерігалися.
В останньому стовпці записано суми частот рядків, а
в останньому рядку – суми частот стовпців. Наприклад,
число 19 у передостанньому рядку означає, що значення
55 випадкової величини Y у сполученнях зі значеннями
випадкової величини Х спостерігається 19 разів.
У клітинці, яка розміщена у правому нижньому куті,
поміщена сума всіх частот: nnnj
yi
x ji . У нашому
випадку: ,2109476062275
iixn
.2101947904212 j
iyn
КВМ
402
Нагадаємо, що розподіл імовірностей випадкового
вектора (X, Y) характеризується такими чисельними
характеристиками: математичними сподіваннями M(X) і
M(Y) і дисперсіями D(X) і D(Y) випадкових величин X і
Y, а також їх коваріацією xyK та коефіцієнтом кореляції
xyr . За допомогою емпіричного закону сумісного
розподілу величин Х і Y можна обчислювати точкові
оцінки для згаданих параметрів.
У даному пункті ми розглянемо лише оцінки
чисельних характеристик складових двовимірного
випадкового вектора (Х, Y). Вибіркові характеристики
параметрів M(X), M(Y), D(X), D(Y) обчислюють за
формулами:
а) у випадку незгрупованої вибірки:
;1)(,1)(1
*
1
*
n
iiy
n
iix y
nyYMMx
nxXMM (3.63)
;)(1)(,)(1)(1
22*2*
1
22*2*
n
iiyy
n
iixx yy
nYDDxx
nXDD (3.64)
б) у випадку згрупованої вибірки:
;1)(,1)(1
*
1
*
k
jjyy
m
iixx yn
nyYMMxn
nxXMM
ji (3.65)
КВМ
403
k
jjyyy
m
iixxx yyn
nYDDxxn
nXDD
ji1
22*2*
1
22*2* )(1)(,)(1)( .
(3.66)
Приклад 3.20. Залежність між обсягом Х товару (від 50 тис. грн до 100 тис.
грн), який перевозиться через митний пост за кордон, і відсотком Y (від 0% до
50%) незадекларованої частини цього обсягу товару характеризується
вибіркою:
X = xi Y = yj 50 60 70 80 90 100
0 4 5 4 3 2 2 10 4 4 5 4 2 1 20 3 2 5 5 3 2 30 2 3 4 6 2 3 40 3 2 5 4 3 3 50 4 4 2 3 3 4
Визначити: а) емпіричний закон розподілу відносних частот системи
випадкових величин X, Y;
б) точкові оцінки параметрів – чисельних характеристик розподілу складових
системи випадкових величин X, Y.
Розв’язання. а) Підсумовуючи частоти за стовпцями, знайдемо:
,15,15,25,25,20,20654321 xxxxxx nnnnnn
і, підсумовуючи частоти за рядками, одержимо:
.20654321 yyyyyy nnnnnn
Звідси маємо, що обсяг вибірки n = 120.
Отже, емпіричний закон розподілу системи випадкових величин X, Y характе-
ризується таблицею:
X = xi Y = yj 50 60 70 80 90 100 jyw
0 4/120 5/120 4/120 3/120 2/120 2/120 20/120 10 4/120 4/120 5/120 4/120 2/120 1/120 20/120 20 3/120 2/120 5/120 5/120 3/120 2/120 20/120 30 2/120 3/120 4/120 6/120 2/120 3/120 20/120 40 3/120 2/120 5/120 4/120 3/120 3/120 20/120 50 4/120 4/120 2/120 3/120 3/120 4/120 20/120
ixw 20/120 20/120 25/120 25/120 15/120 15/120 1
КВМ
404
б) Математичні сподівання випадкових величин X і Y оцінимо за формулами
(3.65):
)1001590158025702560205020(120
1)(* xXMM x
= ,3,738800120
1
.253000120
1)50204020302020201020020(120
1)(* yYMM y
Центр статистичного розподілу значень системи випадкових величин
характеризується точкою (73,3; 25), яка вказує, що середній обсяг товару, який
перевозиться через кордон, становить 73,3 тис. грн, середній відсоток
незадекларованого товару цього обсягу – 25%.
Дисперсії і середні квадратичні відхилення випадкових величин X і Y
обчислюємо за формулами (3.66):
;4,2609,53723,56333,73676000120
1
3,73)1001590158025702560205020(120
1)(
2
2222222*
XDDx
;1,164,260)(* Xx
;7,2916257,91625110000120
1
25)50204020302020201020020(120
1)(
2
2222222*
YDDy
.0,177,291)(* Yy
Обчислені оцінки параметрів розподілу x , y , *
x , *y
визначають прямокутник, в який потрапляють типові
значення випадкових величин X і Y.
Зауважимо, що чисельні характеристики (параметри
розподілу) M(X), M(Y), (Х) (Y) та їх відповідні оцінки
більшою мірою характеризують складові X
КВМ
405
і Y, ніж систему випадкових величин X, Y. Проте на
практиці важливішим завданням є встановлення
статистичного зв’язку між X і Y. На відміну від
функціонального зв’язку між величинами, який
забезпечує однозначну відповідність між значенням
аргументу і значенням функції, статистичний зв’язок
характеризується неоднозначністю. Ми вже відзначали,
що ця неоднозначність зумовлена тим, що на випадкові
величини впливає багато випадкових факторів, які
можуть бути спільними і різними для цих випадкових
величин. Статистичний зв’язок виявляється в тому, що
зміна значень однієї випадкової величини приводить до
зміни закону розподілу іншої. Для повного опису
статистичної залежності потрібно знати аналітичний вид
сумісного закону розподілу системи випадкових величин X
і Y, що практично неможливо. Тому, досліджуючи
залежність між випадковими величинами X і Y, обме-
жуються вивченням залежності між однією з них і
умовним математичним сподіванням іншої, що є
предметом регресійного аналізу (це питання буде
розглянуто в пункті 3.5.3).
КВМ
406
Першим кроком у вивченні взаємозв’язку між
випадковими величинами X і Y є виявлення наявності
статистичної залежності (бо випадкові величини X і Y
можуть бути і незалежними). Ця задача є предметом
розділу математичної статистики, який має назву
кореляційний аналіз. Переходимо до розгляду цього
питання.
3.5.2. Вибірковий коефіцієнт кореляції
Нехай для дослідження залежності між
випадковими величинами X і Y (ознаками генеральної
сукупності) маємо вибірку обсягу n: niyx ii ,1),,( . На
основі вибірки потрібно визначити напрям і ступінь
лінійного кореляційного зв’язку між величинами Х і Y.
У найпростіший спосіб наявність кореляційного
зв’язку між випадковими величинами визначається
шляхом побудови і візуального аналізу діаграми
розсіювання, яку отримаємо за допомогою зображення
елементів ),( ii yx вибірки точками площини Оxy. При
цьому, якщо точки ),( ii yx на площині Оxy розсіяні вздовж
КВМ
407
прямої лінії, то можна припустити, що між в.в. X і Y
існує тісний лінійний кореляційний зв’язок.
Наприклад, розміщення точок ),( ii yx , яке зображено
на рис. 3.6, характеризує лінійну кореляційну залежність
між X і Y, бо ці точки розміщені близько до прямих, які
нарисовані суцільними лініями.
На рис. 3.6а пряма має додатний кутовий коефіцієнт і зі
зростанням значень випадкової величини Х випадкова
величина Y також має тенденцію до зростання. Таку
залежність між X і Y називають додатною. На рис 3.6б
кутовий коефіцієнт від’ємний і зі збільшенням значень
випадкової величини Х випадкова величина Y має
тенденцію спадати. Таку залежність називають від’ємною. y
x
y
x 0 0
а) б) Рис. 3.6. Лінійна кореляційна залежність між випадковими величинами
Характер розміщення точок ),( ii yx на рис. 3.7а свідчить про те, що між
випадковими величинами X і Y немає зв’язку (величина Y не реагує на зміну
КВМ
408
величини Х), а характер розміщення точок на рис. 3.7б ілюструє наявність
нелінійного кореляційного зв’язку між випадковими величинами X і Y.
y
x
y
x 0 0
а) б)
Рис. 3.7. Нелінійна кореляційна залежність між випадковими величинами
Із теорії ймовірностей відомо, що ступінь зв’язку між випадковими
величинами X і Y визначається такими чисельними характеристиками
(параметрами) їх сумісного розподілу, як кореляційний момент xyK і
коефіцієнт кореляції xyr , які обчислюються за формулами:
)()()( YMXMYXMK xy , (3.67)
)у()у()()()(
уу YXYMXMYXMK
ryx
xyxy
. (3.68)
Зауважимо, що коли випадкові величини X і Y є
незалежні, то xyK = 0 і
rxy = 0. Якщо ,0xyK то випадкові величини X і Y –
залежні. Обернені твердження справджуються не завжди,
тобто якщо Кxy = 0 або rxy = 0, то це не означає, що
випадкові величини X і Y є незалежними. Якщо
залежність між X і Y є строго лінійна, тобто існують такі
а б
КВМ
409
числа А і В, що Y = AX + B, то 1|| xyr . Якщо rxy = 0, то
випадкові величини X і Y називаються некорельованими,
а якщо ,0xyr то вони є корельовані.
Звідси випливає, що основна задача кореляційного
аналізу, яка полягає у виявленні залежності між
випадковими величинами X, Y (ознаками генеральної
сукупності), може бути розв’язана шляхом побудови
точкових та інтервальних оцінок коефіцієнта кореляції.
Точкову оцінку *r для коефіцієнта кореляції rxy
обчислюємо за формулою:
yx
yxyxrr
* , (3.69)
де yx – вибіркове середнє добутку ,YX яке обчислюємо за
формулами:
n
iii yx
nyx
1
1 (3.70)
у випадку незгрупованої вибірки і
m
i
k
jjiyx yxn
nyx
ji1 1
1 (3.71)
у випадку згрупованої вибірки. Величини x і y є
вибіркові середні значення випадкових величин X і Y,
які обчислюємо за формулами (3.63) або (3.65), а
величини x і y є вибіркові середньоквадратичні
КВМ
410
відхилення випадкових величин X і Y, які обчислюються
за формулами (3.64) або (3.66).
Означення. Точкова оцінка *xyr коефіцієнта кореляції
випадкових величин X і Y, яка обчислюється за формулою
(3.69), називається вибірковим коефіцієнтом кореляції.
Вибірковий коефіцієнт кореляції *xyr характеризує
зв’язок між випадковими величинами X і Y (ознаками
генеральної сукупності): а) якщо * 0xyr , то зв’язок між X і
Y є додатний і вони зменшуються або збільшуються
одночасно; б) якщо * 0xyr , то зв’язок між X і Y є від’ємний
і зі збільшенням однієї з них друга зменшується або
навпаки; в) якщо * 0xyr , то випадкові величини X і Y є
некорельовані і це означає лише відсутність лінійного
зв’язку між ними.
Вибірковий коефіцієнт кореляції задовольняє
нерівність * 1.xyr
Приклад 3.21. Статистичні дослідження залежності між прибутком підприємства
і середньою заробітною платою працівників на однорідних підприємствах галузі
характеризуються такою вибіркою:
Прибуток у %: iy 94 142 128 70 86 120 76 118 134 112 Зарплата в грн: ix 84 162 136 86 100 150 94 118 138 114
КВМ
411
Визначити вибірковий коефіцієнт кореляції і на його основі оцінити ступінь
лінійного зв’язку між прибутком підприємства і заробітною платою
працівників.
Розв’язання. Для зручності обчислень складемо таблицю:
№ пор.
Прибуток (%) iy
Зарплата (грн) ix ix iy 2
iy 2ix
1. 94 84 7896 8836 7056 2. 142 162 23004 20164 26244 3. 128 136 17408 16384 18496 4. 70 86 6020 4900 7396 5. 86 100 8600 7396 10000 6. 120 150 18000 14400 22500 7. 76 94 7144 5776 8836 8. 118 118 13924 13924 13924 9. 134 138 18492 17956 19044
10. 112 114 12768 12544 12996
10
1i 1080 1182 133256 122280 146492
За допомогою даних одержаної таблиці і формул (3.63), (3.64), (3.70) обчислюємо:
.133266,13325133256101;1081080
101;1182,1181182
101 yxyx
За формулами (3.66) маємо:
;67813971146492,118146492101 22 x
.5641166412228108122280101 22 y
Підставивши одержані значення у формулу (3.69), обчислюємо вибірковий
коефіцієнт кореляції:
* 13326 118 108 13326 12744 582 0,9326 24 624678 564xy xyr r
.
Оскільки 0,93xyr є число, близьке до одиниці, то залежність між прибутком
підприємства і зарплатою є близька до лінійної.
Зауваження. Вибірковий коефіцієнт кореляції *xyr є
точковою оцінкою коефіцієнта кореляції rxy
КВМ
412
випадкових величин X, Y (точковою оцінкою
коефіцієнта кореляції генеральної сукупності). Його
використовують для вимірювання лінійної
залежності між випадковими величинами X, Y –
кількісними ознаками генеральної сукупності, і при
цьому дуже важливо встановити, чи коефіцієнт
кореляції генеральної сукупності є значущий (його
значення не дорівнює нулю).
Припустімо, що вибірковий коефіцієнт кореляції,
обчислений на основі вибірки за формулою (3.69), не
дорівнює нулю, тобто є значущий. Оскільки вибірка є
випадковою, то звідси ще не можна робити висновок,
що коефіцієнт кореляції генеральної сукупності
також не дорівнює нулю. У зв’язку з цим виникає
необхідність перевірити гіпотезу про значущість
вибіркового коефіцієнта кореляції. Якщо гіпотеза про
рівність нулю коефіцієнта кореляції генеральної
сукупності буде відкинута, то вибірковий коефіцієнт
кореляції значущий, а випадкові величини X, Y є
корельовані; якщо названа гіпотеза буде прийнята, то
вибірковий коефіцієнт кореляції – незначущий, а
випадкові величини X, Y – некорельовані.
КВМ
413
Якщо двовимірна генеральна сукупність (X, Y)
розподілена нормально, то за критерій перевірки
нульової гіпотези 0H про рівність нулю генерального
коефіцієнта кореляції вибирають випадкову
величину Т:
2
2
1xy
xy
nT rr
, (3.72)
де xyr – вибірковий коефіцієнт кореляції, n – обсяг
вибірки.
Випадкова величина Т має розподіл Стьюдента з k =
n – 2 ступенями вільності. Нульова гіпотеза 0H про
рівність нулю генерального коефіцієнта кореляції
нормальної двовимірної випадкової величини за
конкуруючої гіпотези 1H про те, що генеральний
коефіцієнт кореляції не дорівнює нулю, перевіряємо
за таким правилом:
1. Обчислюємо емпіричне (спостережене) значення
критерію Темп:
2
2
1емп xy
xy
nT rr
.
КВМ
414
2. Для заданого рівня значущості і числа k = n – 2
ступенів вільності за таблицею критичних точок
розподілу Стьюдента (додаток 6) визначаємо
критичну точку ),( ktкр двосторонньої критичної
області.
3. Якщо ,t|T| кремп то нульову гіпотезу 0H про рівність
нулю генерального коефіцієнта кореляції
приймають.
Якщо кремп t|T| , то нульову гіпотезу 0H відхиляють.
Якщо обсяг вибірки є достатньо великий і добре
відображає генеральну сукупність (вибірка є
репрезентативна), то висновок про характер лінійної
залежності між випадковими величинами X i Y,
одержаний на основі вибірки, може бути поширений і
на генеральну сукупність. При цьому для інтервальної
оцінки коефіцієнта кореляції r нормально розподіленої
генеральної сукупності можна використати формулу
(якщо 100n ): 2 21 1
,xy xyxy kp xy xy kp
r rr t r r t
n n
(3.73)
де крt – розв’язок рівняння 1Ц( ) .2крt
КВМ
415
Приклад 3.22. Із двовимірної нормальної генеральної сукупності зроблено
вибірку обсягом n = 122 і обчислено вибірковий коефіцієнт кореляції 0,4xyr .
Для рівня значущості = 0,05 перевірити нульову гіпотезу 0:0 xyrH за
конкуруючої гіпотези .0:1 xyrH
Розв’язання. Гіпотезу 0H перевіримо за правилом, яке сформульовано вище. За
формулою (3.72) обчислюємо:
.8,49,09,104,0
84,01204,0
4,01
21224,0
2
емпT
Для заданого рівня значущості = 0,05 і числа ступенів вільності k = 122 – 2 =
120 за таблицею додатка 6 знаходимо, що .98,1крt
Оскільки 98,18,4 кремп tT , то нульову гіпотезу 0H відхиляємо і маємо
висновок: вибірковий коефіцієнт кореляції суттєво відрізняється від нуля і
випадкові величини X і Y – корельовані.
Далі, оскільки обcяг вибірки п = 122 є великий, то для знаходження інтервалу
довіри для генерального коефіцієнта кореляції xyr можемо використати
формулу (3.73). Із таблиці додатка 2 визначаємо розв’язок рівняння
( ) 0,475 : 1,96.кр крt z Одержуємо:
1 0,16 1 0,160, 4 1,96 0,4 1,96122 122xyr
,
або
0, 25 0,55.xyr
3.5.3. Основні поняття і методи
регресійного аналізу
Якщо кореляційний аналіз досліджує
наявність і характер зв’язків між випадковими
величинами YX , – ознаками генеральної сукупності, то
КВМ
416
регресійний аналіз встановлює аналітичну форму цієї
залежності. Нехай Х – незалежна змінна (факторна
ознака), а Y – залежна змінна (результативна ознака).
Підкреслимо ще раз, що для повного опису залежності
між випадковими величинами X і Y потрібно знати
аналітичний вираз сумісного розподілу цих величин,
тобто функцію
),,()(),( yYxXPyYxXPyxF (3.74)
що практично, як правило, неможливо. Тому, як уже
зазначалося, досліджуючи аналітичну залежність між
випадковими величинами X і Y, обмежуються
вивченням залежності між однією з них і умовним
математичним сподіванням іншої, тобто такою
залежністю:
)(* xfyx – вибіркове рівняння регресії Y на Х,
|xy M Y X x ; (3.75)
)(* ygxy – вибіркове рівняння регресії Х на Y,
|yx M X Y y . (3.76)
У наведених вибіркових рівняннях регресії (3.75) і
(3.76) xy і yx – вибіркові умовні математичні сподівання,
відповідно, Y на Х і Х на Y, а )(* xf і )(* yg – вибіркові
функції регресії, відповідно. Аналітичні вирази для
КВМ
417
функції )(* xf і )(* yg будуємо на підставі проведеної
вибірки ),,( 11 yx ),,( 22 yx …, ),( nn yx . Характер відповідної
регресійної моделі допомагає вибрати діаграма
розсіювання точок ),( ii yx на площині.
Припустимо, що:
розподіл результативної ознаки Y у генеральній
сукупності є нормальним;
дисперсія результативної ознаки Y не залежить від
факторної ознаки Х;
між результативною та факторною ознаками існує
лінійний зв’язок. Ці обмеження приводять до дослідження найпростішої регресійної моделі –
лінійної регресії, коли вибіркове рівняння регресії (3.75) записують так:
baxyx . (3.77)
У цьому випадку точкові оцінки для параметрів a і b
задовольняють основні вимоги до точкових оцінок, які
описані в підрозділі 3.2, а тому є можливість побудувати
для них довірчі інтервали і оцінити їх значущість.
Основним методом отримання точкових оцінок для
параметрів a і b рівняння регресії (3.77) є метод
найменших квадратів, до викладу якого переходимо.
КВМ
418
Нехай вибірка ),,( 11 yx ),,( 22 yx …, ),( nn yx обсягу n є
незгрупованою. Оскільки, за припущенням, між
результативною і факторною ознаками існує лінійний
зв’язок, то діаграма розсіювання точок ),( ii yx має вигляд,
що зображений на рис. 3.6а або на рис. 3.6б.
Ідея методу найменших квадратів полягає в тому, що
за точкові оцінки a і b параметрів а і b вибирають такі
числа, для яких пряма xy =a x + b є «найближчою» до
точок ),( 11 yx , ),( 22 yx , …, ),( nn yx . За міру відхилення шуканої
прямої від точок ),( ii yx виберемо величину
n
iii baxybaS
1
2)(),( , (3.78)
тобто суму квадратів різниць між ординатами прямої та
ординатами точок ),( ii yx для одних і тих же значень ixx .
Якщо числа а і b є такими, що функція ( , )S a b має
найменше значення, то пряма xy ax b найменше
відхиляється від точок ),( ii yx , тобто сумарно є
наближеною до точок, які зображають результати
вибірки. Зрозуміло, що за міру відхилення шуканої
прямої від точок ),( ii yx можна було б вибрати іншу
величину, наприклад,
КВМ
419
1( , ) ( )
n
i ii
S a b y ax b
,
однак в цьому випадку виникли б певні незручності при
знаходженні коефіцієнтів а і b. За точкові оцінки a і b параметрів а і b виберемо такі числа, для яких
функція S(a, b) має мінімальне значення, тобто ),(min),( baSbaS . Метод
знаходження таких оцінок параметрів a i b з використанням функції S(a, b) і
називається методом найменших квадратів.
Оскільки точкові оцінки ba i для невідомих параметрів а і b повинні
реалізувати мінімум функції S(a, b), то для їх знаходження маємо систему
рівнянь:
n
iii
n
iiii
baxyb
baS
xbaxya
baS
1
1
,0)()2(),(
,0)()(2),(
(3.79)
яку елементарними перетвореннями зводимо до такої
форми:
.
,
11
111
2
n
ii
n
ii
n
iii
n
ii
n
ii
ynbxa
yxxbxa (3.80)
Зауваження. У випадку згрупованої вибірки для
означення невідомих параметрів а і b матимемо
систему двох лінійних рівнянь:
КВМ
420
.
,
11
1 111
2
k
jjy
m
iix
m
i
k
jjiyx
m
iix
m
iix
ynnbxna
yxnxnbxna
ji
jiii
(3.81)
Припускаючи, що ознака Х не є сталою, тобто серед
вибіркових значень nxx ...,,1 обов’язково є різні числа,
доходимо висновку, що визначник системи (3.81)
02
11
2
1
11
2
n
ii
n
iin
ii
n
ii
n
ii
xxnnx
xx.
Звідси випливає, що система рівнянь (3.80) має
єдиний розв’язок:
,,2 bxaybayxyxax
де
n
iii
n
iixx
n
ii
n
ii yx
nyxxx
nDy
nyx
nx
1
2
1
22
11
1,)(1,1,1 .
Підставивши у рівняння (3.77) значення aa , bb ,
дістанемо шукане рівняння лінійної регресії: .bxayx
Коефіцієнт a називають коефіцієнтом регресії. Він
обчислюється як частка від xyx
і характеризує
відношення величини приросту результативної ознаки
xy до величини приросту x факторної ознаки.
КВМ
421
Зауважимо, що лінійне рівняння регресії можна подати також через
точкову оцінку коефіцієнта кореляції:
* ( ).yx xy
xy y r x x
(3.82)
Зауваження. У разі, коли припущення про лінійність
зв’язку між результативною ознакою Y і факторною
ознакою Х порушується (про це можна зробити
висновок з діаграми розсіювання вибірки), то будують
нелінійні регресійні моделі. Ці моделі можуть
виражатися, наприклад, рівняннями:
,2 cbxaxyx
,23 dcxbxaxyx
.bxayx
Точкові оцінки параметрів у наведених нелінійних моделях також можна
знайти методом найменших квадратів.
Приклад 3.23. За статистичними даними, за останні 10 років залежність
валового випуску продукції Y від наявних основних фондів Х відображає така
таблиця:
Роки 1 2 3 4 5 6 7 8 9 10 Y (тис. грн) 425 471 510 565 592 618 615 645 641 554 X (тис. грн) 120 137 140 161 180 200 222 217 215 191
Написати лінійне вибіркове рівняння регресії.
Розв’язання. Діаграма точок ),( ii yx підтверджує, що залежність між резуль-
тативною ознакою Y і факторною ознакою Х є лінійна. Для запису системи
КВМ
422
рівнянь (3.81), з якої визначаємо точкові оцінки для коефіцієнтів а і b, складемо
таблицю:
№ пор. ix iy 2
ix 2iy ii yx
1. 120 425 14400 180625 51000 2. 137 471 18769 221841 64527 3. 140 510 19600 260100 71400 4. 161 565 25921 319225 90965 5. 180 592 32400 350464 106560 6. 200 618 40000 381924 123600 7. 222 615 49284 378225 136530 8. 217 645 47089 416025 139965 9. 215 641 46225 410881 137815 10. 191 554 36481 306916 105814
10
1i 1783 5636 330169 3226226 1028176
У результаті, система рівнянь (3.81) набуває вигляду:
.5636101783,10281761783330169
baba
Розв’язок одержаної системи рівнянь: а = 1,899; b = 225,007. Отже, вибіркове
рівняння регресії:
.007,225899,1 xyx
Щоб переконатися в тому, що наше припущення про лінійність зв’язку між Y і
Х було правильним, обчислимо вибірковий коефіцієнт кореляції за формулою:
*xy xy
x y
xy x yr r
.
У нашому випадку
;3,17817831011 ix
nx ;6,5635636
1011 iy
ny
;6,10281710281761011 ii yx
nyx
,35;1226)3,178(330169101)(1 2222 xix xx
n
.5,70;6,4977)6,563(3226226101)(1 2222 yiy yy
n
Отже,
КВМ
423
102817,6 178,3 563,6 0,9433.35 70,5xyr
Оскільки вибірковий коефіцієнт кореляції xyr є досить близьким до одиниці, то
наше припущення про лінійний зв’язок між Y і Х – правильне. Коефіцієнт
регресії 899,1a показує, що збільшення основних фондів на 1 тис. грн приведе
до зростання валової продукції в середньому на 1,899 тис. грн.
Зрозуміло, що на приріст валової продукції впливають не тільки основні фонди,
а й інші фактори. Тому досліджуваний зв’язок не є функціональним, а
кореляційним.
Рекомендована література: [2, c. 121–150; 5, c. 253–
267; 9, c. 161–187].
Завдання для самоконтролю
Основні поняття, означення і відношення
Замість крапок запишіть таке продовження (доповнення) тексту, щоб отримати
правильне означення або твердження.
1. Статистичною називається така залежність між випадковими величинами Х і Y, за
якої …
2. Кореляційною називається така залежність між випадковими величинами Х і Y, за
якої …
3. Емпіричний закон сумісного розподілу випадкових величин Х і Y записується у
формі такої таблиці: …
4. Предметом кореляційного аналізу є …
5. Предметом регресійного аналізу є …
6. Вибірковим коефіцієнтом кореляції називається …
7. Вибірковий коефіцієнт кореляції називається значущим, якщо …
8. Якщо вибірковий коефіцієнт кореляції 0* r , то …
9. Якщо вибірковий коефіцієнт кореляції 0* r , то …
КВМ
424
10. Вибірковим рівнянням регресії Y на Х називається зв’язок між ... і записується
так: …
11. Вибірковим рівнянням регресії Х на Y називається зв’язок між ... і записується
так: …
12. Вибіркове рівняння регресії Y на Х називається лінійним, якщо воно має такий
вигляд …
13. Вибіркове рівняння регресії Х на Y називається лінійним, якщо воно має такий
вигляд …
14. За точкові оцінки a і b параметрів а і b лінійного рівняння регресії baxyx
вибирають такі числа, для яких функція … має … значення.
15. Лінійне рівняння регресії Y на Х, яке виражається через коефіцієнт кореляції,
таке: …
Тести
Запишіть на бланку відповідей номер завдання і коди (порядкові номери або літери), що
відповідають тим варіантам відповідей, які вважаєте правильними.
1. Емпіричний закон сумісного розподілу випадкових величин Х і Y задано
таблицею:
X = xi Y = yj
0 2 4
–1 0,1 p 0,3 –3 p 0,1 0,1
Визначити p.
Варіанти відповідей: 1. 0,1. 2. 0,2. 3. 0,3.
2. Емпіричний закон сумісного розподілу випадкових величин задано таблицею:
X = xi Y = yj
–2 0 2
0,1 0,1 0,3 0,1 0,3 0,15 0,05 0,3
Обчислити: а) **yx MM ; б) .
y
xDD
КВМ
425
Варіанти відповідей: а) 1. 0,06. 2. 0. 3. 0,3.
б) 1. 0. 2. 300. 3. 251.
3. За результатами вибірки значень двох випадкових величин Х і Y обчислено:
середні вибіркові 128x , 136y , 16980yx і вибіркові дисперсії 576)( XD ,
484)( YD . Обчислити вибірковий коефіцієнт кореляції.
Варіанти відповідей: 1. 0,8. 2. –0,81. 3. 0,08.
4. За даними вибірки прикладу 3 написати лінійне рівняння регресії Y на Х.
Варіанти відповідей: А. .85,3525,0 xyx
Б. .04,2317425,0 xyx
В. .4,202,1 xyx
5. За допомогою методу найменших квадратів скласти емпіричне рівняння прямої
регресії залежності випадкової величини Y від випадкової величини Х, якщо
вибірка задана таблицею:
X = xi Y = yj
20 25 30 35 40
16 4 6 – – – 26 – 8 10 – – 36 – – 32 3 9 46 – – 4 12 6 56 – – – 1 5
Варіанти відповідей: А. .5,1044,0 xyx
Б. .45,834,1 xyx
В. .58,1046,1 xyx
Приклади
КВМ
426
1. Знайти вибіркові рівняння прямої лінії регресії Y на Х і X на Y за даними
кореляційної таблиці:
Y \ X 5 10 15 20 25 30 35 yn 100 6 1 7 120 4 2 6 140 8 10 5 23 160 3 4 3 10 180 2 1 1 4 xn 5 5 11 11 5 10 3 n=50
2. Проведено 60 випробувань міцності оптоволокна в залежності від його товщини.
Дані випробувань подано в таблиці, де Х означає деяку умовну величину, обернено
пропорційну товщині оптоволокна (“номер” волокна), а Y –граничне навантаження в кг:
Y \ X 4100 4300 4500 4700 4900 5100 5300 5500 6,75 1 6,25 1 2 2 1 5,75 1 3 4 2 3 5,25 3 5 7 1 1 4,75 2 5 5 3 2 4,25 1 2 2 3,75 1
Знайти вибірковий коефіцієнт кореляції величин X і Y. Написати вибіркове рівняння
лінійної регресії Y на X.
3. Середня температура травня в Ужгороді (x, C) та у Львові (y, C) визначалась
протягом 40 років і дані подано в таблиці
X Y X Y X Y X Y X Y 12,0 10,8 13,9 10,1 15,0 13,8 17,2 13,9 18,1 16,0 12,0 11,3 14,2 10,0 15,0 16,0 16,9 14,8 18,4 17,8 12,0 12,0 14,0 10,0 15,5 13,9 16,9 14,0 19,2 15,0 12,0 13,0 14,0 12,0 15,9 14,7 17,0 16,0 19,3 16,1 12,8 10,9 13,9 12,4 16,0 13,0 16,8 17,0 20,0 17,0 13,8 10,0 15,0 11,0 15,9 15,0 17,5 16,0 20,1 17,7 13,1 11,5 14,9 13,0 16,0 16,0 18,0 14,0 14,0 14,8 13,0 13,0 14,9 14,2 16,9 12,9 18,0 14,8 14,0 15,2
Знайти вибірковий коефіцієнт кореляції. Написати вибіркове рівняння лінійної регресії
Y відносно X.
КВМ
427
4. За статистичними даними залежність врожайності буряків Y від кількості Х
внесених добрив на 1 га наведено у вигляді двовимірного статистичного розподілу
вибірки:
Х (га/т) Y (ц/га) 0,5 1 1,5 2 2,5 300 2 4 305 1 2 3 310 3 5 2 315 4 1 2 320 2 1 3
Написати лінійне вибіркове рівняння регресії.
5. На хімічному виробництві отримані такі дані про залежність виходу продукту Y
(кг/год) від температури реакції Х (С):
Х 51 32 80 73 64 45 83 44 93 Y 52,7 15,2 89,5 94,8 76,0 39,3 114,8 36,5 137,4
Х 28 35 40 29 53 58 65 75 Y 5,3 20,7 21,7 9,2 55,4 64,3 79,1 101,1
Припускаючи, що залежність між Х та Y описується моделлю простої лінійної регресії,
знайти оцінки параметрів цієї регресії.
6. Середню температуру взимку вимірювали протягом 15 років у двох регіонах А і
В. Результати вимірювання наведено в таблиці:
А ix -19 -14 -19,2 -11,2 -9,5 -15,9 -13,6
В jy -21,6 -15,5 -20,2 -11,4 -11,7 -19,4 -13,5
А ix -5,9 -14,6 -9,2 -8,5 -7,8 -5,4
В jy -7,6 -15,2 -14,3 -12,4 -10,7 -7,4
Визначити: а) точкові оцінки параметрів – числових характеристик розподілу
системи випадкових величин X та Y (де Х – середня температура взимку у регіоні A, Y
– середня температура взимку у регіоні В); б) вибірковий коефіцієнт кореляції; в)
при рівні значимості 0,05 перевірити гіпотезу про статистичну значимість
коефіцієнта кореляції та зробити висновок про ступінь залежності між Х та Y.
КВМ
428
7. Залежність між кількістю проданих пар жіночого взуття ix від його розміру iy
наведено в таблиці:
ix 35 40 42 80 83 96 104 82 70 23 15
iy 34,5 35 35,5 36 36,5 37 37,5 38 38,5 39 40
Визначити: а) точкові оцінки параметрів – числових характеристик розподілу
системи випадкових величин X, Y;
б) вибірковий коефіцієнт кореляції;
в) при рівні значимості 0,01 перевірити гіпотезу про статистичну
значимість коефіцієнта кореляції та зробити висновок про ступінь
залежності між Х та Y.
8. Виготовлені в цеху деталі сортувалися за відхиленням зовнішнього діаметра Х і
внутрішнього Y. Спільний статистичний розподіл ознак Х та Y наведено в таблиці:
Х Y 0.01 0.02 0.03 0.04 0.05 0.06
0.002 1 3 4 2 3 5 0.004 2 2 24 10 8 6 0.006 4 15 8 3 5 7 0.008 4 6 9 2 3 5
Визначити: а) емпіричний закон розподілу системи випадкових величин X та Y;
б) точкові оцінки параметрів – числових характеристик розподілу
системи випадкових величин X та Y;
в) вибірковий коефіцієнт кореляції;
г) при рівні значимості 0,001 перевірити гіпотезу про статистичну
значимість коефіцієнта кореляції та зробити висновок про ступінь
залежності між Х та Y.
9. Залежність між обсягом Х товару (тис.грн.), який перевозиться через
митний пост за кордон, і відсотком Y (%) незадекларованої частини цього обсягу
характеризується вибіркою:
ii yx \ 0 5 10 15 20 25 45 4 2 2 1 5 55 3 5 5 4 7 4 65 2 5 4 5 8 2 75 7 3 3 4 1 3
КВМ
429
85 5 2 3 2 2 3 95 1 6 2 1 5 4
Визначити: а) емпіричний закон розподілу системи випадкових величин X та Y;
б) точкові оцінки параметрів – числових характеристик розподілу
системи випадкових величин X та Y;
в) вибірковий коефіцієнт кореляції;
г) при рівні значимості 0,01 перевірити гіпотезу про статистичну
значимість коефіцієнта кореляції та зробити висновок про ступінь
залежності між Х та Y.
Відповіді:
1. вy =-2,15x+181,8; вx =-0,33y+65,7. 2. вy =0,0015x-1,8905; r =0,63. 3.
вy =0,213x+10,4772; r = 0,997. 4. 8,68 297вy x . 5. 1,94 48,5вy x . 6. а)
11,83; 13,91;x y 19,57xD ; 18, 41yD ; 21,2xD ; 19,94yD ; б) 0,945; в)
приймається гіпотеза 1H . 7. а) 60,91; 37,05;x y 861,72xD ; 2, 75yD ;
947,89xD ; 3,02yD ; б) -0,098; в) приймається гіпотеза 0H . 8. б)
0,035; 0,0052;x y 0,000233xD ; 63,64 10yD ; в) − 0,162; г) приймається
гіпотеза 0H . 9. б) 12,65; 68,54;x y 75, 46xD ; 267, 48yD ; в) −0,072; г)
приймається гіпотеза 0H .
КВМ
430
Основні поняття і терміни
Генеральна сукупність – множина всіх можливих
значень випадкової величини.
Вибіркова сукупність (статистична сукупність) –
множина значень випадкової величини, яка одержана в
результаті спостережень (вибірки).
Варіанта – спостережуване значення випадкової
величини.
Обсяг вибірки – число всіх варіант.
Частота варіанти – число повторень варіанти у
вибірці.
Відносна частота варіанти – відношення частоти
варіанти до обсягу вибірки.
Дискретний варіаційний ряд (варіаційний ряд) –
послідовність варіант, записаних за зростанням їх
значень.
Інтервальний варіаційний ряд (неперервний
варіаційний ряд) – послідовність інтервалів, які містять
усю сукупність варіант.
Накопичена частота – сума частот варіант, які
потрапляють у заданий інтервал.
КВМ
431
Накопичена відносна частота – сума відносних
частот варіант, які потрапляють у заданий інтервал.
Дискретний емпіричний (статистичний) розподіл
вибірки – відповідність між варіантами та їх частотами
або відносними частотами.
Інтервальний емпіричний (статистичний) розподіл
вибірки – відповідність між інтервалами варіаційного
ряду та накопиченими частотами або відносними
накопиченими частотами інтервалів.
Полігон частот – ламана, відрізки якої з’єднують
точки ),( ii nx , ki ,1 , де ix – варіанти, in – відповідні частоти
варіант.
Полігон відносних частот – ламана, відрізки якої
з’єднують точки ),( ii wx , ki ,1 , де ix – варіанти, iw –
відповідні відносні частоти варіант.
Гістограма частот – східчаста фігура, яка
складається з прямокутників, основами яких є частинні
інтервали емпіричного розподілу вибірки, а висотами –
частки відповідних накопичених частот і довжин основ.
Гістограма відносних частот – східчаста фігура, яка
складається з прямокутників, основами яких є частинні
інтервали емпіричного розподілу вибірки, а висотами –
КВМ
432
частки відповідних накопичених відносних частот і
довжин основ.
Емпірична функція розподілу випадкової величини Х
– функція, яка для кожного дійсного числа х дорівнює
відношенню накопиченої частоти )(~ xn значень величини
Х, що менші за х, до обсягу вибірки n.
Вибіркове середнє емпіричного (статистичного)
розподілу вибірки – середнє арифметичне значення її
варіант із урахуванням їх частот.
Розмах вибірки емпіричного (статистичного)
розподілу вибірки – різниця між найбільшим і
найменшим значеннями її варіант.
Вибіркова дисперсія емпіричного (статистичного)
розподілу вибірки – середнє арифметичне значення
квадратів відхилень його варіант від вибіркового
середнього цього розподілу.
Вибіркове середнє квадратичне відхилення емпіричного
(статистичного) розподілу вибірки – квадратний корінь із
вибіркової дисперсії цього розподілу.
Коефіцієнт варіації емпіричного (статистичного)
розподілу вибірки – відношення вибіркового середнього
КВМ
433
квадратичного відхилення до вибіркового середнього
цього розподілу.
Точкова оцінка параметра розподілу випадкової
величини – будь-яка однозначна функція, за допомогою
якої знаходять наближене значення параметра розподілу
цієї величини.
Незміщена точкова оцінка параметра розподілу
випадкової величини – точкова оцінка цього параметра,
математичне сподівання якої дорівнює точному
значенню параметра.
Конзистентна (змістовна) точкова оцінка параметра
розподілу випадкової величини – точкова оцінка цього
параметра, яка збігається за ймовірністю до оцінюваного
параметра при необмеженому зростанні числа
спостережень.
Ефективна точкова оцінка параметра розподілу
випадкової величини – точкова оцінка цього параметра,
яка за фіксованого обсягу вибірки має найменшу
дисперсію серед усіх його незміщених оцінок.
Функція правдоподібності неперервної випадкової
величини – добуток усіх значень густини розподілу цієї
КВМ
434
величини за таких значень аргументу, що дорівнюють
варіантам вибірки.
Інтервальна оцінка параметра розподілу випадкової
величини – інтервал, який «накриває» точне значення
цього параметра.
Надійність (довірча ймовірність) точкової оцінки
параметра розподілу випадкової величини – імовірність,
з якою точне значення параметра розподілу цієї
величини «накривається» інтервалом, що симетричний
відносно точкової його оцінки.
Надійний (довірчий) інтервал для параметра
розподілу випадкової величини – інтервал, який із
близькою до одиниці ймовірністю «накриває» точне
значення параметра.
Статистична гіпотеза – твердження про
властивості (ознаки) генеральної сукупності, що
перевіряються на основі вибірки.
Статистичний критерій гіпотези – випадкова
величина, за допомогою якої проводиться перевірка
статистичної гіпотези.
Критична область – множина значень статистичного
критерію гіпотези, за яких гіпотезу відхиляють.
КВМ
435
Область прийняття гіпотези – множина значень
критерію статистичної гіпотези, за яких гіпотезу
приймають.
Критична точка – точка числової прямої, яка
розділяє критичну область і область прийняття гіпотези
на цій прямій.
Статистична залежність між випадковими
величинами – залежність, за якої зміна значень однієї
величини впливає на зміну розподілу ймовірностей
другої.
Кореляційна залежність між випадковими
величинами – залежність, за якої зміна значень однієї з
них призводить до зміни середнього значення другої.
Емпіричний закон сумісного розподілу ймовірностей
двох випадкових величин – відповідність між
можливими парами значень цих величин та
відповідними частотами або відносними частотами цих
значень.
Вибірковий коефіцієнт кореляції – точкова оцінка
коефіцієнта кореляції цих величин, обчислена за
допомогою одержаної вибірки їх значень.
КВМ
436
Вибіркове рівняння регресії – залежність між
можливими значеннями однієї випадкової величини та
умовним вибірковим середнім (умовним вибірковим
математичним сподіванням) другої.
Вибіркове лінійне рівняння регресії – вибіркове
рівняння регресії, яке виражається лінійною залежністю
між можливими значеннями однієї випадкової величини
та умовним вибірковим математичним сподіванням
другої.
КВМ
437
РОЗДІЛ 4
_____________________________________________
ЕЛЕМЕНТИ
ТЕОРІЇ ВИПАДКОВИХ ПРОЦЕСІВ
У цьому розділі ми познайомимося з основними початковими
поняттями та відповідною їм термонологією теорії випадкових процесів.
Тут розглядається:
означення випадкового процесу. Класифікація випадкових процесів;
закони розподілу та основні характеристики випадкових процесів;
марковські процеси з дискретними станами та дискретним часом
(ланцюги Маркова);
основні характеристики та класифікація скінченних ланцюгів
Маркова;
ергодична теорема для ланцюга Маркова та властивості
поглинаючих марковських ланцюгів.
У результаті вивчення цього розділу студенти набувають таких
навичок і
вмінь:
вказати клас, до якого належить розглядуваний випадковий процес;
обчислювати основні числові характеристики випадкових процесів;
проводити класифікацію скінченних ланцюгів Маркова та
обчислювати їх основні характеристики;
застосовувати найпростіші моделі марковських процесів з
дискретними станами та дискретним часом для опису та аналізу
КВМ
438
економічних або фінансових структур, які розвиваються і
змінюються в часі.
КВМ
439
4.1. Основні поняття теорії випадкових процесів
(в.п.).
Теорією випадкових процесів називається математична наука, яка
вивчає закономірності випадкових явищ в динаміці їх розвитку.
Випадкові процеси описують багато фізичних, економічних та
виробничих явищ. До них належать броунівський рух дрібної частинки,
який виникає внаслідок взаємодії частинки з молекулами рідини,
коливання валютних курсів, курсів акцій, ціни на певний товар,
сподівана вартість грошей, банківські активи, довжина черг та кількість
заявок на обслуговування в кожний момент часу з деякого проміжку часу
в різних системах надання послуг тощо.
4.1.1. Означення випадкового процесу.
Класифікація випадкових процесів.
Поняття випадкового процесу є узагальненням поняття випадкової
величини, яке вже відоме з розділу 2.
Розглянемо деяку числову множину Т , елементи якої
позначатимемо через t і будемо вважати їх моментами часу.
Означення. Випадковим процесом називається функція tX , Tt ,
значення якої при будь-якому фіксованому 0tt є випадковою величиною
0tX .
Випадкову величину 0tX , в яку перетворюється випадковий
процес при 0tt називається перерізом випадкового процесу, що
відповідає даному значенню аргумента t . Надалі, розглядаючи переріз
випадкового процесу, ми не завжди відзначатимемо нульовим індексом те
значення аргумента t , якому воно відповідає, а будемо інтерпретувати
КВМ
440
один і той же вираз tX або як випадковий процес (при змінному t ), або
як випадкову величину (при фіксованому t ).
Якщо розглянути не один переріз випадкового процесу, а ряд
перерізів в точках nttt ...,,, 21 , то отримаємо n –вимірний випадковий
вектор ntXtXtX ...,,, 21 , який описує випадковий процес лише в
деякому наближенні. Сукупність всіх перерізів при всеможливих t і є
випадковий процес tX . Отже, випадковий процес представляє не що
інше, як сім”ю випадкових величин – всіх перерізів цього процесу.
Аналогічно до того, як ми записували випадкову величину у вигляді
функції від елементарної події , яка є результатом досліду (стохастичного
експерименту), можна і випадковий процес записати у вигляді функції від
двох аргументів – часу t та елементарної події :
tX = ,,,, TttX (4.1)
де - елементарна подія, - простір елементарних подій, T – область
(множина) значень аргумента t функції tX .
Якщо 0 – фіксоване, то 0,tX , що розглядається як функція
t, Tt , називається реалізацією або траєкторією випадкового процесу
tX .
Означення. Реалізацією випадкового процесу tX невипадкова
функція tx , в яку перетворюється випадковий процес tX внаслідок
проведеного досліду.
Користуючись формулою (4.1), для tx можна записати рівність
tx = 0,tX , Tt . (4.2)
Якщо здійснити не один дослід, а декілька, внаслідок кожного з яких
спостерігається реалізація випадкового процесу txi ( i – номер досліду),
то отримаємо декілька реалізацій випадкового процесу:
txtxtx m...,,, 21 ( m – кількість проведених дослідів) або сім’ю реалізацій.
КВМ
441
Сім’я реалізацій випадкового процесу – основний емпіричний
матеріал, на підставі якого можна оцінити характеристики випадкового
процесу (про них йтиме мова в наступному підрозділі). Сім’я реалізацій
випадкового процесу аналогічна сукупності спостережуваних значень
випадкової величини X, з тією різницею, що тут спостерігаються не
числові значення, а функції.
Наведемо приклади, які ілюструють введені поняття.
Приклад 4.1. Розглянемо випадковий процес
1)( ХttЧ ,
де ,0Tt , Y – випадкова величина, закон розподілу
якої заданий у формі таблиці
Y -1 1
P
0,
6
0,4
Знайти переріз випадкового процесу при 2t .
Побудувати траєкторії даного процесу.
Розв’язання. Перерізом випадкового процесу tX в момент
часу 2t є випадкова величина 122 YX . Її розподіл має
вигляд
2X -1 3
P 0,
6
0,
4
.
.
КВМ
442
Траєкторіями даного процесу є функції:
tttx 1111 і 12 ttx . Вони зображені на рис. 4.1. а).
Приклад 4.2. Випадковий процес tX , ,0Tt ,
визначений у наступний спосіб:
,якщо,2,якщо,1
YtYt
tX
де Y - додатна випадкова величина, розподілена за
показниковим законом з густиною
.0якщо,,0якщо,0
xex
xf xY
Знайти переріз випадкового процесу tX при 1t .
Побудувати реалізацію даного процесу, якщо в
результаті виконання експерименту випадкова величина
Y прийняла значення .2y
Розв’язання. Перерізом випадкового процесу tX в момент
часу 1t є випадкова величина
.1якщо,2,1якщо,1
1YY
X
Визначимо ймовірності значень дискретної випадкової
величини 1X . Для значення 11 X маємо
1111111 YFYPYPXP .
КВМ
443
Оскільки випадкова величина Y розподілена за
показниковим законом, то на підставі формули (2.36)
одержуємо
,0,1,0,0
xex
xF xY
і 11111111 eeFXP Y .
Аналогічно дослідимо .11121 1 eFYPXP Y Отже,
закон розподілу перерізу 1X має вигляд: 1X 1 2
P 1e 11 e
Реалізація tx даного випадкового процесу за умови 2Y
визначається співвідношенням
.2якщо,2,2якщо,1
tt
tx
Графік цієї реалізації зображено на рис. 4.1.б) .
.
КВМ
444
t
)t(x)t(x
tOO
1 якщо y
1 якщо y
1 1
22
)а )б
Рис. 4.1. Реалізації випадкового процесу.
2
Далі нам доведеться мати справу із системами різноманітної природи,
зокрема, з економічними та фінансовими. Випадковий процес, який
відбувається у системі S, полягає в тому, що з плином часу t система S у
випадковий спосіб змінює свій стан. Якщо система S в момент t
описується однією скалярною випадковою величиною tX , то ми маємо
справу зі скалярним випадковим процесом tX . Якщо стан системи S в
момент t описується декількома випадковими величинами
tXtXtX k...,,, 21 , то ми маємо справу з векторним випадковим
процесом tX з k складовими: tXtXtX k...,,, 21 .
В теорії випадкових процесів прийнято класифікувати їх за тими
або іншими ознаками, враховуючи плавність або стрибкоподібність
реалізації, фіксованість або випадковість моментів, в які можуть
відбуватися стрибки, вигляд закону розподілу окремого перерізу або
сукупності його перерізів і т.д. Ознайомимося з найелементарнішою
класифікацією випадкових процесів – “за часом” і “за станами”.
Означення. Випадковий процес tX називається процесом з
дискретним часом, якщо система S , в якій він відбувається, може
КВМ
445
змінювати свої стани тільки у визначені, наперед відомі моменти часу
...,,...,,, 21 ittt які називаються кроками (або етапами) цього процесу.
Множина T є скінченною або зліченною.
У проміжках часу між сусідніми кроками система зберігає свої
стани. Не виключається можливість, що на деяких кроках система не
змінить свого стану.
Випадковий процес з дискретним часом називається також
випадковою послідовністю. Якщо стан системи S описується одною
випадковою величиною X, то випадковий процес представляє
послідовність випадкових величин ...,...,,, 21 ntXtXtX . В якості
аргумента послідовності можна вибрати значення номера моменту
переходу ...,...,,2,1 nk . Тоді випадковий процес можна представити у
вигляді послідовності випадкових величин ...,...,,2,1 nXXX .
Означення. Випадковий процес tX називається процесом з
неперервним часом, якщо система S, в якій він відбувається, може
змінювати свої стани в будь-які, випадкові моменти часу, що неперервно
заповнюють вісь tO ( або її ділянку). Множина t є нескінченною та
незліченною.
Означення. Випадковий процес tX , який відбувається в системі S ,
називається процесом з дискретними станами, якщо в будь-який момент
часу t множина його станів є скінченною або зліченною; іншими словами,
якщо його переріз в будь-який момент t характеризується дискретною
випадковою величиною tX - в одновимірному випадку та векторною
дискретною випадковою величиною tXtXtX k...,,, 21 - в
багатовимірному випадку.
Зауважимо, що всі випадкові процеси з “якісними” станами
відносяться до категорії процесів з дискретними станами; перерізом
КВМ
446
такого процесу є випадкова подія – аналог дискретної випадкової
величини.
Означення. Випадковий процес, який відбувається в системі S,
називається процесом з неперервними станами, якщо множина
можливих станів системи S незліченна; іншими словами, якщо переріз
процесу в будь-який момент часу t характеризується неперервною (або
змішаною) випадковою величиною – в одновимірному випадку та
векторною неперервною (або змішаною) випадковою величиною – в
багатовимірному випадку.
За вищевказаними ознаками випадкові процеси можна поділити на
чотири класи:
A1. Процеси з дискретними станами та дискретним часом.
А2. Процеси з дискретними станами та неперервним часом.
Б1. Процеси з неперервними станами та дискретним часом.
Б2. Процеси з неперервними станами та неперервним часом.
Приклад процесу типу А1: Дехто купив m білетів виграшного
займу, які можуть вигравати та погашатися в завчасно відомі моменти
часу (тиражі) ...,, 21 tt . Випадковий процес tX - число білетів, на які
припав виграш до моменту t .
Приклад процесу типу А2: Технічний прилад складається з n
вузлів, які можуть в ході роботи приладу відмовляти (виходити з ладу).
Випадковий процес tX - кількість вузлів, що відмовили до моменту t .
Приклад процесу типу Б1: У певні моменти часу ...,, 21 tt
реєструється температура повітря tX у заданій точці простору.
Послідовність значень цієї величини – випадковий процес tX з
неперервними станами та дискретним часом.
Приклад процесу типу Б2: У мікроскоп на протязі проміжку часу
[0,T] спостерігається переміщення малої частинки в рідині, яка здійснює
КВМ
447
броунівський рух. Координата частинки в момент t - випадковий процес
tX з неперервними станами та неперервним часом.
4.1.2. Закони розподілу та основні
характеристики випадкових процесів.
З розділу 2 відомо, що ймовірнісні властивості випадкової величини
можна вивчати за допомогою її функції розподілу xXPxF :
ймовірність того, що випадкова величина X прийме значення, яке є
меншим від заданого числа x . Нагадаємо також, що для дискретної
випадкової величини її закон розподілу може бути заданий рядом
розподілу, для неперервної випадкової величини – густиною розподілу.
Аналогічно ймовірнісні властивості випадкового процесу можна вивчити
за допомогою сім’ї його скінченно-вимірних розподілів. Останні
отримуються так само, як і розподіл скінченної множини випадкових
величин, визначених на одному і тому ж ймовірнісному просторі.
Нехай маємо випадковий процес tX . У кожному перерізі розподіл
ймовірностей випадкового процесу задається одновимірною функцією
розподілу
xtXPxtF , . (4.3)
Якщо випадкова величина tX дискретна, то одновимірний закон
розподілу випадкового процесу tX описується рядом розподілу
txtXPtp ii , ...,2,1i , (4.4)
де txi - значення випадкової величини tX . Якщо випадкова величина
tX неперервна, то цей закон можна задати за допомогою одновимірної
густини розподілу xtf , , для якої при будь-яких Tt та ;x
виконується рівність
КВМ
448
x
duutfxtF ,, .
Очевидно, в точках неперервності xtf , маємо
x
xtFxtf
,, .
Неважко зрозуміти, що функція xtF , не дає повної, вичерпної
імовірнісної характеристики випадкового процесу, оскільки вона не
враховує залежності випадкових величин tX при різних t (тобто
залежності різних перерізів випадкового процесу). Більш повно
ймовірнісні властивості tX описує n-вимірна функція розподілу –
функція розподілу випадкового вектора ntXtXtX ...,,, 21 для n
перерізів випадкового процесу: nn xtxtxtF ,...,;,;, 2,211 =
nn xtXxtXxtXP ...,,, 2211 .
Однак практичне застосування знаходять лише функція xtF , та
функція розподілу другого порядку
2,211 ,;, xtxtF = 2211 , xtXxtXP . (4.5)
Очевидно, скінченновимірні розподіли випадкового процесу
підпорядковуються певним правилам узгодження. Наприклад, якщо
2n , то ці умови виглядають так:
11222211 ,;,,;, xtxtFxtxtF ,
(4.6)
221111 ,;,lim,2
xtxtFxtFx
, (4.7)
221122 ,;,lim,1
xtxtFxtFx
. (4.8)
Якщо випадкова величина tX неперервна і 2211 ,;, xtxtf - густина
розподілу функції розподілу 2211 ,;, xtxtF , то
КВМ
449
2122112211
1 2
,;,,;, duduututfxtxtFx x
, (4.9)
21
22112
2211,;,,;,
xxxtxtFxtxtf
. (4.10)
Звідси, зокрема, випливають формули
2221111 ,,,, duutxtfxtf
, (4.11)
1221122 ,,,, duxtutfxtf
, (4.12)
які можна розглядати як еквіваленти умов узгодження (4.7), (4.8).
До важливих характеристик випадкового процесу належать поняття
його математичного сподівання, дисперсії, а також кореляційної функції
або коваріації, які є природними узагальненнями аналогічних понять, що
були введені у розділі 2 для випадкових величин.
Означення. Математичним сподіванням випадкового процесу tX
називається невипадкова функція tmx , Tt , яка для кожного
фіксованого значення t визначається як математичне сподівання
відповідного перерізу випадкового процесу, тобто
tmx = tXM . (4.13)
З даного означення випливає, що у випадку, коли переріз випадкового
процесу tX при заданому t є дискретною випадковою величиною з
рядом розподілу
txi tx1 tx2 ... txn
tpi
tp1 tp2 ... tpn
,
(4.14)
то його математичне сподівання можна обчислити за формулою
КВМ
450
tptxtXMtm i
n
iix
1
. (4.15)
Якщо переріз випадкового процесу tX при заданому t є
неперервною випадковою величиною з густиною розподілу xtf , , то його
математичне сподівання може бути обчислене за формулою
dxxtxftXMtmx
, . (4.16)
Функція tmx представляє деяку невипадкову “середню функцію”,
навколо якої групуються реалізації випадкового процесу.
Означення. Дисперсією випадкового процесу tX називається
невипадкова функція tDx , Tt , яка для кожного фіксованого значення t
визначається як дисперсія відповідного перерізу випадкового процесу,
тобто
tDx = 2tmtXMtXD x (4.17)
aбо
tDx = tmtXMtXD x22 . (4.18)
У випадку, коли переріз випадкового процесу tX при заданому t є
дискретною випадковою величиною з рядом розподілу (4.14), то його
дисперсія обчислюється за формулою
tDx = tptmtxtXD in
ixi
2
1
(4.19)
або
tDx = tmtptxtXD xin
ii
2
1
2
. (4.20)
Якщо переріз випадкового процесу tX при заданному t є
неперервною випадковою величиною з густиною розподілу xtf , , то його
дисперсія обчислюється за формулою
КВМ
451
tDx = dxxtftmxtXD x ,2
(4.21)
або
tDx = tmdxxtfxtXD x22 ,
. (4.22)
Функція tDx представляє невипадкову невід’ємну функцію, яка
характеризує ступінь розсіювання реалізацій випадкового процесу
навколо його математичного сподівання.
Означення. Середнім квадратичним відхиленням tx , Tt
випадкового процесу називається арифметичне значення кореня
квадратного з дисперсії tDx :
tx = tDtX x . (4.23)
Розмірність функції tx збігається з розмірністю випадкового процесу
tX .
Слід відзначити, що введені нами характеристики випадкового
процесу tX , а саме: математичне сподівання tmx , дисперсія tDx та
середнє квадратичне відхилення tx визначаються тільки одновимірним
законом розподілу. Якщо відома двовимірна функція розподілу
випадкового процесу, то завжди для будь-яких двох перерізів випадкового
процесу можна знайти їх коваріацію, яку в цьому випадку частіше
називають кореляційною функцією.
Означення. Кореляційною функцією випадковогo процесу tX
називається невипадкова функція 21,ttK x двох аргументів 1t і 2t , яка при
будь-яких значеннях Tt 1 і Tt 2 дорівнює кореляційному моменту
відповідних перерізів випадкового процесу:
221121 , tmtXtmtXMttK xxx (4.24)
або
КВМ
452
212121 , tmtmtXtXMttK xxx . (4.25)
Якщо, наприклад, для двох перерізів 1tX і 2tX випадкового
процесу tX відома їх сумісна густина розподілу 2211 ,;, xtxtf , то
формули (4.24), (4.25) приймуть вигляд:
212211221121 ,;,, dxdxxtxtftmxtmxttK xxx
(4.26)
або
212122112121 ,;,, tmtmdxdxxtxtfxxttK xxx
. (4.27)
Кореляційна функція характеризує залежність між випадковими
величинами 1tX і 2tX - перерізами випадкового процесу tX при
1tt і 2tt . Чим слабший зв’язок між випадковими величинами 1tX і
2tX , тим менше значення кореляційної функції 21,ttK x . Але чим
слабший цей зв’язок, тим швидше змінюються значення, які приймає
випадковий процес.
Теорія, яка вивчає випадкові процеси на підставі аналізу перших
двох моментів випадкового процесу, до яких належать математичне
сподівання, дисперсія та кореляційна функція називається кореляційною
теорією.
Відзначимо основні властивості кореляційної функції 21,ttK x
випадкового процесу tX .
1. За умови рівності аргументів 21 tt кореляційна функція випадкового
процесу дорівнює його дисперсії. Справді,
tmtXtmtXMttK xxx , 2tmtXM x = tDx .
2. Кореляційна функція 21,ttK x симетрична відносно своїх
аргументів, тобто 21,ttK x = 12 ,ttK x .
КВМ
453
Ця властивість безпосередньо випливає з означення кореляційної
функції.
3. Якщо до випадкового процесу tX додати невипадкову функцію t ,
то кореляційна функція не зміниться.
Встановимо справедливість цього твердження. Нехай випадковий
процес дорівнює
ttXtY ; ttmtYMtm xy .
Віднімаючи tmy від tY , одержимо
tmtXtmtY xy .
Отже, 221121, tmtYtmtYMttK yyy =
2211 tmtXtmtXM xx = 21,ttK x .
4. Кореляційна функція випадкового процесу tX є невід’ємно
визначеною, тобто для будь-якого натурального n , будь-яких
nttt ...,,, 21 з множини T та будь-яких дійсних чисел n ...,,, 21
виконується нерівність
n
jijijix ttK
1,0, . (4.28)
Дана властивість є простим наслідком рівності (4.24) та відомих
властивостей математичного сподівання:
n
jijijix ttK
1,, ji
n
jijxjixi tmtXtmtXM
1,
=
= jxj
n
jj
n
iixii tmtXtmtXM
11 = 02
1
n
iixii tmtXM .
Замість кореляційної функції може розглядатися безрозмірна
нормована кореляційна функція.
Означення. Нормованою кореляційною функцією випадкового
процессу tX називається функція
КВМ
454
21,ttrx =
22
21
21
21 ,,tDtD
ttKtt
ttK
xx
x
xx
x
, (4.29)
тобто коефіцієнт кореляції перерізів 1tX і 2tX .
Наступні властивості нормованої кореляційної функції є простими
наслідками властивостей функції 21,ttK x та коефіцієнта кореляції (див.
п.2.4): 1) ;1, ttrx 2) 1221 ,, ttrttr xx ; 3) 1, 21 ttrx .
Розглянемо систему з k випадкових процесів
tXtXtX k...,,, 21 . (4.30)
Кожна з функцій цієї системи характеризується математичним
сподіванням і кореляційною функцією. Однак необхідно ще ввести
характеристику зв’язку між окремими випадковими величинами системи
(4.30). Такою характеристикою є взаємна кореляційна функція будь-яких
двох випадкових процесів tX i та tX j , що належать системі (4.30).
Означення. Взаємною кореляційною функцією випадкових процесів
tX i та tX j називається функція
221121, tmtXtmtXMttK jjiiij , (4.31)
де ;...,,2,1, kji ,, 21 Ttt 11 tXMtm ii , 22 tXMtm jj .
Для того, щоб відрізняти взаємну кореляційну функцію від
кореляційної функції останню називають також автокореляційною
функцією.
Означення. Два випадкові процеси tX i та tX j називають
некорельованими якщо їх взаємна кореляційна функція тотожньо
дорівнює нулеві, тобто
0, 21 ttK ij . (4.32)
У ряді випадків зручно ввести безрозмірну характеристику зв’язку
між випадковими процесами – нормовану взаємну кореляційну функцію
КВМ
455
21,ttRij
21
21
21
21 ,,tDtD
ttKtt
ttK
ji
ij
ji
ij
, (4.33)
де
122
111 ttmtXMtD iiii , 222
222 ttmtXMtD jjjj .
Властивості функції 21,ttRij легко описати, виходячи з
властивостей автокореляційної функції.
Існують випадкові процеси, властивості яких залишаються
інваріантними (незмінними) при будь-яких переміщеннях вздовж осі часу.
Такі процеси називаються стаціонарними. Розрізняють два види
стаціонарності: у вузькому розумінні та широкому розумінні.
Означення. Випадковий процес tX називається стаціонарним у
вузькому розумінні, якщо для будь-якого натурального n і для будь-яких
Tti , Tti , ni ...,,2,1 , n–вимірна функція розподілу F процесу tX
задовольняє умову
nn xtxtxtF ,;...,,;, 2211 = nn xtxtxtF ,;...,,;, 2211 . (4.34)
Умова (4.34) при 1n приймає вигляд
1111 ,, xtFxtF .
Покладаючи 01 t , маємо
11 ,0, xFxF (4.35)
тобто всі (для будь-яких T ) одновимірні розподіли є такі самі, як і
розподіл в момент часу 0t . Це означає, що одновимірні розподіли є
незалежними від часу t .
Умова (4.35) при 2n має вигляд
2211 ,;, xtxtF = 2211 ,;, xtxtF
Покладаючи tttt 121 , , маємо
212111 ,;,0,;, xtxFxttxtF , (4.36)
КВМ
456
тобто всі двовимірні розподіли (для будь-яких Tttt 11, ) є такі самі, як і
двовимірний розподіл в моменти часу 0, t .Отже, двовимірний розподіл
при значеннях аргументів ttt 11, залежить лише від t і не залежить від
.1t
Що означає стаціонарність у вузькому розумінні з практичної точки
зору? Для прикладу уявимо собі часовий ряд, який характеризує процес
випуску продукції. Тут стаціонарність у вузьклму розумінні означає, що
систематичним змінам не підлягають ані умови виготовлення продукції,
ані сировина та напівфабрикати, які постачаються ззовні, ані будь-які
інші фактори, існує можливість появи тільки деяких випадкових змін, і то
лише таких, що їх розподіли не змінюються при будь-яких переміщеннях
вздовж часової осі. З іншого боку, такі процеси, наприклад, як
температура, ціна іноземної валюти, які спостерігаються на протязі
деякого періоду часу Т, є, очевидно, нестаціонарними випадковими
процесами.
Припустимо тепер, що tX - стаціонарний у вузькому розумінні
процес і tXM 2 . Зауважимо, що остання умова забезпечує існування
для випадкового процесу tX моментів першого та другого порядків.
Тоді з (4.35) випливає, що
const0 XMtXM , (4.37)
а з (4.36) випливає, що
121221 ,0, ttKttKttK xx . (4.38)
Як бачимо, момент першого порядку, визначений рівністю (4.37), не
залежить від t. Його можна позначити просто m. Момент другого порядку
залежить лише від .12 tt Його можна назвати автоковаріацією
КВМ
457
порядку (кореляційною функцією) і позначити k . Крім цього,
позначимо ,0 2 ktXD
0
, 21 kkttrx .
Отже, характеристики першого та другого порядків випадкового
стаціонарного процессу є такі: середнє значення m, дисперсія 2 ,
“корелограма”, яка збігається з коефіцієнтом автокореляції .
Неважко встановити, що 1 , 10 .
Особливо простий вигляд має корелограма так званого “чисто
випадкового процессу”, який за означенням утворюється послідовністю
незалежних випадкових величин з одним і тим самим розподілом xF .
Скінченновимірні розподіли цього процесу виражаються формулою
nn xtxtxtF ,;...,,;, 2211 = nxFxFxF ...21 . (4.39)
Зрозуміло, що цей процес стаціонарний, і для нього всі коефіцієнти
автокореляції дорівнюють нулю (крім 0 ).
Процеси, в яких всі крім 0 , дорівнюють нулю називаються
“процесами без кореляції”.
Ми вже відзначали, що в кореляційній теорії розглядаються
моменти випадкових процесів тільки першого та другого порядків. Для
властивостей, що залежать лише від характеристик першого та другого
порядків, вимога стаціонарності, визначена умовою (4.34), є занадто
жорсткою. Тому природньо ввести ще одне означення стаціонарного
випадкового процесу.
Означення. Випадковий процес tX , для якого виконані
співвідношення (4.37), (4.38), називається стаціонарним процесом в
широкому розумінні.
Надалі під стаціонарними випадковими процесами будемо розуміти
випадкові процеси, стаціонарні в широкому розумінні.
КВМ
458
Означення. Два стаціонарні випадкові процеси tX та tY
називаються стаціонарно зв’язаними, якщо їх взаємна кореляційна
функція залежить тільки від різниці аргументів, тобто
XYXYXY KttKttK 1221, 12 tt . (4.40)
Розглянемо декілька прикладів.
Приклад 4.3. Знайти характеристики випадкового
процесу tX з прикладу 4.1: математичне сподівання tmx ,
дисперсію tDx , кореляційну функцію 21,ttK x , а також
нормовану кореляційну функцію 21,ttrx .
Розв’язання. За означенням 11 YMtYtMtXMtmx .
Оскільки ,2,04,016,01 YM то tmx = 12,0 t .
Користуючись означенням та властивостями
дисперсії, знаходимо:
YDtYtDtXDtDx 21 ,
96,04,02,016,02,01 222 YMYMYD .
Отже,
296,0 ttDx .
Беручи з tDx корінь квадратний, знаходимо середнє
квадратичне відхилення: ttx 96,0 .
Знайдемо кореляційну функцію. Центрований
випадковий процес
YMYtYttYttmtXtX x 2,012,010 ,
КВМ
459
звідки
2,02,0, 212
0
1
0
21
YtYtMtXtXMttK x =
= 221 2,0YMtt 2121 96,0 ttYDtt
Поділивши кореляційну функцію на 21 tt xx , одержимо
нормовану кореляційну функцію
21, ttrx =
1 2 1 2
1 2 1 2
, 0,96 10,96 0,96
x
x x
K t t t tt t t t
.
Приклад 4.4. Знайти характеристики випадкового
процесу tX з прикладу 4.2:
,,, ttDtm xxx 2121 ,,, ttrttK xx .
Розв’язання. Оскільки ,1 tetFtYP ,1 tetYPtYP то
.212121 tttx eeetYPtYPtm
Далі, обчислюючи кореляційну функцію 21,ttK x ,
припустимо, що 21 tt , і після цього використаємо
формулу (4.25). Для цього розглянемо добуток 21 tXtX :
21 tXtX =
,.,якщо,4
,або,якщо,2,,якщо,1
21
2121
21
YtYtYtYtYtYt
YtYt.
Звідси, враховуючи нерівність 21 tt та умову задачі щодо
розподілу випадкової величини Y, знаходимо
121221 421 tYPtYtPtYPtXtXM ,
,22
tetYP ,1 11
tetYP
КВМ
460
2
1
211221
t
t
ttYYY eedxxftFtFtYtP ,
211212 24142121tttttt eeeeeetXtXM .
Отже, кореляційна функція дорівнюватиме 212121, tmtmtXtXMttK xxx
122122121 12224 ttttttttt eeeeeeee .
Знайдемо дисперсію та середнє квадратичне відхилення:
tDx = ttK x , = tt ee 1 ,
tx ttx eetD 1 .
Тому нормована кореляційна функція
2211
12
11
1,,
21
2121 tttt
tt
xx
xx
eeeeee
ttttKttr
=
21
12
11
tt
tt
eeee
= =
211
212
ttt
ttt
eeee
.
Легко переконатися в тому, що ,1, ttrx
212121 ,0,0,1, ttttttrx .
Приклад 4.5. Розглянемо випадковий процес tX ,
такий, що
tBtAtX sincos , (4.41)
де ,0,0 T , A, B є незалежними випадковими
величинами, кожна з яких має нормальний розподіл з
параметрами 0i0 a . З’ясуємо спочатку фізичну
інтерпретацію процесу tX , а потім знайдемо його
характеристики: ,,, ttDtm xxx 2121 ,,, ttrttK xx .
КВМ
461
Розв’язання. Покажемо, що формулу (4.41) можна
представити у вигляді
tCtX cos . (4.42)
Справді, розписуючи праву частину (4.42), маємо
sinsincoscos ttCtX tCtC sinsincoscos . (4.43)
Прирівнюючи (4.41) і (4.43), отримуємо
cosCA , sinCB
або
22 BAC , 22
cosBA
A
. (4.44)
Отже, процес tX характеризує випадкові
коливання. При цьому амплітуда С та фаза є
випадковими величинами, визначеними за формулами
(4.44). Реалізації процесу є періодичними функціями з
періодом 2 ; вони зображені на рис. 4.2.
КВМ
462
σ)t(σ x
σ)t(σ x
0)t(m x
t
)t(x
O
Рис. 4.2. Реалізації випадкового процесу
-
Знаходимо характеристики процесу.
tBtAMtXMtmx sincos = 0sincos tBMtAM ,
22112121 sincossincos, tBtAtBtAMtXtXMttK x =
122
212
212 cossinsincoscos ttttBMttAM ,
2, ttKtD xx , tx , 1221 cos, ttttrx .
Приклад 4.6. Нехай tX – випадковий процес, такий, що
n
kkkkk tBtAtX
1sincos , (4.45)
де ,...,,2,1,0,,0 nkT k nkBA kk ...,,2,1,, – незалежні
випадкові величини, кожна з яких має нормальний
розподіл, до того ж
,...,,2,1,0 nkBMAM kk ,2kkk BDAD nk ...,,2,1 .
КВМ
463
Процес tX є узагальненням процесу (4.41); він
представляє суму випадкових коливань. Для процесу
(4.45) маємо
,0tmx
n
kkx tD
1
2 ,
n
kkkx ttttK
112
221 cos, .
Звернемо увагу на те, що випадкові процеси (4.41) і (4.45)
– стаціонарні.
Рекомендована література: [4, с. 183-201; 5, с. 380-385].
Завдання для самоконтролю
Основні поняття, означення і відношення
Замість крапок запишіть таке продовження
(доповнення) тексту, щоб отримати означення або
твердження.
1. Випадковим процесом називається функція tX ,
Tt , значення якої ... .
2. Перерізом випадкового процесу tX називається ... .
3. Реалізацією (траєкторією) випадкового процесу tX
називається ... .
4. Випадковий процес tX називається процесом з
дискретним часом, якщо ... .
5. Випадковий процес tX називається процесом з
неперервним часом, якщо ... .
КВМ
464
6. Випадковий процес tX , який відбувається в системі
S , називається процесом з дискретними станами,
якщо ... .
7. Випадковий процес tX , який відбувається в системі
S , називається процесом з неперервними станами,
якщо ... .
8. У кожному перерізі розподіл ймовірностей
випадкового процесу tX задається функцією ... .
9. Функцією розподілу другого порядку випадкового
процесу tX називається функція ... .
10. Математичним сподіванням випадкового процесу
tX називається невипадкова функція ... .
11. Дисперсією випадкового процесу tX називається
невипадкова функція ... .
12. Середнім квадратичним відхиленням випадкового
процесу tX називається невипадкова функція ... .
13. Кореляційною функцією випадкового процесу tX
називається невипадкова функція ... .
14. Нормованою кореляційною функцією випадкового
процесу tX називається функція ... .
15. Взаємною кореляційною функцією випадкових
процесів tX та tY називається функція ... .
КВМ
465
16. Нормованою взаємною кореляційною функцією
випадкових процесів tX та tY називається функція
... .
17. Випадковий процес tX називається стаціонарним у
вузькому розумінні, якщо ....
18. Всі одновимірні розподіли стаціонарного (у
вузькому розумінні) випадкового процесу tX є
незалежними від ... .
19. Випадковий процес tX називається стаціонарним у
широкому розумінні, якщо ... .
20. Два стаціонарні випадкові процеси tX та tY
називаються стаціонарно зв’язаними, якщо … .
Тести
Запишіть на бланку відповідей номер завдання і коди
(порядкові номери або літери), що відповідають тим
варіантам відповідей, які вважаєте правильними.
1. Розглядаючи невипадкову функцію часу t як
частковий випадок випадкового процесу X t t , знайти
її характеристики: математичне сподівання xm t ,
дисперсію xD t та кореляційну функцію 1 2,xK t t . На
КВМ
466
підставі обчислених характеристик відповісти на
питання, чи є процес стаціонарний ?
Варіанти відповідей:
1. ;xm t t 0xD t ; 1 2, 0;xK t t процес X t - стаціонарний
лише у випадку, коли t const , в інших випадках він
нестаціонарний.
2. ;xm t t 0xD t ; 1 2, 0;xK t t процес X t -
стаціонарний.
3. ;xm t t 2( )xD t t ; 1 2, 0;xK t t процес X t -
нестаціонарний.
2. Випадковий процес tX збігається з випадковою
величиною VtX , де V – неперервна випадкова величина
з густиною розподілу v . 1) Написати вираз
одновимірного закону (густини) розподілу випадкового
процесу tX ; 2) написати вираз двовимірної функції
розподілу двох перерізів випадкового процесу; 3) знайти
характеристики випадкового процесу
;,,,: 21 ttKtDtmtX xxx 4) чи є процес tX стаціонарний?
Варіанти відповідей:
1. 1) ;, xxtf 2)
,),(,),(
),;,(122
2112211 xxякщоxF
xxякщоxFxtxtF де
x
dvvxF
- функція розподілу випадкової величини V ; 3)
КВМ
467
VMdxxxtmx
, VDdxxVMxtDx
2 , VDttK x 21 , ;
4) процес tX - нестаціонарний.
2. 1) xxtf , ; 2)
;),(,),(
),;,(122
2112211 xxякщоxF
xxякщоxFxtxtF 3) VMtmx ,
VDtDx , VDttK x 21 , ; 4) процес tX - стаціонарний.
3. 1) xxtf , ; 2)
;якщо,, якщо,
,;,212
1212211 xxxF
xxxFxtxtF 3) VMtmx ,
VDtDx , VDttK x 21 , , 4) процес tX - нестаціонарний.
3. Випадковий процес tX має характеристики 1tmx
і 21221, tt
x ettK . 1) Знайти характеристики випадкового
процесу tX : tDx , 21 , ttrx ; 2) визначити, чи є процес tX
стаціонарний?
Варіанти відповідей:
1. 1) tx etD 4 , ;1),( 21 ttrx 2) процес tX - нестаціонарний.
2. 1) tx etD 2 , 21
21 , ttx ettr ; 2) процес tX - стаціонарний.
3. 1) tx etD 2 , ;1),( 21 ttrx 2) процес tX - нестаціонарний.
4. Випадкові процеси tX і tY - некорельовані і
мають такі характеристики: ttmx , ;, 2121 ttttK x ttm y ,
1 221 2 1 2, t t
yK t t t t e . Знайти математичне сподівання,
дисперсію і кореляційну функцію випадкового процесу
tYtXtZ .
КВМ
468
Варіанти відповідей
1. 0tmz , tz ettD 22 1 , 211, 2121
ttz ettttK .
2. ttmz 2 , tz ettD 42 1 , 212
2121 1, ttz ettttK .
3. 0tmz , tz ettD 42 1 , 212
2121 1, ttz ettttK .
5. Випадковий процес X t має характеристики
,12 ttmx .2,2
21321
ttx ettK Обчислити характеристики
випадкового процесу :12 ttXttY ,tm y ,tDy ,, 21 ttK y
., 21 ttry
Варіанти відповідей
1. ,123 ttttmy ,2ttDy ,,2
2132121
tty ettttK .,
2213
21tt
y ettr
2. ,123 ttttmy ,2 2ttDy ,2,2
2132121
tty ettttK
.,2
21321
tty ettr
3. ,3 tttmy ,2 2ttDy ,2,2
2132121
tty ettttK .
2213 tt
y etr
Приклади
1. Випадковий процес X t має вигляд
tX t Y e 0t ,
де Y – випадкова величина, розподілена за нормальним
законом з параметрами 1 і 2a . Знайти характеристики
КВМ
469
випадкового процесу: математичне сподівання xm t ,
дисперсію xD t , кореляційну функцію 1 2,xK t t та
нормовану кореляційну функцію 1 2,xr t t .
2. Випадковий процес X t має вигляд
2X t t Y ,
де Y – випадкова величина, рівномірно розподілена на
відрізку [1; 4] . Знайти характеристики випадкового
процесу X t : xm t , xD t і 1 2,xK t t .
3. Випадковий процес X t має вигляд
0Y tX t e t ,
де Y – випадкова величина, розподілена за показниковим
законом з густиною ).0(2)( 2 yeyf yy . Знайти характеристики
випадкового процесу X t : xm t , x t , 1 2,xr t t .
4. Випадковий процес X t , що представлений сім’єю
трьох реалізацій ix t 1, 2, 3i , визначений у наступний
спосіб: ,0T ; 1 2 3, ,X t x t x t x t ; 6k kP X t x t ;
, 1,2,3.kx t k t k Знайти характеристики випадкового
процесу xm t , x t , 1 2,xK t t .
КВМ
470
5. Нехай Y і Z – незалежні випадкові величини з
густинами розподілу: 0, 0,
, 0 1,( )
2 , 1 2,0, 0,
Y
yy y
f yy y
y
0, 0,1( ) , 0 2,20, 2.
Z
z
f z z
z
Випадковий процес X(t) є визначений за фопомогою
формули:
( ) , ( , )X t Y Zt t .
Обчислити характеристики процесу 1 2( ) : ( ), ( ), ( , ).x x xX t m t D t K t t
Відповіді: 1. ;txm t e 24 ;t
xD t e 1 21 2, 4 ;t t
xK t t e 1 2, 1.xr t t
2. 2,5 2;xm t t 20,75 ;xD t t 1 2 1 2, 0,75 .xK t t t t 3. 22xm t
t
;
12 1x
ttt t
; 1 21 2
1 2
2 1 1,
2xt t
r t tt t
. 4. 73xm t t ; 25
9xD t t ;
.95, 2121 ttttK x 5. 2
1 2 1 21 1 1 1( ) 1 , ( ) , ( , )3 6 3 6x x xm t t D t t K t t t t .
КВМ
471
4.2. Марковські процеси з дискретними
станами та дискретним часом (ланцюги
Маркова).
4.2.1. Означення марковського процесу з
дискретними станами. Граф станів.
Серед випадкових процесів одним з найважливіших і добре
вивчених є клас марковських процесів, або випадкових процесів без
післядії, які застосовуються в різних розділах природознавства, техніки та
економіко-математичного моделювання.
Надалі будемо розглядати тільки системи з дискретною множиною
станів nsssE ,...,, 21 , припускаючи при цьому, що в кожний фіксований
момент часу система може перебувати тільки в одному зі своїх можливих
станів. Зауважимо, що в загальному випадку число станів може бути як
скінченним, так і нескінченним (але зліченним).
При вивченні випадкових процесів, які відбуваються в системах з
дискретними станами, важливу роль відіграють ймовірності станів.
Позначимо через S t стан системи в момент часу t. Ймовірністю i-го
стану в момент t називається ймовірність події, яка полягає в тому, що в
момент t система S буде знаходитися в стані is . Позначимо цю
ймовірність через tpi :
nistSPtp ii ,...,1, . (4.46)
Оскільки для будь-якого t випадкові події ,istS ,...,,1 ni
попарно несумісні та утворюють повну группу, то сума ймовірностей цих
подій для кожного t дорівнює одиниці:
11
n
ii tp . (4.47)
КВМ
472
Означення. Випадковий процес, який відбувається в деякій системі S
з дискретними станами, називається марковським (або процесом без
післядії), якщо він має таку властивість: для будь-якого моменту часу 0t
ймовірність будь-якого стану системи в майбутньому (при 0t t )
залежить від її стану в теперішньому (при 0t t ) і не залежить від того
як і скільки часу розвивався цей процес в минулому (при 0t t ).
Властивість відсутності післядії називають також властивістю
відсутності пам’яті, а марковські процеси – процеси без пам’яті.
Граф станів. Марковські процеси з дискретними станами зручно
ілюструвати за допомогою так званого графу станів (рис.4.3), де
прямокутниками позначені стани системи, а стрілками – можливі
переходи із стану в стан. На графі відзначаються тільки безпосередні
переходи, а не переходи через інші стани. Іноді на графі відзначають не
тільки можливі переходи із стану в стан, але і можливі затримки в
попередньому стані; це зображається стрілкою (“петлею”), направленою
з даного стану в цей самий стан (рис.4.3.).
s1 s2
s3
s4
s5
s6
si
Рис 4.3 Граф cтанів системи S.
КВМ
473
Отже, на рис.4.3 зображений граф системи S з шістьма станами, з
можливими безпосередніми переходами 21 ss , 31 ss , 12 ss , 43 ss ,
53 ss , 14 ss , 65 ss , 26 ss . Що стосується, наприклад, переходу із
стану 5s в 2s , то він можливий через стан 6s і тому є опосередкованим;
безпосередній ж перехід 25 ss неможливий, оскільки на графі відсутня
відповідна стрілка.
4.2.2. Ланцюги Маркова та їх основні
характеристики.
Марковський випадковий процес з дискретними станами та
дискретним часом називається ланцюгом Маркова.
Як уже відзначалося в п. 4.1.1., для такого процесу моменти часу
1 2, ,..., ,...,kt t t коли система S може змінювати свій стан, розглядають як
послідовні кроки процесу, а в якості аргумента, від якого залежить
процес, виступає не час t , а номер кроку 1, 2, …, k, … . Випадковий
процес у цьому випадку характеризується послідовністю станів
0 , 1 , 2 , ..., ,...,S S S S k де 0S – початковий стан системи (перед
першим кроком), 1S - стан системи після першого кроку, S k - стан
системи після k -го кроку, … .
Якщо через kSi ...,2,1,0;...,,2,1 kni позначити подію, яка
полягає в тому, що відразу після k-го кроку система знаходиться в стані
is , тобто ii skSkS , то випадковий процес з дискретним часом можна
розглядати як випадкову послідовність (за індексом k ) цих подій kSi
...,2,1,0;...,,2,1 kni , яку називають також ланцюгом.
КВМ
474
Означення. Випадкова послідовність називається ланцюгом Маркова,
якщо для кожного кроку ймовірність переходу з будь-якого стану is в будь-
який стан js не залежить від того, коли і як система S виявилася в
стані is .
Очевидно, що реалізацію дискретного випадкового процесу з
дискретним часом за будь-який (скінчений) проміжок часу можна
представити невипадковою скінченною послідовністю (за індексом k)
розглядуваних подій kS i (i=1, …, n ; k= 0, 1, 2, …). Наприклад,
припустимо, що граф станів системи S, в якій відбувається випадковий
процес з дискретним часом, має вигляд, зображений на рис. 4.3.
Спостереження за системою показало, що в початковий момент k = 0
система знаходилася в стані 4s ; в момент першого кроку перейшла з
нього стрибком у стан 1s , з якого на другому кроці перейшла в 3s , на
третьому кроці перейшла в 5s , на четвертому кроці перейшла в 6s , після
п’ятого кроку знаходилася в стані 2s . Тоді реалізація випадкового процесу
блукання по станах має такий вигляд: 04S , 11S , 23S , 35S , 46S ,
62S .
Зауваження. Для того, щоб kS при фіксованому 0kk можна було
інтерпретувати як (дискретну) випадкову величину, потрібно кожний
стан nss ,...,1 охарактеризувати кількісно. Це можна зробити різними
способами. Наприклад, приписати кожному стану is , ni ,...,1 в якості
кількісної характеристики його номер i, тобто isi . Тоді переріз
випадкового процесу 0kS буде представляти дискретну випадкову
величину з множиною значень nE ,...,2,1 . Далі, ,, EiikS означає
подію “після k го кроку ланцюг Маркова знаходиться в стані i”, а
КВМ
475
послідовність станів niii ...,,, 10 , які приймає випадковий процес
nSSS ...,,1,0 визначає реалізацію або траєкторію процесу.
Враховуючи дане зауваження, більш змістовне означення ланцюга
Маркова можна сформулювати так.
Означення. Послідовність випадкових величин kS , k=0,1,2,…,
називається ланцюгом Маркова з множиною станів nE ,...,2,1 , якщо
n
ikikSP
1...,2,1,0,1
і для будь-яких klkkk m ...0 21 ...,2,1m , будь-яких Eji , та
будь-яких підмножин mBB ,...,1 множини E виконується рівність
ilSjkSPilSBkSBkSjkSP mm /,...,,/ 11 . (4.48)
Властивість (4.48) означає, що при фіксованому значенні системи в
даний момент часу l поведінка системи в майбутньому (k > l) не залежить
від поведінки системи в минулому mm BksBks ...,,11 , або більш
коротко: при фіксованому теперішньому майбутнє не залежить від
минулого. Властивість (4.48) називають марковською властивістю.
Надалі ми будемо використовувати обидві термінології щодо
інтерпретації ланцюга Маркова.
З означення ланцюга Маркова і формули (4.48) випливає, що ланцюг
Маркова може бути заданий розподілом ймовірностей переходу за один
крок.
Означення. Ймовірністю переходу (перехідною ймовірністю) ijp k
на k–му кроці із стану is в стан js ...,2,1;...,,2,1, knji називається
умовна ймовірність того, що система S після k–го кроку виявиться в
стані js за умови, що безпосередньо перед цим (після 1k -го кроку) вона
знаходилася в стані is :
ijij skSskSPkp 1/ , nji ...,,1, . (4.49)
КВМ
476
Якщо множину станів позначити через ,...,,2,1 nE то kpij можна
трактувати як ймовірність того, що ланцюг Маркова, знаходячись після
1k -го кроку в стані i , після наступного k-го кроку виявиться в стані j
:
ikSjkSPkp ji 1/ , nji ...,,1, . (4.50)
У випадку, коли ji , то перехідна ймовірність kpkp iiij
називається ймовірністю затримки системи S у стані is . Якщо на k-му
кроці безпосередній перехід системи із стану is в інший стан js ( i j )
неможливий або неможливою є затримка ( ji ) в стані is , то 0ijp k .
Означення. Якщо перехідні ймовірності , 1,..., ; 1, 2,...ijp k i j n k
не залежать від номера кроку k (від часу), а залежать лише від того, з
якого стану в який здійснюється перехід, то відповідний ланцюг Маркова
називається однорідним.
Якщо хоча б одна ймовірність змінюється зі зміною кроку k, то
ланцюг Маркова називається неоднорідним. Надалі ми будемо розглядати
лише однорідні ланцюги Маркова. У цьому випадку перехідні ймовірності
будемо позначати через ijp замість ijp k . Сукупність ймовірностей
переходу ijp , 1,...,i j n утворює матрицю
11 12 1
21 22 2
1 2
...
...... ... ... ...
...
n
n
n n nn
p p pp p p
P
p p p
, (4.51)
вона називається однорідною матрицею переходів (перехідних
ймовірностей). За означенням всі елементи матриці P невід’ємні. Крім
цього, оскільки для будь-якої події 1iS k , яка наступила після 1k –
го кроку, для наступного k–го кроку одна з подій jS k 1,...,j n
КВМ
477
обов’язково відбудеться, то елементи кожного рядка матриці P
задовольняють умову
11, 1, ..., .
nij
jp i n
(4.52)
Означення. Квадратна матриця називається стохастичною, якщо її
елементи невід’ємні і сума елементів будь-якого її рядка дорівнює одиниці.
Отже, матрицею переходів ijpP ланцюга Маркова зі скінченним
числом станів n називається стохастична матриця з порядком n,
елементами якої є відповідні перехідні ймовірності njipij ...,,1,, .
Часто також задаються ймовірності станів ланцюга Маркова на
початковому нульовому кроці:
ii sSPp 00 або iSPpi 00 . (4.53)
На ймовірності 0ip накладаються очевидні умови невід’ємності
nipi ...,,1,00 і нормування:
n
iip
110 . (4.54)
У частковому випадку, якщо початковий стан системи відомий і jS 0 ,
nj ...,,1 , то початкова ймовірність 10 jp , а всі решта дорівнюють
нулю.
За допомогою формул (4.48), (4.50) із врахуванням (4.53) можна
обчислити ймовірність будь-якої конкретної траєкторії mm iiii ,...,,, 110
ланцюга Маркова:
....0...,,10121101,0 mmo iiiiiiim ppppimSiSiSP
(4.55)
Легко показати, що формула (4.55) задає ймовірності на просторі 1mE
всіх траєкторій довжини 1m . Зокрема, виконується умова нормування
для ймовірностей:
КВМ
478
1...,,1,0...1 1 1
100 1
n
i
n
i
n
im
m
imsisisP . (4.56)
Корисним зображенням ланцюга Маркова є її розмічений граф станів
системи, де біля кожної стрілки, яка веде зі стану is в стан js (зі стану i в
стан j ) відзначена перехідна ймовірність ijp . Взірець такого розміченого
графа станів показано на рис. 4.4.
s1
s3
s2
s4
Рис. 4.4 Розмічений граф станів.
12p
23p24p 42p
43p31p
Наявність на розміченому графі стрілок і відповідних їм
ймовірностей з одного стану в інший означає, що ці перехідні ймовірності
відмінні від нуля. Навпаки, відсутність стрілок з одного стану в інший
вказує на те, що відповідні їм перехідні ймовірності дорівнюють нулю.
Наприклад, 12 0,p а 21 0p .
Перехідні ймовірності, які відповідають стрілкам, що виходять із
станів is 1,...,i n розміщені в i–му рядку матриці P перехідних
ймовірностей, а тому їх сума, внаслідок (4.52), дорівнює одиниці. Тому
ймовірності затримок 1,...,iip i n можна обчислити за формулою
n
ijj
ijii pp1
1 , 1,...,i n . (4.57)
Внаслідок цього стрілки – петлі та відповідні їм ймовірності
затримок на графі, як правило, не відзначаються.
Приклад 4.7. Послідовність незалежних випробувань
за схемою Бернуллі (див.1.3). Схему Бернуллі можна
КВМ
479
розглядати як частковий випадок ланцюга Маркова з
двома станами: 1s - наслідком окремого випробування є
подія А і 2s - наслідком окремого випробування є подія A ,
в якому початковий розподіл ймовірностей (4.53)
задається вектором qpp ,)0( , а матриця перехідних
ймовірностей (4.51) має вигляд
qpqp
P .
Відповідний граф зображений на рис.4.5.
Рис.4.5. Послідовність незалежних випробувань за
схемою Бернуллі.
Приклад 4.8. Задача про розорення гравця: випадкове
блукання з поглинанням.
Нехай частинка може пересуватися вздовж прямої
під дією випадкових поштовхів. Потрапивши в стан 0
або N , частинка залишається там назавжди. У всіх її
інших станах вона під дією випадкового поштовху
переходить на одиницю довжини вправо з ймовірністю p
s2 s1
q
p
КВМ
480
, вліво з ймовірністю pq 1 . Отже, ми маємо ланцюг
Маркова з 1N можливими станами, а саме: NE ...,,2,1,0 .
Перехідні ймовірності в цьому випадку дорівнюють:
00 ip для 0i , 100 p ; 0Nip для Ni , 1NNp ; pp ii 1, ,
qp ii 1, для ;1...,,1 Ni 0ijp для ;1...,,2,1 Ni 1,1 iij .
Матриця перехідних ймовірностей має вигляд
100...00000...0000
........................000...00000...00000...0001
pq
pqpq
P ,
а граф переходів між станами зображений на рис. 4.6.
Рис.4.6. Випадкове блукання по цілочисельних точках
відрізка N,0 з поглинаючими межами (екранами).
Часто використовується наступна інтерпретація цієї
моделі. Два гравці розігрують декілька партій, кожна з
яких завершується виграшем одного та програшем
другого гравця. Гравець, який програв, виплачує
партнеру одну грошову одиницю. Нехай початковий
0
q
p 1 … N- N
q q
p p 1 1
КВМ
481
капітал першого гравця становить m грошових одиниць,
а другого гравця mN одиниць. Ймовірність виграшу
першого гравця дорівнює p , а другого pq 1 . Гра
закінчується, як тільки один з гравців залишиться без
грошей. У даному випадку розиграш однієї партії
відповідає одному кроку ланцюга Маркова, стан
ланцюга kS - це кількість грошей першого гравця після
k партій. Початковий стан ланцюга mS 0 . Інтерес
представляють ймовірності виграшу першого та другого
гравців. Вище ми з’ясували, що при заданні ланцюга Маркова визначаються
вектор початкового розподілу 0,...,010
nppp та матриця P
перехідних ймовірностей njipij ...,,1, за один крок. Ці поняття
відносяться до вихідних характеристик ланцюга Маркова.
Однак в процесі аналізу ланцюга Маркова доводиться мати справу з
рядом його похідних характеристик, які в той чи інший спосіб
обчислюються через вихідні.
Ймовірність переходу за k кроків. Розглянемо ймовірність переходу із
стану is , який реалізований, наприклад, після l го кроку, в стан js за k
кроків, тобто в стан js після kl го кроку. Зрозуміло, що внаслідок
однорідності ланцюга Маркова ця ймовірність залежить тільки від k ( і не
залежить від l ). Позначимо її )(kijp : ilSjklSPp k
ij / . Тоді
)(mip ймовірність переходу за m кроків із стану is в стан s та mk
jp -
ймовірність переходу за mk кроків із стану s в js .
КВМ
482
Використовуючи формулу повної ймовірності (1.24) та враховуючи, що
проміжні стани nss ,...,1 на ml - у кроці утворюють повну групу
попарно несумісних подій, знайдемо
n
mkj
mi
kji ppp
1 , (4.58)
де m - будь-яке ціле значення від 1 до .1k
Позначимо через kP матрицю, яка складається з ймовірностей ,kijp
nji ...,,1, , отже kP - матриця переходів через k кроків PP 1 .
Враховуючи формулу для перемноження квадратних матриць, рівність
(4.58) можна записати в матричному вигляді:
mkmk PPP , 1...,,1 km . (4.59)
Застосовуючи послідовно (4.59), одержимо k
kkk PPPPPPP ...21111 , (4.60)
тобто для того, щоб отримати матрицю ймовірностей переходів за
k кроків, потрібно просто піднести до k го степеня вихідну матрицю
ймовірностей переходів P .
Неважко переконатися в тому, що при будь-якому натуральному
k матриця kP є стохастичною.
Безумовна (абсолютна) ймовірність kp j того, що система після
k го кроку знаходиться в стані js , обчислюється також з
використанням формули повної ймовірності:
n
iijij pkpkp
11 , ....,2,1;,...,2,1 knj (4.61)
Простим наслідком формули (4.61) є наступне співвідношення
n
i
kijij ppkp
1
)(0 , 1,..., ; 1,2,...j n k . (4.62)
КВМ
483
Рекурентні формули (4.61), (4.62) можна записати також у матричному
вигляді. Справді, якщо абсолютні ймовірності станів визначені у
векторній формі як kpkpkpp nk ,...,, 21 ...,2,1,0k , то на підставі
рівностей (4.59) – (4.62) маємо Ppp kk 1 , ...,2,1k . (4.63)
або
kk Ppp 0 , ....,2,1k (4.64)
Ймовірності першого досягнення стану js при виході зі стану is .
Введемо до розгляду ймовірність kijf того, що, починаючи зі стану i ,
ланцюг Маркова вперше досягає стан j на k му кроці. jif ij ,00 ,
тобто
iSjSjkSjkSPf kji 0/1...,,1,)( .
Спираючись на формулу повної ймовірності, kijf можуть бути обчислені
через ймовірності )(kijp внаслідок рекурентного застосування наступних
формул:
k
kjjij
kij pfp
1
)()(
, ....,2,1;...,,1, knji . (4.65)
За допомогою ймовірностей kijf можна визначати значення деяких
інших характеристик, які використовуються при аналізі ланцюга
Маркова. Зокрема, через ці ймовірності можуть бути обчислені:
ймовірність ijf того, що, починаючи зі стану i , система коли-
небудь потрапить в стан j :
;1
)(
k
kijij ff ;...,,1, nji (4.66)
КВМ
484
середнє число кроків ij до першого досягнення стану j при виході зі
стану i :
....,,1,,1
njifkk
kijij
(4.67)
Приклад 4.9. Розглянемо стан банку, що
характеризується однією з процентних ставок: 2 %, 3 %,
4 %, які встановлюються на початку кожного кварталу і
є незмінними до його закінчення. Отже, якщо за систему
S прийняти розглядуваний банк, то вона в кожний
момент часу може знаходитися тільки в одному з трьох
наступних станів: 1s - процентна ставка 2 %, 2s -
процентна ставка 3 %, 3s - процентна ставка 4 %. Аналіз
роботи банку в попередні роки показав, що зміна
перехідних ймовірностей з плином часу є незначною.
Визначимо ймовірності вказаних станів банку в
кінці року, якщо в кінці попереднього року процентна
ставка банку складала 3 %, а розмічений граф станів
банку зображений на рис. 4.7.
s1 s2 s30,4 0,3
0,2 0,3
0,20,1
Рис. 4.7. Розмічений граф станів банку.
КВМ
485
Розв’язання. Оскільки множина станів, у яких може
знаходитися система S, скінченна (три стани), то
випадковий процес, який відбувається в системі S –
дискретний.
З деякою похибкою можна припустити, що
ймовірність перебування банку в одному із своїх станів у
майбутньому залежить істотно тільки від стану в
теперішньому та не залежить від його станів у минулому.
Тому розглядуваний випадковий процес можна вважати
марковським.
Внаслідок умов, прийнятих у прикладі, банк може
переходити зі стану в стан тільки в наперед визначені
моменти часу: ktk - початок k–го кварталу, .4,3,2,1k
Отже, випадковий процес у системі S є процесом з
дискретним часом.
Оскільки залежністю перехідних ймовірностей від
часу можна знехтувати, то розглядуваний процес буде
однорідним.
Отже, випадковий процес, який відбувається в
системі S, є однорідним ланцюгом Маркова.
Використовуючи розмічений граф на рис. 4.7,
випишемо значення перехідних ймовірностей:
КВМ
486
.2,0;4,0 1312 pp Тоді за формулою (4.57) при
,1i .4,02,04,011 131211 ppp Аналогічно, 3,0;2,0 2321 pp і,
отже, 5,022 p . Нарешті, 1,031 p ; 32 330,3; 0,6.p p
Складемо матрицю перехідних ймовірностей:
6,03,01,03,05,02,02,04,04,0
P .
Звернемо увагу на те, що матриця P– стохастична.
Оскільки в кінці попереднього року процентна
ставка складала 3 %, то можна вважати, що в
початковий момент 0k система S знаходиться в стані 2s .
Тому початковий розподіл має вигляд
.0,1,00,0,0 321)0( pppp (4.68)
Ймовірності станів банку в кінці року, тобто після
закінчення четвертого кварталу, можна знайти за
формулою (4.64) при 3n і 4k . Для цього обчислимо
спочатку :4P
47,037,016,037,042,021,032,042,026,0
6,03,01,03,05,02,02,04,04,0
6,03,01,03,05,02,02,04,04,0
2P .
Тоді
4090,03965,01945,03965,04015,02020,03890,04040,02070,0
47,037,016,037,042,021,032,042,026,0
47,037,016,037,042,021,032,042,026,0
4P .
З (4.64) при 3n і 4k з врахуванням (4.68) маємо
КВМ
487
.3965,0,4015,0,2020,04090,03965,01945,03965,04015,02020,03890,04040,02070,0
0,1,04
p
Отже, 3965,04;4015,04;2020,04 321 ppp , тобто в кінці
року ймовірності процентних ставок 2 %, 3 %, 4 %
дорівнюють відповідно 0,2020; 0,4015; 0,3965. Отже,
найбільш ймовірно процентна ставка в кінці року
залишиться такою самою, якою вона була в кінці
попереднього року, тобто 3 %.
Відзначимо, що в якості контролю за правильністю
обчислень можна використовувати перевірку матриць
на стохастичність. У розглядуваному прикладі матриці 42 ,, PPP - стохастичні.
Зауваження. Для знаходження вектора ))4(),4(),4(( 321 ppp в
прикладі 4.9 можна було б замість формули (4.64) чотири
рази послідовно використати формулу (4.63), а саме,
спочатку за цією формулою знайти вектор ймовірностей
станів у першому кварталі Ppp 01 , потім, у другому
кварталі Ppp 12 і т.д., поки не дійдемо до четвертого
кварталу .34 Ppp
4.2.3. Класифікація станів і ланцюгів Маркова.
КВМ
488
Властивості ланцюга Маркова та відповідно способи розв’язання
пов’язаних з його аналізом задач істотно залежать від того, з яких саме
станів він складається. У зв’язку з цим наведемо тут прийняту
класифікацію станів скінченого ланцюга Маркова та обумовлену нею
класифікацію самих ланцюгів Маркова.
Означення. Кажуть, що стан j досягається зі стану i якщо існує
таке число кроків k , що 0kijp , тобто з додатною ймовірністю ланцюг
Маркова за k кроків переходить із стану i в стан j (включаючи випадок
ji ).
У термінах ймовірностей першого досягнення той факт, що стан j
досягається зі стану i може бути визначений умовою 0ijf .
Повертаючись до наших прикладів, можна легко переконатися в тому, що
в прикладах 4.7, 4.9 всі стани розглядуваних там ланцюгів Маркова є
досяжними з будь-яких станів, а в прикладі 4.8 всі стани досягаються зі
станів 1....,,2,1 N .
Означення. Множина станів EC називається поглинаючою (або
замкненою), якщо кожний стан, який не входить в C , є недосяжний з
жодного стану, який належить C , тобто, коли 0ijp для всіх i та j
таких, що i належить C , а j не належить.
Звідси, зокрема, випливає, що окремий розгляд станів, які входять у
замкнену множину, знову приводить до ланцюга Маркова, який можна
вивчати незалежно.
Якщо один стан i утворює замкнену множину, то він називається
поглинаючим станом. Наприклад, стани 0i та Ni у прикладі 4.8. є
поглинаючими.
КВМ
489
Означення. Стан i називається зворотним, якщо ймовірність
повернення для нього дорівнює одиниці, тобто 1iif , і незворотним, якщо
ця ймовірність менша від одиниці, тобто 1iif .
Можна показати, що стан ланцюга Маркова є зворотним тоді і
тільки тоді, коли середнє число повернень в нього нескінченне, і що з
будь-якого зворотного стану не можна досягнути жодного незворотного
стану. Крім цього, для того, щоби стан i був незворотним необхідно і
достатньо, щоб
1k
kiip .
Означення. Стан i називається періодичним з періодом 1 , якщо 0kiip , коли k не є кратним , і – найбільше ціле число з цією
властивістю (тобто система не може повернутися в стан i за час,
відмінний від ...,3,2, .). Стан i називається неперіодичним, якщо
такого 1 не існує.
Приклад 4.10. Нехай ланцюг Маркова з двома
станами 1 і 2 має наступну матрицю перехідних
ймовірностей:
0110
P .
Легко бачити, що цей ланцюг на кожному кроці
змінює свій стан на протилежний. Отже, обидва стани є
періодичними з періодом , який дорівнює 2. Означення. Стан i називається ергодичним, якщо він зворотний і
неперіодичний.
Наведені означення різних типів станів марковського ланцюга
становлять основу класифікації самих ланцюгів Маркова.
КВМ
490
Означення. Ланцюг Маркова називається незвідним, якщо він не
містить замкнених множин станів, відмінних від множини E всіх
станів.
З данного означення випливає, що незвідний скінченний ланцюг
Маркова складається лише із зворотних станів, кожний з яких
досягається з будь-якого іншого стану ланцюга.. Отже, виходячи з
означення замкненої (поглинаючої) множини станів, робимо висновок, що
будь-яка така множина може розглядатися як незвідний скінченний
ланцюг Маркова.
Означення. Ланцюг Маркова називається ергодичним, якщо він
незвідний і всі його стани є ергодичними.
Властивість ергодичності для однорідного ланцюга Маркова в
термінах перехідних ймовірностей P означає, що існує таке ціле число
10 k , що всі елементи матриці 0kP є додатними.
Зауважимо, що при аналізі структури ланцюга Маркова слід
розрізняти визначене вище поняття поглинаючої (замкненої) множини
станів від множини поглинаючих станів. Очевидно, в останньому
випадку ланцюг Маркова вже не може бути незвідним, оскільки не всі
стани є взаємодосяжними (з поглинаючого стану жодний інший стан не
досягається). Зрозуміло також, що такий ланцюг мусить містити
незворотні стани, бо якщо поглинаючий стан є досяжним для деякого
стану j , то система вже не може повернутися в стан j з ймовірністю
одиниця (а тому стан j незворотний). Якщо в склад складного ланцюга
Маркова входять і замкнені множини станів, то, як вже відзначалося, їх
можна окремо аналізувати як незвідний ланцюг Маркова. У зв’язку з цим
важливим є розгляд марковських ланцюгів, які містять лише поглинаючі
та незворотні стани.
КВМ
491
Означення. Ланцюг Маркова називається поглинаючим (ланцюгом з
поглинанням), якщо він складається лише з поглинаючих та незворотних
станів.
Очевидно, модель залежності, побудована у прикладі 4.8,
відноситься власне до такого типу ланцюгів Маркова. Що стосується
прикладів 4.7 і 4.9, то описані в них ланцюги Маркова є ергодичними.
4.2.4. Властивості ланцюгів Маркова.
Відзначимо тепер деякі властивості марковських ланцюгів, які
стосуватимуться лише ергодичних та поглинаючих скінченних ланцюгів
Маркова. Доведення сформульованих нижче тверджень опускаємо (їх
можна знайти, наприклад, в [4], а також в додатковій літературі, яка
наведена в кінці даного розділу).
Ергодична властивість. За деяких умов у ланцюгу Маркова із зростанням
k (номера кроку) встановлюється стаціонарний режим, в якому система
S продовжує блукати по станах, проте ймовірності цих станів вже не
залежать ні від номера кроку, ні від початкового розподілу ймовірностей.
Такі ймовірності називаються граничними (або фінальними) ланцюга
Маркова. Надалі фінальні ймовірності позначатимемо через npp ...,,1
n
iii pnip
1)1;...,,1,0( , а вектор npp ...,,1 , координатами яких є
граничні ймовірності npp ...,,1 будемо називати граничним (або
фінальним) вектором.
Наступна теорема описує широкий клас марковських ланцюгів, які
володіють наступною властивістю: граничні ймовірності ip , ni ...,,1 , не
КВМ
492
тільки існують, утворюють розподіл ймовірностей
n
iii pp
1)1,0( , але і
такі, що 0ip для всіх і (такі розподіли ip називаються ергодичними).
Теорема (ергодична теорема). Нехай jipP – матриця перехідних
ймовірностей ланцюга Маркова зі скінченною множиною станів
nE ...,,2,1 . Тоді, якщо ланцюг Маркова ергодичний, то існують числа
npp ...,,1 такі, що
,0jp
n
jjp
11 (4.69)
i для будь-якого Ei
....,,1,limlim )( njpkpp jjk
kijk
(4.70)
Навпаки, якщо існують числа npp ...,,1 , що задовольняють умови (4.69),
(4.70), то ланцюг Маркова ергодичний.
Числа npp ...,,1 є єдиним розв’язком системи рівнянь
n
jj
n
iijij
p
njppp
1
1
.1
,...,,1, (4.71)
Система рівнянь (4.71) відіграє важливу роль в теорії ланцюгів Маркова.
Кожний її невід’ємний розв’язок npp ...,,1 прийнято називати
стаціонарним або інваріантним розподілом ймовірностей для
марковського ланцюга з матрицею перехідних ймовірностей P .
Пояснення цієї назви полягає в наступному.
Візьмемо розподіл npp ...,,1 в якості початкового, ,0jj pp ....,,1 nj Тоді
n
ijijij pppp
11
КВМ
493
і взагалі jj pkp . Іншими словами, якщо в якості початкового
розподілу взяти npp ...,,1 , то цей розподіл не буде змінюватися зі зміною
числа кроків (з часом), тобто для будь-якого k
....,,1,0 njjSPjkSP
Відзначимо, що стаціонарний розподіл ймовірностей ( і до того ж
єдиний) може існувати і для неергодичних ланцюгів. Справді (див.
приклад 4.10), якщо
0110
P ,
то
,01102
kP ,
100112
kP
і, отже, границі )(lim kijk
p
не існують. У той же час система рівнянь (4.71)
перетворюється в систему
121
12
21
pppppp
,
єдиним розв’язком якої є .21
21 pp
Приклад 4.11. Поведінка ринку цінних паперів виявляє
наступну тенденцію: операції, в яких ціни зростають,
змінюються операціями, в яких ціни падають.
Спостереження показали, що умовна ймовірність
зростання цін після попереднього періоду їх падіння
дорівнює 0,65, а умовна ймовірність спадання цін після
попереднього періоду їх зростання дорівнює 0,6.
КВМ
494
Визначити відповідні стани, побудувати їх розмічений
граф, виписати матрицю перехідних ймовірностей і
знайти граничні ймовірності станів.
Розв’язання. В якості системи S будемо розглядати ринок
цінних паперів. Тоді система S може знаходитися лише в
двох станах: 1s – падіння цін, і 2s – зростання цін, а отже,
процес, що відбувається в системі S є дискретним.
Майбутній стан, в який перейде система S , залежить
(істотно) від стану, в якому вона знаходиться в даний
момент часу, тому цей процес є марковським.
Будемо припускати, що моменти часу ,,, 321 ttt
настільки близькі один до одного, що між ними система
S не змінює свого стану і, як наслідок, процес, який
відбувається в системі S , з певною похибкою можна
вважати процесом з дискретним часом.
Умовні ймовірності 0,65 і 0,6, що задані в умові
прикладу, є очевидно ймовірностями 12p і 21p .
Тоді, використовуючи нормуючу умову (4.52), при
2n для 2,1i одержимо: 35,065,011 1211 pp ;
4,06,011 2122 pp .
Розмічений граф станів системи S матиме наступний
вигляд (див. рис. 4.8):
КВМ
495
S. системи станів граф Розмічений.8.4.Рис
35,011 p
1s 2s65,012 p
6,021 p
4,022 p
Матриця перехідних ймовірностей
4,06,065,035,0
2221
1211
pppp
P . (4.72)
Оскільки всі елементи матриці додатні, то ланцюг
Маркова ергодичний і тому існують граничні
ймовірності 1p та 2p відповідно станів 1s та 2s . Із системи
рівнянь (4.71) при 2n з матрицею P , яка визначається
формулою (4.72), одержуємо:
1 1 2
2 1 2
0,35 0,6 ,0,65 0,4 ,
p p pp p p
або
,06,065,0,06,065,0
21
21
pppp
Якщо замінити, наприклад, друге рівняння
нормуючою умовою, одержимо систему
,1,06,065,0
21
21
pppp
розв’язуючи яку, знаходимо: 48,01 p ; 52,02 p .
КВМ
496
Отже, за умови тривалого функціонування ринку
цінних паперів граничні ймовірності падіння та росту
цін дорівнюють відповідно 0,48 та 0,52. При цьому вони
не залежать від початкового стану ринку. Властивості поглинаючих ланцюгів Маркова. Такого типу ланцюги
були визначені в п.4.2.3 як такі, що складаються лише з незворотних та
поглинаючих станів. Система, що описується подібним ланцюгом
Маркова, поступово переходить з незворотних станів у поглинаючі,
знаходячись у незворотних станах деякий випадковий час. Очевидно, що
коли такий ланцюг містить всього n станів, з яких – l поглинаючих, то
при відповідній нумерації станів його матриця перехідних ймовірностей
P може бути зображена у вигляді
HHHП
l
PP
IP
0, (4.73)
де lI – одинична матриця з порядком ll ; O - матриця з порядком
lnl , що складається з нулів; HПP - матриця з порядком lln , яка
задає ймовірності переходу з незворотних станів у поглинаючі; HHP
матриця з порядком lnln , що складається з ймовірностей
переходу між незворотними станами. Припустимо, що нас цікавлять
характеристики:
jiji KM - середнє значення числа кроків ijK , протягом яких
система, яка вийшла з незворотного стану i , перебуває в
незворотному стані ;...,,2,1, nlljij
КВМ
497
n
ljiji KM
1
* - середнє число кроків, протягом яких ланцюг
Маркова перебуває в незворотних станах, якщо вихідним є
незворотний стан ;...,,2,1 nllii
ij - ймовірність того, що система, яка вийшла з незворотного
стану ,...,,2,1 nllii попаде в поглинаючий стан
ljj ...,,2,1 .
Для поглинаючих ланцюгів Маркова, що задаються матрицями
перехідних ймовірностей вигляду (4.73), справедливі наступні
властивості:
1) значення ij визначаються як відповідні елементи матриці
1 HHln PIA , (4.74)
де lnI - одинична матриця з порядком lnln ; а HHP - матриця
ймовірностей переходу між незворотними станами з (4.73);
2) значення *i визначаються як відповідні компоненти вектора-
стовпця
1* A , (4.75)
де 1– вектор-стовпчик з порядком 1 ln , компоненти якого
дорівнюють одиниці, а A - матриця, визначена співвідношенням (4.74):
Наслідок. Якщо початково ланцюг Маркова знаходиться в незворотному стані i з ймовірністю ia , так що початковий розподіл ймовірностей незворотних станів ланцюга Маркова задається вектором
nll aaaa ...,,, 21 , то середнє число кроків до поглинання визначається за формулою
11 1* HHln PIaAaa ; (4.76)
3) значення ймовірностей ji визначаються як відповідні елементи
матриці
HПPA , (4.77)
КВМ
498
де A – матриця, визначена співвідношенням (4.74), а HПP – матриця з
(4.73), яка задає ймовірності переходу з незворотних станів у поглинаючі.
Властивості ланцюга Маркова, який містить множину незворотних станів J і
замкнену (поглинаючу) множину зворотних станів С . При аналізі такого
типу ланцюгів нас можуть цікавити наступні питання:
- яка ймовірність того, що система, розпочинаючи блукання з
незворотного стану, весь час буде знаходитися в множині
незворотних станів ?
- як обчислити ймовірність Cjf . того, що система, яка виходить з
незворотного стану j , коли-небудь досягне поглинаючу множину
зворотних станів C ?
Відповіді на ці питання містяться в наступних твердженнях:
Твердження 1. У скінченому ланцюгу Маркова ймовірність того, що
система весь час буде знаходитися в множині незворотних станів
дорівнює нулю.
Твердження 2. Ймовірність Cjf визначається як єдиний розв’язок
системи лінійних рівнянь
JjffpfJ
CjCjCj
,1.
. (4.78)
У цій системі сумування відбувається по всіх незворотних станах
ланцюга, а 1Cjf – це ймовірність перейти з j у будь-який зі станів
множини C за один крок.
Приклад 4.8а. Задача про розорення гравця: випадкове
блукання з поглинанням. Граф переходів ланцюга
Маркова має вигляд, зображений на рис. 4.6. Нагадаємо,
що стани тут нумеруються, починаючи з нульового:
КВМ
499
NE ..,,2,1,0 . Очевидно, перед тим, як погоджуватися на
той чи інший регламент гри, наш учасник (нехай це буде
перший гравець) хотів би в першу чергу визначити
ймовірність свого розорення (при грі до розорення).
Займемося розв’язанням цієї задачі. На мові ланцюга
Маркова розорення нашого учасника означає його
“поглинання” станом 0j (він відповідає нульовому
наявному капіталу гравця, тобто розоренню).
Нескладний аналіз станів ланцюга показує, що він
складається з 1N незворотних станів (стани 1,2,…,N-1) і
двох поглинаючих станів (стани 0 i N ). Отже,
розглядувана схема відноситься до категорії
маpковських ланцюгів, які містять множину
незворотних станів і замкнену (поглинаючу) множину
зворотних станів С . У нашому випадку ми маємо дві такі
вироджені замкнені множини, кожна з яких складається
з єдиного поглинаючого стану. Нас цікавитиме стан 0.
Розглянемо спочатку детальніше випадок п’яти станів
4N . У цьому випадку матриця перехідних
ймовірностей P має вигляд
КВМ
500
.
10000000
00000000001
pq
pqpq
P (4.79)
Для того, щоб записати матрицю P у формі (4.73)
перенумеруємо стани, залишивши нульовий стан
нульовим, і зробивши четвертий стан першим, перший
стан – другим і т.д. Тоді
000000
0000001000001
qppq
pqP (4.80)
Співставлення (4.80) з (4.73) показує, що
,1001
2
I ,
000000
O
p
qPHП
0000
,
000
00
qpq
pPHH .
Звідси одержуємо, що
101
01
3
qpq
pPI HH
і, як наслідок, матриця 13
HHPIA матиме вигляд
.11
22
22
22
pqqqpq
ppqp
qpA
КВМ
501
Пригадуючи інтерпретацію елементів матриці A ,
бачимо, що середнє число кроків, на протязі яких
ланцюг Маркова, відправляючись, наприклад, з
третього стану, перебуває в четвертому стані, дорівнює
.22 qp
p
.
Далі, на підставі формули (4.77) визначаємо матрицю
:
23
22
32
22
1
pqpqpqpqpq
qpPA HП .
Компоненти першого та другого векторів-стовпців
матриці і будуть ймовірностями поглинання
відповідно в нульовому та першому станах.
Дамо ігрову інтерпретацію отриманих результатів.
Загальний капітал обох гравців дорівнює 4. Нехай
кожний гравець на початку мав по 2 грошові одиниці. Це
відповідає другому рядку матриці . Ймовірність
розорення першого гравця – це перший елемент цього
рядка, тобто вона дорівнює .22
2
qpq
Зауважимо тепер, що компоненти векторів
ймовірностей поглинання можна визначити із системи
рівнянь (4.78). Обчислимо на підставі цієї системи
КВМ
502
рівнянь ймовірності розорення першого гравця при
різних значеннях його початкового капіталу. При цьому,
виписуючи рівняння (4.78), будемо використовувати
вихідні припущення щодо позначення станів
розглядуваного ланцюга Маркова та зображення його
матриці перехідних ймовірностей P . У даному випадку
маємо ;)1(
0.1 qf ;0)1(0.2 f .0)1(
0.3 f
Із врахуванням останніх співвідношень та (4.79) система
(4.78) запишеться у вигляді
..0,0
,
0.20.3
0.30.10.2
0.20.1
fqffpfqf
qfpf
Розв’язуючи цю систему рівнянь відносно 0.30.20.1 ,, fff ,
знаходимо
,22
2
0.1 qpqpqf
,22
2
0..2 qpqf
.22
3
0..3 qpqf
Як бачимо отримані ймовірності збігаються з
відповідними елементами першого стовпця матриці .
Зрозуміло, що використовуючи систему рівнянь (4.78),
можна обчислити ймовірності виграшу .4.mf ( 3,2,1m )
нашого учасника, які збігатимуться з відповідними
елементами другого стовпця матриці .
КВМ
503
Повертаємося до загального випадку нашої задачі. Для
визначення ймовірності розорення першого гравця 0.mf
( 1...,,2,1 Nm - початковий капітал цього гравця) складемо
та розв’яжемо систему рівнянь (4.78). Очевидно, в
даному випадку ;10.1 qf ;01
0. jf ,...,,3,2 Nj
так що система (4.78) має вигляд:
.0,2...,,3,2,0
0.20.1
0.10.10..
0.20.1
NN
jjj
fqfNjfpfqf
qfpf
Розв’язуючи цю систему рівнянь відносно
,)1...,,2,1(0. Nmfm одержуємо:
.21 для,1
,21для,
10.
qpNm
qp
pq
pq
pq
f N
mN
m
Зауваження. У п.4.2. поза нашою увагою залишилися такі важливі
розділи теорії марковських процесів як процеси з дискретними станами
та неперервним часом і процеси з неперервними станами та неперервним
часом. Такі процеси також знаходять широке застосування в економічній
практиці. Зокрема, марковські процеси з дискретними станами та
неперервним часом використовуються при моделюванні систем масового
КВМ
504
обслуговування. Далі, важливий клас марковських процесів з
неперервними станами та неперервним часом становлять дифузійні
процеси, які використовуються при побудові економіко-математичних
моделей для задач, що зустрічаються у фінансовій та страховій
математиці. Деякі з відзначених розділів читач може знайти в [4]. З
іншими питаннями можна ознайомитися, зокрема, в такій літературі:
1. Феллер В. Введение в теорию вероятностей и ее приложения. Том 1, 2. –
М.: Мир, 1984.
2. Леоненко М.М., Мішура Ю.С., Пархоменко В.M., Ядренко М.Я.
Теоретико-ймовірнісні та статистичні методи в економетриці та
фінансовій математиці. - К.: Інформтехніка, 1995. – 380 с.
3. Экономико-математическое моделирование: Учебник для студентов
вузов / Под общ. ред. И.Н.Дрогобыцкого. – М.: Издательство “Экзамен”,
2004. – 800 с.
Рекомендована література: [4, c.183-201; 5, c.380-385].
Завдання для самоконтролю
Основні поняття, означення і відношення
Замість крапок запишіть таке продовження
(доповнення) тексту, щоб отримати означення або
твердження. 1. Випадковий процес з дискретними станами називається
марковським, якщо … .
2. Випадкова послідовність називається ланцюгом Маркова, якщо для
кожного кроку … .
КВМ
505
3. Основними вихідними характеристиками ланцюгів Маркова є
ймовірності … .
4. Початковим розподілом ймовірностей ланцюга Маркова
називається розподіл ймовірностей … .
5. Ймовірністю переходу ланцюга Маркова називається … .
6. Якщо перехідні ймовірності ланцюга Маркова не залежать від
номера кроку, то відповідний ланцюг Маркова називається … .
7. Якщо хоч би одна перехідна ймовірність ланцюга Маркова
змінюється зі зміною кроку, то ланцюг Маркова називається … .
8. Елементи кожного рядка матриці переходу ланцюга Маркова
невід’ємні та задовольняють умову … .
9. Квадратна матриця називається стохастичною, якщо її елементи
задовольняють умови … .
10. Якщо для однорідного ланцюга Маркова задана матриця
перехідних ймовірностей P , то матриця kP , яка складається з
ймовірностей переходу за k кроків, виражається через матрицю P
рівністю … .
11. Якщо для однорідного ланцюга Маркова задані матриця перехідних
ймовірностей та початковий розподіл ймовірностей, то абсолютні
ймовірності станів на k –му кроці визначаються за допомогою
рекурентної формули … .
12. Ймовірність першого досягнення стану j ланцюга Маркова при
його виході зі стану i можуть бути обчислені через ймовірності
переходу внаслідок рекуррентного застосування формул … .
13. Ймовірність того, що, починаючи зі стану i , ланцюг Маркова коли-
небудь досягне стану j визначається за формулою … .
14. Середнє число кроків до першого досягнення ланцюгом Маркова
стану j при виході зі стану i виражається формулою … .
КВМ
506
15. Кажуть, що стан j ланцюга Маркова досягається зі стану i , якщо
… .
16. Деяка підмножина станів ланцюга Маркова називається
замкненою (або поглинаючою), якщо … .
17. Деякий стан ланцюга Маркова називається зворотним, якщо
ймовірність повернення для нього дорівнює … , і незворотним, якщо
ця ймовірність … .
18. Стан i ланцюга Маркова називається періодичним з періодом 1 ,
якщо … .
19. Деякий стан ланцюга Маркова називається ергодичним, якщо … .
20. Ланцюг Маркова називається незвідним, якщо … .
21. Ланцюг Маркова називається ергодичним, якщо … .
22. Ланцюг Маркова називається поглинаючим, якщо … .
23. Якщо скінченний однорідний ланцюг Маркова ергодичний, то
існують … ймовірності.
24. Якщо граничні ймовірності ланцюга Маркова існують, то вони
визначаються з наступної системи рівнянь … .
25. Ймовірності того, що ланцюг Маркова, який виходить з
незворотного стану, коли-небудь досягне поглинаючу множину
зворотних станів визначається як єдиний розв’язок системи
лінійних рівнянь … .
Тести
Запишіть на бланку відповідей номер завдання і коди
(порядкові номери або літери), що відповідають тим
варіантам відповідей, які вважаєте правильними.
КВМ
507
1. Розмічений граф станів системи S , в якій
відбувається марковський процес з дискретними
станами та дискретним часом, зображено на рисунку 4.9.
Записати матрицю перехідних ймовірностей для
розглядуваного ланцюга Маркова.
Варіанти відповідей: 1.
6,04,07,03,0 . 2.
3,07,04,06,0 . 3.
4,03,07,06,0
2. Для якого значення a наведена нижче матриця є
стохастичною? 0,4 0,4
0,5 0,30,1 0,4 0,5
aa
Варіанти відповідей: 1. 0,1; 2. 0,2; 3. -0,2.
3. Припустимо, що в умовах тесту 1, початковий
розподіл ймовірностей має вигляд:
1 20 , (0) 0,5 0,5p p .
Обчислити абсолютну ймовірність стану 1s ланцюга
Маркова після 1-го кроку.
1s 7,012 p 4,021 p
Рис.
2s
КВМ
508
Варіанти відповідей: 1. 0,5; 2. 0,65; 3. 0,35.
4. Розглянемо матрицю перехідних ймовірностей
ланцюга Маркова
51
53
51
4304
13
13
13
1
P
Чи існує для ланцюга Маркова стаціонарний розподіл.
Варіанти відповідей: 1. так. 2. ні.
5. Розглянемо ланцюг Маркова з трьома станами та
матрицю перехідних ймовірностей
001100010
P .
Чи є всі три стани даного ланцюга Маркова
періодичними ? Якщо так, то яким є період цих станів
?
Варіанти відповідей: 1. ні. 2. так і .2 3. так і .3
Приклади.
1. Розглянемо стани банку 4321 ,,, ssss , які
характеризуються відповідно процентними ставками 3
%, 4 %, 5 %, 6 % , які встановлюються на початку
кожного місяця та є незмінними до наступного місяця.
Спостереження за роботою банку в попередній період
КВМ
509
показало, що перехідні ймовірності станів протягом
кварталу змінюються в незначній мірі, і тому їх можна
вважати сталими.
Визначити ймовірності станів банку в кінці
кварталу, якщо в кінці попереднього кварталу
процентна ставка складала 5 %, а розмічений граф стану
банку має наступний вигляд:
Обчислити шукані ймовірності за формулами (4.63) і
(4.64).
Зауваження. При виконанні цього завдання можна
орієнтуватися на приклад 4.9.
2. Стани банку 321 і, sss характеризуються відповідно
процентними ставками 5 %, 8 %, 11 %, які
Рис.
2s 3s
0,0,
0,
0,
0,0,
0,0,4s
1s
КВМ
510
встановлюються на початку року і не змінюються до
наступного року. Перехідні ймовірності є сталими.
Спрогнозувати, яка ставка буде в 2008 році, якщо в 2004
році процентна ставка була 5 %, а розмічений граф
станів зображений на рис.4.11.
Зауваження. 2000 рік можна вважати початковим
роком аналізу, а кроки 4,3,2,1k будуть відповідати 2001,
2002, 2003, 2004 рокам.
3. Розглянемо ланцюг Маркова з двома станами
21 i ss , ймовірностями переходу ppp 2211 , qpp 2112
1,10 qpp та початковими ймовірностями
,0 11 ap ,0 22 ap 121 aa . Знайти: а) матрицю kP
переходів через k кроків б) абсолютні ймовірності kp j ,
;2,1j в) граничні ймовірності ,jp .2,1j
2s
1s
0,0,
0,
0,
0,
Рис.
3s
КВМ
511
4. Нехай множина станів ланцюга Маркова 2,1,0E , а
матриця переходів має вигляд
3103
22
1021
001P .
Подубувати граф даного ланцюга Маркова.
Переконатися в тому, що стан 0 є поглинаючим, а стани
1 і 2 - незворотні. Після цього знайти: а) середнє
значення ij числа кроків, протягом яких система, яка
вийшла з незворотного стану перебуває в незворотному
стані 2,1, jij ; б) середнє число кроків ,*i протягом
яких ланцюг Маркова перебуває в незворотних станах,
якщо вихідним є незворотний стан i ( 2,1i ); в)
ймовірність 0i того, що ланцюг Маркова, який вийшов з
незворотного стану i ( 2,1i ), коли-небудь попаде в
поглинаючий стан 0.
5. Кожний з двох банків A та B може перебувати в
одному з двох станів, які характеризуються процентними
ставками за вкладами, які встановлюються на початку
кожного кварталу і зберігаються незмінними до початку
нового кварталу: стан 1s – процентна ставка 5 %, стан 2s –
процентна ставка 6 % . Ймовірності переходів банків A і
КВМ
512
B із стану в стан не залежать від часу t і задаються
відповідними матрицями
6,04,07,03,0
AP і
9,01,08,02,0
BP
Побудувати розмічені графи станів банків A і B. Чи
існують фінальні ймовірності станів банку ? Якщо так,
то визначити їх. У який банк вигідніше робити вклади ?
Відповіді: 1. В останньому місяці розглядуваного
кварталу процентні ставки 3 %, 4 %, 5 % і 6 % будуть
відповідно з ймовірностями 0,170; 0,456; 0.245 і 0,129.
Отже, в останньому місяці кварталу найбільш ймовірно
процентна ставка буде 4 %. 2. У 2008 році процентні
ставки 5 %, 8 %, 11 % будуть відповідно з
ймовірностями 0,2261; 0,4998 і 0,2741. 3. а)
,121)(
22)(
11kkk qppp ;1
21)(
21)(
12kkk qppp
б) ,21
21
211kqpaakp ;
21
21
212kqpaakp в)
21
21 pp . 4.
а) ;23,0,
43,1 22211211 б) ;
23,
47 *
2*1 в) ,10101 f
10202 f . 5. Фінальні ймовірності банку A: 114
1 p , 117
2 p ,
фінальні ймовірності банку В: 91
1 p , 98
2 p .
КВМ
513
Основні поняття і терміни.
Марковський процес з дискретними станами – випадковий процес із
скінченною або зліченною множиною станів, для якого за будь-якого
моменту часу ймовірність кожного стану в майбутньому залежить тільки
від стану процесу в теперішньому і не залежить від його поведінки в
минулому.
Ланцюг Маркова – марковський процес з дискретними станами та
дискретним часом.
Ймовірність переходу ланцюга Маркова – умовна ймовірність того,
що після деякого кроку система виявиться в даному стані за умови, що
після попереднього кроку вона перебувала в деякому іншому стані.
Однорідний ланцюг Маркова – ланцюг Маркова, для якого перехідні
ймовірності не залежать від номера кроку.
Стохастична матриця – квадратна матриця, всі елементи якої
невід’ємні і сума елементів будь-якого її рядка дорівнює одиниці.
Абсолютна ймовірність стану ланцюга Маркова – ймовірність того,
що система після даного кроку до наступного буде перебувати в цьому
стані.
Ймовірність переходу однорідного ланцюга Маркова за декілька
кроків – умовна ймовірність того, що після деякого кроку система
виявиться в даному стані за умови, що на початковому кроці вона
перебувала в деякому іншому стані.
Ймовірність першого досягнення стану ланцюгом Маркова –
ймовірність того, що починаючи з деякого стану ланцюг Маркова вперше
досягне даний стан після певного числа кроків.
КВМ
514
Ймовірність повернення ланцюга Маркова в заданий стан –
ймовірність того, що вийшовши із заданого стану на початковому кроці
система коли-небудь повернеться в цей самий стан.
Зворотний стан ланцюга Маркова – стан, ймовірність повернення
для якого дорівнює одиниці.
Незворотний стан ланцюга Маркова – стан, ймовірність повернення
для якого менша від одиниці.
Поглинаюча множина станів ланцюга Маркова – підмножина
множини всіх станів ланцюга, така, що кожний стан, який не входить у
цю підмножину, є недосяжний з жодного стану, який належить цій
підмножині.
Періодичний стан ланцюга Маркова – стан, коли система не може
повернутися в нього за число кроків, яке відмінне від числа, кратного
деякому цілому числу, більшого від одиниці.
Ергодичний стан ланцюга Маркова – стан, який є зворотний і
неперіодичний.
Незвідний ланцюг Маркова – марковський ланцюг, який не містить
замкнених множин станів, відмінних від множин всіх його станів.
Ергодичний ланцюг Маркова – ланцюг Маркова, який є незвідний і
всі його стани ергодичні.
Поглинаючий ланцюг Маркова – ланцюг Маркова, який складається
з поглинаючих та незворотних станів.
Стаціонарний режим ланцюга Маркова – властивість ланцюга
Маркова, коли ймовірності станів системи після великого числа кроків
вже практично не залежать ні від номера кроку, ні від початкового
розподілу ймовірностей.
КВМ
515
ПРАВИЛЬНІ ВІДПОВІДІ ДО ТЕСТІВ
Розділ 1
1.1
№ завдан
ня
1а
1б 1в 2.
1 2.2
2.3
2.4
2.5
2.6
3.1
3.2
3.3
3.4
Коди відпові
дей 1 3 2 2 2 1 2 1 1 3 1 2 1
3.5 3.6 3.7 4.1 4.2 5а 5б 6а 6б 7а 7б 8а 8б 8в 93 2 1 2 3 1 2 2 3 2 3 2 1 3 3
КВМ
516
10 11
12
13 14 15
2 3 2 2 2 1
1.2
№ завдан
ня
1а
1б
2а
2б 2в 3
а 3б
4а
4б
5а
5б
Коди відпові
дей 4 1 1 2 3 1 2 2 1 3 3
6 7а 7б 8 9 10 2 1 3 1 3 2
1.3
№ завдання 1 2 3 4 5 6 7 8 9 1
0 Коди
відповідей 1 4 2 3 2 3 1 2 2 3
Розділ 2
2.1
№ завдання 1 2 3 4 5 6 7 8 9 1
0 Коди
відповідей 3 2 1 2 В 2 1 3 2 1
2.2
КВМ
517
№ завдання
1 2 3 4 5 6 7 8 9 10
Коди відповідей
1 1 Б Б А В 2 2 1 1
11 12 13 14 15
16
17
18
19
20
3 1 3 1 А В 1 2 3 3
2.3
№ завдання
1 2 3 4 5 6
Коди відповідей
3 2 2 3 А 2
2.4
№ завдання 1 2 3 4 5 6
а 6б 6в 6г 6
д Коди
відповідей Б 1 3 А В 2 2 1 3 1
7а 7б 7в 7г 7д
8а
8б
8в 8г 9
а 9б
10а
10б
2 1 3 2 1 2 1 3 2 2 3 1 2
2.5
№ завдання 1 2 3 4 5
а 5б 5в 6
а 6б 6в
Коди відповідей А 2 Б 1 2 3 3 1 2 2
КВМ
518
Розділ 3
3.1
№ завдання 1 2 3 4 5 6 7 8 9 1
0 Коди
відповідей 2 1 3 3 1 2 3 3 1 2
3.2
№ завдання 1 2 3 4 5 6 7
Коди відповідей 2 3 2 2 3 2 3
3.3
№ завдання 1 2 3 4 5
Коди відповідей 2 1 3 3 3
3.4
№ завдання 1 2 3 4 5 6 7 8 9
Коди відповідей А А Б А А Б Б Б А
3.5
КВМ
519
№ завдання 1 2
а 2б 3 4 5
Коди відповідей 2 1 3 2 Б В
Розділ 4
4.1
№ завдання 1 2 3 4 5
Коди відповідей 1 2 1 3 2
4.2
№ завдання 1 2 3 4 5
Коди відповідей 1 2 3 1 3
КВМ
520
СПИСОК РЕКОМЕНДОВАНОЇ ЛІТЕРАТУРИ
1. Борковський В. В., Барковська Н. В., Лопатін О. К. Теорія
ймовірностей і математична статистика. – К.: ЦУЛ, 2002. – 448 с. –
(Математичні науки).
2. Бугір М. К. Теорія ймовірностей і математична статистика: Навч.
посібник. – Тернопіль: Підручники і посібники, 1998. – 176 c.
3. Бугір М. К. Практикум з теорії ймовірностей та математичної
статистики: Навч. посібник. – Тернопіль: УМДС, 1998.
4. Гихман И. И., Скороход А. В., Ядренко М. И. Теория вероятностей и
математическая статистика. – К.: Вища школа, 1988.
5. Гурман В. Е. Теория вероятностей и математическая статистика. – М.:
Физматгиз, 1975; М.: Высшая школа, 2000. – 479 c.
6. Жлуктенко В. І., Наконечний С. І. Теорія ймовірностей з елементами
математичної статистики. – К.: УМКВО, 1991.
7. Жлуктенко В. І., Наконечний С. І. Теорія ймовірностей і математична
статистика: Навч.-метод. посібник: У 2 ч. – К.: КНЕУ, 2000. – Ч. І:
Теорія ймовірностей. – 304 с.
8. Жолдак М. І., Кузьміна Н. М., Берлінська С. Ю. Теорія ймовірностей і
математична статистика. – К.: Вища школа, 1995. – 351 c.
9. Копич І. М. Елементи теорії ймовірностей і математичної статистики:
Навч. посібник. – Л.: Коопосвіта, ЛКА, 1997.
10. Кулініч Г. Л., Максименко Л. О., Плахотник В. В., Призва Г. Й. Вища
математика: основні означення, приклади і задачі: Навч. посібник: У
2-х кн. – 2-ге вид., зі змінами. – К.: Либідь, 1994. – Кн. 1. – 312 с.
КВМ
521
ДОДАТКИ
КВМ
522
Додаток 1 Значення функції 2/2
21)( xex
0 1 2 3 4 5 6 7 8 9 0,0 0,3989 3989 3989 3988 3986 3984 3982 3980 3977 3973 0,1 3970 3965 3961 3956 3951 3945 3939 3932 3925 3918 0,2 3910 3902 3894 3885 3876 3867 3857 3847 3836 3825 0,3 3814 3802 3790 3778 3765 3752 3739 3725 3712 3697 0,4 3683 3668 3653 3637 3621 3605 3589 3572 3555 3538 0,5 3521 3503 3485 3467 3448 3429 3410 3391 3372 3352 0,6 3332 3312 3292 3271 3251 3230 3209 3187 3166 3144 0,7 3123 3101 3079 3056 3034 3011 2989 2966 2943 2920 0,8 2897 2874 2850 2827 2803 2780 2756 2732 2709 2685 0,9 2661 2637 2613 2589 2565 2541 2516 2492 2468 2444
1,0 0,2420 2396 2371 2347 2323 2299 2275 2251 2227 2203 1,1 2179 2155 2131 2107 2083 2059 2036 2012 1989 1965 1,2 1942 1919 1895 1872 1849 1826 1804 1781 1758 1736 1,3 1714 1691 1669 1647 1626 1604 1582 1561 1539 1518 1,4 1497 1476 1456 1435 1415 1394 1374 1354 1334 1315 1,5 1295 1276 1257 1238 1219 1200 1182 1163 1145 1127 1,6 1109 1092 1074 1057 1040 1023 1006 0989 0973 0957 1,7 0940 0925 0909 0893 0878 0863 0848 0833 0818 0804 1,8 0790 0775 0761 0748 0734 0721 0707 0694 0681 0669 1,9 0656 0644 0632 0620 0608 0596 0584 0573 0562 0551
2,0 0,0540 0529 0519 0508 0498 0488 0478 0468 0459 0449 2,1 0440 0431 0422 0413 0404 0396 0387 0379 0371 0363 2,2 0355 0347 0339 0332 0325 0317 0310 0303 0297 0290 2,3 0283 0277 0270 0264 0258 0252 0246 0241 0235 0229 2,4 0224 0219 0213 0208 0203 0198 0194 0189 0184 0180 2,5 0175 0171 0167 0163 0158 0154 0151 0147 0143 0139 2,6 0136 0132 0129 0126 0122 0119 0116 0113 0110 0107 2,7 0104 0101 0099 0096 0093 0091 0088 0086 0084 0081 2,8 0079 0077 0075 0073 0071 0069 0067 0065 0063 0061 2,9 0060 0058 0056 0055 0053 0051 0050 0048 0047 0046
3,0 0,0044 0043 0042 0040 0039 0038 0037 0036 0035 0034 3,1 0033 0032 0031 0030 0029 0028 0027 0026 0025 0025 3,2 0024 0023 0022 0022 0021 0020 0020 0019 0018 0018 3,3 0017 0017 0016 0016 0015 0015 0014 0014 0013 0013 3,4 0012 0012 0012 0011 0011 0010 0010 0010 0009 0009 3,5 0009 0008 0008 0008 0008 0007 0007 0007 0007 0006 3,6 0006 0006 0006 0005 0005 0005 0005 0005 0005 0004 3,7 0004 0004 0004 0004 0004 0004 0003 0003 0003 0003 3,8 0003 0003 0003 0003 0003 0002 0002 0002 0002 0002 3,9 0002 0002 0002 0002 0002 0002 0002 0002 0001 0001
КВМ
523
Додаток 2
Значення функції Лапласа dzexx
z
0
2/2
21)(
x Ф(х) x Ф(х) x Ф(х) x Ф(х) x Ф(х) x Ф(х) 0,00 0,0000 0,43 0,1664 0,86 0,3051 1,29 0,4015 1,72 0,4573 2,30 0,4893 0,01 0,0040 0,44 0,1700 0,87 0,3078 1,30 0,4032 1,73 0,4582 2,32 0,4898 0,02 0,0080 0,45 0,1736 0,88 0,3106 1,31 0,4049 1,74 0,4591 2,34 0,4904 0,03 0,0120 0,46 0,1772 0,89 0,3133 1,32 0,4066 1,75 0,4599 2,36 0,4909 0,04 0,0160 0,47 0,1808 0,90 0,3159 1,33 0,4082 1,76 0,4608 2,38 0,4913 0,05 0,0199 0,48 0,1844 0,91 0,3186 1,34 0,4099 1,77 0,4616 2,40 0,4918 0,06 0,0239 0,49 0,1879 0,92 0,3212 1,35 0,4115 1,78 0,4625 2,42 0,4922 0,07 0,0279 0,50 0,1915 0,93 0,3238 1,36 0,4131 1,79 0,4633 2,44 0,4927 0,08 0,0319 0,51 0,1950 0,94 0,3264 1,37 0,4147 1,80 0,4641 2,46 0,4931 0,09 0,0359 0,52 0,1985 0,95 0,3289 1,38 0,4162 1,81 0,4649 2,48 0,4934 0,10 0,0398 0,53 0,2019 0,96 0,3315 1,39 0,4177 1,82 0,4656 2,50 0,4938 0,11 0,0438 0,54 0,2054 0,97 0,3340 1,40 0,4192 1,83 0,4664 2,52 0,4941 0,12 0,0478 0,55 0,2088 0,98 0,3365 1,41 0,4207 1,84 0,4671 2,54 0,4945 0,13 0,0517 0,56 0,2123 0,99 0,3389 1,42 0,4222 1,85 0,4678 2,56 0,4948 0,14 0,0557 0,57 0,2157 1,00 0,3413 1,43 0,4236 1,86 0,4686 2,58 0,4951 0,15 0,0596 0,58 0,2190 1,01 0,3438 1,44 0,4251 1,87 0,4693 2,60 0,4953 0,16 0,0636 0,59 0,2224 1,02 0,3461 1,45 0,4265 1,88 0,4699 2,62 0,4956 0,17 0,0675 0,60 0,2257 1,03 0,3485 1,46 0,4279 1,89 0,4706 2,64 0,4959 0,18 0,0714 0,61 0,2291 1,04 0,3508 1,47 0,4292 1,90 0,4713 2,66 0,4961 0,19 0,0753 0,62 0,2324 1,05 0,3531 1,48 0,4306 1,91 0,4719 2,68 0,4963 0,20 0,0793 0,63 0,2357 1,06 0,3554 1,49 0,4319 1,92 0,4726 2,70 0,4965 0,21 0,0832 0,64 0,2389 1,07 0,3577 1,50 0,4332 1,93 0,4732 2,72 0,4967 0,22 0,0871 0,65 0,2422 1,08 0,3599 1,51 0,4345 1,94 0,4738 2,74 0,4969 0,23 0,0910 0,66 0,2454 1,09 0,3621 1,52 0,4357 1,95 0,4744 2,76 0,4971 0,24 0,0948 0,67 0,2486 1,10 0,3643 1,53 0,4370 1,96 0,4750 2,78 0,4973 0,25 0,0987 0,68 0,2517 1,11 0,3665 1,54 0,4382 1,97 0,4756 2,80 0,4974 0,26 0,1026 0,69 0,2549 1,12 0,3686 1,55 0,4394 1,98 0,4761 2,82 0,4976 0,27 0,1064 0,70 0,2580 1,13 0,3708 1,56 0,4406 1,99 0,4767 2,84 0,4977 0,28 0,1103 0,71 0,2611 1,14 0,3729 1,57 0,4418 2,00 0,4772 2,86 0,4979 0,29 0,1141 0,72 0,2642 1,15 0,3749 1,58 0,4429 2,02 0,4783 2,88 0,4980 0,30 0,1179 0,73 0,2673 1,16 0,3770 1,59 0,4441 2,04 0,4793 2,90 0,4981 0,31 0,1217 0,74 0,2704 1,17 0,3790 1,60 0,4452 2,06 0,4803 2,92 0,4982 0,32 0,1255 0,75 0,2734 1,18 0,3810 1,61 0,4463 2,08 0,4812 2,94 0,4984 0,33 0,1293 0,76 0,2764 1,19 0,3830 1,62 0,4474 2,10 0,4821 2,96 0,4985 0,34 0,1331 0,77 0,2794 1,20 0,3849 1,63 0,4484 2,12 0,4830 2,98 0,4986 0,35 0,1368 0,78 0,2823 1,21 0,3869 1,64 0,4495 2,14 0,4838 3,00 0,49865 0,36 0,1406 0,79 0,2852 1,22 0,3888 1,65 0,4505 2,16 0,4846 3,20 0,49931 0,37 0,1443 0,80 0,2881 1,23 0,3907 1,66 0,4515 2,18 0,4854 3,40 0,49966 0,38 0,1480 0,81 0,2910 1,24 0,3925 1,67 0,4525 2,20 0,4861 3,60 0,499841 0,39 0,1517 0,82 0,2939 1,25 0,3944 1,68 0,4535 2,22 0,4868 3,80 0,499928 0,40 0,1554 0,83 0,2967 1,26 0,3962 1,69 0,4545 2,24 0,4875 4,00 0,499968 0,41 0,1591 0,84 0,2995 1,27 0,3980 1,70 0,4554 2,26 0,4881 4,50 0,499997 0,42 0,1628 0,85 0,3023 1,28 0,3997 1,71 0,4564 2,28 0,4887 5,00 0,4999997
КВМ
524
Додаток 3
Значення ntt , розподілу Стьюдента
n γ
0,95 0,99 0,999 5 2,78 4,60 8,61 6 2,57 4,03 6,86 7 2,45 3,71 5,96 8 2,37 3,50 5,41 9 2,31 3,36 5,04
10 2,26 3,25 4,78 11 2,23 3,17 4,59 12 2,20 3,11 4,44 13 2,18 3,06 4,32 14 2,16 3,01 4,22 15 2,15 2,98 4,14 16 2,13 2,95 4,07 17 2,12 2,92 4,02 18 2,11 2,90 3,97 19 2,10 2,88 3,92 20 2,093 2,861 3,883 25 2,064 2,797 3,745 30 2,045 2,756 3,659 35 2,032 2,720 3,600 40 2,023 2,708 3,558 45 2,016 2,692 3,527 50 2,009 2,679 3,502 60 2,001 2,662 3,464 70 1,996 2,649 3,439 80 1,991 2,640 3,418 90 1,987 2,633 3,403 100 1,984 2,627 3,392 120 1,980 2,617 3,374 1,960 2,576 3,291
КВМ
525
Додаток 4 Значення nqq ,
розподілу «хі-квадрат»
γ n 0,95 0,99 0,999 5 1,37 2,67 5,64 6 1,09 2,01 3,88 7 0,92 1,62 2,98 8 0,80 1,38 2,42 9 0,71 1,20 2,06
10 0,65 1,08 1,80 11 0,59 0,98 1,60 12 0,55 0,90 1,45 13 0,52 0,83 1,33 14 0,48 0,78 1,23 15 0,46 0,73 1,15 16 0,44 0,70 1,07 17 0,42 0,66 1,01 18 0,40 0,63 0,96 19 0,39 0,60 0,92 20 0,37 0,58 0,88 25 0,32 0,49 0,73 30 0,28 0,43 0,63 35 0,26 0,38 0,56 40 0,24 0,35 0,50 45 0,22 0,32 0,46 50 0,21 0,30 0,43 60 0,188 0,269 0,38 70 0,174 0,45 0,34 80 0,161 0,226 0,31 90 0,151 0,211 0,29 100 0,143 0,198 0,27 150 0,115 0,160 0,211 200 0,099 0,136 0,185 250 0,089 0,120 0,162
КВМ
526
Додаток 5 Критичні точки розподілу 2
Рівень значущості α
Число ступені
в вільнос
ті k
0,01 0,025 0,05 0,95 0,975 0,99
1 6,6 5,0 3,8 0,0039 0,00098
0,00016
2 9,2 7,4 6,0 0,103 0,051 0,020 3 11,3 9,4 7,8 0,352 0,216 0,115 4 13,3 11,1 9,5 0,711 0,484 0,297 5 15,1 12,8 11,1 1,15 0,831 0,554
6 16,8 14,4 12,6 1,64 1,24 0,872 7 18,5 16,0 14,1 2,17 1,69 1,24 8 20,1 17,5 15,5 2,73 2,18 1,65 9 21,7 19,0 16,9 3,33 2,70 2,09
10 23,2 20,5 18,3 3,94 3,25 2,56 11 24,7 21,9 19,7 4,57 3,82 3,05 12 26,2 23,3 21,0 5,23 4,40 3,57 13 27,7 24,7 22,4 5,89 5,01 4,11 14 29,1 26,1 23,7 6,57 5,63 4,66 15 30,6 27,5 25,0 7,26 6,26 5,23 16 32,0 28,8 26,3 7,96 6,91 5,81 17 33,4 30,2 27,6 8,67 7,56 6,41 18 34,8 31,5 28,9 9,39 8,23 7,01 19 36,2 32,9 30,1 10,1 8,91 7,63 20 37,6 34,2 31,4 10,9 9,59 8,26 21 38,9 35,5 32,7 11,6 10,3 8,90 22 40,3 36,8 33,9 12,3 11,0 9,54 23 41,6 38,1 35,2 13,1 11,7 10,2 24 43,0 39,4 36,4 13,8 12,4 10,9 25 44,3 40,6 37,7 14,6 13,1 11,5 26 45,6 41,9 38,9 15,4 13,8 12,2 27 47,9 43,2 40,1 16,2 14,6 12,9 28 49,3 44,5 41,3 16,9 15,3 13,6 29 49,6 45,7 42,6 17,7 16,0 14,3 30 50,6 47,0 43,8 18,5 16,8 15,0
КВМ
527
Додаток 6
Критичні точки розподілу Стьюдента
КВМ
528
Рівень значущості α (двостороння критична область)
Число
ступенів
вільності k
0,10 0,05 0,02 0,01 0,002 0,001
1 6,31 12,70 31,82 63,70 318,30 637,00 2 2,92 4,30 6,97 9,92 22,33 31,60 3 2,35 3,18 4,54 5,84 10,22 12,90 4 2,13 2,78 3,75 4,60 7,17 8,61 5 2,01 2,57 3,37 4,03 5,89 6,86 6 1,94 2,45 3,14 3,71 5,21 5,96 7 1,89 2,36 3,00 3,50 4,79 5,40 8 1,86 2,31 2,90 3,36 4,50 5,04 9 1,83 2,26 2,82 3,25 4,30 4,78
10 1,81 2,23 2,76 3,17 4,14 4,59 11 1,80 2,20 2,72 3,11 4,03 4,44 12 1,78 2,18 2,68 3,05 3,93 4,32 13 1,77 2,16 2,65 3,01 3,85 4,22 14 1,76 2,14 2,62 2,98 3,79 4,14 15 1,75 2,13 2,60 2,95 3,73 4,07 16 1,75 2,12 2,58 2,92 3,69 4,01 17 1,74 2,11 2,57 2,90 3,65 3,96 18 1,73 2,10 2,55 2,88 3,61 3,92 19 1,73 2,09 2,54 2,86 3,58 3,88 20 1,73 2,09 2,53 2,85 3,55 3,85 21 1,72 2,08 2,52 2,83 3,53 3,82 22 1,72 2,07 2,51 2,82 3,51 3,79 23 1,71 2,07 2,50 2,81 3,49 3,77 24 1,71 2,06 2,49 2,80 3,47 3,74 25 1,71 2,06 2,49 2,79 3,45 3,72 26 1,71 2,06 2,48 2,78 3,44 3,71 27 1,71 2,05 2,47 2,77 3,42 3,69 28 1,70 2,05 2,46 2,76 3,40 3,66 29 1,70 2,05 2,46 2,76 3,40 3,66 30 1,70 2,04 2,46 2,75 3,39 3,65 40 1,68 2,02 2,42 2,70 3,31 3,55 60 1,67 2,00 2,39 2,66 3,23 3,46 120 1,66 1,98 2,36 2,62 3,17 3,37 1,64 1,96 2,33 2,58 3,09 3,29 0,05 0,025 0,01 0,005 0,001 0,0005
Рівень значущості α (одностороння критична область)
КВМ
529
Додаток 7 Критичні точки розподілу F Фішера – Снедекора (k1 – число ступенів вільності більшої дисперсії, k2 – число ступенів вільності меншої дисперсії)
Рівень значущості α = 0,01
k1 k2 1 2 3 4 5 6 7 8 9 10 11 12 1 4052 4999 5403 5625 5764 5889 5928 5981 6022 6056 6082 6106 2 98,49 99,01 99,17 99,25 99,30 99,33 99,34 99,36 99,38 99,40 99,41 99,42 3 34,12 30,81 29,46 28,71 28,24 27,91 27,67 27,49 27,34 27,23 27,13 27,05 4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,54 14,45 14,37 5 16,26 13,27 12,06 11,39 10,97 10,67 10,45 10,27 10,15 10,05 9,96 9,89 6 13,74 10,92 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,79 7,72 7 12,25 9,55 8,45 7,85 7,46 7,19 7,00 6,84 6,71 6,62 6,54 6,47 8 11,26 8,65 7,59 7,01 6,63 6,37 6,19 6,03 5,91 5,82 5,74 5,67 9 10,56 8,02 6,99 6,42 6,06 5,80 5,62 5,47 5,35 5,26 5,18 5,11
10 10,04 7,56 6,55 5,99 5,64 5,39 5,21 5,06 4,95 4,85 4,78 4,71 11 9,86 7,20 6,22 5,67 5,32 5,07 4,88 4,74 4,63 4,54 4,46 4,40 12 9,33 6,93 5,95 5,41 5,06 4,82 4,65 4,50 4,39 4,30 4,22 4,16 13 9,07 6,7 5,74 5,20 4,86 4,62 4,44 4,30 4,19 4,10 4,02 3,96 14 8,86 6,51 5,56 5,03 4,69 4,46 4,28 4,14 4,03 3,94 3,86 3,80 15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,73 3,67 16 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 3,78 3,69 3,61 3,55 17 8,40 6,11 5,18 4,67 4,34 4,10 3,93 3,79 3,68 3,59 3,52 3,45
Рівень значущості α = 0,05 k1 k2 1 2 3 4 5 6 7 8 9 10 11 12
1 161 200 216 225 230 234 237 239 241 242 243 244 2 18,51 19,00 19,16 19,25 19,30 19,33 19,36 19,37 19,38 19,39 19,40 19,41 3 10,13 9,55 9,28 9,12 9,01 8,94 8,88 8,84 8,81 8,78 8,76 8,74 4 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,93 5,91 5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,78 4,74 4,70 4,68 6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,03 4,00 7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,63 3,60 3,57 8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,34 3,31 3,28 9 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,13 3,10 3,07
10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,97 2,94 2,91 11 4,84 3,98 3,56 3,36 3,20 3,09 3,01 2,95 2,90 2,86 2,82 2,79 12 4,75 3,88 3,49 3,26 3,11 3,00 2,92 2,85 2,80 2,76 2,72 2,69 13 4,67 3,80 3,41 3,18 3,02 2,92 2,84 2,77 2,72 2,67 2,63 2,60 14 4,60 3,74 3,34 3,11 2,96 2,85 2,77 2,70 2,65 2,60 2,56 2,53 15 4,54 3,68 3,26 3,06 2,90 2,79 2,70 2,64 2,59 2,55 2,51 2,48 16 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 2,54 2,49 2,45 2,42 17 4,45 3,59 3,20 2,96 2,81 2,70 2,62 2,55 2,50 2,45 2,41 2,38
КВМ
530
Додаток 8 Значення функції e
k
k
!
k λ = 0,1 λ = 0,2 λ = 0,3 λ = 0,4 λ = 0,5 λ = 0,6 λ = 0,7 λ = 0,8 λ = 0,9 0 0,9048 0,8187 0,7408 0,6703 0,6065 0,5488 0,4966 0,4493 0,4066 1 0,0905 0,1637 0,2222 0,2681 0,3033 0,3293 0,3476 0,3595 0,3659 2 0,0045 0,0164 0,0333 0,0536 0,0758 0,0988 0,1217 0,1438 0,1647 3 0,0002 0,0011 0,0033 0,0072 0,0126 0,0198 0,0284 0,0383 0,0494 4 0,0001 0,0003 0,0007 0,0016 0,0030 0,0050 0,0077 0,0111 5 0,0001 0,0002 0,0004 0,0007 0,0012 0,0020 6 0,0001 0,0002 0,0003
k λ = 1 λ = 2 λ = 3 λ = 4 λ = 5 λ = 6 λ = 7 λ = 8 λ = 9 λ = 10 0 0,3679 0,1353 0,0498 0,0183 0,0067 0,0025 0,0009 0,0003 0,0001 0,0000 1 0,3679 0,2707 0,1494 0,0733 0,0337 0,0149 0,0064 0,0027 0,0011 0,0005 2 0,1839 0,2707 0,2240 0,1465 0,0842 0,0446 0,0223 0,0107 0,0050 0,0023 3 0,0613 0,1804 0,2240 0,1954 0,1404 0,0892 0,0521 0,0286 0,0150 0,0076 4 0,0153 0,0902 0,1680 0,1954 0,1755 0,1339 0,0912 0,0573 0,0337 0,0189 5 0,0031 0,0361 0,1008 0,1563 0,1755 0,1606 0,1277 0,0916 0,0607 0,0378 6 0,0005 0,0120 0,0504 0,1042 0,1462 0,1606 0,1490 0,1221 0,0911 0,0631 7 0,0001 0,0034 0,0216 0,0595 0,1044 0,1377 0,1490 0,1396 0,1171 0,0901 8 0,0009 0,0081 0,0298 0,0653 0,1033 0,1304 0,1396 0,1318 0,1126 9 0,0002 0,0027 0,0132 0,0363 0,0688 0,1014 0,1241 0,1318 0,1251
10 0,0008 0,0053 0,0181 0,0413 0,0710 0,0993 0,1186 0,1251 11 0,0002 0,0019 0,0082 0,0225 0,0452 0,0722 0,0970 0,1137 12 0,0001 0,0006 0,0034 0,0113 0,0263 0,0481 0,0728 0,0948 13 0,0002 0,0013 0,0052 0,0142 0,0296 0,0504 0,0729 14 0,0001 0,0005 0,0022 0,0071 0,0169 0,0324 0,0521 15 0,0002 0,0009 0,0033 0,0090 0,0194 0,0347 16 0,0003 0,0014 0,0045 0,0109 0,0217 17 0,0001 0,0006 0,0021 0,0058 0,0128 18 0,0002 0,0009 0,0029 0,0071 19 0,0001 0,0004 0,0014 0,0037 20 0,0002 0,0006 0,0019 21 0,0001 0,0003 0,0009 22 0,0001 0,0004 23 0,0002 24 0,0001
КВМ
531
Додаток 9
Критичні точки dn(1 – α) статистики Dn Колмогорова
α α n 0,10 0,05 0,01
n 0,10 0,05 0,01
1 0,950 0,975 0,995 51 0,168 0,187 0,224 2 ,776 ,842 ,929 52 ,166 ,185 ,222 3 ,636 ,708 ,829 53 ,165 ,183 ,220 4 ,565 ,624 ,734 54 ,163 ,181 ,218 5 ,509 ,563 ,669 55 ,162 ,180 ,216 6 ,468 ,519 ,617 56 ,160 ,178 ,214 7 ,436 ,483 ,576 57 ,159 ,177 ,212 8 ,410 ,454 ,542 58 ,158 ,175 ,210 9 ,387 ,403 ,513 59 ,156 ,174 ,208
10 ,369 ,409 ,489 60 ,155 ,172 ,207 11 ,352 ,391 ,468 61 ,154 ,171 ,205 12 ,338 ,375 ,449 62 ,153 ,170 ,203 13 ,325 ,361 ,432 63 ,151 ,168 ,202 14 ,314 ,349 ,418 64 ,150 ,167 ,200 15 ,304 ,338 ,404 65 ,149 ,166 ,199 16 ,295 ,327 ,392 66 ,148 ,164 ,197 17 ,286 ,318 ,381 67 ,147 ,163 ,196 18 ,279 ,309 ,371 68 ,146 ,162 ,194 19 ,271 ,301 ,361 69 ,145 ,161 ,193 20 ,265 ,294 ,352 70 ,144 ,160 ,192 21 ,259 ,287 ,344 71 ,143 ,159 ,190 22 ,253 ,281 ,337 72 ,142 ,158 ,189 23 ,247 ,275 ,330 73 ,141 ,156 ,188 24 ,242 ,269 ,323 74 ,140 ,155 ,186 25 ,238 ,264 ,317 75 ,139 ,154 ,185 26 ,233 ,259 ,311 76 ,138 ,153 ,184 27 ,229 ,254 ,305 77 ,137 ,152 ,183 28 ,225 ,250 ,300 78 ,136 ,151 ,182 29 ,221 ,246 ,294 79 ,136 ,151 ,181 30 ,218 ,242 ,290 80 ,135 ,150 ,179 31 ,214 ,238 ,285 81 ,134 ,149 ,178 32 ,211 ,234 ,281 82 ,133 ,148 ,177 33 ,208 ,231 ,277 83 ,132 ,147 ,176 34 ,205 ,227 ,273 84 ,131 ,146 ,175 35 ,202 ,224 ,269 85 ,131 ,145 ,174 36 ,199 ,221 ,265 86 ,130 ,144 ,173 37 ,196 ,218 ,262 87 ,129 ,144 ,172 38 ,194 ,215 ,258 88 ,128 ,143 ,171 39 ,191 ,213 ,255 89 ,128 ,142 ,170 40 ,189 ,210 ,252 90 ,127 ,141 ,169 41 ,187 ,208 ,249 91 ,126 ,140 ,168 42 ,185 ,205 ,246 92 ,126 ,140 ,168 43 ,183 ,203 ,243 93 ,125 ,139 ,167 44 ,181 ,201 ,241 94 ,124 ,138 ,166 45 ,179 ,198 ,238 95 ,124 ,137 ,165 46 ,177 ,196 ,235 96 ,123 ,137 ,164 47 ,175 ,194 ,233 97 ,122 ,136 ,163 48 ,173 ,192 ,231 98 ,122 ,135 ,162 49 ,171 ,190 ,228 99 ,121 ,135 ,162 50 ,170 ,188 ,226 100 ,121 ,134 ,161
КВМ
532
Навчальне видання
БОБИК Омелян Іванович БЕРЕГОВА Галина Іванівна КОПИТКО Богдан Іванович
Теорія ймовірностей і математична статистика