329
Ё. И. Гурский ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Допущено Министерством высшего и среднего специального образования СССР в качестве учебного пособия для студентов высших технических учебных заведений ИЗДАТЕЛЬСТВО «ЗЫСШАЯ ШКОЛА» МОСКВА - 1971

ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

  • Upload
    others

  • View
    15

  • Download
    0

Embed Size (px)

Citation preview

Page 1: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Ё. И. Гурский

ТЕОРИЯ ВЕРОЯТНОСТЕЙ

С ЭЛЕМЕНТАМИ МАТЕМАТИЧЕСКОЙ

СТАТИСТИКИ

Д о п у щ е н о Министерством вы сш е го и среднего специального о б р а зо в а н и я С С С Р

в качестве уч е б н о го пособия д л я студентов вы сш и х технических

у ч еб н ы х завед ен ий

И З Д А Т Е Л Ь С Т В О « З ЫС ША Я ШК О Л А » М О С К В А - 1971

Page 2: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

517 8Г 95У Д К 519.2

Гурский Е. И.Г 95 Теория вероятностей с элементами матем ати­

ческой статистики. Учеб. пособие для втузов. М., «Высшая школа», 1971.

328 с. с илл.

В настоящем пособии содерж ится изложение курса теории вероятностей, а такж е элементов теории случайных функций и математической ста­тистики. Помимо теоретического материала, в кни­ге имеется большое количество примеров. Кроме того, в конце к аж дой главы предлагаются вопросы для самопроверки и задачи.

Предназначается для студентов высших т е х ­нических учебных заведений.

2-2-3 • 517.8

42-71

Г у р с к и й Евгений Иванович

ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИМАТЕМАТИЧЕСКОЙ СТАТИСТИКИ

Редактор Д. М. С у х о д с к н йХудожественный редактор В. И П о н о м а р е н к о Художник В В. III л я н д и н Технический редактор Л. Д. М у р а в ь е в а Корректор Н. С, Л о г у н о в а

Сдано в набор 15/IX 197П г. ГІодп. к печати 0/11 1971 г. Формат 8}XIОх1/:;. Объем 10.L'5 печ. л. 17._>J уел. н. ;i. Уч.- изд. л. 15,29. Изд. .V* ФМ-458. Тираж 50 000 экз. Ззк. 1331.

Иона 59 коп.План выпуска литературы издательства «Высшая

школа» (вузы л тіуушкуми) на 1071 год. Позиция X* -!2. • Москва.“ jv5r. ’Пёглинная ул.. д. 20/14.

/UMJtefiLCTBiAVВысшая Школа»

Ордена трудового Красного Знамени Ленинградская ти­пография № 1 «Печатный , Диор» нм. Д. М. Горького Главполнграфпромэ Комитете но печати при Совете Министров СССР, г, Ленинград, Гатчинская ул., 26.

Page 3: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Предисловие

Настоящее учебное пособие возникло на основе курса теории вероятностей, читавшегося автором в течение ряда, лет слушателям Минского высшего ин­женерного радиотехнического училища, а также учебного пособия по некоторым разделам этого курса, изданного учили­щем ограниченным тиражом в 1966 г.

Книга предназначается для лиц, зна­комых с математикой в объеме обычного курса высших технических учебных з а ­ведений. Она является пособием для студентов втузов при изучении вопросов теории вероятностей, элементов теории случайных функций и математической статистики, предусмотренных програм­мами высших технических учебных заве­дений.

Кроме теоретического материала, в конце каждой главы имеются подробно составленные вопросы и предложения для самопроверки, а также приводится достаточное количество задач по каждо­му разделу курса, что в значительной мере исключает использование зад ач ­ника и способствует усвоению излагае­мого материала.

Автор выражает глубокую благодар­ность рецензентам книги академику Б. В. Гнеденко, доценту Р. Я. Шостаку, доценту А. И. Сироте и ст. преподава­телю К. Ш. Ярошевской, прочитавшим рукопись и сделавшим ряд полезных з а ­мечаний.

Лото/)

1*

Page 4: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

В В Е Д Е Н И Е

В научных исследованиях, технике и массовом про­изводстве часто приходится встречаться с явлениями, которые при неоднократном воспроизведении одного и того же опыта в неизменных условиях протекают каждый раз несколько по-ипому. Такие явления называются случай­ными. Так, например, при стрельбе результат каждого отдельного выстрела будет случайным. Производя экспе­риментальное исследование какого-либо явления и систе­матизируя результаты исследования в виде графической зависимости, мы убеждаемся в том, что при достаточно большом количестве экспериментальных точек получается не кривая, а некоторая полоса, т. е. имеет место случайный разброс экспериментальных точек.

При решении многих практических задач этими слу­чайными отклонениями можно пренебречь, предполагая, что в данных условиях опыта явление протекает вполне определенно. Выявляется основная закономерность, свой­ственная данному явлению, по которой, применяя тот или иной математический аппарат, возможно предсказать результат опыта по его заданным условиям.

По мере развития многих отраслей науки становится необходимым изучать случайные явления, с тем чтобы научиться предвидеть действия случайных факторов и учитывать их в практическом решении задач.

Математическая наука, изучающая общие закономерно­сти случайных явлений независимо от их конкретной при­роды и дающая методы количественной оценки влияния случайных факторов на различные явления, называется те­орией вероятностей.

Основой научного исследования в теории вероятностей является опыт и наблюдение. На практике очень часто приходится иметь дело с различными опытами. Опыты могут давать различные результаты в зависимости от того комплекса условий, в которых они происходят. Резуль­таты опыта можно характеризовать качественно и коли­чественно. Качественная характеристика результата опыта есть событие. Например, появление на выходе приемника

Page 5: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

радиопомехи в некотором определенном интервале времени является событием. Попадаппе в цель при выстреле яв­ляется тоже событием. То, что при изменении некоторой величины получена величина меньше некоторого чис­ла а, является событием и т. д.

Количественная характеристика результата опыта, которая может принимать одно из ряда возможных зна­чений, заранее неизвестно какое именно, называется слу ч аи 11 ой величиной.

Случайные величины могут иметь различный харак­тер. Так, например, можно рассматривать скалярные случайные величины, случайные векторы, случайные функции и т. д. Каждое возможное значение скалярной случайной величины есть число. Каждое возможное зна­чение случайного вектора есть вектор, который харак­теризуется совокупностью соответствующего количества чисел (системы случайных величин). Каждое возможное значение случайной функции представляет собой неко­торую конкретную функцию, которая называется реали­зацией случайной функции. Примерами скалярных слу­чайных величин могут служить ошибки измерения длины, веса и т. д. Примерами случайных векторов могут слу­жить совокупности ошибок совместного измерения не­скольких постоянных скалярных величин. Примерами Случайных функций времени являются помехи, которые будут поступать в приемник радиоканала вместе с полез­ным сигналом.

Методы теории вероятностей широко применяются в различных отраслях естествознания и техники. Автома­тическое управление производственными процессами, создание автоматических радиолокационных станций п автоматических математических машин, проблема авто­матического управления полетом самолетов и другие технические проблемы автоматики и телемеханики вы­звали бурное развитие теории автоматического регули­рования как теоретической основы автоматики и теле­механики. Но теория автоматического регулирования не могла достаточно полно охватить процесс работы автоматических систем без использования вероятностных методов (особенно теории случайных функций), так как в любой автоматической системе имеются источники постоянно действующих случайных возмущений, которые оказывают существенное влияние на весь процесс работы системы.

5

Page 6: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Теория вероятностей служит также для обоснования математической и прикладной статистики, которая в свою очередь используется при планировании и органи­зации производства, при анализе технологических про­цессов, при оценке качества продукции и для многих других целей.

Первые работы, в которых зарождались основные понятия теории вероятностей, были связаны с исследо­ванием правил для азартных игр. Работы Паскаля, Ферма и Гюйгенса в середине XVII века являлись осно­вой и началом теории вероятностей.

Дальнейшее развитие теории вероятностей связано с именем Якова Бернулли. Яков Бернулли во второй поло­вине XVII века впервые показал, что с увеличением числа испытаний частота какого-либо случайного собы­тия приобретает устойчивость и определенным образом приближается к некоторому безразмерному числу, кото­рое объективно отражает возможность появления этого события и называется вероятностью.

Математик Муавр в начале XVIII века впервые рассмотрел простейший случай нормального закона, который в настоящее время имеет широкое применение.

Большое значение в развитии теории вероятностен имели работы таких математиков, как Лаплас, Гаусс и Пуассон, которые жили в первой полов-ине XIX века. Лаплас впервые дал стройное и систематическое изло­жение основ теории вероятностей, дал доказательство одной из форм центральной предельной теоремы. Гаусс дал более общее обоснование нормальному закону и раз­работал метод обработки экспериментальных данных. С именем Пуассона связан один из законов распреде­ления, который играет большую роль в теории вероят­ностей и ее приложениях.

В XIX веке вопросами теории вероятностей стали заниматься выдающиеся русские ученые: П. Л. Чебышев и его ученики А. А. Марков и А. М. Ляпунов. Создалась так называемая Петербургская школа теории вероятнос­тей. П. Л. Чебышев ввел в теорию вероятностей понятие случайной величины и метод моментов, что привело к созданию мощного современного аппарата теории веро­ятностей. А. А. Марков в своих трудах существенно расширил область применения закона больших чисел и центральной предельной теоремы. Очень важной заслу­гой А. А. Маркова является то, что он в своих трудах

б

Page 7: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

положил основу для новой области теории вероятно­стей— теории случайных процессов. А. М. Ляпунов известен своим доказательством так называемой централь­ной предельной теоремы п разработкой метода характе- р 11 сти чес к и х фу н к ц и й .

Советская школа теории вероятностей занимает в ми­ровой науке ведущее место. Среди многих ученых — вид­нейших математиков нашей страны, занимавшихся раз­работкой вопросов теории вероятностей, необходимо отметить С. Н. Бернштейна, А. Я- Хинчнна, А. Ы. Кол­могорова, В. И. Романовского, Б. В. Гнеденко, В. С. Пуга­чева.

С. Н. Бернштейн разработал первую закопченную аксиоматику теории вероятностей н существенно расши­рил область применения предельных теорем.

A. Я- Хинчпн известен своими исследованиями в области стационарных случайных процессов, предель­ных теорем теории вероятностей.

Особое значение в развитии теории вероятностей и математической статистики имеют работы А. Ы. Колмо­горова. Он дал наиболее совершенное аксиоматическое построение теории вероятностей. Работы А. Н. Колмого­рова в области теории случайных функций являются основой всех исследований в данной области.

B. И. Романовский известен своими работами в области математической статистики; Б. В. Гнеденко — исследо­ваниями в области предельных теорем теории вероятно­стей, теории массового обслуживания и теории надежно­сти. В. С. Пугачев разработал ряд общих методов в теории случайных функций п применении этих методов при исследовании динамических систем.

Page 8: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ И ОСНОВНЫЕ ПРАВИЛА ЕЕ ВЫЧИСЛЕНИЯ

§ 1.1. СЛУЧАЙНЫЕ СОБЫТИЯ. КЛАССИФИКАЦИЯ СОБЫТИЙ

В основе теории вероятностен, как и в основе любой другой науки, лежат некоторые определения, началь­ные понятия. При помощи этих понятий дается логи­ческое определение последующих более сложных по­нятий.

В качестве одного из основных понятии, которым оперирует теория вероятностей, является событие.

Событием в теории вероятностей называется всякий факт, который может произойти в результате некото­рого опыта (испытания).

Примерами событий могут служить:1. Попадание в цель при выстреле из орудия (опыт —

произведение выстрела, событие — попадание в цель).2. Выпадание двух гербов при трехкратном бросании

монеты (опыт — трехкратное бросание монеты, событие — выпадание двух гербов).

3. Появление ошибки измерения в заданных преде­лах при измерении дальности до цели (опыт — измере­ние дальности, событие— ошибка измерения).

События принято обозначать большими буквами латинского алфавита. Например, событие А — попадание в цель при выстреле, событие В — принятие сигнала радиостанцией при наличии помех и т. д.

Различные события отличаются между собой по сте­пени возможности их появления и по характеру взаи­мосвязи. Д ля правильной ориентировки в теоремах теории вероятностей необходимо разобраться в суще­ствующей классификации событий.

Если при всех опытах (испытаниях) рассматривае­мое событие всегда наступает, то оно называется досто­верным. Например, при взрыве осколочного снаряда достоверное событие — разрушение оболочки; при сбра­сывании бомбы с самолета достоверное событие — паде­ние бомбы па поверхность земли и т. д.

Page 9: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Если при всех опытах рассматриваемое событие ни­когда не наступает, то оно называется невозможным. Например, при отсутствии тока в электрической цепи невозможное событие — загорание лампочки; при под­брасывании игральной кости невозможное событие — од­новременное выпадание 2 и 3 очков и т. д.

Возможным, или случайным, событием называется событие, которое в результате опыта может появиться, по может и не появиться. Например, попадание в цель при выстреле, выигрыш па купленный билет лотереи и т. д.

Два или несколько случайных событий называются равновозможными, если условия их появления одинаковы н нет оснований утверждать, что какое-либо из них в результате опыта имеет больше шансов появиться, чем другое. Например, выпадание любого количества очков от- единицы до шести при подбрасывании игральной кости; выпадание герба и выпадание цифры при под­брасывании монеты п т. д.

Два события А н В называются совместными, если появление одного нз них не исключает появление дру­гого. Например, подбрасываются две игральные кости. Событие А — выпадание 3 очков на первой игральной кости, событие В — 'выпадание 3 очков па второй кости. А и В — совместные события.

Два события А н В называются несовместными, если появление одного из них исключает появление другого. Например, в магазин поступила партия обуви одного фасона и размера, но разного цвета. Событие А — нау­дачу взятая коробка окажется с обувыо черного цвета, событие В — коробка окажется с обувью коричневого цвета. А и В — несовместные события.

Группа событий Ль A S, . . . ,A „ называется группой не­совместных событий, если события, входящие в группу, попарно несовместны. Например, производится выстрел но мишени. /It — попадание в десятку, Л о— попадание в восьмерку, Л;, — попадание в шестерку, А г — попада­ние в четверку, Л5— попадание в двойку, Лс— промах. А\, А іг А;и А .ь А и, Л0 образуют группу несовместных событий.

Группа событий называется группой совместных собы­тий, если совместны хотя бы два события нз этой группы. Например, производится три выстрела по ми­шени. А ( — п опадани е 'в мншеиь при первом выстреле, Ла— попадание в мншеиь при втором выстреле н Л 3 —

9

Page 10: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

попадание в мишень при третьем выстреле. А и А іу А 3 образуют группу совместных событий.

•Несколько событий образуют полную группу, если в результате опыта обязательно наступает хотя бы одно из них. На практике широкое применение находит пол­ная группа несовместных событий.

Пример 1. В урне находится 10 шаров, из них 6 шаров красных, 4 белых, причем 5 шаров имеют номера. А — появление красного шара при одном вынимании, В — появление белого шара, С — появление шара с но­мером. События А , В, С образуют полную группу сов­местных событий.

Пример 2. По цели производится три выстрела. Пусть А обозначает промах, В - одно попадание, С — два по­падания н D — три попадания. События А, В, С и D образуют полную группу несовместных событий.

На практике часто интересуются наступлением двух несовместных событий, образующих полную группу. Такие события называются противоположными. Событие, противоположное событию А, принято обозначать через А. Например, искажение /1 п неискажение А какого-либо зпака_ при телеграфной передаче, попадание В и про­мах В при выстреле по цели и т. д.

§ 1.2. СУММА И ПРОИЗВЕДЕНИЕ СОБЫТИЙ

При разработке аппарата и методики исследования случайных событий в теории вероятностей очень важ ­ным понятием является понятие суммы и произведения событий.

Суммой, или объединением, нескольких событий назы­вается событие, состоящее в наступлении хотя бы одного из этих событий.

Сумма S событий /1, В, С, . . . , N обозначается так:5 = /1 -{- Д С N .

Например, если событие /1 есть попадание в цель при первом выстреле, событие В — попадание в цель при втором выстреле, то событие

С = А - \-В

есть попадание в цель вообще, безразлично, при каком вы­стреле— при первом, при втором или при обоих вместе.

Ю

Page 11: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Произведением, или совмещением, нескольких событий называется событие, состоящее в совместном появлении всех этих событий.

Произведение 5 событии А, В , С, . . . , N обозначается так:

S = A B C . . . N .

Например, если событие А есть попадание в цель при первом выстреле, событие В — попадание в цель при втором выстреле, то событие

С = А В

состоит в том, что в цель попали при обоих выстрелах.При решении различных задач, связанных с событи­

ями, очень часто приходится представлять сложные события в виде комбинации более простых событий, применяя операцию сложения и операцию умножения событий.

Например, пусть по мишени производится три вы­стрела и рассматриваются следующие простейшие собы­тия:

А {— попадание при первом выстреле;А I — промах при первом выстреле;А -2 — попадание при втором выстреле;А >— промах при втором выстреле;А-л — попадание при третьем выстреле;А л — промах при третьем выстреле.Рассмотрим сложное событие В, состоящее в том,

что в результате трех выстрелов будет ровно одно по­падай не в мишень. Событие В можно представить в виде следующей комбинации простейших событий:

В = А 1А л А ц —11- А | А п А з —}— Л 1 /12 А .

Событие С, состоящее в том, что в мишень будет не менее двух попаданий, может быть представлено в виде

С = А\А-2уТл -[- А\ А ■> А ;(-j- A j А -’/1 a -j- А \А.>А,\.

Непосредственно из определения суммы и произве­дения событий следует, что

A -j- А = А ,А А = Л .

В некоторых случаях можно наблюдать, что насту­пление одного события В влечет за собой наступление

11

Page 12: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

другого события А. Тогда говорят, что событие В со­держится в событии А и обозначают это символом

Легко проверить, что если событие В содержалось в событии А, то имеют-место следующие равенства:

А - \ - В = А,АВ — В.

Понятия суммы и - произведения событий имеют на­глядную геометрическую интерпретацию. Действительно,

пусть событие А есть попадание точки в область А, соответственно событие В — попадание в область В, тогда событие А - \ - В есть попадание точки в область, заштрихованную на рис. 1, и событие АВ есть попада­ние точки в область, заштрихованную на рис. 2.

§ 1.3. ЧАСТОТА СОБЫТИЯ И ЕЕ СВОЙСТВА

Пусть произведена серия пз п опытов (испытаний), в каждом нз которых могло появиться пли не появиться некоторое событие А.

Частотой события А п данной серии испытаний называется отношение числа испытаний, в которых по­явилось событие, к числу всех испытаний.

Обозначая частоту события А через Р * (Л), имеем по определению:

где т — число испытаний, в которых появилось собы­тие А, а п — общее число испытаний.

В а А (В содержится в А).

Рис. 1 Рис. 2

12

Page 13: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пример. Д ля контроля качества изделий нз партии . наугад выбрано 100 изделий, среди которых 3 изделия

оказались бракованными. Определить частоту брака.Р е ш е н и е . Обозначая через А событие, состоящее

в получении бракованного изделия, будем иметь: т — 3,/г = 100. Частота брака Р* (Л) — - ^ = 0,03.

Рассмотрим свойства частоты.С в о й с т в о 1. Частота случайного события А есть

неотрицательное число, заключенное между нулем и еди­ницей, т. е.

0 ^ Р * ( А ) ^ 1.

Действительно, случайное событие А в серии из п опытов может наступать от 0 до п раз, т. е.

0 ш ^ п.

Следовательно, частота события А Р * ( А ) ~ — есть неот­рицательное число, заключенное между нулем и еди­ницей.

С в о й с т в о 2. Частота достоверного события равна единице.

Эго свойство вытекает из того, что достоверное собы­тие А наступает при каждом испытании, т е. т — п. Поэтому

Р* (Л) = - = - = 1.х ' п II

С в о й с т в о 3. Частота невозможного события равна нулю.

В самом деле, при повторении опытов невозможное событие ни разу не наступает, т. е. т = 0. Тогда

Р* (А) = ~ = - = 0.' ’ п п

Мы рассмотрели свойства частоты одного события, но па практике могут иметь место случаи, когда в серии из п опытов наступает не одно событие, а несколько событий, которые находятся в каком-либо отношении друг с дру­гом.

Если при повторении опыта может появиться либо событие А, либо событие В, то имеет место следующее свойство частоты, которое называется правилом сложения частот.

13

Page 14: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

С в о й с т в о 4. Частота суммы двух несовместных со­бытий А и В равна сумме частот этих событий:

р * (А + В) = Р * (А ) - \ - Р * (В). (1.1)

Д о к а з а т е л ь с т в о . Пусть в результате серии из п опытов событие А появилось т раз, а событие В — k раз. Это значит, что

P*(A) = j , Р * ( В ) = ~ .

Так как события А и В несовместны, то нет таких опытов, в которых события А и В появились вместе. Поэтому из определения суммы событий следует, что со­бытие А В появилось m -\- k раз, и, следовательно,

Р * ( А -]-В) = ' ^ ~ - .

Подставляя полученные выражения Р* (А), Р* (В) и Р * ( А ~ Г В) в формулу (1.1), получим тождество. Свой­ство доказано.

Рассмотрим теперь появление двух совместных собы­тий А и В в результате повторения опыта. В этом слу­чае мы можем подсчитать ряд частот. Так, например:

1) частоту события А безотносительно к наступлению события В\

2) частоту события В безотносительно к наступлению события /1;

3) частоту произведения событий А и В\4) частоту наступления события А при условии на­

ступления события В или частоту события В при усло­вии наступления события /1.

Частоту одного события, вычисленную при условии наступления другого события, называют условной часто­той и обозначают

Р* (Л \В), Р * ( В \ А ) .

Д ля совместных событий имеет место следующее свой­ство частоты, которое называется правилом умножения частот.

С в о й с т в о 5. Частота произведения двух событий равна произведению частоты одного из них на условную частоту другого

Р* (АВ) = Р* (Л) Р* (.В \ А ) = Р« (В ) Р * (A j В). (1.2)

Page 15: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Д о к а з а т е л ь с т в о . Пусть в результате серии из п опытов событие А появилось т раз и событие В — k раз, причем I раз события А и В появились вместе. Тогда

Р * ( А ) = %, Р * (В ) = | , p * ( A B ) = L .

Так как событие А появилось в т опытах и в / из этих т опытов появилось вместе с ним событие В, то условная частота события В при условии, что событие А

Iимело место, равно —, т. е.

Р* (В ,А ) =Аналогично

p * ( A \ B ) = L .

Подставляя выражения Р* (А В ), Р* (Л), Р * (В), Р * ( В \ А ) и Р * ( А \ В ) в формулу (1.2), получим тожде­ство. Свойство доказано.

§ 1.4. ВЕРОЯТНОСТЬ СОБЫТИЯ

Частоту события можно определить только после про­ведения опытов, н в различных сериях опытов при одних и тех же условиях частота события не остается посто­янной. Поэтому понятие частоты является плохой харак­теристикой события. Однако по мере увеличения числа испытаний, частота постепенно стабилизируется, т. е. принимает значения, мало отличающиеся от некоторого вполне определенного числа. Таким образом, с рассма­триваемым событием можно связать некоторую постоян­ную величину, около которой группируются частоты и которая является характеристикой объективной связи между комплексом условий, при котором производятся опыты, и событием. Эта постоянная величина называется вероятностью события.

Итак, вероятностью случайного события называется постоянное число, около которого группируются частоты этого события по мере увеличения числа испытаний.

Это определение вероятности называется статисти­ческим. Вероятность события А принято обозначать Р (/1). Если речь не идет о каком-нибудь конкретном событии, то вероятность будем обозначать просто через Р или р.

15

Page 16: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Статистический способ определения вероятности имеет то преимущество, что он опирается на реальный экспе­римент. Однако он имеет тот существенный недостаток, что для надежного определения вероятности необходимо проделать большое число опытов, которые очень часто связаны с материальными затратами.

То, что каждое массовое случайное событие имеет свою вероятность, является опытным фактором и под­тверждает существование статистических закономерно­стей в природе.

Иногда из соображений симметрии вероятность собы­тия может быть определена непосредственно. Например, при бросании монеты вероятность появления герба

равна у , так как при большом числе опытов следуетожидать появление герба примерно в половине всех случаев.

Статистическое определение вероятности события хотя и достаточно полно выявляет содержание этого поня­тия, но не дает возможности фактического вычисления вероятности, т. е. не является рабочим определением. Поэтому рассмотрим другое, так называемое классиче­ское определение вероятности события.

Классический способ определения вероятности осно­ван на понятии равновозможных событий, которые яв ­ляются исходом данного опыта и образуют полную группу несовместных событий.

В § 1.1 мы дали определение равновозможных собы­тий и привели несколько примеров. Наиболее простым примером равновозможных и несовместных событий, об­разующих полную группу, является появление того или иного шара из урны, содержащей несколько одинако­вых по размеру, весу и другим осязаемым признакам шаров, тщательно перемешанных перед выниманием.

Поэтому об испытании, исходы которого образуют полную группу несовместных и равповозможных собы­тий, говорят, что оно сводится к схеме урн. Так, напри­мер, испытание с подбрасыванием монеты сводится к схеме .урны, содержащей два шара; испытание с подбра­сыванием игральной кости сводится к схеме урны, со­держащей шесть шаров, и т. д.

Равновозможные и несовместные события, составля­ющие полную группу, будем называть просто случаями или шансами. По отношению к каждому событию слу-

16

Page 17: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

чан (шансы) делятся на благоприятные, при которых это событие происходит, и неблагоприятные, при которых это событие не происходит. Например, при подбрасыва­нии игральной кости событию появления четного числа очков благоприятствуют три случая (2, 4, 6 очков) и не благоприятствуют также три случая (1, 3, 5 очков).

Эти вспомогательные понятия позволяют теперь дать другое определение вероятности появления события.

Вероятностью появления некоторого события назы­вается отношение числа случаев, благоприятствующих по­явлению этого события, к общему числу равновозможных в данном опыте случаев.

Такое определение называется классическим опреде­лением, так как оно являлось определением понятия ве­роятности в начальный период развития теории веро­ятностей. Важным достоинством этого способа определе­ния вероятности является то, что с его помощью веро­ятность события можно определить до опыта и заранее сделать для себя выводы. Однако этот способ имеет тот существенный недостаток, что он применим только тогда, когда мы имеем дело с равновозможными исходами испытания.

Обозначая число случаев, благоприятствующих собы­тию А, через т и общее число равновозможных слу­чаев через я, данное классическое определение вероят­ности можем записать в виде формулы

Рассмотрим примеры решения задач с применением формулы (1-3).

Пример 1. Найти вероятность того, что при бросании игральной кости выпадет число очков, делящееся на 2.

Р е ш е н и е . Обозначим через А выпадание числа очков, делящегося на 2. Число всех равновозможиых случаев п = 6. Число благоприятствующих случаев т — 3 (выпадание 2, 4 и 6 очков). Поэтому

Пример 2. В урне находится 15 шаров, из них 9 крас­ных п 6 синих. Найти вероятность того, что вынутые наугад два шара оба окажутся .красными.

Р е ш е н и е . В данном примере общее число равно­возможных случаев равно числу сочетаний из всего числа

(1.3)

г, 0 17

Page 18: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

шаров по два (/г = С^), поскольку любые два шара из пятнадцати могут быть вынуты с равными шансами. Сле­довательно,

/~>2 /4 J Г. JO* М I А-tl = Cj3 = — = j 2 ~

Обозначим через А событие, состоящее в появлении двух красных шаров; тогда число случаев, благоприятству­ющих событию А, равно числу сочетаний из числа крас­ных шаров по два. Поэтому

~ 0-8 ОР т = С‘9 — — = 36.

Следовательно,Р ( Л ) = “ = З б 12

' ' ti I Оэ Зо

Пример 3. В партии из N изделий имеются М бра­кованных. Из партии выбирается наугад п изделий. Определить вероятность того, что среди этих п изделий будет ровно т бракованных.

Р е ш е и и е. Из условия задачи следует, что М ^ N и т ^ п . Так как любая комбинация из N по п изделий имеет одинаковую возможность появления, то всех равно­возможных случаев будет С’у. Обозначим через А появ­ление т бракованных изделий среди выбранных наугад п изделий. Так как всех бракованных изделий М, то число способов, которыми можно вынуть т бракованных изделий, равно С,” . Но каждый нз этих способов может дополняться любой группой изделий из числа способов, которыми можно вынуть оставшиеся п — т годных из общего числа годных N — М изделий. Число таких групп равно СдСл,. Следовательно, всех случаев, благоприят­ствующих появлению события А, равно

С ГП /-*П — ТПм • Сд'—ЛЬПоэтому

г'Ш /^и — т 'М • ь Лг _ мР (А) =

§ 1.5. ГЕОМЕТРИЧЕСКАЯ ВЕРОЯТНОСТЬ

В классическом определении вероятности рассматри­вается полная группа конечного числа равновозможных событий. На практике же очень часто встречаются такие

18

Page 19: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

испытания, число возможных исходов которых беско­нечно. В таких случаях классическое определение не­применимо. Однако иногда в таких случаях можно вос­пользоваться другим методом вычисления вероятности, в котором rio-прежнему основную роль играет понятие равновозможиости некоторых событий. Применяется этот метод в задачах, сводящихся к случайному бросанию точки на конечный участок прямой, плоскости или простран­ства. Отсюда и возникает само название метода — гео­метрическая вероятность.

Для определения ограничимся двумерным случаем. Одномерный и трехмерный случаи отличаются только тем, что вместо площади в них нужно говорить о длинах и объемах.

Итак, пусть на плоскости имеется некоторая область D, площадь которой S D, и в ней содержится другая область d, площадь которой S (l (рис. 3).В область D наудачу бросает- Ри<-'- 3ся точка. Спрашивается, чемуравна вероятность того, что точка попадет в область d? При этом предполагается, что наудачу брошенная точка может попасть в любую точку области D и вероятность попасть в какую-либо часть области D про­порциональна площади этой части и не зависит от ее расположения и формы. В таком случае вероят­ность попадания в область d при бросании наудачу точки в область D равна

Р = ^'-. (1.4)D

Таким образом, в общем случае, если возможность случайного появления точки внутри некоторой области на прямой, плоскости или в пространстве определяется не положением этой области и ее границами, а только ее размером, т. е. длиной, площадью пли объемом, то вероятность появления случайной точки внутри некото­рой области определяется как отношение размера этой области к размеру всей области, в которой может по­являться данная точка.

Рассмотрим несколько примеров.

19

Page 20: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пример 1. Имеется быстро вращающаяся с постоян­ной угловой скоростью круглая мншеиь. Пятая часть мишени окрашена в черный цвет, а остальная часть ми­шени окрашена в белый цвет (рис. 4). По мишени про­изводится выстрел так, что попадание в мншеиь — собы­

тие достоверное. Требуется определить вероятность попадания в черный сектор мишени.

Р е ш е н не. Обозначая через /1 интересующее нас событие, мы можем сразу же написать, что

Рис. 4 т. е. интересующая нас вероятность получена как отношение площади части

круга, которая окрашена в черный цвет, ко всей его пло­щади. Такое решение приходит в связи с тем, что по­падание пули в какую-либо область мишени (размер пули не учитывается) определяется не положением этой области и ее границами, а только ее размером.

Пример 2 (задача о встрече). Два лица договорилисьо встрече, которая должна произойти в определенном месте в любой момент промежутка времени Т . Опреде­лить вероятность встречи, если моменты прихода каждого лица независимы и время ожида­ния одним другого будет не больше т.

Р е ш е н и е. Обозначим момент прихода одного лица через х, а второго — через у. Чтобы встреча состоялась, необходимо и доста­точно, чтобы

1X — у I ^ ' .

Будем рассматривать х и у как декартовы координаты на пло­скости, всевозможные исходы изобразятся точками квад­рата со стороной Т, а исходы, благоприятствующие встрече, расположатся в заштрихованной области (рис. 5). Искомая вероятность равна отношению площади заштри­хованной фигуры к площади всего квадрата, т. е.

d __Т~ — (7 ')■Т- 1 1

20

Page 21: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пример 3. Какова вероятность, что из трех взятых наудачу отрезков длиной не более / можно построить треугольник?

Р е ш е н и е . Обозначим через дг, у и z длины наудачу взятых отрезков. Возможные их значения: у ^ 1и z< ~l. Предположим, что x - s ^ y ^ z . Тогда для того, чтобы нз этих отрезков можно было составить треугольник, не­обходимо выполнение неравен­ства x-\-y^>z. Будем рассмат­ривать А", у и г как декартовы координаты точки в простран­стве; тогда всевозможные ис­ходы выбора отрезков изобра­зятся точками куба со сторо­ной / (рис. 6). Тройки же чисел (-V, У, г), удовлетворяющие хусловиям „ „J Р а с . о

х ty~%z и х -}- у > z , (1.5)

изобразятся точками заштрихованной пирамиды, объем /* пкоторой равен р,. Ь таком случае вероятность выполне­

ния условий (1.5) будет

По так как число равновозможных упорядоченных рас­положений y~<;X-^z , x ^ Z ' - ^ y и т. д. равно 31, то искомая вероятность

р = р , . 31 = ~ = 1 .

§ 1.6. АКСИОМАТИЧЕСКОЕ ПОСТРОЕНИЕ ТЕОРИИ ВЕРОЯТНОСТЕЙ

Из статистического определения вероятности случай­ного события следует, что вероятность события есть число, около которого устойчиво колеблется частота этого события, наблюдаемая на опыте. Поэтому аксиомы теории вероятностей вводятся таким образом, чтобы ве­роятность события обладала основными свойствами ча­стоты. Только в таком случае данная теория будет хо­рошо согласовываться с опытом.

Исходя из первого свойства частоты, которое утвер­

21

Page 22: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ждает, что частота случайного события есть неотрица­тельное числб, заключенное между нулем и единицей, вводится первая аксиома теории вероятностей.

А к с и о м а 1. Вероятность случайного события А есть неотрицательное число, заключенное между нулем и еди­ницей, т. е.

0 < Р ( Л ) < 1.Следующими двумя свойствами частоты является то,

что частота достоверного события равна единице, а ча­стота невозможного события равна нулю. На этом осно­вании вводятся следующие две аксиомы.

А к с и о м а 2. Вероятность достоверного события равна единице.

А к с и о м а 3. Вероятность невозможного события равна нулю.

Заметим, что если вероятность некоторого события А равна нулю, то это не означает, что событие невозможно. Вероятность Р (А) = 0 означает, что частота события А при достаточно большом числе опытов будет отличаться от нуля на сколь угодно малую величину. Так, напри­мер, если производить стрельбу по мишени, то при каж ­дом выстреле пуля попадает в какую-то точку мишени (размер пули не учитывается). Поэтому событие А — по­падание пули в данную точку мишени есть возможное событие. Однако число точек мпшенн, в которые может по­пасть пуля при повторных выстрелах, настолько велико, что частота попадания в одну и ту же точку практически равна нулю. А это значит, что вероятность Р ( А ) = 0.

Аналогично, если вероятность некоторого события рав­на единице,* то это не означает, что нет таких случаев в результате повторения опытов, когда данное событие не наступает. Так, например, 'если рассматривать событие Л, протнвоположиое_ событию А предыдущего примера, то вероятность Р ( А ) = 1. Но в тех случаях, когда нас­тупает событие А, не наступает ему противоположное событие А.

На основании четвертого свойства частоты, выражаю­щего правило сложения частот, вводится аксиома, ко­торая называется аксиомой сложения вероятностей.

А к с и о м а 4. Вероятность суммы (объединения) двух несовместных событий А и В равна сумме вероятностей этих событий, т. е.

Р ( Л - \ - В ) = Р(А) - ' Г Р(В) . (1.6)

22

Page 23: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пятое свойство частоты состояло в том, что частота произведения двух событий равна произведению одного из них на условную частоту другого:

Р* (АВ) = Р* (А ) Р * (В | А) = Р* (В) Р* (А\ В).

Поэтому для введения аксиомы, соответствующей пя­тому свойству частоты, вводится понятие условной веро­ятности, подобно тому, как вводилась условная частота одного события при наступлении другого.

О п р е д е л е н и е . Вероятность наступления события А , вычисленная при условии наступления другого события В, называется условной вероятностью события А по отноше­нию к событию В и обозначается

Р (А \В).

Теперь сформулируем пятую аксиому, которая назы­вается аксиомой умножения вероятностей.

А к с и о м а 5. Вероятность произведения (совмещения) двух событий равна произведению вероятности одного из них на условную вероятность другого, т. е.

Р (АВ) = Р ( А ) Р ( В | /1) — Р (В) Р (А | В). (1.7)При • дальнейшем изучении вопросов теории вероят­

ностей будем пользоваться изложенными аксиомами. Кроме того, они уже позволяют решать ряд простейших задач.

Пример 1. В урне содержится 10 красных, 15 синих и 5 белых шаров. Из урны наугад вынимается один шар. Требуется найти вероятность того, что этот шар будет красным или белым.

Р е ш е н и е . Обозначим через А событие, состоящее в появлении красного шара, и через В событие, состоя­щее в появлении белого шара. Тогда

^ > = ^ = 4 . р ( В ) = з > = 4 .

События А и В несовместны (появление красного шара исключает появление белого шара и наоборот), поэтому на основании аксиомы сложения вероятностей вероят­ность появления красного или белого шара равна

Р ( А + В) = Р { А) + Р(В) = 1~- | 4 = Т -

Пример 2. На двух автоматических станках изготов­ляются одинаковые детали. Известно, что производи­

Page 24: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

тельность первого станка в два раза больше, чем вто­рого, и что вероятность изготовления детали высшего качества иа первом станке равна 0,96, а па втором — 0,94. Изготовленные за смену па обоих станках нерас- сортпроваппыс детали находятся на складе. Определить вероятность того, что наудачу взятая деталь произве­дена на первом станке и окажется высшего качества.

Р е ш е н и е . Обозначим через Л событие, выражаю­щее то, что наудачу взятая деталь изготовлена па пер­вом станке, а через В — событие, состоящее в том, что деталь высшего качества.

Поскольку деталей, произведенных на первом станке в два раза больше, чем па втором, то вероятность

‘УP ( A ) = -7j. Вероятность наступления сооытия В приусловии, что событие А имело место (условная вероят­ность), равна Р (В j /1) — 0,96.

По аксиоме 5 находим вероятность того, что наудачу взятая деталь окажется произведенной на первом станке и высшего качества

р (АВ) = Р (/1) • Р (В | А) — ~ • 0,96 = 0,64.

§ 1.7. ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ

В этом параграфе мы методом полной математиче­ской индукции обобщим аксиому сложения вероятностей на произвольное число несовместных событий.

Теорема. Вероятность появления одного из нескольких несовместных событий равна сумме вероятностей этих событий:Р (Л, - j - . . . -1- A n-i -|- А н) = Р (Л,) + . . . -j- Р (Ля_,) -j- Р {Ая) .

( 1-8)

Д о к а з а т е л ь с т в о . Пусть теорема имеет место для п — 1 событий:

Р (Л, - | - . . . ■-{- А а- ,) = Р (Л,) + . . . -I- Р (Лд-0. Обозначим

A j —(—. . . —j— А „~] = С,

тогда, в силу аксиомы сложения вероятностей Р (Л 1 Лл—1 + А п) = Р (С -|- А,,) = Р (С) Р {Ан).

24

Page 25: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

НоР (С) = Р (Л, - I - Лп. ,) = Р (/1.) -}-Р (/!„-,).

Следовательно,Р (Л, - f . . . -}- А п-х -}- А„) = Р (Л,) -1 - . . . -j- Р (Лд-,) 4 - Р (Л„),

что и требовалось доказать.Если число несовместных событий, входящих в сумму,

будет бесконечно большим, то распространение правила сложения вероятностей на этот случай устанавливается аксиоматически.

А к с и о м а 6. Вероятность суммы бесконечно большого числа несовместных событий равна сумме вероятностей этих событий:

\ l x l I І IТеперь рассмотрим следствия нз теоремы сложения

вероятностей.С л е д с т в и е 1. Если события Ль Л», . . . , А„ обра­

зуют полную группу несовместных событий, то сумма их вероятностей равна единице:

Р (Ai) -j- Р (Ла) + Р (Л„) = 1.

Д о к а з а т е л ь с т в о . Так как события Л ь Л>, . . . , А п образуют полную группу событий, то их сумма

Л 1 -f- Л-2 - j - . . . -{- Л л,

выражающая появление хотя бы одного из них, яв­ляется достоверным событием. Поэтому

Р (Л, -j- Л, -{- Л„) = 1. (1.9)

Но так как события Ль Л», . . . , А п — несовместные, то, применяя теорему сложения вероятностей (формулу 1.8) к левой части равенства (1.9), получимР (Л, -!- л, - Һ А я) = р (л,) + р (Л,) - ! - . . . + Р (Л„ ) = 1 .

С л е д с т в и е 2. Сумма вероятностей противополож­ных событий равна единице:

Р (Л ) - і - Р (Л) = 1.

Противоположные события представляют собой част- ный случай полной группы несовместных событий, в ко­торой число событий равно двум (см. § 1.1). Поэтому

25

Page 26: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

следствие 2 вытекает из предыдущего следствия и не требует отдельного доказательства.

Заметим, что при решении практических задач часто оказывается легче вычислить вероятность противополож­ного события А, чем вероятность прямого события А. В таких случаях вычисляют Р (Л) п, пользуясь следст­вием 2, находят

Р ( А ) = 1 - Р ( А ) .Рассмотрим примеры.Пример 1. При приемке партии нз 80 изделий, среди

которых 6 бракованных, проверяется 40 наудачу вы­бранных изделий. Определить вероятность того, что пар­тия будет принята, если условиями приема допускается бракованных изделий не более двух среди проверенных.

Р е ш е н и е . Обозначим через А событие, состоящее в том, что при проверке 40 изделий не получено ни одного бракованного изделия, через В — событие, состоя­щее в том, что получено только одно бракованное из­делие, и через С — событие, состоящее в том, что полу­чено два бракованных изделия. События А, В и С не­совместны.

Согласно условиям приема, партия изделий будет , принята, - если будет иметь место событие А~~В~\ ~С. Поэтому, по теореме сложения вероятностей, искомая вероятность

Р = Р (А В -}- С) — Р (Л) Р (В) -j- Р (С).Из 80 изделий 40 изделий можно выбрать СД(J спосо­

бами. Из 74 иебракованиых изделий 40 изделий можно выбрать С~1 способами. Следовательно,

Аналогично

. гмР ( А ) = е &^ Ч.)

Р ( В ) = СЛ £ ± и Р(С) = % 3m i

ПоэтомуР = Р ( А ) + Р (В) Р (С) = Р + 0,337.

° »0 ^ so ° оПример 2. Производится один выстрел по круговой '

мишени, состоящей из яблока и двух концентрических колец. Вероятности попадания при одном выстреле в яблоко и в кольца соответственно равны 0,11; 0,24; 0,35. Найти вероятность промаха.

26

Page 27: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Р е ш е н и е . Обозначим через А промах, тогда А — попадание в мишень. Следовательно,

А — А\ -j- А.2 -j- Л3,где Ль /Ь. Л3 — попадания соответственно в яблоко и в концентрические кольца. Так как события Ль Л.>, Л3 несовместны, то

Р (А) = Р (/{, 4- А.2 -j- /1,) = Р (/!,)-{- Р (Л,) - f Р (Л'з) = = 0,11 -Ь 0,24 -{-0,35 = 0,7,

откудаР (Л) = 1 — Р ( Л) = 1 — 0,7 = 0 , 3 .

§ 1.8. ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ

Прежде чем рассматривать теорему умножения веро­ятностей, введем понятие о независимых и зависимых событиях, которое является очень важным при даль­нейшем изучении вопросов теории вероятностей.

О п р е д е л е н и е . Событие А называется независимым по отношению к событию В, если вероятность события А не зависит от того, произошло событие В или нет. В про­тивном случае событие А называется зависимым от собы­тия В.

Рассмотрим примеры.Пример 1. В урне находятся 3 белых и 4 черных

шара. Из урны наудачу берут один шар, затем взятый шар возвращают в урну и испытание повторяют. Собы­тие В — появление белого шара при первом испытании, событие А — появление белого шара при втором испы­тании. Очевидно, вероятность события Л І Р ( Л ) = ~ | независит от результата первого испытания. Таким обра­зом, событие А независимо от события В.

Пример 2. В ящике содержится 80 радиоламп, из них 70 стандартных и 10 нестандартных. Наудачу берут одну лампу, затем не возвращая лампы в ящик, испы­тание повторяют. Событие В — появление стандартной лампы при первом испытании, событие А — появление стандартной лампы при втором испытании. Вероятность появления события А при условии, что событие В прои­зошло, равна

Р (Л) = у у .

27

Page 28: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Если же в первом испытании событие В не произошло(вынута нестандартная лампа), то вероятность Р (Л) = ^ .Таким образом, вероятность появления события А зави­сит от того, произошло событие В или пет. Это значит, что событие А зависит от события В.

Математически условие независимости события А от события В записывают в виде:

Р ( А \ В ) = Р( А) ,

а условие зависимости — в виде:Р (А | В) г- Р (/1).

Теорема. Вероятность произведения, или совместного наступления, нескольких событий равна произведению веро­ятности одного из них на условные вероятности осталь­ных событий, вычисленные в предположении, что все пред­шествующие события имели место:Р (A\A-i . . . А п) — Р (Ai) Р (/1*21 А\) . . . Р (Ля \ А у А л . . . Лл_і).

(1 . 10)

Д о к а з а т е л ь с т в о . Д ля доказательства теоремы применим метод полной математической индукции.

Пусть теорема имеет место для п — 1 событий:Р (А, А, ■ ■ • А п- \ ) = Р (Л,) Р (Л,| Л , ) . . . Р (Ля_, 1 Л , Л , . . . Л„_о).

Введем событие С как произведение п — 1 событий Л 1 Л ». . . А п~\.

С = Л, Ло . . . Л„_ 1.

Тогда в силу аксиомы умножения вероятностей Р ( Л ,Л , . . . А а~\А„) = Р (.САа) = Р (С) Р (Аа | С).

НоР ( С ) = Р (Л, Л о . . . Л„_,) = Р (Л,) Р (Л, | Л , ) . . .

. . . Р (Л/г- і } Лі Л* • • ■ Л„-а),следовательно,Р (Л, Л , . . . Л „ - ,Л „ )= Р (Л,) Р (Л,! Л , ) . . . Р (Ля ! А х А , . . . Ля_,).

Теорема доказана.Рассмотрим теперь несколько важных следствий из

аксиомы и теоремы умножения вероятностей.С л е д с т в и е 1. Если событие А не зависит от собы­

тия В, то и событие В не зависит от события А.

28

Page 29: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Д о к а з а т е л ь с т в о . Так как событие /1 не зависит от события В, то

Р ( А ) = Р ( А \ В ) . (1.11)

На основании аксиомы умножения вероятностей имеем:

Р (А) Р ( В \ А ) = Р (В) Р ( A \ B ) t

или, согласно условию (1.11),Р ( А ) Р ( В \ А ) = Р ( В) Р (А).

Разделив обе части этого равенства на Р (А), получим: Р ( В \ А ) = Р ( В ) ,

что и требовалось доказать.Таким образом, из следствия 1 вытекает, что поня­

тие зависимости и независимости событий взаимно. В связи с этим можно дать повое определение незави­симых событий.

О п р е д е л е н и е . Два события называются независи­мыми, если появление одного из них не изменяет вероят­ности появления другого.

Распространим понятие независимости событий па случай произвольного числа событий.

Несколько событий называют независимыми в сово­купности, если каждое из них и любая комбинация остальных событий, содержащая либо все остальные события, либо часть из ипх, есть события независимые. Например, если события А {, А> и Л3 независимые в сово­купности, то это значит, что будут независимыми сле­дующие события:

А{ и А-2, Л, и Лз, А,-2 н А%, А\Ал и А з, Л,Лз и /1_>, А*АЛ и А\.

С л е д с т в и е 2. Вероятность произведения независи­мых в совокупности событий равна произведению вероятно­стей этих событий, т. е. для независимых событий фор­мула (1.10) принимает вид:

Р (Л ,Л , . . . А„) = Р (Л,) Р (Л,) . . . Я ( Ап). (1.12)

Справедливость этого следствия вытекает непосред­ственно нз определения независимых событий.

Рассмотрим примеры на применение теоремы умно­жения вероятностей.

Page 30: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пример 3. В механизм входят три одинаковые детали. Работа механизма нарушается, если при его сборке будут поставлены все три детали размера больше обоз­наченного на чертеже. У сбсрщкка осталось 15 деталей, из которых 5 большего размера. Найти вероятность ненормальной работы первого собранного нз этих дета­лей механизма, если сборщик берет детали наудачу.

Р е ш е н и е . Обозначим через А событие ненормальной работы первого собранного механизма, а через Ль Л.> и А л — события, состоящие в том, что первая, вторая и третья детали соответственно, поставленные в механизм, большего размера. Тогда

А = A J Л-> Л

так как событие А наступает при условии одновремен­ного наступления событий А \, Л.> и Л3. По теореме умно­жения находим

р \ А ) = Р (Л,А.Л») = Р (Л,) Р (Л, 1 Лі) Р (Л3; Л,Л,) =

Пример 4. Станок-автомат штампует детали. Вероят­ность того, что за смену не будет выпущено ни одной нестандартной детали, равна 0,9. Определить вероят­ность того, что за три смены lie будет выпущено ни одной нестандартной детали.

Р е ш е н и е . Обозначим через Л событие, заключаю­щееся в том, что за три смены не будет выпущено ни одной нестандартной детали, а через Ль Л.>, Л;( — собы­тия, заключающиеся в том, что за соответствующую смену не будет выпущено пн одной нестандартной детали.

Т огдаЛ = Л,Л,Л:ь

так как событие Л наступает при условии одновремен­ного наступления событий ЛіЛ* и Л3. Заметим, что собы­тия Л 1Л а, Л; | являются независимыми, ибо вероятности наступления каждого из» этих событий равны 0,9 и не зависят от того, имели место два других события или нет.

Поэтому по теореме умножения вероятностей для независимых событий имеем:

р (Л) = Р ( А , А , Аг) = Р (Л0 Р (Ла) Р (Ла) = 0.91 = 0,729.

30

Page 31: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 1.9. ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ ДЛЯ СОВМЕСТНЫХ СОБЫТИЙ

В § 1.7 была рассмотрена теорема сложения вероят­ностен для несовместных событий. Пользуясь теоремой сложения вероятностен для несовместных событий, вместе с теоремой умножения докажем следующую теорему сло­жения вероятностей для совместных событий.

Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления:

Р (А + В) = Р (А) -{- Р (В) - Р (А В ). (1.13)

Д о к а з а т е л ь с т в о . Д ля наступления события А достаточно, чтобы произошло хотя бы одно из следую­щих несовместных событий: А В или А В . Аналогично, для наступления события В достаточно, чтобы произошло хотя бы одно из следующих несовместных событий: АВ или А В.

Поэтому на основании правила сложения вероятностей для несовместных событий имеем:

Р ( А ) = Р(АВ) + Р{АВ) (1.14)и

Р(В) = Р ( А В ) + Р( А В ) . (1.15)Д ля наступления хотя бы одного нз событий А или

В достаточно, чтобы произошло одно из трех попарно несовместных событий АВ, АВ, АВ. Поэтому вероят­ность Р (/1 -j- В) равна сумме вероятностей трех собы­тий, т. е.

Р (А -І- В) = Р (АВ) Р (АВ) -i- Р (АВ). (1.16)

Сложив равенства (1.14) и (1.15), найдем:

Р (АВ) - f Р (АВ) = Р (Л) р (В) - 2Р (АВ).

Подставив это выражение в (1.16), получим:Р (A - f В) = Р (Л) -J- Р (В) — Р (АВ).

Теорема доказана.Формула (1.13) имеет простую геометрическую интер­

претацию (см. рис. 7).Методом полной математической индукции получен­

ную формулу (1.13) можно обобщить на случай верояі-

31

Page 32: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

пости суммы произвольного числа совместных событий. При этом будем иметь:

Р (Л, л., - j - . . . + Л„) = Р (Л,) + Р (Л2) + . . .. . . + Р (Л„) - Р (Л, л.) - Р (Л,/ 1 ; , ) Л„) +

Р (Лi/I*/1а) -р . ..-{- Р (Лп„іЛЯ-іЛ л) — . . .. . . + { - \ ) пР { А і А г . . . Л п). (1.17)

Заметим, что при решении задач с использованием формулы (1.17) часто приходится производить громозд­кие вычисления, поэтому лучше перейти к противо­

положному событию. В таком случаеР (Лд -j- А-2- j - . . . А п) = 1 — Р (ЛуАо. . . Л„). (1.18)

Пример 1. Производится два выстрела по одной и той же мишени. Вероятность попадания при первом выстреле равна 0,6, для второго — 0,8. Найти вероятность того, что в мишени будет хотя бы одна пробоина.

Р е ш е н п е. Рассмотрим событие Л — попадание при первом выстреле и событие В — попадание при втором выстреле. Их вероятности

р (Л) = 0 , 6 , Р(В) = 0,8.Так как Л и В являются совместными и независимыми событиями, то вероятность того, что в мишени будет хотя бы одна пробоина, согласно формуле (1.13), равна

Р (/1 -I- В) = Р (А) + Р (В) - Р (Л) Р (В) == 0,6 -|- 0,8 — 0,6 • 0,8 = 0,92.

Если же перейти к противоположному событию, то применяя формулу (1.18) для случая двух событий, получим:

Р (А + В) = 1 - Р (Л) Р (В)— \ — 0,4 • 0,2 = 0,92.Пример 2. Рабочий обслуживает четыре станка, рабо­

тающих независимо друг от друга. Вероятность того,

32

Page 33: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

что в течение часа первый станок не потребует внима­ния рабочего, равна 0,92, для второго— такая вероят­ность равна 0,9, для третьего — 0,85 и для четвер­то го — 0,8. Какова вероятность того, что в течение часа хотя бы одни станок не потребует внимания рабочего?

Р е ш е н и е . Обозначим через А событие, выражающее то, что-в течение часа хотя бы один станок не потре­бует внимания рабочего, а через А , А>, А» и А.% обоз­начим соответственно события, заключающиеся в том, что первый, второй, третий и четвертый станок в тече­ние часа не потребует внимания рабочего. Так как все четыре станка работают независимо друг от друга и могут потребовать внимания рабочего одновременно, то А 1, До, А л и А.і являются независимыми, но совместными событиями. Их вероятности Я (А ) = 0,92; Я (А.) = 0,9; Я (А ) = 0,85; Я(А,) = 0,8. Согласно обозначениям имеем:

А = A -j- А> -{- At -j - Аьоткуда

Я (А) = Я ( А -j- А-2 -\- At “Ь А ) •При вычислении вероятности Р (А) с применением фор­мулы (1.17) придется производить довольно много вычис­лений, поэтому здесь целесообразно перейти от прямого события к противоположному событию А (что ни один станок не проработает без вмешательства рабочего). Очевидно,

А = .АА^АіАі*Вероятность того, что первый станок не прорабо­

тает в течение часа без вмешательства рабочего, Я (А ) = = 1 — Я (Л) == 1 — 0,92 = 0,08; второй: Я (А,) = 1 — 0,9 = = 0,1; третий: Я(/1 :1) = 1 — 0,85 = 0,15 и четвертый:Р (At) = 1 — 0,8 = 0,2. Из независимости событий А , А>, А , А следует независимость противоположных имсобытий А , А», А а, А .

Следовательно, по теореме умножения для независимых событий имеем:

Р (А) = Я (Л, А .А А ) = 0,08 • 0,1 • 0,15 • 0,2 = 0,00024.А вероятность того, что в течение часа хотя бы одни станок не потребует внимания рабочего, равна

Я (Л) = 1 — 0,00024 = 0,99976, т. е. событие А практически почти достоверно.

2 Гурский 33

Page 34: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 1.10. ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ

Пусть некоторое интересующее нас событие А может наступить или не наступить с одним из ряда несовмест­ных событий

Ни Я * , . . . , Нт

составляющих полную группу. События такого ряда обычно называют гипотезами. Вероятности всех гипотез известны, т. е. даны Р (Н j), Р (Я >), . . . , Р (Н„). Известны также условные вероятности наступления события А при осуществлении каждой из указанных гипотез, т. е. даны Р (А/Ну), Р ( А ( Н Р ( А ( Н п). Вероятность интересу­ющего нас события А определяется по следующей тео­реме.

Теорема. Вероятность события А, которое может произойти вместе с одной из гипотез Ну, # • > , . . Нп, равна сумме парных произведений вероятностей каждой из этих гипотез на отвечающие им условные вероятности наступления события А:

Р(Л) = 2 РШ,)Р(А1Н,). (1.19)1=1

Формула (1.19) носит название формулы полной вероят­ности.

Д о к а з а т е л ь с т в о . Так как гипотезы Ну, Н о, . . . . . . , Н п образуют полную группу, то событие А можно представить в виде следующей суммы событий:

А = АН у Н- А Н о + А Н п = А Н і .і— I

Поскольку события Hi несовместны, то и события A H t ( / = . 1 , 2 , . . . , п) также несовместны. Эго обстоятельство позволяет применить для определения вероятности собы­тия А теорему сложения вероятностей несовместных событий (1.8):

И

Р'уа ) = У і Р ( А Н і). (1.20)і = I

Вероятность же произведения событий А и Я,- находится по аксиоме умножения вероятностей (1.7):

Р (AHi) = Р (Hi) Р (А/Я,-).

34

Page 35: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Подставляя последнее выражение в формулу (1.20), полу­чим:

что и требовалось доказать.Пример 1. В цехе три типа автоматических станков

производят одни п те же детали. Производительность их одинакова, но качество работы различно. Известно, что станки первого типа производят 0,94 деталей отлич­ного качества, второго — 0,9 и третьего — 0,85. Все произведенные в цехе за смену детали в нерассортиро- ваниом виде сложены па складе. Определить вероятность того, что взятая наудачу деталь окажется отличного качества, если станков первого типа 5 шт., второго — — 3 шт., и третьего — 2 шт.

Р е ш е н и е . Пусть событие А состоит в том, что наудачу взятая деталь окажется отлпчпого качества.Рассмотрим три гипотезы:

Н 1 — наудачу взятая деталь произведена станкамипервого типа;

Н*— наудачу взятая деталь произведена станкамивторого типа;

Я:t — наудачу взятая деталь произведена станкамитретьего типа.

Учитывая количественное соотношение станков в цехе и то, что производительность их одинакова, находим:

Я (/■/,) = 4 , р т = щ . / > ( / / » > = ? = i .

Условные вероятности события при этпХ гипотезах соот­ветственно равны

Р (А | //,) = 0,94; Р (А | // ,) = 0,9;По формуле полной вероятности

-І- - 0 , 9 4 + 'І . 0 , 9 + 1Р ( А )

Я (Л I /-/:,) = 0,85.

0,85 = 0,91,

§ 1.11. ТЕОРЕМА ГИПОТЕЗ (ФОРМУЛА БЕЙЕСА)

До сих пор мы рассматривали вероятности событий до испытаний, т. е. в комплексе условий не фигури­ровал результат проведенного опыта.

Поставим теперь следующую задачу. Имеется полная группа несовместных гипотез I Iь II-, //„. Известны

2*

Page 36: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

вероятности каждой из гипотез Р (Ні), Р (Я2), , Р (Н п).Производится опыт и в его результате осуществляется некоторое событие А, вероятности которого по каждой из гипотез известны, т. е. известны Р {А | Н\), Р (А | Но), . . .

Р ( А \ Н п).Спрашивается, какие вероятности имеют гипотезы Я {-

(£ = Д , 2, . . . , п) в связи с появлением события А? Д р у ­гими словами, нас интересуют условные вероятности Р (Hi | А) для каждой гипотезы.

Ответ на поставленную задачу дает следующая тео­рема гипотез.

Теорема гипотез. Вероятность гипотезы после испыта­ния равна произведению вероятности гипотезы до испы­тания на соответствующую ей условную вероятность события, которое произошло при испытании, деленному на полную вероятность этого события:

Р{Иі \А) = - пР-(Ні)Р{Л]Ні) . (1.21)2 Р{Ні) Р ( А \ Н і)

1 = I

Формула (1.21) носит название формулы Бейеса.Д о к а з а т е л ь с т в о . На основании . .°.<сиомы умно­

жения оероятиостей (1.7) имеем:Р ( А ) Р ( Н І \А) = Р ( Н І) Р ( А \ Н І).

Разрешая это уравнение относительно Р (Hi | А) при усло­вии, что Р (А) Ф 0, получим:

Р Ш 1\А) = Р(Н‘' ™ ,Н'>.

Выражая Р (/1) с помощью формулы полной вероят­ности (1.18), получим доказываемое равенство:

P ( H l \A) = ~ P H‘) P W H ‘) .2 P W i ) P ( A \ H , )

І = 1

В частном случае, если все гипотезы H i ( i — 1, 2, . . . , п ) до испытания имеют одинаковую вероятность Р ( / / , ) = /Л формула (1.21) принимает вид:

Р (Ні \А) = - р Л 1 Н,) . (1.22)2 р(л\11о

<•=-, I

Рассмотрим примеры па применение теоремы гипотез.

Page 37: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пример 1. В трех ящиках находятся однотипные изделия: в первом 10 изделий, из них 3 нестандартных, во втором 15 изделий, из них 5 нестандартных п в третьем 20 изделий, из них 6 нестандартных. Наудачу выбирается одно изделие и оно оказалось нестандартное. Определить вероятность того, что взятое изделие при­надлежало второму ящику.

Р е ш е н и е. Обозначим через Я ь Яо, Я 3 соответст­венно гипотезы о том, что наудачу взятое изделие при­надлежало первому, второму, третьему ящикам. Тогда вероятности этих гипотез до проведения испытания

- .. 1 равны между сооои и равны у , т. е.

p ( f l , ) = p ( f t j = p ( « , ) = 4 .

В результате испытания наблюдается событие А, состоя­щее в том, что наудачу выбранное изделие является нестандартным. Условные вероятности этого события при гипотезах Н \, Н<>, Я 3 соответственно равны:

Р(Л!Я,) = ід, Р{Л|Я.;) = ! = 4 , />(Л|Я„) = АПо формуле (1.22) находим вероятность гипотезы Я.3 после испытания:

\_3 5Р(Н,\А)

A l l I 1 _ І4 10+ 3 + 10

Пример 2. Вероятность удовлетворять стандарту для изделий некоторого производства равна 0,9. Предла­гается упрощенная система проверки на стандартность, дающая положительный результат с вероятностью 0,95 для изделий, удовлетворяющих стандарту, а для изде­лий, которые не удовлетворяют стандарту, с вероят­ностью 0,15. Найти вероятность того, что изделие, признанное при проверке стандартным, действительно удовлетворяет стандарту.

Р е ш е н и е . Обозначим через Hi гипотезу о том, что изделие удовлетворяет стандарту, п через Я 2— гипотезу о том, что изделие пе удовлетворяет стандарту. Эти гипотезы единственно возможны и несовместны. Нам дано, что Р (Я 1) = 0,9. Так как

Р (//,) + Я (Яа) = 1,получим, что

Р (Я,) = 1 - Р (Яі) = 1 - 0,9 = 0 , 1 .

37

Page 38: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Обозначим через А событие, состоящее в том, что изделие будет признано при проверке стандартным. По условию Р (/11 Hi) — 0,95; Р (А \ Но) = 0,15. 7'ребуется найти условную вероятность того, что изделие, при­знанное стандартным, действительно удовлетворяет стан­дарту, т. е. найти Р (НУ\А) . По формуле (1.21) полу­чаем:

Р ( H i ! А ) = о,9 .0 ,9 5 -1-0,1 - 0,15 ~

Это означает, что на каждую сотню принятых деталей стандартных будет примерно 98.

§ 1.12. ПОВТОРЕНИЕ ИСПЫТАНИИ. ФОРМУЛА БЕРНУЛЛИ

Пусть производится несколько испытаний, в резуль­тате которых может появиться событие А с определен­ной вероятностью. Если вероятность события А в каждом испытании пе зависит от исходов других испытаний, то "такие испытания называются независимыми относи­тельно события А .

Поставим следующую задачу.Определить вероятность того, что в результате про­

ведения п независимых испытаний некоторое событие А наступит ровно т раз, если в каждом из этих испыта­ний данное событие наступает с постоянной вероятностью Р ( А ) = р.

Искомую вероятность будем обозначать Р„ип. Напри­мер, символ Р i, ю означает, что в десяти испытаниях событие А появится ровно" 4 раза.

Непосредственное применение теорем сложения и умножения вероятностей для решения поставленной задачи с увеличением числа испытаний приводит к очень громоздким вычислениям. Поэтому возникает необходи­мость применения менее трудоемких способов расчета. Один из таких способов ссповап на применении фор­мулы Бернулли.

Вывод формулы Бернулли. Предположим, что в оди­наковых условиях производится 11 независимых испыта­ний, результатом каждого из которых может быть на­ступление либо события А с вероятностью Р ( А) — р, либо ему противоположного А с вероятностью Р (А) = = 1 — р. Обозначим через А,- ( / = 1 , 2, . . . , п) насту пле-

3S

Page 39: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

пне события /1 в i-м испытании. В силу постоянства условий испытания

Р ( А 1) = Р Ш = . . . = Р ( А к) = р,Р (At) = Р (Л,) = . . . = / > (Ап) = 1 - р.

Нас интересует вероятность того, что событие А при п испытаниях наступает ровно т раз, а в оставшихся п — т испытаниях наступит ему противоположное собы­тие А. При этом событие А в п испытаниях может по­явиться ровно т раз в разных последовательностях или комбинациях, число которых равно числу сочетаний нз п элементов по т, т. е. С™. Примером такой комбина­ции может служить событие В, при котором событие А наступает подряд т раз, начиная с первого испытания:

В = А\А* . . . Л,п А т 1-1 . .. А,у (1.23)

т раз п — т раз

По условию испытания независимы. Это значит, что независимы события, входящие в комбинацию (1.23), поэтому, используя теорему умножения для независимых событий, получим:

Р (В) = Р (At) Р (А«) . . . Р (Ат) Р (А,,и) . . . Я (Ап) == р'» (1

Так как все комбинации событий, подобные комби­нации В, являются несовместными событиями и нам безразлично, в какой именно последовательности по­явится событие А и в какой последовательности появится противоположное ему событие А, то, применяя теорему сложения вероятностей для несовместных событии, получим:

Р /^т т / 1 \П — тШшП = Са р (1 — /;) =

= Л (1.24)

Полученная формула (1.24) носит название формулы Бернулли.

Формула Бернулли имеет очень важное значение в теории вероятностей, так как она связана с повторе­нием испытаний в одинаковых условиях, т. е. с такими условиями, в которых как- раз и проявляются законы теор I ш вер оят и осте й .

ЗУ

Page 40: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Так как события, состоящие в различном числе по­явления события А в серии пз п испытаний, несов­местны и образуют полную группу, то

П П

= ( і _ р ) в + г і р о - р ) ' * - 1-!-- . .. . .- i- O "1 (1 .. + //*=!. (1.25)п — /7) I

Обозначая 1 — p — q, нетрудно заметить, что члены суммы (1.25) совпадают с членами разложения бинома

В связи с этим распределение вероятностей (1.25) назы­вают биномиальным распределением.

Отмеченное совпадение позволяет ввести для вычис­ления вероятное гей возможного числа наступлении собы­тия А в серии пз п независимых испытаний так назы­ваемую производящую функцию <рЛ (х):

Эта функция обладает тем свойством, что коэффициент при хт в разложении (1.2G) равен вероятности наступ­ления события /1 ровно т раз в серии из п независи­мых испытаний, проводимых в переменных условиях. Так, например, если вероятность появления события А в i-м опыте Р(А;) = р1 и вероятность непоявления р (А і) = 1 — pi — qit то вероятность того, что событие А появится ровно т раз в п независимых испытаниях, равна коэффициенту при х"‘ в разложении по степеням .t производящей функции

9п (*) = (<7i 4 - Р\Х) (</■> - г рчх) . . . (дп + рпх) ■ (1.27)

Рассмотрим примеры.Пример 1. Вероятность изготовления на автоматиче­

ском станке стандартной детали равна 0,9. Определить вероятность того, что пз 6 наудачу взятых деталей 4 окажутся стандартными.

Р е ш е н и е. Условие задачи соответствует схеме пов­торных испытаний в одинаковых условиях. Поэтому,

(1.26)

40

Page 41: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

применяя формулу (1.24) при п = 6, т — 4 и р = 0,9, получим:

P M = Q (0,9)’ (0,1)-' = 0 ,0984.

Пример 2. Четыре стрелка независимо один от дру­гого производят по одному выстрелу по общей мишени. Вероятность попадания в мишень для первого стрелка равна 0,8, для второго — 0,7, для третьего — 0,6 и для

.четвертого — 0,5. Найти вероятность того, что в мишени будет ровно 2 пробоины.

Р е ш е н и е . Так как вероятности попадания для стрелков различны, т. е. испытания происходят в пере­менных условиях, то для решения задачи применим про­изводящую функцию. Согласно условию, производящая функция (1.27) для данного примера имеет вид

'fi (*) = -(0 ,2 - f 0,8а-) (0,3 -!- 0,7*) (0,4 0,6*) (0,5 + 0,5*) == 0,012 - | - 0 , 1 Об* - г 0, 32л-- Л- 0,394*' -j- 0,168**.

Коэффициент при *■ является искомой вероятностью, т. е.р , 1 = 0,32.

Пример 3. Найти распределение вероятностей числа попаданий в цель при пяти независимых выстрелах, если вероятность попадания в цель при одном выстреле равна 0,6.

Р е ш е н и е . По условию, п = 5, /; = 0,6 и q = 0,4. Следовательно, применяя производящую функцию (1.26), получим:

о , (* ) = (0,4 0,6*)г, = 0,01024 - I - 0,0768*0,2304*- -j- 0,3456*3 - г 0.2592*1 -j- 0,07776*'*.

Искомые вероятности являются коэффициентами при *”': P 0t5== 0,01024; Р,. 5 = 0,0768; Р , ,5 = 0,2304;Р а. я = 0,3456; Р.1.5 = 0,2592; Р 3> 3 = 0,07776.

П р о в е р к а :5

2 Рт, Я = 0,01024 4 - 0,0768 -I- 0,2304 -{-т =*•-()

0,3456 4 - 0,2592 0,07776 = 1.

Решение проведено правильно. Как видно из решения, наиболее вероятное число попаданий равно трем.

41

Page 42: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 1.13. НАИВЕРОЯТНЕЙШЕЕ ЧИСЛО НАСТУПЛЕНИЙ СОБЫТИЯ ПРИ ПОВТОРЕНИИ ИСПЫТАНИЙ

О п р е д е л е н и е . Наивероятнейшим числом т0 появ­ления события А в п независимых испытаниях называется число, для которого вероятность Рт<п превышает или, по крайней мере, не меньше вероятности каждого из остальных возможных исходов испытаний.

При решении примера 3 предыдущего параграфа, сравнивая вероятности числа попаданий при пяти вы­стрелах, мы получим иапвероятпейшее число. пи = 3. Оказывается, что для определения панвероятнейшего числа вовсе не нужно вычислять вероятности различных комбинаций появления события А, а достаточно знать число испытаний п и вероятность появления события А в одном испытании.

Действительно, пусть наивероятнейшему числу т0 соответствует вероятность

) г™о пт° ,.п ~ — ”‘пт0. n — n P q — ,Ло, (л _ щ) , Р Я

Тогда, согласно определению панвероятнейшего числа, вероятности наступления события А //г0 —f— 1 и //г0— 1 разне должны превышать вероятность а, т. е. должнывыполняться условия:

РШ(|. П ^ Р/По -}- J, П> (1 .28)Рто. а ^ Р то-1.п- (1-29)

На основании неравенства (1.28) по формуле Бернулли получаем:

п,,1°Оп — Г>1° -------------—------------- П,п0 *п’1 — т0 — ІЧ " " (т . _L 1 М 1,1 — ,п. — П I У Ч »то- (П — 111 о) ! (w0 -f 1)! {п — ш0 — 1)

откуда (после сокращения)__Q__ ___Р_____п — ///„ ''*■ ///«, -|- I

Разрешая это неравенство относительно т0> получаем:

п һ ^ п р — q. (1.30)

Аналогичным образом пз неравенства (1.29) получаем:

_____ —------ п'г,ип11 —111 и ------------- —________ л'«а — — то ^/;/0! (л - т 0) 1 Р 4 (/н0 - 1) (п - т 0 + 1)!

Page 43: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

откудаР . ___ О///„ и — /«„ -j- I

IIWo ^ пр - f р. (1.31)

Объединяя неравенства (1.30) и (1.31), получим:

пр — q -С. то ^ , пр -|- р. (1.32)

Это двойное неравенство и служит для определения иаивероятнешиего числа.

З а м е ч а н и е . Длниа интервала, определяемого не­равенством (1.32), равна единице:

(пр + р) — (пр — q) = р -}- q = 1.

Поэтому, если границы этого интервала есть дробные числа, то мы получаем одно значение наивероятнейшего числа ///,., если же границы являются целыми числами, то получаем два значения наивероятнейшего числа:

т'„ = пр р, m l = пр — q.

Пример 1. При данном технологическом процессе 85% всей произведенной продукции - высшего сорта. Найти иаивероятпейшее число изделий высшего сорта в партии из 150 изделий.

Р е ш е н и е . По условиям примера п = 150, р = 0,85, < 7 = 1 — 0,85 = 0,15. Согласно неравенству (1.32) имеем:

150 • 0,85 — 0,15 - с ///о <-150 • 0,85 0,85,откуда

1 2 7 , 3 5 /«о < 123,35.Следовательно, иаивероятпейшее число изделий высшего сорта в партии пз 150 изделий равно 128.

Пример 2. Определить наиболее вероятное число по­раженных самолетов в группе из 13 бомбардировщиков, если самолеты поражаются независимо друг от друга и

•1вероятность поражения одного самолета равна .

Р е ш е н и е . По условию п = 1 3 , р = t , q =

= 1 — І = '7{ . Следовательно, согласно неравенству (1.32) ,

•13

Page 44: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Отсюда имеем:7 sg; m0 8.

Это означает, что имеются два значения: mi = 7 и mj = 8, каждое из которых является наиболее вероятным числом пораженных самолетов.

В опросы д л я с а м о п р о ве р к и

1. Какие события называют случайными? Приведите примеры случайны х событий.

2. Какие ' события о б р а зу ю т полную группу несовместных событий?

3. Приведите примеры полных групп событий.4. Какое собы тие называется суммой, или объ ед и н ен и е м , не­

скольких событий?5. Какое событие называется произведением , или совм ещ ени ем ,

нескольких событий?6. Что называется частотой события и каковы ее свойства?7. С ф орм улируйте классическое определение вероятности с о ­

бытия. В каких пределах изменяется вероятность события?8. С ф орм улируй те теорем у сложения вероятностей для н е с о в ­

местных событий.9. Чему равна сумма вероятностей несовместных событий,

о б р азую щ и х полную группу?10. Какая вероятность называется условной вероятностью?11. Какие события называются независимыми?12. С ф орм ул ируйте теорем у умножения вероятностей и след­

ствия из нее.13. Как следует вычислять вероятность появления хотя бы

о д н о ю ііз нескольких совместных событий?14. Д ок аж и те формулу полной вероятности.15. Вы ведите формулу вероятности гипотез.16. При решении каких задач применяется формула полной

вероятности?17. При решении каких задач применяется формула вероятно­

сти гипотез?18. При реш ении каких задач применяется формула Бернулли?19. Какая функция называется производящ ей функцией в е р о ­

ятности появления события А при п независимых испытаниях? Какой она имеет вид, когда испытания происходят в одинаковых условиях и когда испытания происходят в неодинаковы х усл о­виях?

20. Д айте о пределение нанвероятнейш его числа при повторны х испытаниях и приведите правило его вычисления.

У п р а ж н е н и я

1. В партии пз 200 деталей отдел технического контроля обн а­р уж и л 8 нестандартных деталей. Чему равна относительная частота появления нестандартных деталей?

От в. р * — 0,04.

4-4

Page 45: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

2. При стрельбе из винтовки относительная частота попадания в цель равна 0,75. Найти число попаданий, если всего было про­и зведено 140 выстрелов.

Ошв. 105 попаданий.

3. В л о тер ее разыгрывается тысяча билетов. С реди них один выигрыш в 50 рубл ей , пять выигрышей в 20 рублей, двадцать выигрышей по 10 р ублей и пятьдесят выигрышей но 5 рублей. Некто покупает один билет. Найти вероятность: а) выиграть не ме­нее 10 рублей: б) какого-либо выигрыша.

От в. а) 0,026; б) 0,076.

-; 4. В урне три белых и пять черных шаров. Из урны вынимают наугад два шара. Найти вероятность того, что шары не о д н о ю цвета.

От в. /? = -— .

5. В партии из 100 изделий 6 нестандартных. Нз партии выби­рается наугад 10 изделий. О пределить вероятность того, что среди утих 10 изделий б у д ет ровно 2 нестандартных.

От в. р<=а 0,13.

- 6. На ш ести карточках написаны буквы А, В, К, М, О, С. После п еретасовки вынимают наугад одну карточку за другой и раскладывают их в том порядке, в каком они были вынуты. Найти вероятность того, что на карточках будет написано слово М О С К В А

-4 7. Два лица условились встретиться в оп р еделен н ом месте между 15 и 16 часами и договорились, что п риш едш ий первым ж дет др угого в течение 10 минут, после чего уходит. Найти в ер о­ятность их встречи, если приход каж дого в т еч е н и е ук а за н н о ю часа может произойти в лю бое время и моменты прихода незави­симы.

Отв. р = ~ г .

*7 8 . И меется радиолокационная система, состоящ ая из двух сам о­стоятельных станций. Для выполнения задачи н еоб х о д и м о , чтобы о б е радиолокационны е станции, входящ ие в систем у, работали б е з ­отказно. Т р ебуе тся оп ределить вероятность того, что система б у ­дет работать безотк азн о , если вероятность б е зотк азн ой работы каждой радиолокационной станции в течение времени, н еобходим ого для выполнения задании, p { t ) = 0,9.

Ошв. р = 0 , 8 1 .

9. Вероятность безотказной работы блока, в ходящ его в систему, в течение з а д а н н о ю времени составляет 0,8. Для повы шения н аде ж ­ности устанавливают такой ж е резервны й блок. Т р еб у е тся найти, какой станет вероятность безотказной работы блока с учетом р е з е р в ­ного.

О т в. р — 0,96.

10. Три охотника договорились стрелять в цель в определен н ой последовательности. С л едую щ ий охотник производит выстрел лишь

45

Page 46: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

в случае промаха п реды дущ его . Вероятности попадания в цель каждым нз охотников одинаковы и равны 0,7. Найти вероятность того, что б у д ет произведено: а) один; б) два; в) три выстрела.

Ошв. а) 0,7; б) 0,21; в) 0,063.

И . При прием ке партии подвергается проверке половина изде­лии. У словие приемки — наличие брака в выборке не свыше 2rt/ 0. Вычислить вероятность того, что партия нз 100 изделий, с о д е р ж а ­щая 5 % брака, бу д ет принята.

Ошв. 0,18.

^ 12. Рабочий обслуж и вает три станка, р аботаю щ ие независи м о д р уг от друга. Вероятность того, что в течение часа первый ста­нок не п о тр еб у е т внимания рабочего, равна 0,9"), для второго такая вероятность равна 0,9 и для третьего — 0,8. Какова в ер оят­ность того, что в течение часа: а) пн одни станок не п о тр еб у е т внимания рабочего; б) какой-нибудь один станок п отр ебует внима­ния рабочего; в) хотя бы один станок п отребует внимания р а б о ч е г о ?

Ошв. а) 0,684; б) 0,032; в) 0,316.

13. Два парохода должны подойти к одному и тому ж е при­чалу. Время прихода обо и х пароходов независимо и р а в и ов озм ож п о в течен ие данных суток. О пределить вероятность того, что одном у из пар оходов придется ож идать освобож ден и я причала, если время стоянки первого парохода один час, а второго — два часа.

О ш в. р = 0,121.

14. Радиолампа может принадлежать к одной нз д вух партий с вероятностями /; , = 0,6 и />„ = 0,4. Вероятности того, что лампа п р оработает заданное число часов, равны для этих партий с о о т в ет ­ственно 0,7 и 0,8. Определить вероятность того, что лампа п р о р а ­ботает заданное число часов.

Ошв. р = 0,74.

15. Двадцать экзаменационны х билетов со д ер ж а т по два воп­роса, которы е не повторяются. Экзаменую щ ийся мож ет ответить только па 35 вопросов. О пределить вероятность того, что экзамен б у д ет сдан, если для этого достаточно ответить на два вопроса из одного билета или на одни вопрос из первого билета и на указанный дополнительный вопрос из д р у го г о билета.

35 34 ( 35 5 . 5 35 \ 34 Л пгоО т в. р — - ю • 3Sj + • зу + 40 • 39 J - - 8 — 0,963.

16. Один нз трех стрелков вызывается па линию огня и про­изводит два выстрела. Вероятность попадания в мншеиь при одном выстреле для первого стрелка равна 0,4, для. второго — 0,6, для третьего — 0,8. Найти вероятность того, что в мишени будет две пробоины.

л 29Отв. р — .7э

17. Трое охотников одновременно выстрелили по медведю, который был убит одной нулей. О пределить вероятность того, что медведь был убит первым охотником, если вероятности попадания для них равны соответственно 0,3, 0,4, 0,5.

9Отв. р — — .

46

Page 47: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

18. О пределить вероятность того, что среди 500 лампочек нет пн одной неисправной, если из взятых наудачу 50 лампочек все оказались исправными. Предполагается, что число неисправны х лампочек пз 500 равновозм ож но от 0 д о 5.

О т в. р — 0,214.

19. И звестно, что 95% вы пускаемой продукции удовлетворяю т стандарту. У пр ощ е нн ая схема контроля признает пригодной стан­дартную п родукцию с вероятностью 0,98 и нестандартную — с веро­ятностью 0,00. О пределить вероятность того, что изделие, п р о ш ед ­ш ее упрощ енны й контроль, удовлетворяет стандарту.

От в. р = 0,9908.

20. По цели производится пять независимых выстрелов. В ероят­ность попадания в цель при одном выстреле равна 0,4. Для полу­чения зачета но стрельбе т р ебуется не меиее трех попаданий. Найти вероятность получения зачета.

От в. р = 0,317.

21. Вероятность отказа каждого прибора при испытании равна 0,3. Сколько таких приборов нужно испытать, чтобы с вероят­ностью 0,99 получить одни отказ?

Ошв. /*5= 13.

22. Вероятность изготовления детали отличного качества равна 0,9. Какова вероятность того, что среди 10 деталей не м енее девяти отличного качества?

Ошв. р — 0,7361.

23. П оследовательно послано четыре радиосигнала. Вероятности приема к аж дого нз них ге зависят от того, приняты ли остальные сигналы, и соотв етс тв ен но равны 0,2, 0,3, 0,4; 0,5. О пределить веро­ятность приема трех радиосигналов.

О т в. /; = 0,10С.

24. Прибор выходит из строя, если п ер его р и т не меиее пяти ламп I типа или не м енее двух ламп II типа. О пределить вероят­ность выхода нз строя прибора, если известно, что пер егор ел о пять ламп, а вероятность п е р ею р а н н я ламп I и II типов равны соо'пк‘тс '1 пеппо 0,7 п 0,3.

Ошв. р — 0,04.

Page 48: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Гла в а 2СЛУЧАЙНЫЕ в е л и ч и н ы

§ 2.1. ПОНЯТИЕ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

До сих пор мы имели дело со случайными собы­тиями. Событие является качественной характеристикой случайного результата опыта. Но случайный результат опыта можно характеризовать и количественно. Н апри­мер, число попаданий в цель при пяти выстрелах, число деталей, выходящих по своим размерам за пределы допуска, и т. д. Количественной характеристикой случай­ного результата опыта является случайная величина.

Случайной величиной называется величина, которая в результате опыта может принять то или иное (но только одно) значение, причем заранее, до опыта, неизве­стно, какое именно.

Понятие случайной величины является фундаменталь­ным понятием теории вероятностей и играет очень боль­шую роль в ее приложениях.

Случайные величины обозначаются обычно заглав­ными буквами конца латинского алфавита — X , Ү , а их возможные значения обозначаются соответствую­щими малыми буквами х, у, . . . .

Среди случайных величин, с которыми приходится встречаться в практике, можно выделить два основных типа: дискретные величины и непрерывные величины.

Д искрет ной случайной величиной называется такая величина, число возможных значений которой либо ко­нечное, либо бесконечное счетное множество (множество, элементы которого могут быть занумерованы).

Приведем примеры дискретных случайных величин.1. Частота попаданий при трех выстрелах.Возможные значения случайной величины X , выра­

жающей частоту попаданий при трех выстрелах, будут следующие:

1 2Х\----О, Д-2 — 2 » а’з ----- 7j- , х^---- 1.

48

Page 49: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

2. Число дефектных изделий в партии из п штук.Если обозначить через /Ү случайное число дефектных

изделий, то возможные значения этого числа будут следующие:

A'l = О, Л'о = 1, А'з = 2, ...., Л'„ ., — п.3. Число вызовов, поступающих на телефонную стан­

цию в течение суток.Случайная величина X в данном примере может при­

нять следующие значения:*1 = 0, лга = 1, д'з — 2, . . .

4. Число выстрелов до первого попадания в цель.В этом примере случайная величина X может при­

нимать бесконечное, но счетное множество значений:* 1 = 1 , Х-1 — 2, Л';, = 3 , . . .

Непрерывной случайной величиной называется такая величина, возможные значения которой непрерывно запол­няют некоторый интервал (конечный или бесконечный) числовой оси. Очевидно, число возможных значений непре­рывной случайной величины бесконечно.

Приведем примеры непрерывных случайных величин.1. Случайное отклонение но дальности точки падения

снаряда от цели.Так как снаряд может упасть в любую точку интер­

вала, ограниченного пределами рассеивания снарядов, то все числа из этого интервала будут возможными зна­чениями случайной величины X — отклонения точки падения снаряда от цели.

2. Ошибка при измерении дальности радиолокатором.3. Время безотказной работы радиолампы.4. Диаметр обработанной втулки и т. д.Случайная величина является своего рода абстрактным

выражением случайного события. С каждым событием А можно связать некоторую характеристическую случай­ную величину. Например, при выводе формулы Бернулли мы искали вероятность того, что событие А появится ровно т раз при п независимых испытаниях. Можно было бы искать вероятность того, что случайная вели­чина X , возможными значениями иоторой являются .V, = 0, Л'.> = 1, хЛ = 2, . . . , л'/г, 1 = п, примет значение хт..Л = т при п независимых испытаниях. Оперирование с понятием случайной величины в ряде случаев бывает бо­лее удобным, чем оперирование со случайными событиями.

49

Page 50: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 2.2. ЗАКОН РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

Рассмотрим дискретную случайную величину X , воз­можные значения которой х и x it . . . , хп нам известны. Очевидно, что знание возможных значений случайной величины еще не позволяет нам полностью описать случайную величину, так как мы не можем сказать, как часто следует ожидать появления тех или других воз­можных значений случайной величины в результате повторения опыта в одних и тех же условиях. Д ля этой цели необходимо знать закон распределения вероятностей случайной величины.

В результате опыта случайная величина X примет одно нз своих возможных значений, т. е. произойдет одно событие пз полной группы несовместных событий:

X = А'ь .

Х = х н.

Все эти события являются несовместными, потому что случайная величина X может принять в результате опыта только одно значение, и образуют полную группу событий, так как никаких других событий, кроме пере­численных, в результате опыта произойти не может.

Обозначим вероятности этих событий буквами р с соответствующими индексами:

Р (х = Xi) — pi, Р (X = А'-») = p i , . .. , Р {X = А'„) —-/VНа основании того, что события (2.1) образуют пол­

ную группу несовместных событий, сумма вероятностей всех возможных значений случайной величины X равна единице:

£ р (Х = л-,.) = V > = 1 .«=:! І I

Эта суммарная вероятность каким-то образом распре­делена между отдельными значениями случайной вели­чины. Дискретная случайная величина будет полностью описала с вероятностной точки зрения, если будет ука­зано, какую вероятность имеет каждое из событий (2.1). Этим мы установим закон распределения случайной вели­чины.

50

Page 51: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возмож­ными значениями случайной величины и соответствую­щими вероятностями.

Зная распределение вероятности между возможными значениями случайной величины, можно до опыта судитьо том, какие значения случайной величины будут появляться чаще и какие реже.

Заметим, что способы или формы представления закона распределения случайной величины могут быть различными.

Простейшей формой задания закона распределения дискретной случайной величины X является таблица, в которой перечислены возможные значения случайной величины и соответствующие им вероятности:

Хі 1 Xi 1

Pi 1 pl 1 * 1 . ■ • 1 Pn

Такая таблица носит название ряда распределения случайной величины.

Д ля наглядности ряд распределения представляют графически. При графическом представлении все воз­можные значения случайной величины откладываются по оси абсцисс, а но оси ординат— соответствующие вероят­ности. Вершины полученных ординат обычно соединяют отрезками прямых (рис. 8). Следует помнить, что соеди­нение вершин ординат делается только в целях нагляд­ности, так как в промежутках между л'( и х.>, л\> и х-л и т. д. случайная величина х значений принять не может, поэтому вероятности се появления в этих промежутках равны нулю.

Такая фигура на- |/со­зывается многоуголь­ником распределения.Многоугольник рас­пределения, так же как н ряд распреде­ления, является од­ной пз форм задания закона распределе­ния дискретной слу­чайной величины X . рис.а

51

Page 52: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Многоугольники распределения могут иметь самую раз­личную форму, однако все они обладают одним общим свойством.

Сумма ординат многоугольника распределения, пред­ставляющая собой сумму вероятностей всех возможных значений случайной величины, всегда равна единице.

Эго является основным свойством многоугольника распределения и вытекает нз того, что все возможные

значения случайной величины X образуют полную группу не­совместных событий, сумма вероятностей которых равна еди­нице.

Используя дан­ные примера 3 § 1.9, построим ряд распре- деления и много-

Рис, 9 угольник распреде­ления числа попада­

ний в цель при пяти независимых выстрелах, если вероят­ность попадания в цель при одном выстреле равна 0,6.

Возможными значениями случайной величины X (числа попаданий) являются:

Х{ = 0, х->== 1, л*з = 2, л'і — 3, Ад — 4, л'г, — 5.Вероятности этих значений соответственно равны:

= 0,01024, р, = 0,0768, р;, = 0,2304, р4 = 0,3456, ps = 0,2592, ре = 0,07776.

Ряд распределения величины X имеет вид:

1 0 1 1 1 2 1 3 4 1 5

Pi 1 0,0102 i I 0,0768 ’| 0,2304 І 0,3156 ! 0,2592 j 0,07776

Многоугольник распределения изображен на рис. 9.

§ 2.3. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ

Рассмотренный ряд распределения является удобной формой представления закона распределения для диск­ретной случайной величины с конечным числом возмож­ных значений. Однако ряд распределения вообще нельзя построить для непрерывной случайной величины. Дейст­вительно, непрерывная случайная величина имеет бес­

52

Page 53: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

численное множество возможных значении, которые сплошь заполняют некоторый промежуток, и перечислить их в какой-либо таблице нельзя. Кроме того (как мы увидим в конце этого параграфа), каждое отдельное значение непрерывной случайной величины обычно не обладает никакой отличной от нуля вероятностью. Сле­довательно, для непрерывной случайной величины не существует ряда распределения в том смысле, в каком он существует для прерывной случайной величины.

В силу этого желательно иметь такую характеристику распределения вероятности, которая была бы применима для самых разнообраз-ных случайных в е л и ч и и . -------------- ---------

Наиболее общей фор- -----------1----------*--------мой закона распределе- 0 л х хния случайной вели­чины X является так Рис- 10называемая функция распределения.

Функцией распределения, или интегральным законом распределения, случайной величины X называется задание вероятности выполнения неравенства X <[ х, рассматри­ваемой как функции аргумента х:

Ғ(х) = Р ( Х < х ) .

Из определения функции распределения следует, что она существует для всех случайных величин: как диск­ретных, так и непрерывных. Функция распределения полностью характеризует случайную величину с вероят­ностной точки зрения, это значит, что она является одной из форм закона распределения.

Определение функции распределения имеет простую геометрическую интерпретацию. Если рассматривать слу­чайную величину как случайную точку X оси Ох (рис. 10), которая в результате опыта может занять то или иное положение, то функция распределения Ғ (х) есть вероят­ность того, что случайная точка X в результате опыта попадает левее точки х.

Д ля дискретной случайной величины X , которая может принимать значения х и хъ . . . , хп, функция рас­пределения будет иметь вид:

2 Р { Х = хд, (2.2)

53

Page 54: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

где символ Х-, х под знаком суммы обозначает, что сум­мирование распространяется па все те возможные зна­чения случайной величины, которые по своей величине меньше аргумента х.

Из выражения ■ (2.2) следует, что функция распреде­ления дискретной случайной величины /Ү разрывна и возрастает скачками при переходе через точки возмож­ных ее значений Л'ь л:», . . . , хп, причем величина скачка равна вероятности соответствующего значения. Рассмот­рим пример.

Пример 1. По цели производится три независимых выстрела. Вероятность попадания в цель при каждом выстреле равна 0,4. Построить функцию распределения числа попадании.

Р е ш е н и е . Обозначим число попаданий через X, тогда возможные значения случайной величины X будут следующие:

Х\ — 0, Л'а = 1, Л'з = 2, Хі = 3.Вероятность возможных значений случайной вели­

чины определяем по формуле БернуллиР ( Х = Х ' ) = (% ря1дп- %

где /г = 3. Будем иметь:Р ( Х = 0) = 0,216, Р (X = 1) = 0 ,4 3 2 , Р (X = 2 ) = 0,288,

Р(Л' = 3) = 0,064.Составляем ряд распределения:

Х( 0 1 2 3

Р ( Х = Х і ) 0,216 0,432 0,288 0,061

Построим с помощью выражения (2.2) функцию распре­деления случайной величины X:

1. При Ж 0 / ’ ( * ) = S Р (X = Л',-) = 0.

Page 55: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

4. При 2 < x s s 3 F ( x ) = } ] Р (Х = хі) = Р (А'= 0 ) - !•V; < і

_|- Р (X = 1) -}- Р (X = 2 ) = 0 ,9 3 6 .5. При л '> 3 Ғ (х) = Р (X = 0) Р (X = I) -\г

- \ ~ Р ( Х = 2) -{- Р (X = 3) = 1.График функции распределения представлен на рис. 11.

В рассмотренном примере значения случайной величины разделены интервалами,внутри которых других возможных значений нет. Характерно то, что на этих интервалах функция распределения Ғ (х) постоянна, т. е. график

1

1Г(х)

1 1 | 1

1------- 1 1| 1 < I 1 | 1 1 __1 I 1i t 1 1 1 1 1 1 1

0 / 2 3Р а с . 11

функции распределения представляет собой ступенчатую ломаную линию. Из графика видно, что при каждом новом значении случайной величины ступень подни­мается выше на величину, равную вероятности этого значения.

Рассмотрим общие свойства функции распределения.С в о й с т в о 1. Функция распределения Ғ (х) есть неот­

рицательная функция, заключенная между нулем и единицей:0 ^ F ( x ) - ^ l .

Справедливость этого свойства вытекает из того, что функция распределения F (х) определена как вероятность случайного события X <dx.

С в о й с т в о 2. Вероятность появления случайной вели­чины с, интервале [а, 3), полузамкнутом слева, равна разности значений функции распределения в концах интер­вала, т. е.

Р (* < X < 3) = F (?) - F (а). (2.3)Д о к а з а т е л ь е т в о. Рассмотрим следующие три

события:

55

Page 56: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Событие А, состоящее в том, что случайная величина Х < } .

Событие В, состоящее в том, что случайная вели­чина X < ^ z .

Событие С, состоящее в том, что я < ; Х < ^ 3 .Очевидно, событие А представляет собой сумму двух

несовместных событий В и С, т. е.А — В -}- С.

По теореме сложения вероятностей несовместных собы­тий имеем:

Р(А) = Р( В) -Һ Р(С).Но

Р И ) = Р (X С ?) •— Ғ (3);Р(В) = Р ( Х < Я ) = Ғ ( а);Р(С) = Р ( у. ^ Х < 3).

ПоэтомуF(?) = F(*) + P ( * < x С ? ) . (2.4)

ОтсюдаЯ ( а ^ X < ? ) = /=■(?) — F (а).

что и требовалось доказать.Перейдем' в равенстве (2.3) к пределу при -> я.

В пределе вместо вероятности попадания случайной величины X в интервал [я, р) получим вероятность того, что эта величина примет отдельно взятое значение я:

Р (X = а) = lim Р (а< X < р) = lim [F (3) — Ғ (я)|. (2.5)— а — а

Значение этого предела зависит от того, является ли непрерывной функцией F (х) в точке я или же терпит разрыв. Если в точке я функция P(.v) имеет разрыв, то предел (2.5) равен значению скачка функции F (х) в точке я. Если же функция F (х) в точке д непрерывна, то этот предел равен пулю.

Так как непрерывная случайная величина X имеет непрерывную функцию распределения F (х), то из равен­ства нулю предела для непрерывной функции F (х)■ в точке я следует, что и вероятность любого отдельного значения непрерывной случайной величины равна нулю. Этот вывод, на первый взгляд, парадоксален. Однако он вполне согласуется с данным в § 1.4 статистическим определением вероятности события. Равенство нулю веро­ятности события характеризует тенденцию частоты этого

Page 57: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

события неограниченно убывать при увеличении числа опытов и ни в какой мере не означает, что данное собы­тие невозможно.

С в о й с т в о 3. Функция распределения случайной вели­чины есть неубывающая функция, т. е. при 3 ^>а

Ғ & ) * * Ғ ( г ) .Это свойство вытекает из свойства 2. Действительно,

согласно выражению (2.4), имеем:F ( V = F ( r , ) - l - P { а < Л ' < 3 ) .

Но так как вероятность любого события не может быть отрицательна, то Р ( а ^ X 3) ^ 0. А это значит, что F (3) F (а), если 3 а.

С в о й с т в о 4. На минус бесконечности функция рас­пределения равна нулю, а на плюс бесконечности функция распределения равна единице, т. е.

F (— со) = 0, F (-{- со) = 1.В самом деле, при неограниченном перемещении

точки х влево попадание случайной точки X левее х в пределе становится невозможным событием. Поэтому естественно полагать, что вероятность этого события стремится к нулю, т. е.

F ( со) = 0.Аналогичным образом, при неограниченном перемещении точки л' вправо попадание случайной точки X левее л* в пределе становится достоверным событием. Поэтому вероятность этого события стремится к единице, т. е.

F (-{- сс) = 1.Рассмотренные свойства функции распределения ко­

ротко можно сформулировать так: каждая функция рас­пределения является неотрицательной неубывающей функцией, удовлетворяющей условиям F (— оо) = 0 и /Ч - |-о о ) = Г.

Обратное утверждение также имеет место, т. е. каж ­дая функция, удовлетворяющая перечисленным условиям, может служить функцией распределения некоторой слу­чайной величины.

Поскольку с помощью функции распределения можно найти вероятность появления случайной величины в лю­бом интервале или в любой точке возможных значении для дискретной случайной величины, то функция рас­

57

Page 58: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

F(x)

у ' - -

Я XР а с . 12

пределения однозначно определяет закон распределения случайной величины.

Заметим, что если функция распределения возрастает в каждой точке интервала (а, b), то возможные значе­

ния случайной величины непре­рывно заполняют этот интервал, так как согласно выражению (2.4), вероятность того, что случайная величина примет значение, заклю­ченное в сколь угодно малой части (а, $) этого интервала, от­лична от нуля. Таким образом,

монотонно возрастающей функции распределения Ғ (х) на интервале (а, Ь) соответствует непрерывная случайная величина, возможные значения которой непрерывно за.- полняют этот интервал.

В дальнейшем изложении мы. будем называть непре­рывными только те случайные величины, функция рас­пределения которых везде непрерывна.

Из рассмотренных свойств следует, что гра­фик функции распределе­ния для непрерывной слу­чайной величины имеет вид, изображенный на рис. 1 2 .

В связи с равенством нулю вероятности любого отдельного значения не­прерывной случайной ве­личины равенство (2.3), определяемое свойством 2, для непрерывной случайной величины можно переписать так:

Р (а X < [3) = Р (а < X (3) = Р (а < X < р) == F ( P ) - F ( a), (2.6)

т. е. граничные точки интервала могут как включаться, так и выключаться.

Пример 2. Функция распределения непрерывной слу­чайной величины X задана выражением

[ 0 при ,v=hSi,F (х) = j а (х — I) 2 при 1 < ' х -г-: 3,

1 при .V 3.

о 8

Page 59: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Найти коэффициент а и построить график Ғ(х) . Опре­делить вероятность того, что случайная величина X в результате опыта примет значение на участке ( 1 ,2 ).

Р е ш е н и е . Так как функция распределения непре­рывной случайной величины X непрерывна, то прих — 3 имеем: а ( х — 1 ) - = 1 , откуда а = - г .

График функции Ғ ( а ) изображен на рис. 13.Исходя пз второго свойства функции распределения,

имеем:Р ( 1 < Х < 2 ) = Ғ ( 2 ) . - Ғ ( 1 ) = .;' ( 2 - 1 ) * - І ( 1 - 1 )’ = | .

§ 2.4. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ

Функция распределения непрерывной случайной вели­чины является ее исчерпывающей вероятностной характе­ристикой. Но она имеет недостаток, заключающийся в том, что по пей трудно судить о характере распределения слу­чайной величины в небольшой окрестности той пли другой точки числовой осп. Более наглядное представлениео характере распределения непрерывной случайной вели­чины в окрестностях различных точек дается функцией, которая называется плотностью, распределения вероят­ности или дифференциальным законом распределения случайной величины. В этом параграфе мы рассмотрим плотность распределения вероятности и ее свойства.

Пусть имеется непрерывная случайная величина А' с функцией распределения Ғ ( а ) . Вычислим вероятность попадания этой случайной величины на элементарный участок (д*, a - j - Ах). Согласно формуле (2.6) имеем:

Р (х < X < х -{- A.v) = F (х A.v) — F ( а ) .

Составим отношение этой вероятности к длине участка Ал:Р ( а А <С х А л ) __Л (A -j- А д) [" ( х ) /<-) уч

А д ~ Ал- ’

Полученное отношение называется средней вероятно­стью, которая приходится па единицу длины этого участка.

Считая функцию распределения F ( а ) дифференцируе­мой, перейдем в равенстве (2.7) қ пределу при Ах-> 0; тогда получим:

ІІШ / ^ А - < £ ± ^ = И|п Щ -Л л -> - _ n x 1 = F v .)Xv —U ~*Л’ -l.v-'U ЛЛ

(2 .8 )

59

Page 60: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Предел отношения, вероятности попадания непрерыв­ной случайной величины на элементарный участок от х до х -j- Ал* к длине этого участка Ал*, когда A.v стремится к нулю , называется плотностью распределения случайной величины в точке х и обозначается } (х).

• В силу равенства (2.8) плотность распределения f (х) равна производной от функции распределения F (х), т. е.

f ( x) = F'(x).

Смысл плотности распределения [ (х) состоит в том, что она указывает на то, как часто появляется случай­

ная величина X в не­которой окрестности точки Л' при повто­рении опытов.

Кривая, изобра­жающая плотность распределения f (х) с л у ча й ной вел и ч и н ы, называется кривой распределения. П ри­мерный вид кривой распределения f (х) изображен и а рис. 14. значения случайной

величины заполняют некоторый конечный промежуток, то плотность распределения f (х) — 0 вне этого про­межутка.

Выделим на оси абсцисс элементарный участок A.v, примыкающий к точке х (рис. 15), и найдем вероятность попадания случайной величины X на этот участок. С одной стороны, эта вероятность равна приращению AF (х) функции распределения F (х), соответствующему приращению Ax = dx аргумента х. С другой стороны, вероятность попадания случайной величины X па эле­ментарный участок clx с точностью до бесконечно малых высшего порядка, чем A.v, равна f (х) dx (так как ±F(x)^=;

dF (х) = f (Л') dx) . Геометрически это есть площадь эле­ментарного прямоугольника с высотой f (л') и основанием dx (рис. 15). Величина f (х) dx называется элементом вероятности.

Следует обратить внимание иа то, что не все случай­ные величины,’ возможные значения которых непрерывно заполняют некоторый интервал, являются непрерывными

Заметим, что если возможные

60

Page 61: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

случайными величинами. Встречаются такие случайные величины, возможные значения которых непрерывно заполняют некоторый промежуток, но для которых функ­ция распределения не везде является непрерывной, а в отдельных точках терпит разрывы. Такие случайные величины называются смешанными. Так, например, в за ­

даче обнаружения сигнала в шумах амплитуда полез­ного сигнала является смешанной случайной величиной /Ү, которая может принимать любое значение, как поло­жительное, так и отрицательное.

Действительно, если в принимаемом радиосигнале присутствует полезный сигнал с вероятностью р, то

вероятность отсутствия сигнала, т. е. вероятность нуле­вого значения его амплитуды (амплитуда сигнала равна нулю, когда сигнал отсутствует и принимается один шум), равна 7 = 1 — р ■ А это значит, что амплитуда сигнала представляет собой случайную величину X сме­шанного типа с возможными значениями, непрерывно заполняющими всю действительную ось, и с одним нсклю-

(51

Page 62: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

чительным нулевым возможным значением, имеющим вероятность q. График функции распределения F (х) амплитуды полезного сигнала изображен на рис. 16.

Дадим теперь более строго определение непрерывной случайной величины.

Случайная величина X называется непрерывной, если ее функция распределения F (лЛ непрерывна на всей оси Ох, а плотность распределения f (х) существует везде, за исклю­

чением, быть может, конечного числа точек.

Рассмотрим свойства п л от и ости р а с 11 р еде л е-ІІИЯ.

С в о й с т в о 1. Пло­тность распределения не­отрицательна, т. е.

l ( x ) S* 0 .

Это свойство непо­средственно вытекает пз

того, что плотность распределения / (.г) есть производная от неубывающей функции распределения F (х).

С в о й с т в о 2. Функция распределения случайной вели­чины равна интегралу от плотности в интервале от — со до ху т. е.

F {*) = \ f { x ) dx . (2.9)

Д о к а з а т е л ь с т в о . По определению дифферен­циала функции имеем:

clF (х) = f (,v) dx.Следовательно,

i f ( x ) d x = I dF(x) — F{x) — F ( — oo),— 4.0 — _o

no F (— со) = 0 (свойство 4, § 2.3), поэтому

F ( x ) = \ f ( x ) d x .

На графике плотности распределения функция рас­пределения изображается площадью, заштрихованной па рис. 17.

62

Page 63: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

С в о й с т в о 3. Вероятность попадания непрерывной случайной величины X на участок (я, р) равна интегралу от плотности распределения, взятому по этому участку, т. е.

P ( c . < X < ? ) = Sf(.v)d.v. (2 . 1 0 )а

Д о к а з а т е л ь с т в о . На основании свойства функ­ции распределения имеем:

P ( y . < X C ? ) = F Q ) - F ( o . ) .

Но согласно равенству (2.9)

f & ) = 1 f ( x) t l x , F (я) — \ f (х) dx.— GO — с о

Поэтому

Р (а < Л' < 3) = J f (х) dx — \ f (х) dx =-— СС —“ ч-О

= s f м d x + s f w d x = І /■ w d x >— o o а а

что и требовалось доказать.Геометрически полученный результат можно истол­

ковать так: вероятность того, что непрерывная случай­ная величина примет значение, принадле­жащее интервалу (а, 8), равна площади криволинейной тра­пеции, заштрихован­ной па рис. 18.

Заметим, что ин­теграл (2 . 1 0 ) можно получить, суммируя элементы вероятно­сти на всем участке Рис. 18(а, р).

С в о й с т в о 4. Интеграл в бесконечных пределах от плотности распределения равен единице:

\ f ( x ) d x = 1 . (2 . 1 1 )

(33

Page 64: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Д о к а з а т е л ь с т в о . Заменяя в равенстве (2.9) вели­чину х па плюс бесконечность и учитывая, что Ғ (-}-со) = = 1 , получим:

СО

Ғ ( + со) = 5 f (х) dx = 1,

что и требовалось доказать.Если интервал возможных значений случайной вели­

чины имеет конечные пределы а и Ь, то плотность рас­пределения f{x) = 0 вне промежутка [а, Ь] и свой­ство 4 тогда можно за ­писать так:

Геометрически дока­занное свойство плот­ности распределения

означает, что вся площадь криволинейной трапеции, ограниченной осью Ох и кривой распределения, равна единице.

Пример. Случайная величина X подчинена закону распределения с плотностью

f (х)asin.v при 0 =sS .v <

О при х < 0 или х^>т..

Требуется:1.) Найти коэффициент а.2) Построить график плотности распределения.3) Найти вероятность попадания случайной величины

на участок от 0 до .Р е ш е н и е . 1) Д ля определения коэффициента а вос­

пользуемся свойством 4 плотности распределения:

2а — I,

откуда а = 2 -2) График плотности распределения / (лг) представлен

на рис. 19.

64

Page 65: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

3) По формуле (2.10) имеем:

•1

Р \ 0 < Х < 4U i ‘ >I' I . , 1V ~ sm х dx — — у cos х

и

cos — cos 0) ^ 0,15.

§ 2.5. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

1. Понятие числовых характеристик. Мы уже знаем, что закон распределения полностью характеризует слу­чайную величину с вероятностной точки зрения. Зная закон распределения случайной величины, можно ука­зать, где располагаются возможные значения случайной величины и какова вероятность появления ее в том или ином интервале.

Одпако при решении многих практических задач нет необходимости характеризовать случайную величину пол­ностью, а достаточно иметь о случайной величине только некоторое общее представление. Зачастую достаточно бы­вает указать не весь закон распределения, а только лишь некоторые характерные черты закона распределения.

В теории вероятностей для общей характеристики случайной величины используются некоторые величины, которые носят название числовых характеристик случай­ной величины.

Основное их назначение — в сжатой форме выразить наиболее существенные особенности того или иного рас­пределения.

О каждой случайной величине необходимо прежде всего знать ее некоторое среднее значение, около кото­рого группируются возможные значения случайной вели­чины, а также какое-либо число, характеризующее сте­пень разбросанности этих значений относительно сред­него. Кроме указанных числовых характеристик, для более полного описания случайной величины используют ряд других числовых характеристик. Все они помогают в той или другой мере уяснить характерные черты рас­пределения случайной величины. Рассмотрим наиболее часто встречающиеся числовые характеристики.

2. Математическое ожидание. Математическое ожида­ние является важнейшей характеристикой положения

3 Гурский 6 5 '

Page 66: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

случайной величины. Математическое ожидание случай­ной величины иногда называют просто средним значе­нием случайной величины.

Рассмотрим сначала дискретную случайную.велпчину X, имеющую возможные значения Хи Хо, . . . . хп с веро­ятностями рх, р.ъ рп. Тогда математическое ожи­дание случайной величины X, которое мы обозначим М [X], определяется равенством

' м \ Х ] = ХхРх + х*р-2 + . . . + ХпРп = 2 XiPi. (2.12)1

Если дискретная случайная величина X может при­нимать бесконечное счетное множество значений x t, х2, х-л, . . . с вероятностями р 1г Р-:> Рз> •••» то ее математи­ческое ожидание определяется равенством

00

м \ Х ] = 2 а д - (2 . 1 2 ')І = 1

Итак, математическим ожиданием случайной вели­чины X называется сумма произведений всех возможных значений случайной величины на вероятности этих зна­чений.

В дальнейшем наряду с обозначением М [X] мы будем обозначать математическое ожидание случайной вели­чины X через т к:

тх — М[ Х ] .Ниже (в гл. VII) будет показано, что математиче­

ское ожидание приближенно равно среднему арифмети­ческому наблюдаемых значений случайной величины, и тем точнее, чем больше число опытов.

Если производится несколько серий опытов, то мате­матическое ожидание есть такое постоянное число, около которого будут колебаться средние арифметические зна­чения случайной величины, вычисленные для каждой серии опытов.

Рассмотрим теперь непрерывную случайную величину X, все возможные значения которой принадлежат от­резку \а, Ь]. Пусть f (х) есть плотность распределения величины X. Разобьем отрезок [а, Ь) па п частичных отрезков, длины которых обозначим через Дл'ь Д*о, . . . . . . , Дл:7і. Возьмем в каждом частичном отрезке по одной точке, абсциссы которых обозначим соответственно xv Х.у, . . . | ха.

66

Page 67: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Так как произведение [ (л:,-) Д*£- ( « = 1 , 2, /г) при­ближенно равно вероятности попадания случайной вели­чины X на элементарный участок Да',-, то сумма произ­ведений

j] Xi f (Хі) ЛХі, (2.13)< = і

составленная по аналогии с определением математиче­ского ожидания для дискретной случайной величины, приближенно равна математическому ожиданию непре­рывной случайной величины X .

Перейдя к пределу в сумме (2.13) при стремлении к нулю длины наибольшего из частичных отрезков Да',-, получим определенный интеграл

п Ьlim У) Xif (хі) ДХі — [ xf (х) dx,

тач -* 0 j а

который и полагают по определению равным матема­тическому ожиданию непрерывной случайной вели­чины X.

Итак, математическим ожиданием непрерывной слу­чайной величины X , возможные значения которой принад­лежат отрезку [а, Ь\, называют определенный интеграл

ьM [ X ] = \ x f ( x ) d x . (2.14)

а

Если возможные значения непрерывной случайной величины X принадлежат всей осп Ох, то математиче­ское ожидание определяется интегралом

LQ

М [X] = \ xf (х) dx. (2.15)— СО

Понятие математического ожидания случайной вели- -чины имеет простую механическую интерпретацию.

Действительно, распределение вероятностей случай­ной величины можно интерпретировать механически как распределение масс на прямой. Вся распределенная на прямой масса принимается за единицу. Дискретной слу­чайной величине X, имеющей возможные значения х\, x if хп с вероятностями р и р . . . , рп, соответствует прямая с сосредоточенными в точках с абсциссами лгь л*2> . . . , хп массами р 1г р.2) , рп.

3« 67

Page 68: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Непрерывной случайной величине соответствует не­прерывнее распределение масс на прямой с плотностью в каждой точке, равной плотности вероятности в этой точке. Тогда математическое ожидание М [А'], определя­емое формулой (2.12) или (2.15), есть не что иное как абсцисса центра тяжести стержня, так как формулы (2.12) и (2.15), очевидно, совпадают с выражением для координаты центра тяжести стержня, имеющего массу, равную единице.

Следует заметить, что встречаются и такие случай­ные величины, для которых математическое ожидание не существует, так как соответствующая сумма (2 . 1 2 ') или соответствующий интеграл (2.15) расходятся. Однако такие случайные величины встречаются довольно редко. Обычно случайные величины, с которыми мы имеем дело на практике, имеют математическое ожидание.

Отметим простейшие свойства математического ожи­дания.

С в о й с т в о 1. Математическое ожидание постоянной величины равно самой постоянной, т. е.

м [С] = с.Д о к а з а т е л ь с т в о . Постоянную величину С можно

рассматривать как частный случай величины, которая с вероятностью, равной единице, принимает только одно значение, равное С. Но тогда в соответствии с форму­лой (2 . 1 2 )

М [CJ = С - 1 — С.

С в о й с т в о 2. Постоянный множитель можно выно­сить за знак математического ожидания, т. е.

М [ С Х ] = С М [ Х ] .

Д о к а з а т е л ь с т в о.а) Д ля дискретных случайных величин:

М[СХ] = V СхіРі = С V XiPi = CM [X]. і ---1 І —- 1 .

б) Д ля непрерывных случайных величин:СО ГО

.VI [СХ J = J Cxf (.х) dx = С \ х} (х) dx = CM [X] .— СО — оэ

G8

Page 69: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пример 1 . Определить математическое ожидание числа попаданий при пяти выстрелах, если случайная вели­чина X (число попаданий) задана рядом распределения (см. § 2 .2 ):

Xl 0 1 2 3 4 5

Pi 0,01024 0,0768 0,2304 0,3456 0,2592 0,07776

Р е ш е н и е . По формуле (2.12) находим:М [X] = 0 • 0 , 1 024 -j- 1 • 0,0768 -j- 2 • 0,2304 -j- 3 ■ 0,3456 - f

- j -4• 0 ,2592- j - 5• 0,07776 = 3 (попадания).Пример 2 . Изделия испытываются на надежность.

Вероятность выхода пз строя за время испытания для каждого изделия равна р. Испытания заканчиваются после первого же изделия, не выдержавшего испытания. Найти математическое ожидание числа испытаний.

Р е ш е н и е . Если X — случайное число испытаний, то ряд распределения случайной величины X имеет вид:

■Ч 1 2 3 ... /е

Pi Р ЧР q-p Ч к~1Р

где q — 1 — р.Математическое ожидание случайной величины X,

согласно формуле (2 . 1 2 '), выражается суммой ряда:М [X] = 1 • р 4 - 2 • qp -j- 3 • q-p 4 - kqk~lp + . . . =

= р (1 2q 4 3ql 4* • • • “Г кЦ" 1 ~b • • •) •Легко заметить, что ряд, стоящий в скобках, пред­

ставляет собой результат дифференцирования геометри­ческой прогрессии

_ пq ~г q~ 4" q* 4 1

Следовательно,

1 4 2q~ -j- 3q ‘ 4 " kqh~1 •откуда

Р

(I q <tq 1 — q (1 - q)-

69

Page 70: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

/(* )

Пример 3. Непрерывная ’ случайная величина X за ­дана плотностью распределения

ах при 0 < лг < 2 ,О при х< ^0 или х ^> 2 .

Найти значение коэффициента а и определить мате­матическое ожидание случайной величины X .

Р е ш е н и е . Коэффициент а найдем, воспользовавшись свойством 4 плотности распределения:

^ f (х) dx — ах dx ■ 2 а = 1 ,ах~т

—'оо О1откуда а — ү .

По определению математического ожидания для не­прерывной случайной величины найдем:

М [ Х ] = ^ x f { x ) d x = ^ x ^ x d x = ~ ^— со 6

3. Мода и медиана случайной величины. Кроме мате­матического ожидания, которое является основной число­вой характеристикой положения случайной величины, на практике применяются и другие характеристики поло­жения, в частности мода и медиана случайной величины.

Модой Мп дискретной случайной величины называется ее наиболее вероятное значение.

Д ля непрерывной случайной величины мода есть такое значение случайной величины, при котором плотность распределения имеет максимум, т. е. f(/W0) = max. На рис. 2 0 и рис. 2 1 показана мода для дискретной и не­прерывной случайной величины.

Если многоугольник распределения (кривая распре­деления) имеет два или несколько максимумов, то рас­пределение называется двухмодальным или многомодаль­ным (рис. 22 и 23).

Иногда встречаются распределения, которые имеют минимум, но не имеют максимум. Такие распределения называются антимодальиыми (рис. 24 и 25).

Медианой M D случайной величины X называется такое ее значение, относительно которого равновероятно полу­чение большего или меньшего значения случайной величины,

P < , X < M D) = P ( X > M D).

70

Page 71: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория
Page 72: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Геометрически медиана — это абсцисса точки, в кото­рой площадь, ограниченная кривой распределения, де­лится пополам (рис. 26). Каждая из этих площадей равна 0,5, так как вся площадь, ограниченная кривой распределения, равна единице. Поэтому функция рас­пределения в точке MD

Ғ ( М ә ) = Р ( Х С М о ) = = О Л

Заметим, что если распределение одномодальное и симметрическое, то все три характеристики положения случайной величины — математическое ожидание, мода и медиана — совпадают.

4. Дисперсия и среднее квадратическое отклонение. Д ля характеристики случайной величины совершенно недостаточно знать только числовые характеристики по­ложения, так как одному и тому же заданному мате­матическому ожиданию может соответствовать бесчис­ленное множество случайных величин, различных не только по своим значениям, но и по их характеру и природе.

Значения наблюдаемых в практике случайных величин всегда более пли менее колеблются около среднего зна­чения. Это явление называется рассеянием величины около ее среднего значения.

Числовые характеристики, характеризующие рассе­яние случайной величины, т. е. показывающие, насколько тесно сгруппированы возможные значения случайной величины около центра рассеивания (математического ожидания), называются характеристиками рассеивания.

Основными характеристиками рассеивания случайной величины являются дисперсия и среднее квадратическое отклонение. .

При определении указанных характеристик исполь­зуется разность между случайной величиной /Ү и ее математическим ожиданием тх> т. е. X — тх.

Эта разность называется центрированной случайнойвеличиной, соответствующей величине X, и оиозна-

0чается X:

X = X — т х.

Очевидно, закон распределения центрированной слу­чайной величины X совпадает с законом распределения соответствующей случайной величины Л'.

72

Page 73: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Нетрудно показать, что математическое ожидание центрированной случайной величины равно нулю. Дей­ствительно, для дискретной случайной величины

М [Л; ] = М [X — тх \ = 2 (Xi — т х) pi =/« 1

п п п

— У ) X iP i — v т х р і — пгх — /??л. y j p i — m x tnx 1 = 0;i= I i= I I — I

для непрерывной случайной величины

/VI [Л' ] = М [X — тх] — \ (х — тх) f ( a') dx =— 00

со о= jj A'/ ( a ) dx — /«.v jj f (a ) dx — tnx — /н v- 1 = 0 .

— СО —со

Но если математическое ожидание центрированнойослучайной величины X равно пулю для всякой случай­ной величины X , то, конечно, оно никак не характери­зует рассеяние ее значений, указывая только, что зна­чения отклонения — числа разного знака. Поэтому в ка­честве меры рассеивания случайной величины берут математическое ожидание квадрата отклонения случай­ной величины от ее математического ожидания

M [ ( X - w . v)*|,

которое называют дисперсией случайной величины X и обозначают D [X] или Dx.

Итак, дисперсией случайной величины называется ма­тематическое ожидание квадрата отклонения величины от ее математического ожидания, т. е.

D[ X ] = М [(X — тх)-] или D [X] = М [X*].

Д ля дискретной случайной величины дисперсия выра­жается суммой

D [X ] = 2 ( X t - m j p , , (2.15)I - I

а -для непрерывной — интеграломсо

D [ X ] = I ( а — тх)- f (a ) dx. ( 2 . 1 7 )— СО

Page 74: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Формулы (2.16) и (2.17) непосредственно следуют из определения математического ожидания.

Дисперсия случайной величины является очень удоб­ной характеристикой рассеивания возможных значений случайной величины. Однако она лишена наглядности, так как имеет размерность квадрата случайной величины.

Для большего удобства желательно иметь характе­ристику, по размерности совпадающую с размерностью случайной величины. Такой характеристикой является среднее квадратическое отклонение случайной величины, которое представляет собой положительный квадратный корень из ее дисперсии. Обозначают среднее квадрати­ческое отклонение случайной величины X символом оА.:

ах = }Л Щ х]. (2.18)

Рассмотрим простейшие свойства дисперсии.С в о й с т в о 1. Дисперсия постоянной величины равна

нулю:D [С] — 0.

Действительно, если в данных условиях величина X может иметь только одно значение С, то, в соответствии с первым свойством математического ожидания

М[С] = С.

Тогда по определению дисперсииР \С\ = М [(С - М [С])'-] = М [(С — С)2] = 0 .

С в о й с т в о 2. Дисперсия произведения постоянной величины на случайную величину равна произведению квад­рата постоянной величины на дисперсию случайной вели­чины:

D[CX] = C-D[X\ .

Д о к а з а т е л ь с т в о . На основании определения дис­персии и второго свойства математического ожидания имеем:

D [ С Х ] = А1 [(СХ — М [СЛ'1)-] = М [(СХ — CM [X])-] = = М [С2 (X — М [X])2] = С' М [(X — М [X])-] = C2D [X].

С в о й с т в о 3. Дисперсия случайной величины равна математическому ожиданию квадрата случайной величины минус квадрат ее математического ожидания:

D[ X] = M[X-] — m%.

74

Page 75: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Д о к а з а т е л ь с т в о . Используя определения для дисперсии и математического ожидания, имеем:

а) для дискретной случайной величиныП 11

D [X] = 2 (Xi — тх)~ Pi = 2 (Л7 — 2Х{тх - f rn%) pt =i = I ; = l

n n n= У і x i P i — 2/И* 2 О Д - -f- /И І 2 A- =

* = 1 І = 1 1 = 1

• = M [X2] — 2m% 4- m l = M [X2] — m%;б) для непрерывной случайной величины

со со

D [X] = (х ~ т х? f (х) d x = 5 x~f (х) dx!—— со — со

со со

— 2т х 5 x f (х) dx -[- т% $ / (х) dx — М [X2] — 2т\- -(- т% —— со —со

= М [X2] — т%,что и требовалось доказать.Пример 3. Найти математическое ожидание и среднее

квадратическое отклонение числа появлений события А при одном опыте.

Р е ш е н и е . Так как при одном опыте число появ­лений X события А может принять только одно из двух значений 0 или 1 , причем вероятность значения 1 равна вероятности р появления события А, а вероятность зна­чения 0 равна вероятности q = l — р непоявления собы­тия А, то применяя формулу (2.12), найдем:

т х = 0-.<7 -|- 1 • р — р.Определим теперь по формуле (2.15) дисперсию случай­ной величины х:

Dx = ( О— р) -q 4 - (1 — р)- р = pq.Следовательно, применяя формулу (2.18), найдем

среднее квадратическое отклонение числа появлений со­бытия А при одном опыте:

' °x = V p q -Пример 4. Случайная величина задана плотностью

распределения

Page 76: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Определить дисперсию и среднее квадратическое от­клонение случайной величины X.

Р е ш е н и е . Применяя формулу (2.14), найдем мате­матическое ожидание

2. Л ^/;гл. = ~ ^ х cos л- dx = л* sin х " — - т у sin x dx = 0.

Поскольку tnx — 0, то применяя формулу (2.17), най­дем:

D , = 1 ^ л"COSXdx-

2х cos х -j- (х- — 2 ) sin л' ~2 - 8

откудаг.- - 8

Заметим, что для характеристики рассеивания слу­чайной величины X часто используют так называемое вероятное (срединное) отклонение, которое обозначают че­рез Ех.

Вероятным отклоне­нием называется поло­вина длины участка, симметричного относи­тельно математического

ожидания, вероятность попадания в которой равна по­ловине, т. е.

Р (| X — тх | < Е х) = 0,5. (2.18')Геометрически вероятное отклонение Ех есть половина

длины участка оси абсцисс, симметричного относительно математического ожидания, на который опирается поло­вина площади, ограниченной кривой распределения (рис. 27).

76

Page 77: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Обобщением основных числовых характеристик слу­чайных величин является понятие моментов случайной величины. Само название «момент» заимствовано из ме­ханики, где это понятие применяется для описания рас­пределения масс.

В теории вероятностей различают моменты двух ви­дов: начальные и центральные.

Начальным моментом к-го порядка случайной величины X называют математическое ожидание величины Х к, т. е.

а, = М [Хк].

Следовательно, для дискретной случайной величины начальный момент выражается суммой (см. 2 . 1 2 )

• П

ч = 2 і = 1

а для непрерывной — интегралом (см. 2.15).'.О

4 = \ x l:f (x)dx.— СО

Из начальных моментов случайной величины особое значение имеет момент первого порядка, который пред­ставляет собой не что иное, как математическое ожида­ние случайной величины.

Начальные моменты высших порядков используются главным образом для вычисления центральных моментов.

Центральным моментом к-го порядка случайной вели­чины X называют математическое ожидание величины( X -» !* )*

Для дискретной случайной величины центральный момент выражается суммой

п= 2 (*«■ — т *)и а»

і = I

а для непрерывной — интеграломоэ

{** — 5 (-V — m ^ kf (х) dx.

§ 2.6. МОМЕНТЫ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

77

Page 78: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Центральный момент первого Порядка, как мы уже показали в § 2.5, всегда равен нулю.

Среди центральных моментов случайной величины особое значение имеет центральный момент второго по­рядка, который представляет собой не что иное, как дисперсию случайной величины.

Кроме центрального момента второго порядка, в тео­рии вероятностей для описания случайной величины широко применяются центральные моменты третьего и четвертого порядков.

Третий центральный момент ц3 служит характеристи­кой асимметрии («скошенности») распределения. Чита-

Р ас . 29

телю предлагается самостоятельно проверить, что если случайная величина X распределена симметрично отно­сительно своего математического ожидания, то третий центральный момент

• |х3 = 0 .

Так как третий центральный момент имеет размер­ность куба случайной величины, то обычно рассматри­вают безразмерную величину — отношение |д.3; к среднему квадратическому отклонению в третьей степени

Величина ах носит название коэффициента асиммет­рии. На рис. 28 кривая распределения имеет поло­жительную асимметрию (ах ^>0), а на рис. 29 кри­вая распределения имеет отрицательную асимметрию( я V- < 0 ).

Четвертый центральный момент jx4 служит для харак­теристик островершинности или плосковершинности рас-

78

Page 79: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

пределения. Эти свойства распределения описываются с помощью так называемого эксцесса. Эксцессом случай­ной величины X называется величина

Сх = JtL 1° х3.

Число 3 вычитается из отношения -Ц-O.V

для наиболее распространенного нормального закона рас­пределения (с которым мы познакомимся в дальнейшем)4г~ з.3.V

Кривая нормального распределения, для которого эксцесс равен нулю, принята как бы за эталон, с кото­рым сравниваются дру­гие распределения. Кри- f (x) вые более островершин- ^ cz >0ные имеют положитель­ный эксцесс; кривые более плосковершин­ные — отрицательный эксцесс (рис. 30).

Кроме рассмотрен­ных начальных и цен­тральных моментов, на практике иногда приме­няются так называемые абсолютные моменты.

Абсолюта ый н а ч а л ь н ы й мулой

потому, что

Рис. 3 0

момент определяется фор-

Һ = М [ \ Х П

а абсолютный центральный момент — формулой'>1: = М [ | X — tn x |ft 1.

Из определения абсолютных моментов следует, что абсолютные моменты четных порядков совпадают с обыч­ными моментами.

Из абсолютных моментов нечетного порядка часто применяется первый абсолютный центральный момент

vj = М [\Х — тх И,

который называется средним арифметическим отклоне­нием.

79

Page 80: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Среднее арифметическое отклонение, наряду с дис­персией и средним квадратическим отклонением, иногда применяется как характеристика рассеивания случайной величины.

§ 2.7. БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ

Среди законов распределения для дискретных слу­чайных величин наиболее распространенным является биномиальное распределение, с которым мы уже встре­чались в § 1.9.

Биномиальное распределение имеет место в следую­щих условиях.

Пусть случайная величина X выражает число появ­лений события А при и независимых испытаниях, про­водимых в одинаковых условиях. Вероятность появления события А постоянна и равна р. Следовательно, вероят­ность непоявления события А равна q = 1 — р.

Возможными значениями случайной величины X яв­ляются *о = 0, *і = 1, . . . , хп — п. Вероятности этих воз­можных значений определяются по формуле Бернулли(§ 1-9)

Р (X — т) = C y v'qn-m (т = 0 , 1 , . . . , « ) . (2.19)

Распределение дискретной случайной величины, для которой ряд распределения задается формулой (2.19), носит название биномиального распределения.

Биномиальное распределение имеет, например, слу­чайная величина X , выражающая число бракованных изделий в повторной выборке из п изделий, и т. п.

Найдем математическое ожидание и дисперсию слу­чайной величины, имеющей биномиальное распределение.

Согласно определению математического ожидания для дискретной случайной величины, имеем:

тх = 2 ^ 7 " . (2 .2 0 )гп — О

Д ля вычисления суммы (2.20) продифференцируем по р следующее выражение:

(р + 9 ) " = У , С : Р’У ~ т- (2.21)т 0

SO

Page 81: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Получим

п (р - f q)n ■' = 2 тСпрт lqn т' (2 .2 1 )т -= 0

Умножая теперь левую и правую часть равенства (2 .2 1 ) на р, имеем:

пр (р + q)п- ' = V mCnpmqn~m- (2 .2 2 ;«г ---= О

Правые части равенства (2.20) и (2.22) равны между собой, следовательно, равны и левые части, т. е.

тх пр (р - f q)n l .

Но так как р - \ - д = \ , тотх = пр. (2.23)

Итак, математическое ожидание числа наступлений собы­тия в серии независимых и одинаковых испытаний равно произведению числа испытаний на вероятность появления события при одном испытании.

Д ля вычисления дисперсии биномиального распреде­ления используем третье свойство дисперсии:

D V = M [X 2] — т'х . (2.24)

Найдем вначале M I X 2]:

М [Х-] = J / b W " (2-25)т = 0

Для вычисления суммы (2.25) продифференцируем дважды по р выражение (2 .2 1 ), получим:

я (я - 1) (р + <?г! =-. у. т (HI - 1) С?рт- ү -т.171 == 0

Умножая обе части полученного равенства на р-, будем иметь:

я (я - 1) Р- (р + ?)“- ' = 2 in (« - 1) С"рт = 0

Отсюда, учитывая, что /? - ] - (?= 1, получаем:

/г/г — пр- = У nvC ’n pwqn~rn — V т С ’п p"‘qn~m.rn t) т — U

81

Page 82: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

2 m-CnP'"q"-m = М [X»] н V m O V ~ m = т, = пр,т = 0 т = 0

ТОгг/г — /гр- = /VI [X2] — /г/?.

Отсюда/VI [Х-] = /г-р- — /гр2 -j- пр. (2.26)

Подставляя выражение (2.26) в формулу (2.24) и учи­тывая, что тх = пр, получим:

Dx = ггр1 — пр- пр — /г2/У- = пр (1 — /;),или

Dx = npq. (2.27)

Отсюда определяем среднее квадратическое отклонение для биномиального распределения:

<зЛ. = V npq. (2.28)

Пример. Случайная величина X представляет число бракованных деталей из возвратной выборки в 50 штук. Вероятность брака одной детали р = 0,06. Найти мате­матическое ожидание, дисперсию и среднее квадрати­ческое отклонение числа бракованных деталей в вы­борке.

Р е ш е н и е . Случайная величина X имеет биномиаль­ное распределение. Поэтому по формуле (2.23) матема­тическое ожидание

тх = пр = 50 • 0,06 = 3 (дет.).

Дисперсию определяем по формуле (2.27)Dx = npq = 50 • 0,06 • 0,94 = 2,82.

Тогда -среднее квадратическое отклонение будет

о, = 1/ 2 ^ 2 ^ 1 , 6 8 (дет.)

§ 2.8. РАСПРЕДЕЛЕНИЕ ПУАССОНА

При решении многих практических задач приходится иметь дело с дискретными случайными величинами, ко­торые подчиняются закону распределения Пуассона.

Но так как

82

Page 83: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Типичными примерами случайной величины, имеющей распределение Пауссона, являются: число вызовов на телефонной станции за некоторое время /; число отказов сложной аппаратуры за время t, если известно, что от­казы независимы друг от друга и в среднем на единицувремени приходится X отказов, и т. д.

Рассмотрим общую задачу теории вероятностей, при­водящую к распределению Пауссона.

На оси Ох случайно распределяются точки такимобразом, что вероятность попадания любого данного числа точек на любой отрезок / оси Ох не зависит от числа точек, попадающих па другие иеперекрывающпеся отрезки оси Ох, и от их распределения па этих отрез­ках, а зависит только от размера отрезка /.

Требуется найти вероятность Р т = Р ( Х = т ) того, что на отрезок оси Ох длины / попадает ровно т точек, предполагая, что точки распределены по всей осп с оди­наковой средней плотностью.

Обозначим эту плотность, т. е. среднее число точек (математическое ожидание), приходящихся на единицу длины, через X и будем рассматривать малый отрезок Дд. Тогда математическое ожидание числа точек, попадаю­щих па этот отрезок, очевидно, равно ХДд.

Если отрезок Дд достаточно мал, то можно считать, что вероятность возможного попадания на него двух или более точек пренебрежимо мала. Поэтому вероятность попадания на Ад: ровно одной точки можно считать при­ближенно равной X Дд, так как

X±х = М[ Ү ] = 0 - Р (У = 0) -|- 1 • Р ( К = 1 ) - | - 4 - 2 • Р (Ү = 2) + 3 • Р (Ү = 3) + . . . ^ Р {Ү = 1),

где Ү — случайное число точек, попадающих на отре­зок Дд.

Разделим отрезок / иа п равных частей длиной Дх = —. Так как вероятность того, что интервалу Дд при­надлежит одна точка, равна X Дд, то вероятность того, что интервалу Дд не принадлежит точка, равна 1— X • Д д == 1 — X • —.п

Согласно условию, попадания точек в неперекрываю- щиеся отрезки независимы, поэтому попадания или не­попадания точек в каждый из п отрезков можно рас­сматривать как результат п независимых опытов.

83

Page 84: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Вероятность того, что из числа п отрезков будет ровно т отрезков, которым будет принадлежать одна точка, при наших допущениях найдется по формуле Бернулли

(2.29)Ц\п-тп

При достаточно большом п и, следовательно, при достаточно малых Дд: эта вероятность приближенно равна искомой вероятности попадания ровно т точек на отре­зок /, так как попадание более одной точки па элемен­тарный отрезок Да- имеет очень малую вероятность.

Д ля определения вероятности Р т перейдем в выра­жении (2.29) к пределу при п —у со.

Тогда

ІІШ

= limП О'-)

= im с . ■ т -п-пг

а -* со \ « I \ п

Л ) . iv !• (п — т 1 1) (И У" I 1 " п )т\ пт и У 11

а /Л и \ п

.. (п — т ~ 1) 0-1 )'п 1 ~ пIIV

Так какlim п (п — 1 )... (п — т -f- 1 )

= lim Г(і — — ІҮtl —* 00 L ^ . \ Г1 . \ Н I 1 ,

lim 1 1П-+ оЛ

Ы\ тп I

lim (l — Н) = limЯ-*Я) \ п і п — со

(?-/)Л « Ү и

а множитель не зависит от /г, то из выражения(2.30) получаем:

(2.31)

В полученном выражении (2.31) величина X/ есть не что иное как математическое ожидание числа точек, по­падающих на отрезок длиной /.

84

Page 85: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Обозначая 11 = а, получаем:ПР,П = —Г с т т\ (2.32)

Распределение дискретной случайной величины X, описываемой формулой (2.32), и называется распределе­нием Пуассона.

Распределение Пуассона за ­висит от одного параметра а, который является математиче­ским ожиданием случайной ве­личины Х ( т х = а). На рис. 31 показан общий вид многоуголь­ника распределения Пуассона при различных значениях пара­метра тх = а.

Определим дисперсию слу­чайной величины, имеющей рас­пределение Пуассона. Согласно третьему свойству диспер­сии имеем:

D[ X] = М [Х-] — т%.Найдем момент М [X-]:

00

'9* - 0

а (I .т ‘ —г е т\ ае V/ , т(т - 1)!

— ае а "V [(m — 1 ) Ч- Ит = I

ас У, О » - 1 )т ~ 1

(/« - 1)!

о _а V а”1~" ~ СГе 1 ( / « - 2)1 1

- - ае

ае

(/// - 1)!

СО

-« V _

(т - 1)1 *т — г in — 1

Так как каждая из этих сумм равна еа, тоМ [Х‘2] 2 р ■« Ра _1_а-е ае~ а- а.

Следовательно, дисперсия величины X равнаD [Л'] = а ‘“-)- а — а- = а.

Таким образом, дисперсия случайной величины, имею­щей распределение Пуассона, численно равна ее матема­тическому ожиданию.

Page 86: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Распределение Пуассона мы получили, рассматривая задачу о числе случайных точек на оси абсцисс, попа­дающих на заданный отрезок L т. е. для одномерного случая. Распределение Пуассона автоматически распро­страняется на двумерный и трехмерный случай, когда речь идет о числе попаданий в какую-либо область на плоскости или в пространстве, если точки распредели­лись на плоскости или в пространстве равномерно и независимо друг от друга и задано среднее число точек, попадающих в единицу площади (объема).

Кроме того, распределение Пуассона может быть использовано как приближенное в тех случаях, когда точным распределением случайной величины является биномиальное распределение и когда математическое ожидание мало отличается от дисперсии, т. е. когда пр npq.

В связи с этим распределение Пуассона имеет боль­шое количество различных приложений.

Пример 1 . На телефонную станцию в течение опреде­ленного часа дня. поступает в среднем 30 вызовов. Найти вероятность того, что в течение минуты поступает не более двух вызывов.

Р е ш е н и е . Математическое ожидание числа вызовов за минуту равно

Вероятность того, что в течение данной минуты возникнет не более двух вызывов, равна сумме вероят­ностей того, что в течение данной минуты будет либо 0 , либо 1, либо 2 вызова. Поэтому искомая вероятность

Пример 2 . Завод отправил на базу 500 доброкачест­венных изделий. Вероятность того, что в пути изделие повредится, равна 0,002. Найти вероятность того, что па базу прибудет три негодных изделия.

Р е ш е и и е. Задача решается приближенно с помощью формулы Пуассона. Имеем: р = 0,002, q = l — /; = 0,998 и п = 500.

30 1

. < '__

S6

Page 87: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

По формулам (2.23) и (2.27) определяем математи­ческое ожидание и дисперсию числа негодных изделий:

тх = пр = 500 • 0,002 = 1,Dx = npq = 500 • 0,002 • 0,998 = 0,998.

Так как mx ^ D x, то полагая а = тх = 1, найдем приближенно искомую вероятность по формуле Пуассона:

§ 2.9. РАВНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ

Непрерывная случайная величина X имеет равномерное распределение на отрезке [а, Ь], если на этом отрезке плотность распределения случайной величины постоянна, а вне его равна нулю, т. е. если

!0 при х< ^а ,С при а ^ х ^ Ь ,

0 при х Ьугде С = const.

Г рафик плотности f (х) для равномерного распределения изображен на рис. 32.

Так как площадь, ограниченная кривой распределения, равна единице, то плотность равномерного распреде­ления на интервале (а, Ь), как высота пря­моугольника с основа­нием (b — а), равна

Ь — а

и, следовательно, плотность распределения f (.v) имеет вид:0

f i x ) Ь — а

0

при х< ^а ,

при а ^ х Ь, (2.33)

при х^>Ь.

87

Page 88: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Найдем функцию распределения Ғ (х) для равномер­ного распределения на интервале (а, Ь). Согласно фор­муле (2.9), имеем:

dxЬ — а о — а

(а ^ -V --S Ь).

При х < a F (х) = 0, а при х > b F (.v) - - 1. Таким образом,

О при х< ^а ,

х — аа Ь — а

F (х) = X -■ (I. при а ^ х ^ Ь ,Ь — а ‘

1 при Х ^ > Ь .

(2.34)

График функции F (х) показан на рис. 33.Непрерывная случайная величина X подчиняется

закону равномерной плотности (имеет равномерное рас­пределение), если ее возможные значения лежат в пределах некоторого опреде­ленного интервала, кроме того, в преде­лах этого интервала все значения случай­ной величины одина­ково вероятны (обла­дают одной и той же плотностью вероят­ности).

Со случайной величиной, имеющей равномерное рас­пределение, мы часто встречаемся в измерительной практике при округлении отсчетов измерительных при­боров до целых делений шкал. Ошибка при округлении отсчета до ближайшего целого деления является случай­ной величиной /Ү, которая может принимать с постоян­ной плотностью вероятности любого значения между двумя соседними целыми делениями.

Определим математическое ожидание и дисперсию случайной величины X, имеющей равномерное распре­деление на участке от а до Ь.

Page 89: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Имеем:

т ■2 № - а)

т. е. математическое ожидание равномерного распределе­ния находится посредине интервала сто распределения.

Дисперсию случайной величины X находим по фор­муле (2.17):

D , =

ь в\*2 } Ь

[Ь - аГ-

-dx ■

12 ’

откуда среднее квадрати­ческое отклонение

1 Av 2 ) 3Рис . 34

Наконец, найдем вероятность попадания случайной величины, имеющей равномерное распределение, на уча­сток (а, 3), представляющий собой часть интервала (а, Ь) (рис. 34):

d x

Графическая вероятность Р (а X <^3) представляется в виде площади заштрихованного прямоугольника на рис. 34.

§ 2.10. ПОКАЗАТЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ

В практических приложениях теории вероятностей, особенно в теории массового обслуживания, исследова­нии операций, в физике, биологии, вопросах надежности и других приложениях, часто имеют дело со случайными величинами, имеющими так называемое экспоненциаль­ное, или показательное, распределение.

Непрерывная случайная величина X распределена по показательному закону, если ее плотность вероят­ности имеет вид:

при х ^ О ,\ 0 при , v < 0 ./' (-V) (2.35)

89

Page 90: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Кривая распределения f (х) изображена на рис. 35. Функцию распределения величины X найдем по

формуле (2.9):

Ғ (х) = \ f (х) d x = $ Хе Кх dx— со U

Таким образом,

F(x) =

г ь |л== 1 — <гЧ

1 е при х ^ = 0 ,(2.36)

О при х < 0 .Г рафик функции распределения F (х) показан на рис. 36. Определим математическое ожидание и дисперсию

случайной величины X, имеющей показатель­ное распределение:

СО

тх = jj xf (х) dx =— ОЭ

СО

= xle~Kx dx.о

Интегрируем по ча­стям, полагая и = х, dv = е 'Кх dx; получим:

da = — dx,

v = Ц е~Кх dx = — е~и .

Следовательно,

тх = — хе | о00

-j- ^ е~Кх d x =о

__1_I ’

т. е. математическое ожидание есть величина, обратная коэффициенту X.

Д ля нахождения дисперсии используем формулуDx = М [X 2] — nvx.

Найдем М [X*]:СО

М[Х-] = \ x-le~hxdx.

3-X.V

90

Page 91: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Дважды интегрируя по частям, получаем:

/И[Х'Ч = >т-Следовательно,

D , = М 1X'3] - т% = | - 1 = I .

Отсюда определяем среднее квадратическое отклоне­ние для показательного распределения:

, X= V D X = / 5 = 4 .

■ Таким образом, у показательного распределения математическое ожидание и среднее квадратическое отклонение одинаковы:

тх = ох = 1 .

Пример 1. Случайная величина Т — время работы радиолампы — имеет показательное распределение. Опре­делить вероятность того, что время работы лампы будет не меньше 600 часов, если среднее время работы радио­лампы 400 часов.

Р е ш е н и е. По условию задачи математическое ожида­ние случайной величины 'Г равно 400 часам, следовательно,

= Искомая вероятность

Р [Т ^ 600) = 1 — Р (Т < 600) = 1 — F (600) =/ _ ± .гоо\ J*»

= 1 — { 1 — е ш ) = е = 0,2231.

§ 2.11. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ

Среди распределений непрерывных случайных величин центральное место занимает нормальный закон (закон Гаусса), плотность вероятности которого имеет вид:

(х- 'пх)~

1(х '> = — 7 л Г е 2 4 ' (2.37)ах у 2г.

где тх и ох — параметры нормального распределения.Нормальный закон распределения очень широко рас­

пространен в задачах практики. Он проявляется во всех

91

Page 92: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

тех случаях, когда случайная величина X является результатом действия большого числа различных факто­ров. Каждый фактор в отдельности на величину А' влияет незначительно и нельзя указать, какой именно в большей степени, чем остальные. Примерами случай­ных величин, имеющих нормальное распределение, могут служить: отклонение действительных размеров детален, обработанных на станке, от номинальных размеров, ошиб­ки при измерении, отклонения при стрельбе и другие.

Основная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является пре­дельным законом, к которому приближаются другие законы распределения. В § 5.4 будет рассмотрена центральная пре­дельная теорема теории вероятностей, в которой доказы­вается, что при достаточно большом п сумма независи­мых случайных величии Х \, X» , . . . , Х п, подчиненных каким угодно законам распределения (при соблюдении некоторых ограничений), будет иметь закон распределе­ния, как угодно близкий к закону нормального распре­деления.

Функция распределения случайной величины, имею­щей нормальное распределение, согласно формуле (2.9), будет иметь вид:

Найдем Математическое ожидание и дисперсию нор­мального распределения. Имеем:

dx.

М [Х | = [ x f ( x ) d x = - L = \ хе * 1 dx.

Производя замену переменнойX - - 9П ..

имеем:

Page 93: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Второй интеграл равен нулю, как интеграл от нечетной функции в симметричных пределах, первый интеграл представляет собой известный интеграл Пуассона:

СО СО5 e - t* d t = 2 \ e - t2dt = V r ..

— со ОПоэтому

СОМ [ Х 1 = р | jj e-<‘ d t = ^ . v ; = mx.

Итак, параметр т х является математическим ожида­нием случайной вели­чины, имеющей нор­мальное распределение.

Дисперсия нормаль­ного распределения определяется по фор­муле

DСО

т - S (*(х-гпху

— tnx)-e х dx

Применив снова замену переменной

имеем:

D

Интегрируя по частям, получим:

D

Первое слагаемое в фигурных скобках равно нулю, так как е ~ при / - > со убывает быстрее, чем возрастает любая степень t. Второе слагаемое есть интеграл Пуас­сона и, следовательно, равно V т. Поэтому

D [XI = о;..Таким образом, параметр j v в выражении (2.37) есть

Page 94: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

среднее квадратическое отклонение случайной величины, имеющей нормальное распределение.

График плотности вероятности нормального распре­деления (рис. 37) называют нормальной кривой (кривой Гаусса).

Отметим некоторые свойства нормальной кривой.1) Кривая распределения симметрична относительно

ординаты, проходящей через точку тх.

2) Кривая имеет один максимум при х = тх, равный1___

сх У :Б '3) При | х | — со ветви кривой асимптотически при­

ближаются к оси Ох.4) Изменение математического ожидания гпх при зЛ. =

= const приводит к смещению кривой распределения вдоль оси Ох. При этом кривая распределения сохраняет свой вид.

При изменении среднего квадратического отклонения ах и тх = const кривая распределения изменяет свой вид. На рис. 38 кривая 7 соответсувует случаю ох— 2,5, для кривой I I — аЛ.= 1, а для кривой I I I — ах = 0,4.

§ 2.12. ВЕРОЯТНОСТЬ ПОПАДАНИЯ СЛУЧАЙНОЙ ВЕЛИЧИНЫ, ИМЕЮЩЕЙ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ,НА ЗАДАННЫЙ УЧАСТОК. ФУНКЦИЯ ЛАПЛАСА

Мы уже знаем, что если случайная величина X задана плотностью вероятности f (x) , то вероятность попадания величины X на участок (а, (3)

Р ( « < Х < $) = { f ( x ) d x .

94

Page 95: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пусть случайная величина X распределена по нор­мальному закону. Тогда вероятность того, что /Ү примет значение, принадлежащее интервалу (а, р),

не выражается через элементарные функции, то для вычисления интеграла (2.38) пользуются таблицами зна­чений специальной функции, которая называется функ­цией Лапласа, или интегралом вероятностей, и имеет вид:

Таблица значений функции Ф(х) приведена в прило­жении (см. табл. 1).

Путем несложных преобразований приведем выраже­ние (2.38) для вероятности попадания случайной величины на заданный интервал (а, [3) к функции Лапласа:

Р ( * < Х < Р ) = - ^ = \ в dx.ах У2т. .а

Пользуясь снова заменой переменнойУ _ tn

____ Xс гго X г -

(2.38)

Так как интеграл[ e r * d i

(2.39)

Р - тх

Page 96: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Функция Лапласа имеет следующие с в о й с т в а .1 . Ф(0) = 0. Это следует из того, что при л : = 0

пределы интеграла (2.39) совпадают.2. Ф (со) = 1. Действительно,

Ф

3. Функция Лапласа Ф (,ү) есть функция нечетная,

Ф ( - х ) = - Ф ( х ) .

В самом деле,

Ф ( _ Ал — J L \ e- '* d t, у , }

положив t = — и, имеем:

Ф (— А") = = ---- ?= \ е~“- duу . , J

График функции Лапласа изображен на рис. 39.

Ф (х).

Отметим важный частный случай формулы (2.40):

Р (| X - rnx ! < / ) = /> (гпх - / < X < гпх + /)Ф / \ Ф - I \

/ J= Ф

'x V 2(2.41)

Воспользуемся формулой (2.41) и найдем вероятность попадания случайной величины X, имеющей нормальное распределение с параметрами тх и ах, на интервал

96

Page 97: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

(/«v Ззл., fiix —j- Ззv) . Д л я расчетов используем таблицу значений функции Лапласа, получим:

Таким образом, для нормально распределенной слу­чайной величины X с параметрами тх и ох выполнение неравенства | X — т х j <^’ Ззл. практически достоверно, В этом заключается так называемое «правило трех сигм».

Д ля характеристики ширины нормальной кривой (2.37) вместо среднего квадратического отклонения оЛ. иногда используют вероятное отклонение Е х.

По определению вероятного отклонения (формула 2.18')

Найдем из таблицы значений функции Лапласа обрат­ной интерполяцией корень уравнения (2.42) с точностью до трех значащих цифр:

Формула (2.43) устанавливает связь между вероятным п средним квадратическим отклонением для нормального распределения.

Полагая в выражении нормального закона (2.37)

Р (| X — т х j < Зох) = Ф ( 4 - W 0,9972.\V '*}

Р (тх - Е х С X < т х -]- Е х) = Р (j X - п и | < Е х)

Но по формуле (2.41)

Следовательно,

Обозначим буквой р корень уравнения

ф м = 4 - (2.42)

Р ^ 0,477.Таким образом,

р 0,477,

откудаЕ х = р У 2 о х ъ* 0,675 (2.43)

4 ГурскиП 97

Page 98: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

получим еще одну форму нормального закона:

Р £- v хi U)

Эта форма часто применяется в теории стрельбы.Призер 1 . Ошибка радиодальномера подчинена нор­

мальному закону. Математическое ожидание этой ошибки равно 5 м, а среднее квадратичное отклонение равно 1 0 м. Найти вероятность того, что измеренное значение даль­ности будет отклоняться от истинного не более чем на 2 0 м.

Р е ш е н и е . Решение задачи сводится к определению вероятности попадания случайной величины /Ү (ошибка радиодальномера) с математическим ожиданием тх = 5 и средним квадратическим отклонением сЛ. = 1 0 на учас­ток (— 20, 20). По формуле (2.40) имеем:

Р (— 20 < X < 20) = Ц ф ( — Л) — Ф^ ^ 2 [ \ 1 0 )Л>/ \ 10 V 2 )

= [ф (1,06) - f ф (1,77)1 0,875.'

Пример 2. Размер диаметра втулок, изготовляемых цехом, можно считать нормально распределенной случай­ной величиной с математическим ожиданием тх = 2 , 5 см и дисперсией ох = 0,0001 см'. В каких границах можно практически гарантировать размер диаметра втулки, если за вероятность практической достоверности принимается0,997?

Р е ш е п и е. Обозначим через / величину, на которую может отклониться размер диаметра втулки от математи­ческого ожидания с вероятностью 0,997. Тогда, согласно формуле (2.41), имеем

Р (!Х - т , ] < / ) = Ф (—р - ) = 0,997. (2.43)

Определяя из таблицы значений функции Лапласа обратной интерполяцией корень уравнения (2.43), получим

__L_— 9 1*ХУ'І * ’

откуда (так как сл. = 0 ,0 1 )

/ = сх У 2 - 2 , \ = 0 , 0 1 ‘2 ,1 . у Ъ ^ О .О З .Таким образом, размер диаметра втулки с вероят­

ностью 0,997 принадлежит интервалу (2,47; 2,53).

96

Page 99: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

1. Какая величина называетя случайной величиной?2. Д ай те оп р еделен и е дискретной и непрерывной случайных

величин. Приведите примеры дискретных и непреры вных случайных величин.

3. Что называется законом распределения случайной вели­чины?

4. Что называется рядом распределения дискр етн ой случайной величины?

5. Д айте оп р еде л ен и е функции распределения вероятности. П еречислите и док а ж и те свойства функции р аспределения.

6. Как, зная функцию распределения, найти вероятность п опа­дания случайной величины в заданный интервал?

7. В чем состоит различие графиков функций распределения дискретной и непреры вной случайных величин?

8. Дайте о п р еде лен и е плотности распределения вероятностей. Перечислите и докаж и те свойства плотности распределения. При­годно ли понятие плотности распределении вероятностей для д и с ­кретной случайной величины?

9. Как, зная плотность распределения, найти вероятность попа­дания случайной величины в заданный интервал?

10. Что называется математическим ож иданием дискр етн ой случайной величины?

11. Что называется математическим ож иданием непреры вной случайной величины?

12. Как мож но истолкован, математическое ож идание механи­чески?

13. Что называется модой случайной величины? Что назы­вается медианой случайной величины?

14. Д айте о п р еде лен и е дисперсии случайной величины и п е р е ­числите ее свойства.

15. Что назы вается средним квадратическим отклонением с л у ­чайной величины?

16. Что называется начальным моментом /г-го порядка случайной величины?

17. Что называется центральным моментом Л-го порядка сл у­чайной величины?

18. Какое р аспределение вероятностей называется бином иал ь­ным? Чему равны м атем атическое ож идание и дисперсия случай­ной величины, имею щ ей бином иальное распределение?

19. Какое р аспределение называется р аспределением П уассона? Чему равны матем атическое ож идание и дисперсия случайной вели­чины, распределенной по закону Пуассона?

20. Какое ра сп р еде лен и е случайной величины называется рав­номерным распределением ?

21. Какое р а сп р еделен и е случайной величины называется пока­зательным распределением ?

22. Какое р асп ределен и е случайной величины называется нор- ма л ь ны м распределением ?

23. Как называется график плотности вероятности нормального р аспределения и каковы его свойства?

24. Что называется функцией Лапласа и каковы ее свой­ства?

Вопроси для самопроверки

4*

Page 100: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

У tip а ж н е н и я

1. При установивш емся технологическом п р о цесс е -ц всей про-

\дукции станок-автомат выпускает первым сортом и — вторым

сортом. П остроить ряд распределения и функцию распределения числа изделий п ервого сорта среді^ 5 штук, отобранных случайным о бр азом . И спользуя ряд распределений, найти математическое о ж и ­дани е и дисперси ю рассматриваемой случайной величины.

Ошв. /нЛ. == 3,33, D x я» 1,11-

2. По цели производится стрельба независимыми выстрелами д о первого попадания. В ероятность попадания в цель при одном выстреле равна р . Построить ряд распределения числа п роизведен ­ных выстрелов. Найти математическое ож идание и средн ее квадра­тическое отклонение числа произведенны х выстрелов.

Отв.

2

* ! 1 12 I 3 п I ...

pi \ р Р<1 PQ3 ... \р(]п \ ...1 Vqтх — — . а\ ~ — • р р

3. Случайная величина X подчинена закону равномерной плот­ности распределения на интервале от 1 до *3. Написать выражение для плотности распределения случайной величины А’. Найти мате­матическое ож идание и дисперсию случайной величины X.

( Д- при 1 A' s c 3;О т в. / (х ) — І ^

( 0 при х < 1 или х > 3,

4. Каждый из трех стрелков стреляет по мишени один раз. Вероятность того, что первый, второй и третий стрелки попадут при одном вы стреле в мишень, соответственно равны р и р.: , р 3. Пусть X — о б щ ее число попаданий в мишень. Найти закон р асп р е­деления, ср едн ее значение и дисперсию случайной величины Л'.

а зОтв. тх = J ] т , D x = 2 PiQ;.

/=)

5. Случайная величина X задана функцией распределения

0 при -V < О,

Г(к)=-.< а (1 — 003 ~Х) 11 рП 0 ^ Л" ^ Т •

1 при X >

100

Page 101: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Найти коэффициент а. Написать вы ражение для плотности р асп р е­деления. О пределить матем атическое ож идание и д ис пер си ю слу­чайной величины.

Отв. а = - у , f (л')( sin 2л*

X ) =

прп 2 *

(О при х < . О или х

>»х = Т - . A v

2 *- 2 - 8

4 » v 16 ‘

6. Плотность р аспределения случайной величины X заданавыражением

а х - прп 0 Л' 1;

О при .v < 0 или л г > 1.f i x )

Найти коэф ф ициент а. О пределить м атем атическое ож идание и дисперсию случайной величины.

О тв. а = 3, тх = — , D x = щ .

7. Функция р асп р еделен и я случайной величины X задана выра­ж ением

О прп х ^ 0;

F ( x ) = \ *Q- х* при 0 < л 'г^ 2 ;

■1 при •)Написать вы ражение для плотности распределения. Определить вероятность неравенства 0 < Х < 1 .

Ошв. f (х )х) _ \ j x 2 при 0 < х 2;

\ 0 при л* 0 или х > 2.Р ( 0 < Л" < 1) = 0,125.

8. В группе из десяти изделий имеется одно бракованное. Ч то б ы ого о б н а р у ж и т ь , в ы б и р а ю т н а у га д одно и зд е ли е за другим и каж дое вынутое издели е проверяют. Пусть X — число п роверен­ных изделий (включая бракованное). Найти закон распределения, среднее значение и д и с п ер си ю случайной величины X

Ошв. шх — 5,5; D x = 3,1235.

9. З а в о д выпускает 96% изделий первого сорта и 4п/о изделий второго сорта. Н аугад выбирают 1000 изделий. Пусть X — число изделий п ервого сорта в данной выборке. Найти закон р а с п р е де л е ­ния, средн ее значение и дисперси ю случайной величины X.

От в. тх — 960; U x = 38,1.

10. Аппаратура сод ер ж и т 1000 электро-элементов, вероятность отказа для каждого из которы х в течение н екотор ого вре м ен и ~t равна 0,001 и не зависит ог состояния др у ги х элементов. Какова вероятность отказа аппаратуры, если он н аступает при отказе хотя бы одного из электроэлемептов?

От в. р = 1 — е"1 «= 0,63.

101

Page 102: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

11. М атематическое ож идание числа отказов радиоаппаратуры за 1000 часов работы равно 5. Определить вероятность отказа радиоаппаратуры за 20 часов работы. •

Ошв. р — 0,095.

12. Телефонная станция о бсл уж и вает 500 абонентов. В е р о я т ­ность позвонить на коммутатор любому абоненту в течение часа равна 0,01. Какова вероятность того что, в течение часа позвонят3 абонента?

Отв. р =ss 0,14.

13. О ш ибка измерения подчинена нормальному закону. М а т е ­матическое ож идание этой ошибки равно 5 м , а средн ее квадрати­ческое отклонение 10 м. Найти вероятность того, что и зм еренноезначение дальности будет отклоняться от истинного не более , чемна 15 я і

Отв. р = 0,8187.

14. О ш ибка радиодальномера подчинена нормальному закону.Систематической ошибки радиодальномер не даст. Какова долж на быть срединная ошибка (вероятное отклонение), чтобы с в ер о я т ­ностью не меньше 0,95 .можно было бы ожидать, что изм еренноезначение дальности будет отклоняться or истинного не более , чемна 20 .и?

Ошв. Ех ~« 6 , 9

15. Измерительный прибор имеет срединную ош ибку 25 м . С истематические ошибки отсутствуют. Сколько н е о б х о д и м о п р о ­извести измерений, чтобы с вероятностью не меньше 0,9 ош ибка хотя бы одноуэ из них превосходила но абсолютной величине 5 „и?

Ошв. п 25 21.

Page 103: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Глава 3СИСТЕМА СЛУЧАЙНЫХ ВЕЛИЧИН

§ 3.1. ПОНЯТИЕ О СИСТЕМЕ СЛУЧАЙНЫХ ВЕЛИЧИН

В предыдущей главе мы рассматривали случайные величины и познакомились с различными характеристи­ками случайной величины.

При изучении случайных явлений о зависимости от их сложности приходится использовать две, три и большее число случайных величин. Например, точка попадания снаряда определяется не одной, а двумя случайными величинами: абсциссой и ординатой. Случайное отклоне­ние точки разрыва снаряда прп дистанционной стрельбе определяется комплексом трех случайных величин - тремя координатами этой точки.

Прп различных измерениях мы очень часто имеем дело с двумя или тремя случайными величинами.

Совместное рассмотрение двух или нескольких слу­чайных величин приводит к системе случайных величин. Условимся систему нескольких случайных величин А, У, . . . , W обозначать (X, У, . . . , W). При изучении си­стемы случайных величин недостаточно изучить в отдель­ности случайные величины, составляющие систему, необ­ходимо учитывать еще и связи или зависимости между этими величинами. Здесь возникают новые, отличные от рассмотренных ранее, задачи.

При рассмотрении системы случайных величин удобно пользоваться геометрической интерпретацией системы. Так, например, систему двух случайных величин (X, У) можно рассматривать как случайную точку па плоско­сти хОу с координатами X и Г*или как случайный век­тор на плоскости со случайными составляющими X и У. Систему трех случайных величии (X, У, Z ) можно рас­сматривать как случайную точку в трехмерном про­странстве или как случайный вектор в пространстве. По аналогии, систему п случайных величин (X, У', . . . , U") можно рассматривать как случайную точку в «-мер-

103

Page 104: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ном пространстве или как //-мерный случайный век­тор.

Так как 'систему случайных величин можно тракто­вать как систему случайных векторов, то теорию систем случайных величин можно рассматривать как теорию случайных векторов.

В зависимости от типа случайных величин, образую­щих систему, могут быть системы дискретных и не­прерывных случайных величин, а также смешанные системы, в которые входят случайные величины различ­ных типов.

При изучении систем случайных величин ограничимся подробным изучением системы двух случайных величин, так как все положения, касающиеся системы двух слу­чайных величин, можно легко распространить на систему трех, четырех и более случайных величин.

§ 3.2. ЗАКОН РАСПРЕДЕЛЕНИЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН. ТАБЛИЦА РАСПРЕДЕЛЕНИЯ

При изучении одной случайной величины мы позна­комились с законом ее распределения и рассмотрели различные его формы. Аналогичную роль играет закон распределения системы случайных величин.

Законом распределения системы случайных, величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных вели­чин и вероятностями появления системы в этих обла­стях.

Так же как и для одной случайной величины, закон распределения системы случайных величин может быть задан в различных формах. Рассмотрим сначала таб­лицу распределения системы дискретных случайных вели­чин.

Пусть X и Г —дискретные случайные величины, воз­можные значения которых (д:,•//,•), где / = 1 , 2 , . . . , п, а / = 1 , 2, . . . , т. Тогда распределение системы таких случайных величии может быть охарактеризовано ука­занием вероятностей р^== Р (X = .у,-, У = у j) того, что случайная величина X примет значение х-, и одно­временно с этим случайная величина У примет значе­ние ijj.

104

Page 105: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Вероятности p;j сводятся в таблицу вида

Такая таблица называется таблицей распределения си­стемы двух дискретных случайных величин с конечным числом возможных значений.

Все возможные события(X = xh . Y — tjj) при i = \ , 2, . . . , п н / = 1 , 2, . . . , т

составляют полную группу несовместных событий, поэтому

2 Р ч = Ц р ( х = Х[, у = у j ) = 1.i, j i,j

При этом

■ Ъ р ч = Ц Р ( Х = * 1, У = у , ) = Р ( Х = х , ) -J J

( Х = Х Һ Ү = У ; ) = Р ( Ү = У ; ) .і і

§ 3.3. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН

Функцией распределения системы двух случайных вели­чин называется функция двух аргументов Ғ (х, у ) , равная вероятности совместного выполнения двух неравенств X О ' и Ү < ^у , т. е.

Ғ(х , у) = Р (X <л% У С у ) . (3.1)

Геометрически функция* распределения системы двух случайных величин представляет собой вероятность попа­дания случайной точки (X, Ү ) в левый нижний беско­нечный квадрант плоскости (рис. 40) с вершиной в точке С*» У)•

105

Page 106: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Указанная геометрическая интерпретация функции распределения системы двух случайных величин позво­ляет наглядно иллюстрировать следующие свойства.

С в о й с т в о 1. Если один из аргументов стремится к плюс бесконечности, то функция распределения системы стремится к функции распределения одной случайной вели­

чины, соответствующей другому аргументу , ' Т . е.

lim F(x, у) — Ғ\ (*);

lim Ғ (х, у) = Ғ, (у).

это записываетсяСимволически так:

F (х, -j-oo) = Ft (х);Ғ ( —|— со, у) = Ғ і(у).

В этом свойстве функции распределения легко убе­диться наглядно, отодвигая одну из границ квадранта в.4 - со; при этом в пределе квадрант превращается в полу­плоскость (рис. 41 и. 42). Вероятность же попадания случайной точки в такую полуплоскость есть функция распределения одной из величин, входящих в систему.

Рис. 41

С в о й с т в о 2. Если оба аргумента стремятся к плюс бесконечности, то функция распределения системы стре­мится к единице, т. е.

l im F (х, у) = 1,X + со

И Л И

1 .Ғ ( 4 * оо,4 " со)Действительно, при л:----- |-со и гу — - j - со квадрант

с вершиной (х, у) обращается во всю координатную пло-

106

Page 107: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

скость хОу, попадание случайной точки в которую есть достоверное событие.

С в о й с т в о 3. При стремлении одного или обоих аргу­ментов к минус бесконечности функция распределения стре­мится к нулю , т. е.

lim F (х, у) = lim F (х, у) = lim F (х, у) = О,-V — о о V -*• — с о .V — — о о

у — о о

или.F (— со, у) = Ғ(х , — со) = Ғ (— со, — со) = 0.

Действительно, отодвигая ту или иную границу квад­ранта (или обе границы) в минус бесконечность, убеж­даемся, > что вероятность попадания случайной точки в квадрант в пределе равна нулю.

С в о й с т в о 4. Функция распределения является неубы­вающей функцией по каждому аргументу, т. е.

F(x»_, y ) ^ F ( x i , у), если а*3> * , ;Ғ (х, у*) 52= Ғ {х, уі), если у-2> Уі-

Д о к а з а т е л ь с т в о . Рассмотрим следующие три события:

А ( Х < jc i , Y < y ) , B = (xl * £ X < x t , Y < y ) и С = ( X < х-2, ш Ү<Су).

Очевидно, событие С представляет собой сумму двух несовместных событий А и В . т. е. С = А В .

По теореме сложения вероятностей несовместных собы­тий имеем:

Р ( С ) = Р ( А ) + Р( В) .Но

Р (С) = Р (X < Xu Ү < У ) = Ғ(Х, , у );Р { А ) = Р ( Х С х х Ү < у ) = Ғ { х ь у);

Р ( В ) = Р ( х г ^ Х < х у , Ү < / / ),

поэтому

Ғ (*•>, у) = ғ (хь у ) + Р (Xi < X < Л',, Y < / / ). •

Отсюда

F (х.2) у ) — Ғ (Л'і, у) = Р (л'і ^ X < х«, У < у ) .

107

Page 108: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Так как любая вероятность есть число неотрицательное, то Ғ (л'2, у) — Ғ (л'ь у ) ^ О,

илиZ7 (Лз. .(/) ^ Ғ //).

Аналогично доказывается, чтоҒ (х, y , ) ^ F ( x , i/i), если //2 > / / i .

Доказанное свойство становится наглядно ясным, если воспользоваться геометрической интерпретацией функ-

. цни распределения как вероят­ности попадания в квадрант

(а.с!) (’j,?) с вершиной (х, у) (рис. 40).Действительно, увеличивая х (смещая границу квадранта вправо) или увеличивая у (сме-

п,'с) щая границу вверх), мы, оче­видно, не можем уменьшить

------ вероятность попадания случай-х ной точки в такой квадрант.

Рис. 43 С в о й с т в о 5. Вероятностьпопадания случайной точки

(X , У) в произвольный прямоугольник со сторонами, парал­лельными координатным осям, вычисляется по формуле

P ( a ^ X < b , с ^ У < d ) = F(b, cl) — F (a, d) —- F ( b , с) -{- F (а, с). (3.2)

Д о к а з а т е л ь с т в о . Возьмем прямоугольную об­ласть с вершинами в точках (а, с), (a, d), (b, d), ф, с) (рис. 43) и рассмотрим следующие события:

А = ( а X < [ b, с ^ Y < d ) ;В = ( а ^ Х < Ь , У < с ) ;С = ( Х < л , c < K < r f ) ;

£> = ( Х < а , У < с ) ;Е = (X < Ь, К < d ) .

Очевидно, событие Е есть сумма несовместных собы­тий А, В, С, D, т. е. Е = А -}- В -j- С -(- D.

По теореме сложения вероятностей несовместных собы­тий имеем:

Р (£) = Р (А) + Р (В) -f- Р (С) -|- Р (D ),откуда

Р { А ) = Р (Е) — Р (В) — Р {С)— Р {D). (3.3)

108

Page 109: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Выразим вероятность правой части равенства (3 .3 ) через значения функции распределения:

P ( E ) = P { X < b , Y < d ) = - . F ( b , d),Р (В) = Р ( а ^ X <^ b , Y <^c) = F (b, с) — F (а, с),Р (С) = Р (X < я, c ^ Y < d ) = F(a, d) — F (а, с),

Р (D) = Р (X < а, Ү < с) = Ғ (а , с) .

Подставляя полученные значения вероятностей в ра­венства (3.3) и приведя подобные члены, получим:

Р (A) = F (b, d) — F (0, с) — F (a, d) F (а, с),

что и требовалось доказать.

§ 3.4. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН

Функция распределения, рассмотренная в предыду­щем параграфе, является универсальной характеристи­кой системы случайных величии. Она может быть при­менена для описания систем как дискретных, так и непре­рывных случайных величин. Основное практическое зна­чение имеют системы непрерывных случайных величин, распределение которых характеризуется не функцией распределения, а плотностью распределения.

Плотность распределения является исчерпывающей характеристикой системы непрерывных случайных вели­чии, с помощью которой расчет вероятностей попадания в различные области производится проще, а описание распределения системы становится более наглядным.

Определим плотность распределения системы двух величин аналогично тому, как мы определили плотность распределения для одной случайной величины.

Пусть имеется система двух непрерывных случайных величин (А', К). Рассмотрим вероятность попадания слу­чайной точки (A, Y) в элементарный прямоугольник со сторонами Дл' и А//, примыкающий к точке с коор­динатами (л\ у) (рис. 44). Применяя формулу (3.2), по­лучим:

Р (х < X < х - f Дд, y < Y < у -1- Д у) == F {х | Дд, у Ду) — F (х, у -|- Ду) —

- F (л -j- Дд, у) -|- F (х, у).

109

Page 110: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Разделим полученную вероятность на площадь этого прямоугольника и перейдем к пределу при Дл' - - 0 и Л// — 0 :

только непрерывна, но и дважды дифференцируема, тогда правая часть формулы (3.4) представляет собой вторую

смешанную частную пронз-

Таким образом, плотность распределения системы двух случайных величин представляет собой предел отно­шения вероятности попадания случайной точки (X, Ү) в элементарный прямоугольник (рис. 44) к площади пря­моугольника, когда оба размера его стремятся к нулю; она может быть вычислена как вторая смешанная част­ная производная от функции распределения системы.

Геометрически функцию / (л*, у) можно изобразить неко­торой поверхностью (рис. 45), которую называют поверх­ностью распределения.

Рассматривая плотность распределения f (.v) для одной случайной величины X , мы ввели понятие «элемента вероятности» } (л) dx, выражающего вероятность попада­ния случайной величины Л" на элементарный участок dx. Аналогично вводится понятие «элемента вероятности» и для системы двух случайных величин. Элемент вероят­ности f (х, у) dx dy системы двух случайных величин дает вероятность попадания случайной точки в элементарный прямоугольник со сторонами dx и dy, примыкающий

limA.v -» 0 Л у - 0

р (,у < X < д: -г А у. V < У < V -г Ау) Ах • А?/

— lim ■A .V — О

Д у - О

/•' (.у - f Л V, ;/ - г А!/) — F (.с, 11 + Ау) — !■' (х + Ах,и) + Av • Ay (3.4)

Предположим, что функция распределения F (х, у) не

У водную функции F (х, у). Обозначим эту производную через f (х, у):

о х

Рис. 44

х+йх X Функция / (.V, у) называет­ся плотностью распределе­ния системы непрерывных случайных величии (X , К),

110

Page 111: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

к точке (лг, у) (рис. .45). Геометрически элемент вероят­ности есть объем элементарного параллелепипеда, опи­рающегося на элементарный прямоугольник со сторо­нами dx и dy и с высотой f (х, у) фис. 45).

Следовательно, зная плотность распределения / (.v, у), можем определить вероятность попадания случайной точки (X , К) в произвольную область D. Эта вероятность может быть получена суммированием элементов вероятно­сти по всей области D и предельного перехода, когда наибольший пря­моугольник со сторона­ми Ax = dx и Лy = dy стягивается в точку:

Р( ( Х, Y) С £>) == \ \ f ( x , у) dxdy. (3.6).

' D

Геометрически веро­ятность попадания в область D изображается объемом цилиндриче­ского тела, ограничен­ного поверхностью рас­пределения и опираю­щегося на эту область (рис. 46).

Используя формулу (3 .6), выразим функцию распределения системы F (х, у) через плотность распределения f (х, у).Функция распределе­ния F (х, у) есть вероятность попадания в квадрант, ограниченный абсциссами — оо, х и ординатами — с о , у, поэтому

F (х, у ) = \ \ f (х, у) dxdy. (3.7)— СО — СЭ

Рассмотрим свойства плотности распределения системы двух случайных величин.

С в о й с т в о 1. Плотность распределения есть функ­ция неотрицательная:

f(x, у) 2*0.111

Page 112: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Д о к а з а т е л ь с т в о . Плотность распределения есть предел отношения вероятности попадания случайной точки в прямоугольник со сторонами Л* и А// к пло­щади этого прямоугольника (при Ах - - О и А/у— 0). Обе эти величины — неотрицательны. Следовательно, и пре­дел их отношения не может быть отрицательным, т. е. / (* , у ) ^ 0 .

С в о й с т в о 2 . Двойной нссооственныи интеграл с оес- конечными пределами от плотности распределения системы равен единице:

СО СО

5 5 f ( x , y ) d x d y = 1.— СО —со

Д о к а з а т е л ь с т в о . На основании формулы (3.7) и свойства функции распределения F ( оо, -\- оо) = 1 имеем:

со со

I' ( оо, оо) = 5 5 / у) dx dlJ = l -

Геометрически это свойство озиа- *х чает, что объем тела, ограниченного

р ас_ 47 поверхностью распределения и пло-’скостыо хОу, равен единице.

Пример 1 . Плотность распределения системы двух случайных величин (X, Y) задана выражением

Найти а. Определить функцию распределения F { x , aj) и найти вероятность попадания случайной точки в пря­моугольник (рис. 47) с вершинами 0 ( 0 , 0 ) , /1 (0 , i),

в(Кз~ 1) И С(КЗТО).Р е ш е н и е. Пользуясь свойством 2 плотности распре­

деления, найдем постоянную величину а:

] ъ— с о — со

1 + А'2 + ДГ-У - dx dy = a \ \ , dA d-v — - =

VJ W ^

I* fix I* dy = ° \ и г ? \ ттгуг — arctg х arctg у — а--.

Следовательно, а =

Page 113: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Функцию распределения Ғ{х , у ) определяем по фор­муле (3.7):

•V V

(Ix dy'I (1 + 1

■ оо — соI \ ( 1

)(1 + г )

! 1 * , I \ / 1 , , 1 \= ( _ arctg х 4 - -2- j (~ arctg у + -fJj .

Вероятность попадания случайной точки (X, У) в заданный прямоугольник согласно формуле (3.6) равна

Р ((X , У) с Я) = i jj 5 (1 -І-Л-H l -Ь г )

Уз I! I* f/л- I* r/v i .= — \ :--- г. \ arctg л*

-- .) 1 -f -V- ,) 1 -г 3'- ■*

V з

arctg f/

f(-v, и)

~~ г.5 з 4 " 12 *В заключение этого параграфа отметим, что одним

из наиболее простых распределений системы двух не­прерывных случайных величин является равномерное распределение.

Система двух непрерывных случайных величин (X, У) имеет равномерное распределение в области D плоскости хОу, если плотность распределения в точках области D по­стоянна п равна нулю в остальных точках плоскости хОу:

j С внутри D ,j 0 вне D.

Это означает, что с вероятностью 1 случайная точка попадает в область D, причем все положения в области D для этой точки в некотором смысле равноправны.

В силу свойства 2 плотности распределения имеем:С — .} -

Vгде So — площадь области D.

Основное свойство равномерного распределения состоит в том, что для пего применим геометрический способ определения вероятности. Так, если область w содер­жится в области D, то нетрудно показать, что

Р((Х, К) оо = Iя.D

где 5 Ш— площадь области со.

113

Page 114: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Действительно, согласно (3.6)

Р«*'У>С")=П/(*.0 Лг*=0>

= \ [ k d x d ^ s - A l d x d ! J = = k

§ 3.5. ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ ОТДЕЛЬНЫХ ВЕЛИЧИН, 6ХОДЯЩИХ В СИСТЕМУ. УСЛОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ

Пусть известна плотность распределения системы двух случайных величин. Рассмотрим сначала задачу нахож­дения плотности распределения одной величины, входя­щей в систему. Согласно свойству 1 § 3.2, имеем:

Fi (.* )'= F (х, со ); F, {у) = F (оо, у).

Следовательно, используя формулу (3.7) связи между f (х, у) и F (х, у), можно представить Fi{x) и F* (у) в виде:

Л* ОО

Fi (х) = F (х, оо) = 5 J f (х, у) dx dy,— со — со .

F* (у) = ғ (оо, у) =5 \ f ('v> У) clx dtJ-

Отсюда, дифференцируя первое равенство по х, а второе — по у, получим выражение для плотностей рас­пределения отдельных величин, входящих в систему:

ft (х) = F\ (х) = j [ (х, у) dy,— СО

со

Һ (у) = F;> ( у ) = \ f (х’ У) dx -

(3.8)

Таким образом, для того чтобы получить плотность распределения одной из величин, входящих в систему, нужно плотность распределения системы проинтегриро­вать в бесконечных пределах по аргументу, соответству­ющему другой случайной величине.

Перейдем теперь к решению обратной задачи: по известным законам распределения отдельных величин,

114

Page 115: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

входящих в систему, найти закон распределения системы. Как легко видеть, в общем случае эта задача неразре­шима. Действительно, законы распределения отдельных случайных величин, входящих в систему, характеризуют каждую из случайных величин в отдельности, но ничего не говорят о том, как они связаны между собой. С дру­гой стороны, искомый закон распределения системы должен содержать все сведения о случайных величинах системы, в том числе и о характере связей между ними.

Таким образом, если случайные величины X, У зави­симы между собой, то закон распределения системы не может быть выражен через законы распределения отдельных случайных величин, входящих в систему. Это приводит к необходимости введения условных зако­нов распределения.

О п р е д е л е н и е . Распределение одной случайной вели­чины, входящей в систему, найденное при условии. что другая случайная величина, входящая с систему, приняла определенное значение, называется условным законом распре­деления.

Условный закон распределения можно задавать как функцией распределении, так и плотностью распределе­ния. Условная функция распределения обозначается Ғ {XIу), условная плотность распределения f (х/у) (мы записали условные законы распределения случайной величины X при условии, что другая случайная вели­чина У приняла определенное значение). Так как системы непрерывных случайных величин имеют основное прак­тическое значение, то мы ограничимся рассмотрением условных плотностей распределения.

Согласно определению плотности распределения для случайной величины X при условии, что случайная величина У приняла определенное значение, имеем:

f / 1 N 1 • р ( X < х < Д- -f- A.V' І у = V) /0 mf (х \у) = l i m -------------- - ---------------— • (0 .9)Дд- -* 0 ~л

Но в силу непрерывности случайной величины У Р ( У = у ) = О,

и поэтому условная вероятность Р (л*<^Х х -j- 1 х \ У = у) не существует (см. теорему умножения вероятностей). Следовательно, правую часть равенства (3.9) нужноусовершенствовать, не меняя, однако, ее смысла. Это можно сделать, заменив первоначальное условие (У = у)

115

Page 116: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

новым (у < У < у + А //) и устремив затем А г/ к нулю. Таким образом, примем следующее определение условной плотности распределения f ( x \ y ) :

f ( x \ y ) = lim Р ^ < ^ < - г + д ^ > ' < 1/<->' + д>:). (3.10)д х -* Од V — U

По теореме умножения

Р ( х < Х < х + Ь х \ у < У <0 + Ьу) =__Р (л* х -)- А л", < }' х у А у )~~ Р ( у < У < у + Ьу)

Следовательно, равенства (3.10) можно переписать так:

г , , ч , • Р (х < X < х -һ А л*, у < У < v 4- А з'), ( х , у) = i,,„e — — .

iv -»0

Разделив числитель и знаменатель на Д у, получим:

Р (X с Х < X -\- А А', V < У < у + А У)£ / 1 \ 1 • А Д - ■ А у / (х, 3 »)f ( х j //) —д1 іто P ( v < r < v + A.y — /, (у) •

Ay(3.1!)

Д.У — 0 Ay

Аналогично получаем:

f (U\ x ) = (3.12)

Используя оба соотношения (3.11) и (3.12), можно запи­сать, что

f (X, у) = Һ (х) / (I/1X) = /. (//) f (X | г/). (3.13)

Отсюда видно, что для определения плотности рас­пределения системы необходимо в общем случае знание плотности распределения одной случайной величины, входящей в систему, и условной плотности распределения другой случайной величины, входящей в эту систему.

Равенство (3.13) часто называют теоремой умножения законов распределения. Эта теорема в схеме случайных величин аналогична правилу умножения вероятностей для случай пых событий.

Применяя правила определения плотностей распре­деления случайных величин, входящих в систему (см.

116

Page 117: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

формулы 3.8), формулы (3.11) и (3.12) можно пере­писать так:

f ix, У)f(x \у)

f (У! х)

j / (-V, У) dx—‘оо

/ (а-, у)СО5 / (X, у) dy

(3.14)

Условная плотность распределения обладает всеми свойствами безусловной плотности распределения. В част­ности, как следует из (3.14),

с о с о

5 / (х | tj) dx = 1 , 5 f ( y \ x ) d y = \ .— СО — с о

Д ля краткого описания условных законов распреде­ления мы можем использовать различные характеристики, подобно тому как мы имели для одномерных распре­делений.

Наиболее важной характеристикой является условное математическое ожидание.

Условным математическим ожиданием дискретной слу­чайной величины X при Y — у [у — определенное возмож­ное значение случайной величины Y) называется сумма произведений возможных значений X на их условные веро­ятности:

M \ X \ Y = y\ = Y l xlP(x , \ y ) .£== 1

Д ля непрерывных случайных величинСО

M [ X \ Y = , j ] = \ x f ( x \ y ) d x ,— СО

где f ( x \ y ) — условная плотность распределения случай­ной величины X при Y = у.

Аналогично, условным математическим ожиданием дискретной случайной величины Y при X = х называется сумма произведений возможных значений Y на их услов­ные вероятности:

тM [ Y \ X = x ] = ^ y j P { y j \ x ) .

/ = 1

117

Page 118: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Д ля непрерывных случайных величинСО

М [ У \ Х = х ] = S i j f (y\x)dt j ,— со

где f (у | х) — условная плотность распределения случай­ной величины Y при Х = х.

Подобным образом вводятся условные дисперсии и условные моменты более высоких порядков.

Из определения условного математического ожидания М [ Х \ У = у \ следует, что с изменением значения у будет изменяться и М [ Х \ У = у]. Это значит, что мы можем рассматривать функцию тх (у) = М [X 1, Ү = у\, областью

а) б)

У=т,(х)

определения которой является множество возможных значений случайной величины Ү . Эта функция носит название регрессии X по Ү .

Аналогично условное математическое ожиданиеМ [Ү І Х = л ] является функцией лг, т.е. m v (л) = Д1 [Y | X = л], которая носит название регрессии Y по X.

Уравнениях = тх (у) (3.J5)

иУ = т у (х) (3.16)

называются уравнениями регрессии соответственно X по Y и Y по X. Линии, определяемые уравнениями (3.15) н (3.16), называются линиями регрессии. Эти линии вво­дятся лишь для непрерывных случайных величин (длядискретных случайных величин «линии регрессии» будут состоять из изолированных точек плоскости). Пример­ные графики линий регрессии изображены на рис. 48.

118

Page 119: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 3.6. ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

Понятие зависимости или независимости случайных величин является одним из важнейших понятий теории вероятностей.

Случайная величина X называется независимой от случайной величины У, если закон распределения вели­чины X не зависит от того, какое значение приняла величина Ү .

Д ля непрерывных случайных величин условие неза­висимости X от Ү может быть записано в виде

f ( x \ y ) = [ 1 (*)

ripн любом у.Если же случайная величина X зависит от случайной

величины Y, тоf (х I У =ғһ(х) .

Используя равенство (3.13), легко показать; что если величина X не зависит от Ү, то и величина У не зави­сит от Х , ут. е. зависимость или независимость случай­ных величин всегда взаимны.

Действительно, пусть X не зависит от У:

f ( x \ y ) = fi (-V). (3.17)

Из равенства (3.13) имеем:h ( x ) f ( y \ x ) = f .z(y)f(x\ i j ) ,

откуда, принимая во внимание (3.17), получим: f (у \ х ) = һ(у) ,

что и требовалось доказать.Таким образом, случайные величины X и У называются

независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае случайные величины X и У назы­ваются зависимыми.

Укажем простой признак независимости случайных величии, который сформулируем в виде следующей теоремы.

Теорема. Д ля того чтобы непрерывные случайные вели­чины X и Ү были независимыми, необходимо и доста­точно, чтобы плотность распределения системы (X, Ү)

110

Page 120: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

была равна произведению плотностей распределения от­дельных величин, входящих в систему:

f i x , y) = f i i x ) f i {y) .

Д о к а з а т е л ь с т в о . Н е о б х о д и м о с т ь . Пусть X и Y — независимые случайные величины, тогда

f {х I У) = f 1 (X), f i y IX) = fi (IJ),

и, следовательно, равенство (3.13) принимает вид: fix, У) = h ix) /о (у).

Д о с т а т о ч н о с т ь . Пусть / (х, у) = f \ (.* )/2 (у) . Отсюда, используя равенства (3.11) и (3.12), получаем:

fi (х) = 1 ix | у) или f, (у) = = f (у | Л').

Теорема доказана.С л е д с т в и е . Если плотность распределения f (х, у)

представима в виде произведения двух сомножителей, пер­вый из которых содержит только х , а второй — только у, то случайные величины X и Y независимы.

Действительно, пустьf іх, у) = я(х) 3 (у). (3.18)

Тогда в силу свойства 2 плотности распределения системы и формул (3.8) имеем:

со со со со

5 5 / (х, у) dx dy = \ а (х) dx $ 3 (у) d y — l,— оэ — со

f, (*) = *(*) ? ( ! / ) d y = - s r ! --------- ,J [ a (x) СІХ— со J 4

— CO

CO

h (</)= ? to) Г « M dx = .S Н у) Чу

— СО

Отсюда

Һ М Һ (У) = — ------ --------------------- = * М ? (U) = f (*. у)j a ( x ) d x j (3 0 0 dy

— CO — CO

и, следовательно, случайные величины X , Y независимы.

120

Page 121: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Заметим, что (как видно из доказательства) функциио.(х), 3 (у) в разложении (3.18) с точностью до постоян­ных множителей совпадают с плотностями распределенияҺ (*) 11 /-Н^-

Пример 1 . Система случайных величин (X , Y) имеет плотность вероятности:

/ (х, У) = ^ (1 - { - Х - + Г + .rL> -) *

Требуется определить, зависимы или независимы слу­чайные величины X и У.

Р е ш е н и е . Ответ немедленно следует из возмож­ности разложения плотности f (х, у) на множители:

Һ (*, У) 1

Отсюда видно, что случайные величины X и У неза­висимы, причем каждая из них подчиняется так назы­ваемому закону Коши:

А ( * ) — w T X 3 ' . h i ! / ) 'Я (>+*-) ’ * ( > + / • ) '

Пример 2. Система случайных величин (X, У) равно­мерно распределена внутри круга радиуса г:

Л I при х~ + у * ^ г \ f (x>y) = \ ,'r (3-19)

( 0 при г Ч - * / '> '" •

Найти плотности распределения случайных величин X и Y, а также их условные плотности распределения относительно друг друга. Установить, зависимы или независимы случайные величины X и У.

Р е ш е н и е . Подставляя выражение (3.19) в фор­мулы (3.8), находим плотности распределения случайных величин X и У:

СО

f 1 (X) = 5 / (X, у) cly =

I у 1 sc: г.(3.20)

VГ'~ - -V-С _ J L 1/- у . . г — X- при I X | С г ,

- Y Г- — А--0 при | * | ] > г .

121

Page 122: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

, I Zrz V Г — f прп | / / ! с г ,h{y) = \ (3.21)

[ 0 при \ у \ > г .Подставляя полученные выражения (3.20) іг (3.21)

соответственно в формулы (3.14), найдем условные плот­ности распределения случайных величин X и У:

1

Аналогично вычисляя, получим:

п р п U 1 < J ' V — у1,

п р и и > У г ~ У 1 у

п р и \ У \ го

п р и \у \ > 1 ' Г — х -

Так как их условные плотности распределения не совпадают с безусловными и произведение их плотностей распределения не равно их совместной плотности рас­пределения, то случайные величины Л' и У зависимы.

§ 3.7. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХСЛУЧАЙНЫХ ВЕЛИЧИН. КОРРЕЛЯЦИОННЫЙ МОМЕНТ. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ

Законы распределения системы случайных величин являются исчерпывающими вероятностными характери­стиками ее. Однако очень часто такая исчерпывающая характеристика не может быть применена. Иногда огра­ниченность экспериментального материала не дает воз­можности построить закон распределения системы.

При исследованиях, связанных с системами случай­ных величин, весьма большое применение нашли их числовые характеристики, которые в определенной сте­пени могут дать представление также и о характере закона распределения.

В основу получения числовых характеристик системы случайных величин положено понятие моментов. Как и для одной случайной величины, здесь различают на­чальные и центральные моменты.

Начальным моментом aks порядка /е -{— s системы (X, Y) называется математическое ожидание произведения /г-й степени X на s-ю степень У:

a b = A 'l [ X /-Y i ] . ( 3 .2 2 )

122

Page 123: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Формулы для вычисления начальных моментов aks записываются следующим образом:

для системы дискретных случайных величин

(3-23)i j

где Pij = Р (X — .V/, У == tjj) — вероятность того, что си­стема (X, У) примет значения (л'г-, tjj), а суммирование распространяется по всем возможным значениям слу­чайных величин X , У;

для системы непрерывных случайных величинCO со

a*s= 5 S x ki / f (х, у) dxdy , (3.24)— СО — со

где /(.V, у) — плотность распределения системы.На практике наиболее употребительными являются

начальные моменты первого порядка:

а„ = М [ХЧ'*] = М [X] = тх, \ ат = М [Xе/ 1] = М [У] = т у, )

которые являются математическими ожиданиями случай­ных величин X н У, входящих в систему. Эти матема­тические ожидания определяют координаты точки, назы­ваемой центром рассеивания системы на плоскости.

Перейдем теперь к рассмотрению центральных мо­ментов.

Центральным .моментом порядка к ~\- s системы (X, У) называется математическое ожидание произве­дения Л-й п s-й степеней соответствующих центрирован­ных величин:

!4 -s = М [(А' — тх)к (У — ШуУ] . (3.25)

Формулы для вычисления моментов \i!{S записываются следующим образом:

для системы дискретных случайных величин

lJ‘*S = V V (X; — шх)!' (у — ШуУРіj\ (3.26)i j

для системы непрерывных случайных величинСО rfj

Hs — S S (* — тхУ' (У -- niy)s f (x, у ) dx dy. (3.27)

12.

Page 124: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

В практике наибольшее применение имеют централь­ные моменты второго порядка. Два из них представляют собой уже известные нам дисперсии величин X и Ү:

Dx = а20 = М [{X - тх)~ (Y — //гу)°] = М [(X - mxf ] ,Dy = [j-оз'== М [(X — тх)° {Y — ту)'2} = /VI [(К — туу2],

которые характеризуют рассеивание случайной точки в направлении осей Ох и Оу.

Особую роль при исследовании системы двух случай­ных величии играет второй смешанный центральный момент iMi, который называется корреляционным момен­том, или моментом связи. Он обычно обозначается kxy:

kxУ = !Ji 1 = м [(X — тх) (Y — 1Пу)\. (3.28)Момент связи kxv, определяемый как математическое

ожидание произведения отклонений двух случайных ве­личин от их математических ожиданий, помимо рассеи­вания величин X и Y, может характеризовать взаимное влияние этих случайных величии. Для оценки степени этого влияния обычно используют не сам момент связи кХу, а безразмерное отношение

k KVГ*! = Т Г ' <3 -29)Ху

которое называют коэффициентом корреляции случайных величин X и Ү .

Корреляционный момент и коэффициент корреляции обладают следующим свойством.

Если случайные величины X и Ү независимы, то корреля­ционный момент и коэффициент корреляции равны нулю.

Доказательство проведем для непрерывных случай­ных величин. Пусть X и Ү — независимые случайные величины с плотностью распределения f ( x , y ) . Тогда согласно теореме § 3.6 имеем:

f ( x , y) = f i (x)fo(y),где f i (х), fi (у) — плотности распределения соответственно величин X и Y.

Следовательно,со со

kxy = S S (X — тх) (у — ту) f (х, у) dx dy =— со — со

со с )

= 5 (х — тх) [l (X) dx 5 (у — /Лу) /•» (у) dy,

124

Page 125: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

т. е. двойной интеграл превращается в произведение двух интегралов, каждый из которых равен нулю, так как они представляют математические ожидания от цен­трированных случайных величин (см. § 2.5, п. 4).

Итак, для независимых случайных величин X и Үt ixy — Q.

Из равенства пулю корреляционного момента и фор­мулы (3.29) следует равенство нулю коэффициента кор­реляции.

Аналогично доказывается это свойство и для дискрет­ных случайных величин.

Равенство нулю коэффициента корреляции является только необходимым, но не достаточным условием для независимости случайных величии. Это значит, что может существовать система зависимых случайных величин, коэффициент корреляции которой равен нулю. Приме­ром такой системы является система случайных вели­чин (X, К), равномерно распределенная внутри круга радиуса г с центром в начале координат. В примере 2 § 3.6 мы показали, что случайные величины X и Y системы, имеющей такое распределение, являются зави­симыми. Вычислим теперь корреляционный момент.

Так как для системы случайных величин (X, К), равномерно распределенных внутри круга с центром в начале координат, тх = 0 , ту = 0 , то

со о:>

кку = S S Xtjf (х, у) dx dy.— со

Тогда имеем:

где

, . f Дт при х- - f i f ^ Лf ( X j y ) = ) r . r -{ 0 при Х-~\-у'-^>Г.

Здесь внутренний интеграл равен нулю (подынтеграль­ная функция нечетна, пределы интегрирования отли­чаются только знаком), следовательно, kxy = 0 , или, что то же, коэффициент корреляции гху = 0 .

Vr~-x"

V Г - - X -

dx,

Page 126: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Две случайные величины X и У называются некор­релированными, если их коэффициент корреляции равен нулю; X и У называются коррелированными, если их коэффициент корреляции отличен от пуля.

Таким образом, если случайные величины X и Ү независимы, то они и некоррелнрованы, но из некор­релированности случайных величин нельзя в общем случае сделать вывод об их независимости.

Кроме корреляционного момента и коэффициента корреляции, взаимная связь двух случайных величин может быть описана с помощью линий регрессии. Дейст­вительно, хотя при каждом значении Х = = х величина У остается случайной величиной, допускающей рассеива­ние своих значений, однако зависимость У от X сказы­вается часто в изменении средних размеров У прп пере­ходе от одного значения х к другому. Эту последнюю зависимость и описывает кривая регрессии

у = ту (х).

Аналогично, зависимость X от У, которая сказы­вается в изменении средних размеров X при переходе от одного значения у к другому, описывается кривой регрессии

х = т х (у).

§ 3.8. ФУНКЦИЯ И ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ПРОИЗВОЛЬНОГО ЧИСЛА СЛУЧАЙНЫХ ВЕЛИЧИН

На практике очень часто приходится рассматривать системы более чем двух случайных величин. Эти системы, как мы уже отмечали в начале этой главы, интерпрети­руются как случайные точки или случайные векторы в пространстве соответствующего числа измерений.

Полной характеристикой системы произвольного числа случайных величин является закон распределения системы, который может быть выражен функцией рас­пределения или плотностью распределения.

Функция распределения системы нескольких случай­ных величин вводится как обобщение функции распре­деления системы двух случайных величин. Так функ­цией распределения системы п случайных величин fXi, Х>, . . . , Х,{) называется функция а аргументов

Page 127: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Л'ь .v2, . . . , x,i, равная вероятности совместного выпол­нения п неравенств X,-< \ v ; ( * ' = 1 , 2 , п), т. е.

F (хI, а», ■ • • j Xji) —— P ( X \ <^ X i , Х <2 < л'2, . . . , Х п < ^хг1). (3.30)

Эта функция является неубывающей функцией каж­дой переменной при фиксированных значениях других переменных. Если хотя бы одна из переменных л*ь . . . . . . , л',г стремится к — сю, то функция распределения F (ЛГ|, х-2, . . . , хп) стремится к нулю.

Выделим из системы величин (Ль X», Х„) част­ную систему (Л ь Х-2, Х т), тогда функция распре­деления этой системы определяется по формуле

F 1, 2, ... , т *2» • • • j Хт) — Ғ (Лі, Ао, . .. , Xf/it СО, . .. , со).

В частности, функция распределения каждой из вели­чин, входящих в систему, получится, если в функции распределения системы положить все остальные аргу­менты равными - |-со :

Л ( X l ) = F (хи СО, . . . . со).

Если все переменные а ь xit . . . , хп стремятся к -{-ос, то F (хи а .2, . . . , х„) стремится к единице:

F ( с о , - . . . , оо) = 1 . (3.31)

Зная функцию распределения Ғ (хи л\>, . . . , хп), можно получить формулу, аналогичную формуле (3.2), для определения вероятности попадания случайной точки (Ль Л 2, . . . , Х я) в прямоугольные области. Однако получающаяся при этом формула весьма громоздка.

Функция распределения является достаточно общей характеристикой системы случайных величин. Любая система случайных величин имеет функцию распределе­ния. Д ля описания закона распределения системы непре­рывных случайных величин обычно используют плот­ность распределения системы.

Плотность распределения f (лгь лг2, . . . , хп) системы п случайных величин (Ль Л*, . . . , Л„) определяется как предел отношения вероятности появления системы (Ль Х ь . . . , Л /г) в малой окрестности точки (хи а 2) . . .

'127

Page 128: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

/

. . . , х п) к размеру этой окрестности прп неограниченном ее уменьшении, т. е.

f (ль Аг, • • • , Хя) =_ Р (a'i < At •< л-j Ал'р •••, х п ■<. Х п <с х п -)- Ал'ц) 2 2 ^

A.VX- 0 Ал'і Лл'«Д* 2 -*■ о .А'хп~*°

Плотность распределения системы не 'может быть отрицательной:

f (Хи хо, Ал) ^ 0 .Вероятность попадания случайной точки с координа­

тами (Х и Х-2, , Х п) в «-мерную область D выражаетсяинтегралом

Р ( ( Х и Х ь . . . >Xa)<ZD) == $ $ . . . $ / (*ь a2, . . . , хп) cixidx-i . . . dxn. (3.33)

D

Применяя формулу (3.33) к области Х £- х £- (/ = 1, . . . . . . , п ), получим выражение функции распределения системы через плотность ее распределения:

F (Хи Ао, . .. , А„) —*1 -V2 A’rt /

— 5 5 . . . S f (xu Ao, . . . , xn)d x id x i . . . dxa. (3.34)— CO —CO

Дифференцируя эту формулу по.каждой из перемен­ных, получим выражение плотности вероятности системы (Хь Хо, . . . , Х п) через функцию распределения этой системы:

г ( г .. ч _ д п ’Ғ ( х і , х», . . . , х п)А2, . . . , Х п) a.vr.rXv, ...

Полагая в (3.34) аі = а2= = . . . = а„ = оо и принимая во внимание (3.31), получим:

ОЭ ' СО5 . . . 5 f (Хи Ха, . , х„) dxydx-i . . . dxn = 1. (3.36)

— ОО — с о

Плотность распределения частной системы (Х и Хч, . . . Х т), выделенной из системы (Хи Ха, . . . , Х п), равна

f 1, ‘2......т ( -Ь Ха, . . . , Хп) ----с о о э

- ■ ■ ■ 5 х%> • • • » X/i) dx,ji_v\ . . . dxn.— ОЭ — ОО

128

Page 129: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

В частности, плотность распределения каждой из вели­чин, входящих в систему, получится, если плотность распределения системы проинтегрировать в бесконечных пределах по всем остальным аргументам:

СО о э

f 1 (х) [ (л 1, х •_>, . . . , хп) dx-i . . . dxn.— с о — с о

Для того чтобы исчерпывающим образом охарактери­зовать систему, нужно еще знать зависимость между величинами, входящими в систему. Эта зависимость может быть охарактеризована с помощью условных за­конов распределения.

Условным законом распределения частной системы (Хь Х 2, . . . , Х т) называется ее закон распределения, вычисленный при условии, что остальные величины Х т,л, . . . , Х п приняли значения хт+и . . . , хп.

Условная плотность распределения определяется по формуле:

/ *2, . . . . хт | хт+1, . . . , хп) = /(Лі> х -' ’ Хп) ./ От-Ц, ... , П \Л/П+1, ... , х п)

Случайные величины Х и Х 2, Х п называютсянезависимыми, если закон распределения любой частной системы, выделенной из системы (Хь X 2, . . . , Х п), не зависит от того, какие значения приняли остальные слу­чайные величины.

Для системы (Хь X», . . . , Х п) независимых случай­ных величин плотность распределения равна произведе­нию плотностей распределения отдельных величин, вхо­дящих в систему: ,

f (хи Х-2, . . . , Х а) = f i (Ху) f о (Хо) . . . f „ (Х п) .

§ 3.9. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫПРОИЗВОЛЬНОГО ЧИСЛА СЛУЧАЙНЫХ ВЕЛИЧИН

Основными числовыми характеристиками, с помощью которых может быть охарактеризована система п слу­чайных величин (Хь Х 2, . . . , Х п), являются следующие.

1. Математические ожидания случайных величин, вхо­дящих в систему

тХ1, тХя, , т х-п,

б Гурскиіі 12;)

Page 130: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

которые в совокупности определяют центр рассеивания системы или математическое ожидание /z-мерного случай­ного вектора.

2. Дисперсии

характеризующие рассеивание случайной точки в направ­лении осей.

3. Корреляционные моменты каждой пары из п слу­чайных величин

характеризующие попарно корреляцию всех случайных величин, входящих в систему.

Зная корреляционные моменты, можно найти коэф­фициенты корреляции

которые характеризуют степень связи между каждой парой случайных величин.

Так как дисперсия каждой из случайных величин системы (Х и Х-ъ . . . , Х п) есть не что иное, как частный случай корреляционного момента, а именно корреля­ционный момент величины и той же самой вели­чины Хі

то все корреляционные моменты и дисперсии распола^ гают в виде прямоугольной таблицы

которая называется корреляционной матрицей системы п случайных величин. - .

Из определения корреляционного момента следует, что kXiXf = kXfX,. Это значит, что элементы корреляцион­ной матрицы, расположенные симметрично по отношению к главной диагонали, равны. В связи с этим часто для

kx .xj = М [(Хі — т х .) (X j — тХ/)} (і ^ /),

130

Page 131: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

простоты в корреляционной матрице заполняется только ее половина:

В случае, когда случайные величины Х \, X:, Х п некоррелнрованы, все корреляционные моменты

Следовательно, корреляционная матрица системы некор­релированных случайных величин имеет вид:

Такая матрица называется диагональной матрицей .Вместо корреляционной матрицы часто пользуются

нормированной корреляционной матрицей.Нормированной корреляционной матрицей называется

такая матрица, элементами которой являются коэффи­циенты корреляции.

Все элементы главной диагонали нормированной корреляционной матрицы равны единице. Нормирован­ная корреляционная матрица имеет вид

В заключение этого параграфа введем понятие о не­коррелированных случайных векторах. Рассмотрим два случайных вектора в «-мерном пространстве.

kx .x j= 0 (при І Ф І ) .

V \ {Хь Х ь . . . . Х в} и V , { Y u У, ..........Уп}.

Случайные векторы V\ и F 2 называются некоррели­рованными, если каждая из составляющих X* вектора V ]t

Page 132: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

некоррелирована с каждой из составляющих У j век' тора Уь т. е. если корреляционные моменты

кхіУ/ = 0 при і = 1 , 2 , я ; / — 1 , 2 , п.

§ 3.10. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ НА ПЛОСКОСТИ

Из всех законов распределения системы двух случай­ных величин наибольшее распространение на практике имеет нормальное распределение.

Рассмотрим вначале нормальное распределение для системы двух независимых случайных величин.

Пусть X и У — нормально распределенные и незави­симые случайные величины, а отвечающие им плотности распределения имеют вид

Следовательно, плотность распределения системы (X , У) на основании теоремы умножения плотностей распреде­ления для случая независимых величин получим в виде

Если центр рассеивания системы совпадает с началом координат, то тх = ту = 0 , и следовательно,

Выражение (3.38) называется канонической формой нормального распределения на плоскости.

Д ля выяснения вида поверхности распределения(3.38) будем применять метод сечений.

Пересекая поверхность распределения плоскостями, параллельными координатной плоскости хОу, и проекти­руя сечения на эту координатную плоскость, мы полу­

f(*> У) = f\ (х) Һ (у) =1 Г(л' - ,пх)~ , (у - туУ

1 + а 2.(3.37)

(3.38)

Page 133: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

чим семейство подобных и одинаково расположенных эллипсов с общим, центром в начале координат.

Д ля того чтобы убедиться в этом, напишем уравне­ние линии пересечения поверхности распределения (3.38) плоскостью z = Zo = const. Очевидно, что постоянному значению г0 функции

1 /.V-

Z = f(x, у) 2 ' „jj

отвечает постоянное значение показателя степени, т. е.

Су к~ (к = const). (3.39)

Уравнение (3.39) является уравнением проекции па координатную плоскость хОу линии пересечения по­верхности распреде­ления (3.38) плоско­стью z = zn. Преоб­разовав уравнение(3.39) к виду

(=v*)s (*уА)я

(3.40)

мы видим, что оно является уравнением эллипса, главные по­луоси которого про­порциональны сЛ. ио у и совпадают соот­ветственно с осями Ох и Оу, а центр находится в начале координат.

Так как к может меняться от нуля до бесконечности, то мы имеем семейство подобных и одинаково располо­женных эллипсов. Каждый эллипс из этого семейства является геометрическим местом точек, где плотность распределения / (х,у) равна постоянной величине. Поэтому они называются эллипсами равной плотности, короче, эллипсами рассеивания. Общие оси симметрии всех эллип­сов рассеивания называются главными осями рассеивания.

При оЛ. = а у эллипсы (3.40) превращаются в окруж ­ности и распределение (3.38) называется круговым.

133

Page 134: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пересекая поверхность распределения (3.38) плоскос­тями, параллельными координатной плоскости уОг или хОг, мы будем получать кривые, подобные кривым нор­мального распределения.

f(x* У)

Рис . 50

Таким образом, поверхность распределения (3.38) имеет вид холма, вершина которого находится на оси Ог (рис. 49).

Поверхность распределения (3.37) отличается от по­верхности распределения (3.38) только тем, что центр

эллипсов рассеивания имеет ко- ордииаты (тх, т у), а главные оси рассеивания параллельны соответственно осям коорди­нат, т. е. поверхность распре­деления (3.37) получается па­раллельным переносом по­верхности распределения (3.38) (рис. 50).

Подсчитаем для распреде­ления (3.37) вероятность по­падания в прямоугольник со

сторонами, параллельными осям координат. Прямоуголь­ник ограничен абсциссами а и b и ординатами c u d (рнс. 51).

Применяя общую формулу для расчета вероятности попадания случайной точки в произвольную область к

134

Page 135: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

рассматриваемому случаю, запишем исходное выражение для искомой вероятности в виде

. Р ( а < л : < г ), c < K < < g = 5 * r f / ( * , ,i )dy =

и а и= Д (*)<** dr/==

а с а

X ) z r £ e

( х ~ т х ) '2а -

a v ^2* ( у - т д,)2

У

dx X

dy.

Отсюда, применяя формулу (2.40) для вероятности попа­дания случайной величины на интервал, находим:

Р ( д < Х < 6 , c < K < d ) =

Ф ~ W.V \У 2 /

Ф'л- / 2

(Г) d — my~ < к ғ

ф/с -

U . l ' ' - 5/Если стороны прямоугольника не параллельны осям

координат (главным осям рассеивания), эта формула для вероятности попадания в прямоугольник не применима.

Двумерное нормальное распределение (3.37) допускает непосредственное обобщение на систему п случайных величин (Хь Хо, Х„). А именно, если случайные величины Х ь Хо, . . . , Х п имеют нормальные распределе­ния и независимы между собой, то система случайных величин (Хь Хо, . . . , Х п) имеет «-мерное нормальное распределение с плотностью вероятности

f (Xl, А*, ..., Хп) =1 — " ' . V , ) 9 ( Л\> ~ тх~)- ( л " ,г - тхп)-~

----- ------- І-------77-------}-... 4-------77------

C.v1ax.) • • • аХп (~~) (3.41)Рассмотрим теперь нормальное распределение на пло­

скости для зависимых случайных величин.Плотность нормального распределения для системы

двух зависимых случайных величин X и Y выражается формулой

f ( x , у ) = - ------- ‘ X

Х е ’ О " ' 3* )

\ х - т ху- 2 г.ху

. (3.42)

135

Page 136: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Этот закон зависит от пяти параметров тх, m v, ах, ov и гху. Д ля выяснения смысла этих параметров опре­делим частные распределения случайных величин си­стемы.

Согласно формулам (3.8) имеем:( х — m )!ээ ' -V/

/iW= \ f {x , у) d y = - -------г)-.- „ е 2(1 г*у)9* хV 1 - Гху

а 1 Г(>'-"г.уУ- ,v (х~ тх) (-v~ m\X J е L °у " ’VV V>

— СО

Положим:У - т у _

} -Ш Г Ч ------- >■ « ,К 2 ' . „ ^ 2

тогда

dv.----------- — л— (v" — 2r . uv)

f, (x) = — 7____ ____ . e ( e '- 'i jr-•К2 . 4 / І - Г І , _ie

Дополним выражение в скобках до полного квадратан- г* и9

— +- -f 1 С*) = — - — <? 1 “ г*у 1 ~ X* У 2' хУ 1 - г * лу А

“ “ 7— r - ( ’ - V )2 X J б *у dv.

— со

Сделаем подстановку:

' = j 7 T = ^ (0 - ^ u)'тогда

һ (X) — JL е-"’ [ e-r-dt.

СО

Но dl — \ гъ (интеграл Пуассона). Поэтому, учи­

тывая, что и = х п:. х , имеем:

Page 137: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Таким образом, случайная величина X распределена нормально с математическим ожиданием гпх и диспер­сией о%.

Аналогично, определяя плотность распределения слу­чайной величины У, получим

(>'-туУ

т. е. случайная величина У распределена нормально с математическим ожиданием ту и дисперсией aj,.

Покажем теперь, что параметр гху есть коэффициент корреляции случайных величин X и У. Д ля этого вы­числим корреляционный момент k xy:

кху = $$ (х — т х) {у — ту) f (х, у) dx dy =— со

со

= о--- - - - - - (У — ШУ] х2 ™х Ь у \ - г ; ку Л

(х - mx f 2. (х (У~ту) (У-'ПуУЧ [~ гху) dx dy.

Произведем в двойном интеграле замену переменных, положив

и;1

V r2 | / 2 ( 1 - г у \

Якобиан преобразования равен

2 ахау Y 1 - гху.Поэтому

v - ту .. Л' - тх\ ____

k „ = | j 5 У 2 ь У 2 ( 1 - Ъ ) (ш + у ү £ ? г ) х________ со оо

X e-u- - w- da dw — "■ Л ;V ----- — jj ме- "2 dw ^ we~w~ dw -f-

ь 137

Page 138: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Ho J ие~п' du = J we~wSdw = 0 , как интегралы от нечет-— со — со

ной функции в симметричных пределах, а такжесо со

u*era* d u = - ү , e~w~ d w = V % .— со —со

Следовательно,

ХУ ■ г*у—'ЧУ

°ЛЛ_уТаким образом, параметр гху в формуле (3.42) есть

коэффициент корреляции случайных величин X , Y . Рассмотрим уравнение

' « * ) “ 2 / - (^' » ' * ) (-V М у ) I ( У M y ) _ _ ^ 2 ^ ^ 0 ^(Л'

Анализируя уравнение (3.43) обычными методами аналитической геометрии, убеждаемся в том, что оно представляет эллипс, центр которого находится в точке

с координатами (m.v, ту), а оси симметрии такого эллипса составляют с осью Ох углы, определяемые уравнением

tg 2 а ЪГху'яРу (3.44)

Уравнение (3.44) дает два значения * углов ол и а.2, различающихся навеличину

Придавая k различные значения, мы получим семейства подобных и одинаково расположенных эллипсов (эллипсов рассеивания), осп симметрии которых (главные оси рас­сеивания) не параллельны координатным осям (рис. 52).

Из уравнения (3.44) следует, что ориентация эллипсов рассеивания относительно координатных осей находится в прямой зависимости от коэффициента корреляции гху системы (X , Y ). Если величины X и Y некоррелированы (гху = 0 ), то главные осп рассеивания параллельны коор­динатным осям. Плотность распределения для некорре

138

ре- м

Page 139: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

лированных случайных величин получается из уравнения (3.42) при rxv = 0:

f i x , У)1 (3.45)

°АЛУ V2lZНо выше было показано, что выражение (3.45) пред­

ставляет плотность распределения системы независимых случайных величин. Таким образом, мы получили важный вывод: если нормально распределенные случайные величины некоррелированы, то они и независимы.

Из приведенных рассуждений следует, что от нор­мально распределенной системы зависимых случайных величин можно перейти к нормально распределенной системе независимых случайных величин путем поворота системы координат хОу на угол а, определяемый урав­нением (3.44).

В заключение этого параграфа рассмотрим условные законы нормального распределения, для определения которых применим формулы (3.14). Будем иметь:

1 Ш = --------, 1 . . XJ f i x , y ) d y

j/2 - av ү 1 - r %

X * 2(1-4;.)'( x - m x ) S _ 2 r Vv ( A - - m v ) ( v - m v) ( y - m y f

+(x ~ mx)3ъ-.

f ( x \ y )f i x , y ) X

X !0 - 4 v )

5 f ( x , y ) d x— 00

(x- ,nx)- -rxy (x~ mx) ( y ~ m.v) , ( y - my)- +2 з г

Преобразуя показатель степени при е, получим:

Page 140: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Анализируя полученные выражения, мы видим, что они представляют собой плотности нормального закона с центрами рассеивания соответственно

М [ У \ Х = х } = niy (х) = m v - | - гХу (хх

м [ X \ Y = у] = т х (у) = т х - f гху (уу

и средними квадратическими отклонениями

Су | Д- = а у У 1 / д. v,

°x\y = ° x Y \ — f ly .

Формулы (3.46) показывают, что линии регрессии Y по X и X по Y в случае нормального распределения являются прямыми линиями

У = Щу - j - гХу р - ( х — т х) ,

х = т х - \ - г ху I х ( у — т у ), у

которые проходят через точку (тх , т}), т. е. через центр распределения системы (X, Y ). Угловые коэффициентыпрямых регрессии гху - - и гху — называются соответ-

О д . а у

ственно коэффициентами линейнои регрессии Y по X и X по Y .

В о п р о с и д л я с ам оп ро ве рк и

1. Что называется системой случайных величин?2. Как м о ж н о трактовать ' систем у случайных величин?3. Д ай те определение функции распределения системы двух

случайных величин н укажите ее свойства.4. Дайте о п р еде лен и е плотности распределения вероятностей

системы д вух случайных величин. П еречислите и докаж и те ее свой­ства.

5. Как определить вероятность попадания в данную область?6. Что называется условным законом распределения?7. Как выражается плотность распределения каждой из величин,

входящ их в систему, через плотность распределения системы?8. Какие случайные величины называются зависимыми? н еза ­

висимыми? /9. Что является необходимым и достаточным условием незави­

симости случайных величин?10. Что называется корреляционным моментом? коэффициентом

корреляции?

140

— т х) , )(3.46)

— Щу) J

Page 141: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

11. Чему равен коэффициент корреляции для независимых сл у­чайных величин?

12. Какие случайные величины называются некоррелированны ми?13. С л едует ли из некоррелированности случайных величин их

независимость и наоборот?14. Что называют функцией распределения системы п случай­

ных величин?15. Как определяется плотность распределения системы п слу­

чайных" величин?16. Как определяется плотность распределения частной системы

т случайных величин, входящ ей в систему п случайных величин (т < л)?

17. Чему равна плотность распределения системы п независимых случайных величин?

18. С п ом ощ ью каких числовых характеристик м о ж ет быть охарактеризована система п случайных величин?

19. Что называется корреляционной матрицей системы п слу­чайных величин?

20. Какая матрица называется нормированной корреляционной матрицей?

21. Как записывается формула для плотности р асп ределен и я нормально распределенной системы д в у х независимых случайных величин? зависимых случайных величин?

22. Какие эллипсы называются эллипсами равной плотности или эллипсами рассеивания?

23. Равносильны ли понятия некоррелированности и н езав иси ­мости случайных величин для нормально расп р едел ен н ой системы?

У п р а о к н е н и я

1. По некоторой цели производится два выстрела. Вероятность попадания при одном выстреле равна р . Рассматриваются две слу­чайные величины:

X — число попаданий в цель,Ү — число промахов.

Составить таблицу распределения и определить числовые характери­стики системы.

т х = 2р, my — 2q,

D x = D y = 2pq,

k x y = - 2pq.

2. Н езависим ы е случайные величины X и Y подчиняются зако- равномерной плотности распределения соответственно в ннтер-

141нам

\ - ' 7

3’/ \0 1 2

0 0 0 р -

1 0 2 pq 0

2 Г 0 0

Page 142: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

валах (0, 2) и (— 2, 1). Написать выражения для плотности р а сп р е­д ел ени я системы (A', Ү).

~ при 0 г £ л г ^ 2 , — 2 * g y s g 1;

Отв. / (л*, у ) = ■ О при л- < 0 или х > 2; у с — 2 или > > > 1 .

3. Система случайных величин (X, У) имеет плотность р асп р е­деления

_ (Л‘ ~ 9)2 / (х) = ае 8 g ( y ) ,

где

1 COS у при |>»

g (У) =О при ! у j > 9

Найти а. Написать выражения для плотностей р аспределения с л у ­чайных величин X и Y. О пределить математические ож идания и дисперсии величин X и У.

1 1 -& = & ■Ошв. а = — — , / і (а ) = — — е 8 ,

•1 \ г 2~ 2 У2г.

Л ( Л = П Г , и* = 2 . ту = 0. = Oj = T - 2'4. Плотность вероятности системы случайных величин (X , Y)

задана выражением

/ (х, у ) = а е ~ ('v + D2 ~ I І.

Найти а. Написать выражения для плотностей распределения с л у ­чайных величин X и У. О пределить числовые характеристики системы

а 1 = , / , (* ) = 4 = е-'*-*-1’’ ,2 V ? .' ' УТ

Отв. ,f t (У) = — <?“ 1 -v тх = — 1, гпу = О,

Dy = 2, A*v = 0.

5. Плотность вероятности системы случайных величин (А, К) задана выражением

/ (л*, у ) = a cos (л- — у ) при O s ^ x ^ - £ , 0 ^ у ^ ~ .

Т ребуется: а) определить величину и; б) найти функцию р а сп р еде­ления Ғ ( х , у); в) определить числовые характеристики системы.

Отв.

Page 143: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

О при х < 0 и у < О;

~у [cos (л- + з') — cos л* — cos у - f П

б) F (х, у ) = i

1 при Л' > ү или у > -‘у ;

в) тх = m v = ~ , Dx = Dj, = үб Ң- о1 - 2:

6. Система д в у х случайных величин (X , У) подчинена закону р аспределения с плотностью вероятности

Определить коэффициент а и найти радиус круга с центром п на­чале координат, вероятность попадания в который равна р.

7. Система трех случайных величин (X, У, Z ) подчинена закону равномерной плотности распределения внутри цилиндра, ось кото­рого совпадает с осью O z и точкой О делится пополам. Р ади ус цилиндра равен г, а высота равна 2Һ.

Написать вы ражение для плотностей распределения системы и отдельных случайных величин, входящ их в систему. Установить, являются ли случайные величины X, У и Z зависимыми.

8. Плотность распределения системы д в у х случайных величин ( X, У) задана выражением

Отв. / (.v, у , z) = { 2т.г-һщ при X s - \ - у * * ^ г и | z | Л;

О прп д'2 + у" > Г' и | z | > Һ.

| ^ 5 V г* - при | л-1 =£ г;

[ О при | х | > г,

Һ (У) =

I 0 при 1 г j > Л ,X , У и Z — зависимы.

(-у 4 - з ) 1 ( у - 1)г

/ ( * , у ) = ае 2

143

Page 144: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Найти коэффициент а. Установить, являются ли случайные вели­чины X и У зависимыми. О пределить вероятность совм естного выполнения д в у х неравенств Х < — 3; У < 4 .

л о = — , где <jv = 2, а , = 1.Отв. 2"аЛ. а / л '

X и Y — независимы, Р ( X < — 3, У < 4) =%s0,5.

9. П роизводится единичное бом бом етание по прямоугольной на­зем ной цели. Ширина цели равна 20 м, а д л и н а — 100 м. П риц елива­ние по центру цели. Осп рассеивания совпадают с направлением полета и с перпендикуляром к этому направлению. В ероятн ое откло­нение в направлении полета равно 60 м, в направлении, п ер пен ди ­кулярном полету — 40 м. Систематические ош ибки отсутствую т. Найти вероятность попадания в цель при сбрасывании одной бомбы.

Ошв. р 0,058.

10. Система д в у х случайных величин (X, Y) подчиняется н ор­мальному закону. Рассеивание круговое . Найти вероятность попа­дания случайной точки (X , У) в круг, центр которого совпадаетс центром рассеивания, а радиус равен двум вероятным отклоне­ниям.

Отв. р — 0,598.

Page 145: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Г л а в а 4

ФУНКЦИИ с л у ч а й н ы х вел и ч и н

§ 4.1. ЗАКОН РАСПРЕДЕЛЕНИЯ ФУНКЦИИ ОДНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

При решении задач, связанных с оценкой точности работы различных автоматических систем, точности про­изводства отдельных элементов систем и др., часто при­ходится рассматривать функции одной или нескольких случайных величин. Такие функции тоже являются слу­чайными величинами. Поэтому при решении таких задач необходимо знать законы распределения фигурирующих в задаче случайных величин. При этом обычно закон распределения системы случайных аргументов известен и известна функциональная зависимость.

Таким образом, возникает задача, которую можно сформулировать следующим образом.

Дана система случайных величин (Х ь Хо, . . . , Х „), закон распределения которой известен. Рассматривается некоторая случайная величина У как функция случай­ных величии Х ь Х 2, . . . , Х п

Ү = ? (Хь X,, . . . , Х„). (4.1)

Требуется определить закон распределения случайной величины Ү , зная вид функции (4.1) и закон совмест­ного распределения ее аргументов.

Начнем с рассмотрения наиболее простой задачи, относящейся к этому классу: задачи о законе распреде­ления функции одного случайного аргумента

У = ? (X). (4.2)

В дискретном случае решение этой задачи очень просто. Действительно, пусть X —дискретная случайная величина, имеющая ряд распределения:

X А'і А‘> х,

р Pi Р* Р

к

Page 146: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Тогда Ү = 9 (X )— также дискретная случайная величина с возможными значениями # i = < ? (a 'i) , = = 9 (лг2) , . . .

= <р (а „ ) . Если все значения у и у», . . . , у п различны, то для каждого / е = 1 , 2, . . . , п события {Х — хк} и {Y — ук = <? (хк)} тождественны. Следовательно,

Р ( Ү = У и ) = Р ( Х = хһ) = р к Х

и искомый ряд распределения имеет вид:

Y у 1 = ? (jfi) У-г = ? (а 2) Уп — '■? (Хп)

р P i Рз . . . Рп

Если же среди чисел у { — <р(*0* У-2 — ?(■**), • • •, уп —— о (хп) есть одинаковые, то каждой группе одинаковых значений ук — <? (хк) нужно отвести в таблице один стол­бец и соответствующие вероятности рк сложить.

Д ля непрерывных случайных величин задача ставится так: зная плотность распределения / (а ) случайной вели­чины X , найти плотность распределения g (у) случайной величины Y — ср (X).

При решении поставленной задачи рассмотрим два случая.

1 . Случай монотонной функции. Предположим сначала, что функция у = <о(х) является монотонно возрастающей, непрерывной н дифференцируемой на интервале (а, b), на котором лежат все возможные значения величины X (в частном случае, когда область возможных значений X ничем не ограничена, а = — со, 6 = 4 - со). Тогда обратная функция х = (у) существует, при этом является также монотонно возрастающей, непрерывной и дифференци­руемой функцией.

Зададим на оси Оу интервал (у, у -|- Л//) и отобразим его с помощью функции а = 6 (у) на ось Ох\ получим интервал (х, х -[- A.v) (рис. 53).

События (у Y < у Дг/) и (х < ^Х < ^х -j- Да) тождест­венны. Поэтому Р (у <CY <t у & У ) — Р (х <С X < х Да)и, следовательно, согласно формуле (2 .8 ), имеем:

Р ( у < У ' < у + Ду) _ Р ( х < X < х + Лх)

Page 147: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Если функция y = ' f(x) является монотонно убываю­щей, то приращению А//^> 0 соответствует приращение Д а<^0 (рис. 54). Следовательно,

Р (у с У с у + Ду)S (и) ■ 1ІП1

•\У -* о ЛуЛл-Лу

(i.v-0)Объединяя оба случая и учитывая, что а — (у), полу­

чаем: если у — v(.v) — монотонная дифференцируемая функ­ция, то

g ( y ) - f l ' H y ) } \ V ( y ) \ - (4-3)Пример 1. Случайная величина X распределена нор­

мально (гпх — 0 , з v = 1 ):

Найти закон распределения случайной величины У, свя­занной с величиной /Ү зависимостью

Y = X \Р е ш е н и е . Так как функция у — Xs монотонна на

участке (— со, -у- 0 0 )» 1 0 можно применить форму­

лу (4.3). Обратная функция по отношению к функции © (х) == а*3 есть 6 (у) = У у, ее производная <У (у) = :

Следовательно,3 у у-

I/ ч 1 - о 1 1

S У) = 7 7 ? * ,ТТ7^ = .777^7у 2т. 3 у у - 3 ) / 2-е 2

| / >

1-17

Page 148: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Докажем теперь одно важное свойство линейного преобразования случайной величины.

Теорема. Линейное преобразование случайной величины не изменяет вида закона распределения.

Д о к а з а т е л ь с т в о . Пусть случайная величина Ү связана со случайной величиной X линейной функцио­нальной зависимостью

Ү = аХ + Ь,где а и b — не случайные коэффициенты.

Поскольку выражение у — а х -f- b определяет монотон­ную функцию, то обратная функция

* = <М 0) = “ ~

также монотонна. Далее, имеем

? < 0 = Т -Используя общую формулу (4.3), получаем:

S ( y ) = f { * i r ) - 1 T \ - <4-4>Полученное выражение (4.4) показывает, что линей­

ное преобразование случайной величины X равносильно изменению масштаба изображения кривой распределения f (х) и переносу начала координат в новую точку. Вид кривой f (х) при таком преобразовании не изменяется. Это значит, что линейное преобразование случайной вели­чины не изменяет вида закона ее распределения.

Пример 2. Случайная величина X подчинена нормаль­ному закону с плотностью

(х ~ т х ) ‘

f (х) — — ~ = е .

Требуется найти распределение случайной величины Y, связанной со .случайной величиной X линейной функ­циональной зависимостью.

Y = a X - \ - b .Р е ш е н и е . Используя формулу (4.4), получим:

Page 149: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

[.у-(Н-,,„1д.)15

или после преобразования:

Таким образом, случайная величина Ү имеет нормаль­ное распределение с параметрами

ту — атх -j- Ь, оу = \ а \ о х

2. Случай немонотонной функции. Имеется непрерыв­ная случайная величина X с плотностью распределения

f (а*); другая случайная величина Y связана с X функ­ционально)"! зависимостью:

У = ?(Х) .причем функция у = о(х) такова, что обратная функция д- = z> (у) неоднозначная, т. е. одному значению величин у соответствует несколько значений аргумента а , которые мы обозначим через ai = 6 i(//), а .> = б-> (//), а „ — Ф „(у), где и — число участков, на которых функция у= = о (а) изменяется монотонно (рис. 55).

Очевидно, что событие У < ^У < ^И ~ г^У происходит при наступлении хотя бы одного из нескольких несов­местных событий Х\ X <С Ai -[- Даг, а а X A.' -j- Д а ., . . . . . . , А„ А Хп “}— Д А„.

Применяя теорему сложения вероятностей несовмест­ных событий, получаем, что

кр (У < У < У + ді/) = 2 р (** < А' < X* + .k—i

149

Page 150: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Следовательно,

Р ( У < Ү < У + & У )g{y) = lim■i.v — 0 Ay

2 P(xk < X < x k + hxt )= limД у - о Ay

Применяя теорему о пределе суммы и произведя преобразования под знаком суммы, получим:

g ( y ) = y Hm i.<“ ■ Д V - * П L

imiV-*Q

P ( x u < X < Xfi -f- Ал-fe)

I A** I Ay

= 2 f ( x „ ) \ x u A = 2 /H>*Gf)l№(»)l-/< = 1 A’ = 1

(4.5)

Пример 3. Случайная величина X имеет нормальное распределение с параметрами тх — 0 и о * = 1 . Найти распределение слу­чайной величины

К = Х*.и

Р е ш е н и е . Обратная функция х — 'Ь(у) неоднозначна. Одному зна-

№ чению аргумента у соответствует два х, = +\гу значения функции х (рис. 56):

= (1/) = + V y ,Х-2 — <{*.2 (lj) = --- У у.

Так как плотность распределения случайной величины

Рас. 56

имеет вид

fix)-V-

С- Т2"

то, применяя формулу (4.5), получим:

s s in) = f ib т I (у) 1 + f Ш I «К (у) I =

Page 151: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 4.2. РАСПРЕДЕЛЕНИЕ ФУНКЦИОНАЛЬНОГОПРЕОБРАЗОВАНИЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН

Пусть система двух случайных величин (U , V) является результатом функционального преобразования системы случайных величин (X , Ү ), заданного функциями

U = U ( X , Y), \V = V { X , Y). J (4,6)

Будем считать, что известно также обратное преоб­разование '

X = X(U, V), ,(4.7)Y = Y(U, V).

Рассмотрим только тот случай, когда преобразования (4.6) и (4.7) являются взаимно однозначными. Кроме

того, предположим, что все рассматриваемые функции (4.6) и (4.7) непрерывны н дифференцируемы. Примерами таких функциональных преобразовании систем случайных вели­чин являются преобразования прямоугольных координат в полярные и обратно пли прямоугольных координат в прямоугольные.

Задача состоит в нахождении плотности распределе­ния g (и, у) системы случайных величин (U , V), если из­вестна плотность распределения f (х, у) системы (X, Y).

В силу сделанных предположений относительно пре­образований (4.6) и (4.7) каждой точке Q (X, Y) элемен­тарной области До плоскости хОу отвечает одна вполне определенная точка Qi (U , V) соответствующей элемен­тарной области Дох плоскости uOv (рис. 57).

151

Page 152: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Следовательно, события {(X, К) ( 2 Да} и {(t7, V) С Дзі}тождественны и их вероятности равны, т. е.

Р{ ( Х , Y ) ( Z b o } = P[{U, V) С Ц .Используя определение плотности распределения для

системы двух случайных величин, имеем:,. Р UU, 10 с : До,}: І1П1 —U - 1 ---

-* Q,

= limЛгі — Qi

- * Q)

g ( U, V ) =

P { ( X , Г ) с Л о }

Лаг,

Да Да- \ = f ( x , y) 1пи -Q i

ЛзЛ !

где

Но,

х = х ( и , v), у = у ( и , V ) .

как известно из математического анализа,.. ЛзІ1 m -г— J

(4.8)(4.3)

для одной случайной

С? (W, V) I

где У — якобиан преобразования (4.7) в точке Qt.Таким образом, имеем:

g (« , v) = f [x{u, v); г/(£/, ^ Н е ­полученный результат соответствует формуле

величины и может быть распро­странен па случай функциональ­ного преобразования системы п случайных величин.

Если система (4.6) неодноз­начно разрешима относитель­но X, Y, то подобно формуле (4.5), число слагаемых в фор­муле (4.8) увеличивается.

На практике наиболее час­тым преобразованием случай­ных величин является линей­

ное преобразование, сводящееся к преобразованию пря­моугольных координат в прямоугольные.

Рассмотрим преобразование прямоугольных коорди­нат, заключающееся в повороте осей координат на угол а (рис. 58). В таком случае прямое и обратное преобра­зования задаются формулами:

U — X cos a - j - Y sin ос,

V — — X sin a -]- V cos a,X — U COS a — V sin a,Y = U sin a -I- V cos a.

152

Page 153: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Якобиан преобразования прямоугольных координат равен единице:

дх дхда dv COS а — sin а

ду_ — sin а COS ада dv

Следовательно,

g (и , v ) = f (и cos а — v sin а, и sin а -}- v COS а),

а это значит, что при преобразовании прямоугольных координат в прямоугольные плотность распределения в точке (и, v) равна плотности распределения в соответ­ствующей точке (х, у).

§ 4 .3. ЗАКОН РАСПРЕДЕЛЕНИЯ ФУНКЦИИ НЕСКОЛЬКИХ СЛУЧАЙНЫХ ВЕЛИЧИН

Пусть случайная величина Y является функцией нескольких случайных величин, образующих систему(X,, X ,......... Х„), т. е. У = ;? (Хь Х 3, Х я). Нашазадача состоит в том, чтобы по известному распределе­нию системы (Хь Хо, . . . , Х„) найти распределение слу­чайной величины Y.

Рассмотрим решение этой задачи для наиболее про­стого случая функции двух переменных:

Y — у (Хь Хо).

Пусть f { x ь Хі) — плотность распределения системы слу­чайных величин (Хь Х 2).

Введем в рассмотрение новую величину Уь равную Х ь и рассмотрим систему уравнений

У = <р(хь Хз),У 1 = Х Х.

(4.9)

Будем полагать, что эта система однозначно разрешима относительно хь х*

Хі =У\ , х , = ф (у, у !) )

(4.10)

и удовлетворяет условиям дифференцируемости. Тогда к рассматриваемому преобразованию можно применить

153

/

Page 154: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

формулу (4.8) для определения плотности вероятности g ( y t у х) системы (У , У i). Якобиан преобразования (4.10) имеет вид:

J =

Поэтому

Но так как

то

дхі д\\1 0

0y t ~дудхг dxs dv* dx,j.ду[ ду дуі W

(У* Уі)

g(y> y i ) = f [ y u Уі)\

Уі = Хи

g{y> X i ) = f [ X u Ф (//, ЛГі)1

дф (у> Уі)

(4.11)

ду

( у , A'j)by

Интегрируя это выражение по аргументу хх в беско­нечных пределах, получим плотность распределения слу­чайной величины У (см. § 3.5, гл. III);

£i (У) = S £(У> X i ) d x гс о

{j f [ x ь ф(*Л ДГі)] O’. *i)0y dx i. (4.12)

Заметим, что рассуждения не изменяются, если введен­ную новую величину У i положить равной Х 2.

Рассмотренный метод решения задачи для случая функции двух переменных легко обобщается для случая, когда случайная величина У является функцией трех и большего числа случайных величин. Так например, для функции трех случайных величин К = <р(Хь Х 2, Х 3) можно ввести новые переменные:

Yi = X u У, = Х, .

И если при этом между системой (У, Уь У*) и системой (Хь Хо, Х 3) устанавливается взаимно однозначное соот­ветствие, то плотность распределения случайной вели­чины У

СО с о

£ ( l / ) = § U f i x и х2, Ф (у.Хи Л, ) 1cty (з>, л-!, л~3)

д уdx 1 dxit

где Ф (г/, ль Хо) — обратная функция.

1 5 4

Page 155: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Рассмотрим применение формулы (4.12) для опреде­ления плотности распределения суммы, разности, произ­ведения и частного от деления двух случайных величин.

1. Распределение суммы двух случайных величин

ПустьF = X 1 + X2,

тогда имеют место следующие функциональные зависимо­сти:

Х \ = У ~ Х ъXi = y — Xi.

Отсюда(ІКі__dvo__ .

д у д у

Следовательно, согласно формуле (4.12), имеем:СО оэ

8 ( у ) = S f i x 2, у — Л'о) dxq = 5 f i x и У — *i) dx\.— со — сс

В случае, когда случайные величины Х и X 2 незави­симы, плотность распределения системы равна произве­дению плотностей отдельных случайных величин, входя­щих в систему, т. е.

f (*і, х%) — f 1 (х\) • / 9 {х»).Поэтому плотность распределения суммы запишется

в виде:оо оэ

8 ІУ) — 5 h (*<») f i ІУ — Xq) dx.2 = 5 / і ( * , ) / , ( у — Хі) d X i .— со — со

Распределение суммы независимых случайных вели­чин /Үі и Х -2 называют композицией распределений этих величин.

2. Распределение разности двух случайных величин

ПустьУ = Х { — Х ъ

тогда имеют место следующие зависимости:х\ — y - j -хч,Хч = A'i — у.

155

Page 156: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Так какd.Vj дх.ду 'ду 1,

то, согласно формуле (4.12), имеем:со со

8 ( у ) = 5 f (Хъ У -Г хд dx* = $ f (Л'ь А?! — у) dxt.—-сс — сс

В случае независимости случайных величин Xi исо оэ

8 (У) = \ Һ (*2) fi (У "Г Л'-) dx* = 5 /1 (*1) /2 (*1 — f/) dx 1 .— со — оо

3. Распределение произведения двух случайных величин

ПустьK = AVA'o,

тогда имеют место следующие зависимости:3’

Так как*1 = 7- 11 VЛ3 А1

d X j 1 д х м 1д у х 2 11 д у x t ’

то, согласно формуле (4.12), имеем:со со

е(у)= \ f(* 1. |)-nrndx‘= 5 f(x— СО — 0 0

В случае независимых величин /Үі и Х -2со

е ( Л = I І Ы ( * { $ ■ £ ] * * =— СО

оо

= I *&*•(£)' Ш * *

л 1 ■dx*.

4. Распределение частного от деления двух случайных величин

Пусть У = -~-. В таком случае имеют место следую­щие функциональные зависимости:

Х\ = yx.i и Xi = j .

156

Page 157: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Так как

— vо и ---* = — - 1- ду ' 2 ду у- ’

то, согласно формуле (4.12), имеем:

со со

£(//)= jj / (*ь yj р dX{ = ij / (X., //х») I X, I dx,.— со — со

Если Х\ и X* — независимые случайные величины, тосо со

8 ( у ) = I /(Л'і)/2( у ) у , d x , = [ / (Х,2) f х (ух.) I х , I dx,.

§ 4.4. РАСПРЕДЕЛЕНИЕ РЭЛЕЯ

Найдем закон распределения величины отклонения случайной точки (X, Y) от начала координат при усло­вии, что система случайных величин (X, Y) имеет нор­мальное распределение с параметрами тх = ту — 0 и ол. = = ау = о. Плотность распределения такой системы имеет вид:

•Г M-.V*

f(x, у) = — е

Обозначим через R случайное отклонение точки (X , Y) от начала координат. Это отклонение является функцией случайных величин X и Y:

R — У X* + Y*.

Так как случайная величина R является полярным радиусом в полярной-системе координат, то для опреде­ления ее закона распределения перейдем от декартовых координат к полярным координатам, т. е. положим:

х = г cos О, у — г sin 0.

В таком случае плотность распределения g (г, 0) системы случайных величии (R, 0) определим через плот­

157

Page 158: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ность распределения f (x , у) системы (X, Ү ) по формуле (4.8). Имеем:

g(r , Ө)

_ Г*_

Г: е г, (4.13)

так как х2 -f- у 1 = г2, а якобиан перехода от декартовых координат к полярным координатам равен г.

Интегрируя выражение (4.13) по переменной 0 в пре­делах от 0 до 2 тс, най­дем плотность распре­деления случайной ве­личины R ■

Г22 х - S_

g i ( r ) = \ rdO =о

при / '^ > 0 ,

При г<^ 0, очевидно, gi (г) = 0 .

Закон распределения, имеющий плотность вероятно­сти

(4.13)при /*>>0 ,

0 п р и / -< ^ 0 ,называется распределением Рэлея. График распределения Рэлея показан на рис. 59.

Закон распределения случайного отклоненияR = -\/X '1 - \-Y -

при условии, что система случайных величин (X, Y) под­чиняется круговому нормальному распределению с плот­ностью

/(* . у) = 2 ^ 5 е

называется обобщенным распределением Рэлея. Плотность распределения обобщенного закона Рэлея имеет вид:

r*+r'i

Page 159: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

где Го—полярный радиус центра нормального рас­пределения, а / 0 й г ) — функция Бесселя мнимого аргу­мента.

§ 4.5. ОПРЕДЕЛЕНИЕ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН. ТЕОРЕМЫО МАТЕМАТИЧЕСКИХ ОЖИДАНИЯХ

В предыдущих параграфах этой главы мы рассмот­рели различные задачи определения закона распределе­ния функции случайных аргументов, если известны законы распределения аргументов. Однако на практике часто встречаются случаи, когда нет особой надобности полностью определять закон распределения функции случайных величин, а достаточно только указать его чис: ловые характеристики,

Таким образом, возникает задача определения число­вых характеристик функций случайных величин, помимо законов распределения этих функций. Начнем с простей­шего случая, когда случайная величина Ү является функ­цией случайного аргумента X с заданным законом рас­пределения,

Ү = ? ( Х) .

Требуется, не находя закона распределения величины У, определить ее математическое ожидание

ту = М [? {Х)\.

Рассмотрим сначала случай, когда X есть дискретная случайная величина с рядом распределения

Xi j| * | 1 * 1. . . j| xn

Pi 1Pi 1Pi \ Pn

Составим таблицу значений величины Ү и вероят­ностей этих значений:

Ui = ? (Xt) I ? (Xl) 1 ? (x-d 1 ? (*,,)

Pi 1 Pi 1 Pi 1 . . . 1 PnТаблица (4.15) не является рядом распределения слу­

чайной величины Ү, так как в общем случае некоторые

159

Page 160: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

из значений могут совпадать между собой н значения в верхней строке не обязательно идут в возрастающем порядке. Однако математическое ожидание случайной величины У можно определить по формуле

м [ ? (Х) і= 2 ч (4Л6)*==1

так как величина, определяемая формулой (4.16), не может измениться от того, что под знаком суммы некоторые члены будут заранее объединены, а порядок членов изменен.

В формуле (4.16) для математического ожидания функ­ции У — о (X) не содержится в явном виде закона рас­пределения самой функции © (X), а содержится только закон распределения аргумента X. Таким образом, для определения математического ожидания функции У = = 'э (Х) вовсе не требуется знать закон распределения функции с? (X), а достаточно знать закон распределения аргумента X .

Если с формуле (4.16) сумму заменить интегралом, а вероятность р{ — элементом вероятности, то получим аналогичную формулу для непрерывной случайной вели­чины:

mМ[-?(Х) 1 = 5 в (лc ) f ( x ) d x , (4.17)

— СО

где f (х) есть плотность распределения случайной вели­чины X .

Аналогично может быть определено математическое ожидание функции Z = ? ( X , У) от двух случайных аргу­ментов X и У.

Д ля дискретных случайных величин

М [с? ( X , У)1 = 2 2 ? Уі) Pip (4.18)i j

где pi j = P {.X = xh У = tjj).Д ля непрерывных случайных величин

ОО

М[<?(Х, У)} = 5S?(.v, у) / (х, у) dxdy, (4.19)

где f (х, у ) - плотность распределения системы (X , У).

ICO

Page 161: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Если случайная величина Ү есть функция несколь­ких случайных величии Х ь X 2, Х п:

Y = V ( X и X * . . . , Х п),

то математическое ожидание определяется совершенно ана­логично предыдущим определениям. Так, например, для непрерывных величин имеем:

/И [<?(*,, Хо, . . . , Х п)] =СО со

= . . . 5 © (Хи Xi, . . . , х„) f (Хи Хь . . . , хп) dx 1. . . dxn,— ОО — СО

(4.20)

где f (л'ь Хъ . . .» хп) — плотность распределения системы (Хь Х2, . . . , Хп).

Пример 1 . Система (X, Y) равномерно распределена внутри круга радиуса г с центром в начале координат. Определить математическое ожидание расстояния R слу­чайной точки (X, У) от начала координат.

Р е ш е н и е . Так как R = Y X- -j- Y- и

то согласно формуле (4.19)

М [Л] = М i V x - ' + Y 1] = S $ V x * + y ± d x d y =

Рассмотрим случаи, когда для нахождения математи­ческого ожидания функции случайных аргументов не тре­буется знать даже законов распределения аргументов, а" достаточно знать только некоторые их числовые харак­теристики. Сформулируем эти случаи в виде следующих теорем.

Теорема 1. Математическое ожидание суммы как зави­симых, так и независимых двух случайных величин равно сумме математических ожиданий этих величин

М IX -j- Y \ = М IX] + М [К], у (4.21)

6 ГурскпЛ 161

f (X, У)( 1 О I о ___ оI z p , если X - г - ' - у - ^ г ,

1 0 , если X" -|- i f > Л

Page 162: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Д о к а з а т е л ь с т в о , а) Пусть (X, У ) —система ди­скретных случайных величин. Применим общую формулу (4.18) для математического ожидания функции двух аргу­ментов:

м [ X + Y ] = 2 2 (х ,+ у,) / , „ = 2 2 а д у

+ 2 2 У/Р‘ і = 2 2 р ч + 2 ^ / 2 р ч -* ;

и » 2 р</ представляет собой полную вероятность того,і

что величина X примет значение xf:

2 = p (X = Х і ) = рі.i

Следовательно,

2 Л р і у = Т і х іРі= м і * ь «' j i

Аналогично

2 lJj 2 Рч = 2 VjPj = M 1- / * /

и теорема доказана.б) Пусть (X, У) - система непрерывных случайных

величин. Тогда по формуле (4.19) имеем:ОЭ

/VI [X -{- К] == 5 5 (Л- -j- у) f (х, у) clxdy =— со

оэ оэ

= J SЛ' (*» у ) dx diJ +И yf (х > у) dx dy =— со — оэ

CO г- СО -1 СО Г- с о

= 5 X J f { x , у ) d y d x - f J г/ 5 / ІХ, у ) d x dy.— CO — CO J — CO L — OD

Но так какоэ со

S f ix* У) dlJ — fy (x ) H 5 f ( x , y ) d x = f ,(y),— CO — CO

TOCO CO

/ЩХ + Ү } = \ x f , ( x ) d x - 1- S уШ 4 ! / = МІ Х] + Щ Ү ] .— оэ — со

Теорема доказана.

162

Page 163: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Теорема сложения математических ожиданий методом полной математической индукции обобщается на произ­вольное число слагаемых:

М = 2 М( Х , \ (4.22)1 = 1

(доказательство формулы (4.22) предлагается читателю).С л е д с т в и е . /VI атемапшческое ожидание линейной

функции случайных величин равно той же линейной функ­ции от математических ожиданий этих величин:

М 2 о,х ,+ь і = 1

2 ъ М Ш + ь 1 = 1

(ait Ь — ие случайные величины).Д о к а з а т е л ь с т в о . Пользуясь теоремой сложения

математических ожиданий и простейшими свойствами математического ожидания (см. § 2.5), получим:

М 2 atX i 4 - b ;= 1

■-М -| -М[Ь] =

— 2 ^ -j- ь — 2 aiM [Xf] -}- ь./= і /=і

Используя теорему сложения математических ожида­ний и простейшие свойства числовых характеристик, легко доказать справедливость следующих формул:

М[Х] = К М [ ^ р ^ \ + х0, (4.23)

D\ X } = Қ- М [ ( ~ 1/Ү - Л'« » 2 • (4 -24>

которые прп умелом подборе К и .v0 значительно облег­чают вычисление соответственно математического ожида­ния и дисперсии.

Докажем, например, справедливость формулы для дисперсии. Д л я этого, пользуясь свойствами математи­ческого ожидания, преобразуем правую часть формулы (4.24):

К Ш [ ( ^ * ) * ] - (/VI [X — .v„l)3 = М [/Ү4 — 2Л'л'ц *51 —— (ДЦЛ'1 — Х „)- = М [А'-| — 2х9М \ Х \ -]-л'и- ( М I X \ f -|-

-\- 2х0М [X ] — хь — М [A'-J — т %.

1G3

Page 164: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Но М [Х 2] — m*x — D \Х] (см. свойство 3, §2.5, п. 4). Сле­довательно,

D IX] = к -M - т х - *о])2.

Теорема 2. Математическое ожидание произведения двух случайных величин равно произведению их математи­ческих ожиданий плюс корреляционный момент:

м [XY] = М [X] • М [У] + kxy. (4.25)

Д о к а з а т е л ь с т в о . Согласно определению корре­ляционного момента имеем:

kxy = М [(X — тх) (Y — ту)], (4.26)где

тх = М [X]; т v = М [Y].Преобразуем выражение (4.26), пользуясь свойствами

математического ожидания, получим:kxy — М [ХУ] — тхМ [У] — т уМ [X] тхту =

— М [ХУ] — М [X] Л'1 [У].Отсюда

М [ХУ] = М [X] • М [У] -|- kxy.Теорема доказана.

С л е д с т в и е 1. Математическое ожидание произве­дения двух некоррелированных случайных величин равно произведению их математических ожиданий.

Действительно, если случайные величины X и У некор- релированы, то kxv = 0 и формула (4.25) примет вид:

М [XY] = М [X] • М [У ] . .С л е д с т в и е . 2. Математическое ожидание произведе­

ния независимых случайных величин равно произведению ожиданий этих величин, т. е.

- П “I ПМ I | А, =11 М [Aj],

_(-=! J І-- = 1

Это следствие легко доказывается методом полной математической индукции.

Пример 2. Производится п опытов, в каждом из которых может появиться или не появиться событие Л. Вероятность появления события А в /-м опыте равна Найти математическое ожидание числа появлений собы­тия А .

164

Page 165: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Р е ш е н и е . Рассмотрим дискретную величину X — число появлений события А во всей серии опытов. Очевидно,

Х = Х 1 + Х . + . . . + Х #|1

где A'i — число появлении события А в первом опыте, Х-2 — число появлении события А во втором опыте,

Х п — число появления событий А в п -м опыте. Каждая из величин X ,• (i — 1, 2 , . . . , п) есть дискрет­

ная .случайная величина с двумя возможными значени­ями: 0 и 1. Ряд распределения величин Х і имеет вид:

XI \ 0 | 1

Pi I <7 І 1 Pi

где qi = 1 — pi — вероятность непоявления события А в t'-м опыте. По теореме сложения математическихожиданий имеем:

т х = М [X] = J ] М [ Х і і (4.27)г = 1

Вычислим математическое ожидание случайной вели­чины Х і . По определению математического ожидания

М [X;] = 0 • С/і -{- 1 ' P i— Pi-

Подставляя это выражение в формулу (4.27), получим:

тх ==У] Pi, (4.28)»•=1

т. е. математическое ожидание числа появлений собы­тия А при нескольких опытах равна сумме вероятностей события в отдельных опытах.

В частности, когда условия опытов одинаковы, случай­ная величина X подчинена биномиальному распределе­нию и формула (4.28) принимает вид:

т х — пр.

Заметим, что формула (4.28) применима к любым опытам — зависимым и независимым, так как теорема сложения математических ожиданий применима к любым случайным величинам— как зависимым, так и независи­мым.

Page 166: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 4.6. ОПРЕДЕЛЕНИЕ ДИСПЕРСИИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН. ТЕОРЕМЫ О ДИСПЕРСИЯХ

Рассмотрим случайную величину Ү , являющуюся функцией нескольких случайных величин Х и Х 2, . . . , Х п,

Ү = <?(Х„ Х а>. . . , Х п)

и поставим задачу найти ее дисперсию, минуя определе­ние закона распределения этой функции.

По определению дисперсии

D [ Y \ = M [ ( Y - m ynСледовательно,

Я [К] = м [ ( ? (* ! , а д ~ / % (л'1( х2>. . . , х /г))£], (4.29)где

т ?(Хи л'о,. . . , х/() = М I? (Хи Х-2, . . . , Х„)].

Выражение (4.29) показывает, что дисперсия функции случайных величин определяется как математическое ожидание некоторой новой функции тех же случайных величин. Поэтому вычисление дисперсии может быть осуществлено приемами, совершенно аналогичными рас­смотренным в предыдущем параграфе. Здесь мы приведем расчетные формулы только для случая непрерывных случайных аргументов.

Д ля функции одного случайного аргумента Y = ? (X) дисперсия выражается формулой

СО

D \ ; ( X ) ] = J l9 { x ) ~ m , f f ( x ) d x , (4.30)— СО

где tnf = М ['-р (X )]— математическое ожидание функции 9 (A); f (х) — плотность распределения величины X.

Аналогично выражается дисперсия функции двух аргументов:

СО

D I? (X; Y ) \ = Ң [?(.v, у) — /?гт-Г7 (х, у) dxdy , (4.31)— ОЭ

где ш^ — М [? (X, У)], a f (х, у) — плотность распределе­ния системы.

Наконец, если имеем функции произвольного числа случайных аргументов Y — 9 (Хь Х ч , . . ., Х п), то дисперсия

166

Page 167: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

со со

£>1?<Х„ X , .........Х „)| = й . . . J [? (дг„ Л'..,. . . ,v„) — m j X— о э — о э

х f (Xi , X ,, . . . , Л'„) dxy dxо. . . d.iv (4.32)

Заметим, что прп вычислении дисперсии бывает удобно пользоваться формулой

D [X] = М [X2] — т%.

В таком случае формулы (4.30) — (4.32) можно заменить соответственно следующими:

ОЭ

D [ ? ( X ) ] = S [?(*)]- f ( x ) d x — mi, (4.33)— ОО

О")

D [<? (X, У ) ] = 55 [? (дг, r/)]2f (Л-, у) d x d y — пц, (4.34)— О Э

0 [? ( Х „ . . . , *„)] =ОЭ СО

= 5 • • • 5 I? * • • ’ • • • ’ Л'л) rf-Vl • * •dx« — w-f-(4.35)— СО — с о

Таким образом, дисперсия функции случайных вели­чин может быть определена как математическое ожидание квадрата этой функции минус квадрат ее математического ожидания.

Рассмотрим теперь теоремы о дисперсиях, которые играют очень большую роль в теории вероятностей и се приложениях.

Теорема 1. Дисперсия суммы случайных величин равна сумме дисперсий этих величин плюс удвоенная сумма корре­ляционных моментов каждой из слагаемых величин со всеми последующими, т. е.

выражается формулой

D 2і с г Л

2 D [ X i}- \ -2 X (4-36)1 I i < J

Д о к а з а т е л ь с т в о . Обозначим

У = Xi -|- X« . -j- X n; (4.37)

тогда по теореме сложения математических ожиданийniy = m Xl -j- m Xa - j - . . . -j- mX/i. (4 .3 g)

167

Page 168: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Вычитая почленно выражение (4.38) из равенства (4.37), получаем:

Ү - m , - (X, - т х \ -j- (X, - m , J . . . + (Х я - т , д).

По определению дисперсии имеем:

D 2 х , і= 1

М = М 2 ( X , - m Xiy(=i

- 1 - 2 5] ( Х ( - т , . ) ( Х у- ш , . ) = 2 / И [ ( Х , . - » Ч )=] +ІС/ J » = 1

- 1 - 2 V М [(X; — т х. ) (Ху - /К,.)] =

Z D IX, 1 + 2 2»=|

что и требовалось доказать.С л е д с т в и е 1 . Дисперсия суммы некоррелированных

случайных величин равна сумме дисперсий слагаемых, т. е.

DП2 х,i ---■ I

= 2 DIX, ) . (4.39)/ - 1

Действительно, если случайные величины некоррели- рованы, то k x . x — 0 при і Ф / и формула (4.36) принимает вид формулы (4.39).

С л е д с т в и е 2. Дисперсия линейной функции случай­ных величин

У = 2 а , х , + ьІ— I

(а;, b — не случайные величины) выражается формулой

D [ Y \ = D 2 а , Х , + ЬI

- г 2 У] a-, a j k x . х ..

У f l ?D[Xf] +

(4.4 0)

Д о к а з а т е л ь с т в о . Введем обозначение: а-і X,- = Kf.

16»

Page 169: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Тогда

K = V а , Х ( + й = У Y, + b. (4.41)і — I

Применяя к правой части выражения (4.41) теорему о дисперсии суммы и учитывая, что D[b] — Q, получим:

D [ Y \ = D У щХ і + ь = D V ү . -L-b/ а 1 i I u1

Так как

= 2 i ^ i + 2 2 *wі= і і< /

ky .y . = M Г(Yi — niy.) (Y / — my.)] = M [(«/ Xi — a-, tnx .) X X (aj X j — aj mX/)j = M [я,- af (X i - mx.) (X j — mXj)J =

= д* a j M [(X,- — m x. ) (X j — m.v.)l = at a} k x . x .,TO

D[Y] = D 2 ai x-t -\-b1 = 1

D<*= I

= У D [I7,!

{-2 2 ky.y . = 2 a}D\ Xi ) + '2 2 ai aj k x . Xf'k j

Формула (4.40) доказана.В частном случае, когда все случайные величины

иекоррелированы, формула (4.40) принимает вид:

D[ Y] = D 2і = і

т. е. дисперсия линейной функции некоррелированных случайных величин равна сумме произведений квадратов коэффициентов на дисперсии соответствующих аргументов.

Теорема 2. Дисперсия произведения двух независимых случайных величин вычисляется по формуле

D [XY] = D [X] • D[Y] -j- т% D [Y] - f пгу D [X]. (4.42)

Д о к а з а т е л ь с т в о . Так как случайные величины /Ү и Y независимы, то независимы и случайные величины X - и Y'2.

160

Page 170: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Следовательно,М [ХУ] = т х niy,М [Xs У2] = М [Xе] М [Y-]

(4.43)

По определению дисперсии с учетом равенств (4.43) имеем:

D [XY] = М [(ХУ — mx myf \ = M [X2] М [У*] —— 2тх ту М [ X \ M[ Y \ - \ - m%my * = М [X2] М [У2] — т% ту.

НоМ [X2] = D [X] т*х

иM[Y-] = D[Y]- \ -m%

поэтомуD [ХУ] = (D [X] - f т%) (D [У] -j- т\) — т\- т*. —

= D [X] D [Y] -1- т% D [У] - f ту D [X]. '

С л е д с т в и е . Дисперсия произведения независимых центрированных случайных величин равно произведению их дисперсий.

Д о к а з а т е л ь с т в о . Рассмотрим две центрированные и независимые случайные величины X и У. Математи­ческие ожидания центрированных случайных величин равны нулю, т. е.

м[х] = м[у]=о.Следовательно, формула (4.42) принимает вид:

D [X K ] = D [ X ] - D [ K ] .

Пример 1. Производится п независимых опытов, в каждом из которых может появиться или не появиться событие А, причем вероятность появления события А в і-м опыте равна р,-. Найти дисперсию и среднее квадра­тическое отклонение числа появления события А.

Р е ш е н и е . Пусть случайная величина X — число появлений события А в п опытах, а X; — число появле­ний события А в i-м опыте, тогда

п

1

170

Page 171: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

В силу независимости опытов случайные величины X; ( і— 1 , 2 , . . . , п) независимы. Поэтому, используя теорему о дисперсии суммы, получим:

- V Д , .І •- 1

Найдем дисперсию случайной величины X Используя результаты решения примера 2, § 4.5, имеем:

D.x. = (0 — pi)'1 сц -j- (1 — pi)-pi = pi ер.

Следовательно,П

Av = У) P i <7;> (4.44)i:=l

т. e. дисперсия числа появлений события А при нескольких независимых опытах равна сумме произведений вероят­ностей появления и непоявления события А в каждом опыте.

Из формулы (4.44) находим среднее квадратическое отклонение числа появлении события А:

В частности, когда условия опытов одинаковы, случай­ная величина X подчинена биномиальному распределе­нию и формула (4.44) принимает вид

Dx = tipq.

Среднее квадратическое отклонение в этом случае

С.V = V npq.Пример 2. Пусть одним и тем же методом произво­

дится п независимых измерений какой-либо величины. Результаты измерений являются независимыми случайными величинами Х и X * , . . . , Х п с равными дисперсиями D [X,-] = с v (г = 1 , 2 , . . . , п). В этих условиях требуется определить дисперсию среднего арифметического резуль­татов измерений

П2 х ‘/— I

171

Page 172: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Р е ш е н и е . Находим D[ a) = D

Используя теорему сложения дисперсии, получим:

г п

2 * г п пD «=1 У х іа гг — 1.1=1

О [ а ] D у х, = д ушші 1 ГГ ^ 1 1 ГГ п1 = 1 І = 1

Таким образом, дисперсия среднего арифметического результатов п независимых измерений в п раз меньше дисперсии отдельного результата измерения.

§ 4.7. ОПРЕДЕЛЕНИЕ КОРРЕЛЯЦИОННОГО МОМЕНТА ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН. СВОЙСТВА КОРРЕЛЯЦИОННОГО МОМЕНТА И КОЭФФИЦИЕНТА КОРРЕЛЯЦИИ

Согласно определению корреляционного момента двух случайных величин X и У, имеем:

kxy = M [{X — т х) (У — ту)}.Раскрывая скобки и применяя свойства математи­

ческого ожидания, получим:kxy = М [XY] — М [X] • М [У]. (4.45)

Рассмотрим две функции Уi и У2 системы случайных величин (Хь Х 2, . . . , Х„):

Уі — ?i (Ai, Х2, . . . , Хп), У2 = ср2(Х„ Х2, . . . , Хп).

Согласно формуле (4.45)Ьуіу* = М ІУіУ,1 - М [Y t] М [У«],

отсюда^ = A f [ ? i ( X lf Хо, . . . , Xw) ? 2 (Xi, Х 2.........Х я) ] -

- М [с?! (Хь Хо, . . . , Х п ) ) М [ср., (Хь х2.........Х„)1, (4.46)т. е. корреляционный момент двух функций нескольких случайных величин равен математическому ожиданию про­изведения этих функций минус произведение их матема­тических ожиданий.

Рассмотрим основные свойства корреляционного мо­мента и коэффициента корреляции.

172

Page 173: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

С в о й с т в о 1. От прибавления к случайным величи­нам постоянных величин корреляционный момент и коэф­фициент корреляции не меняются.

Д о к а з а т е л ь с т в о . Пусть kxv есть корреляционный момент случайных величин X и У, т. е.

kxy= M [(X — тх) (Y — ту)\.

Наіідем теперь корреляционный момент k x>v> случай­ных величин

X' = X -j- а и Y' = Y - \ -b .Так как

' X ' — т Х’ = X -]- а — М [ X а \ = Х -~-а — тх — а — Х — гпх, Ү ' — т у = Y - \ - b — M [Y + b] = Y — niy,

тоkxy = м [(X' — т х>) (У — ту)] =— Л'1 [(X - - тх) (Y — m v) ] = k xy,

что и требовалось доказать.С в о й с т в о 2. Д ля любых случайных величин X и Y

абсолютная величина корреляционного момента не превос­ходит среднего геометрического дисперсий данных величин, т. е.

\kXy \ ^ Y ~ D J \ , = oxzy, (4.47)

где сЛ., а у — средние квадратические отклонения вели­чин X и Y .

Д о к а з а т е л ь с т в о. Рассмотрим случайную вели­чину

Z — а Х - j - ҺҮ -{- с,

где а, b и с — неслучайные величины. Определим дис­персию величины Z. По формуле (4.40) имеем:

D~ = a-Dx -}- b~D у -{- 2 abkxv.

Полагая a — av, b = ± :c x, получим (Dx = o%, Dy — о:.):

D . = 2-я-у 2 3x3ykxy

Так как дисперсия любой случайной величины не может быть отрицательной, то

2 ^ z l z 2 ^ b kXy ^ i ) ,

17а

Page 174: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

O.vOу —L. kxv О,откуда

| kxy I 5= ОхОу.

С л е д с т в и е . Д ля любых, случайных величин X и Y абсолютная величина коэффициента корреляции не превос­ходит единицы, т. е.

Действительно, из равенства (4.47) следует:

НЛЙ

С в о й с т в о 3. Если случайная величина Y есть линей­ная функция случайной величины X , то коэффициент кор­реляции между ними по абсолютной величине равен еди­нице, а его знак определяется знаком множителя при X , т. е. если ”

Y = аХ -}- Ь,то

Д о к а з а т е л ь с т в о . Используя определение кор­реляционного момента, получаем:

kxy = M [(X — тх) (Y — ту)] = М l(X — тх) (аХ -j- Ь —— атх —- &)] = М [а (X — /«V)-J = аМ [(X — т х)~] = aDx.

Так как (см. § 4.G)

Dy, = D [а Х ~ - b] = a-Dx,то

Су — У Dy = У arDx — 1 а | V 'D X = | а | ах.

Следовательно,kxy a D x a D x а

ху C.V3V °.vI " I a-v I а ! “м ’

что и требовалось доказать.Таким образом, если случайные величины X и Y

связаны точной линейной функциональной зависимостью:

Y = a X -\-b ,

174

Page 175: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

то rXy — i t 1 , причем знак плюс или минус берется в за­висимости от того, положителен пли отрицателен коэф­фициент а. В общем же случае, когда случайные вели­чины X и Y связаны произвольной вероятностной зави­симостью, коэффициент корреляции может иметь значе­ние в пределах

- 1 < г ху< 1 .

Это значит, что коэффициент корреляции гху может служить характеристикой того, насколько зависимость между случайными величинами X и Y близка к линей­ной. Чем меньше по абсолютной величине коэффициент корреляции rxv, тем сильнее отклоняется зависимость между величинами X и Y от линейной.

В рассмотренном примере 2 § 3.6 мы видели, что для системы случайных величин (X , Y ), распределенной внутри круга с равномерной плотностью, несмотря на наличие зависимости между случайными величинами X и Y системы, линейная зависи­мость между ними отсутствует (прп возрастании величины X меняется только интервал изме­нения величины Y) и коэффи- ү циент корреляции г ху = 0 (см. 2

§ 3.7).С в о й с т в о 4 (теорема ело- >7

жения корреляционных момен- — тов). Корреляционный момент между составляющими случай- 60ного вектора, являющегося сум­мой нескольких некоррелированных случайных векторов, равен сумме корреляционных моментов составляющих этих векторов.

Д о к а з а т е л ь с т в о . Рассмотрим два некоррелиро­ванных вектора Vi и ТЛ> па плоскости хОу (рис. 60). Пусть составляющие вектора V x есть (Хь Уі), а вектораV з — (Х2, Ү'і). Тогда вектор V = Vy -|- V» имеет составля­ющие:

х=хн-х2,К = 7 , - 1 - Га.

Определим корреляционный момент составляющих X и Y вектора V.

175

Page 176: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

тх = m Xl -J- т Х2, ту — тУ1 -}- ту.2>

тоkxy = М [(X — тх) (У — ту)] = М [ ( Х , + X»— т Х{ — т х.) X X {Yx-t-Y». — шУ1 — m y.)] = М [{Xi — tnXl) - f (Xi — т Х£) } X X {(УI — ftlyi) “Һ ( ^ 2 — fny-:)}] = M [(Xi — mXl) (У 1 — % ,)] -f- + M [(Xa — mx,) (Yi — myi)\ -J- M [Xt — mXl) (Y-2 — my,)] +

- f M [(Xo — mXs) (Уо - tn ,<£)] —— kXlyt -f- k Xi Yl -j- kXly2 -J- k x,y,.

Так как векторы V t n V -2 некоррелированы, то k x.,yi=— kXly 2 = 0 , и мы получаем:

kXy = kXly, -}- kXsy2>

т. е. корреляционный момент между составляющими слу­чайного вектора, являющегося суммой двух некоррели­рованных случайных векторов на плоскости, равен сумме корреляционных моментов составляющих этих векторов.

Приведенное доказательство можно распространить на любое число некоррелированных случайных векторов, заданных как на плоскости, так и в пространстве лю­бого измерения.

С в о й с т в о 5 (теорема сложения корреляционных мат­риц). Корреляционная матрица случайного вектора, явля­ющегося суммой некоррелированных случайных векторов, равна сумме корреляционных матриц слагаемых векторов.

Докажем свойство для двух случайных векторов, за­данных в «-мерном пространстве.

Пусть V { X U Хо, Х а} и V»{Yu У о, У,,} некор­

релированные векторы с известными корреляционными матрицами для каждого из них. Определим корреляци­онную матрицу вектора суммы

V = Vi -[- Vi.

Составляющие вектора V равны:Zi = X i Ч- У и Z* — X i -j- Ү»,

Так как

г а= х п+ ү л.176

Page 177: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

По теореме сложения дисперсии имеем:

D \Z i \ = D [ X i] + D [ Y i], 0 = 1 , 2, . . . . п)

или в других обозначениях:

k z . z . = = f e x . x . ~ Х ~ k v . v .II I I ' J і ' I

На основании свойства 4 для корреляционных моментов при і Ф / имеем:

V v = V / + V y

Так как под суммой двух матриц мы понимаем мат­рицу, элементы которой получены сложением соответст­вующих элементов этих матриц, то корреляционная мат­рица суммы двух некоррелированных случайных векто­ров равна сумме корреляционных матриц слагаемых.

§ 4.8. КОМПЛЕКСНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА

Комплексной случайной величиной называется вели­чина вида

Z — X - \ - /У,

где /Ү и Y — действительные случайные величины; j — Y — 1 — мнимая единица.

Геометрически комплексную случайную величину можно интерпретировать как случайную точку Z на ко­ординатной плоскости хОу.

Таким образом, случайная величина Z является дру­гим способом описания систем двух случайных величии(X , Y ).

Числовые характеристики комплексной случайной ве­личины определяются так, чтобы в частном случае, когда 7 = 0 и величина Z действительна, они сводились к обыч­ным определениям характеристик действительной слу­чайной величины.

Математическим ожиданием комплексной случайной величины Z = X ~ ~ j Y называется комплексное число

mz — m x jm v.

Геометрически эго есть некоторая средняя точка /«., вокруг которой происходит рассеивание случайной точки Z.

177

Page 178: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Дисперсией комплексной случайной величины Z —— X - \ - j Y называется математическое ожидание квадрата модуля соответствующей центрированной случайной ве­личины Z = Z — пи, т. е.

D \ Z \ = M [ \ z f \ .Так как

Z = Z — пи = X -j- /У — m.v — jtriy — X + /К 3,то

П >31 г ^ о о о ID [Z] = M [| Z |i = M [ X' + K-| == M [X !| 4 - M [к°1 = D [X] + D [ n ,

т. e. дисперсия комплексной случайной величины равна сумме дисперсий ее действительной и мнимой части.

Из определения дисперсии следует, что дисперсия комплексной случайной величины удовлетворяет соотно­шению D \ Z ] ^ 0 . Обращаться в нуль она может только в том случае, если величина не случайна.

Геометрически дисперсия комплексной случайной ве­личины есть среднее значение квадрата расстояния от случайной точки до ее математического ожидания пи. Эта величина характеризует разброс случайной точки Z около ее среднего положения.

Корреляционный момент комплексных случайных вели­чин

Z x = Xr-'r j Y x п Z .2 = Xo -{- /У 2

определяется так, чтобы при условии Zy — Z« — Z он об­ращался в дисперсию величины Z. Д ля этого необхо­димо назвать корреляционным моментом математическое

О ~оожидание произведения Z y на Zo, т. е.

г п (Г *1M j Z„ ZoJ,

о о огде Zi — Хъ — /У 2 есть комплексная сопряженная вели-

«» О Очина по отношению к величине Z* — X » - \ - jY 2.

Выразим корреляционный момент k -lZi через корре­ляционные моменты действительных и мнимых частей комплексных случайных величин Z t и Z 2. Имеем:

Page 179: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Итак, определения основных характеристик комплекс­ных случайных величин отличаются от обычных опреде­лений аналогичных характеристик для действительных величин только тем, что для дисперсии рассматривается не математическое ожидание квадрата центрированной случайной величины, а математическое ожидание квад­рата ее модуля и для корреляционного момента рассмат­ривается не математическое ожидание от произведения центрированных величин, а математическое ожидание про­изведения одной центрированной величины на комплекс­ную сопряженную величину по отношению к другой цен­трированной величине.

§ 4.9. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ

Характеристические функции являются одним из спо­собов описания случайных величин, удобным прп реше­нии многих задач теории вероятностей.

Пусть имеется вещественная случайная величина X . Образуем комплексную случайную величину U, функцио­нально связанную с величиной X по следующему закону:

и = ы (Х,

где аргумент t принимает вещественные значения па ин­тервале (— со, со).

Характеристической функцией g (/) случайной вели­чины X называется математическое ожидание комплекс­ной случайной величины U = eJ'tx , т. е.

g(t ) = М И Л']. (4.48)

Зная закон распределения случайной величины X, можно найти ее характеристическую функцию.

Д ля дискретной случайной величины X с рядом рас­пределения

Хи | Х\ | Л'-2 | • ■■ • | хп

Pk 1Р\ 1 Pi 1 • • • | Рпхарактеристическая функция

g ( 0 = (4.49)It = 1 '

Д ля непрерывной случайной величины X с плотно­стью распределения f (х) характеристическая функция

179

Page 180: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

g ( t ) = \ el,xf (x )d x . (4.50)— CO

Как видно из формулы (4.50), характеристическая функция g(t ) является преобразованием Фурье соответст­вующей ей плотности вероятности f (x) . Из теории преоб­разований Фурье известно, что функция f(x) , или в дан­ном случае плотность распределения, может быть опре­делена путем обратного преобразования Фурье:

СО

f M = ,! \ e - l,xg(t)dt. (4.51)— СО

Формула (4.51) позволяет сделать вывод о том, что плотность распределения случайной величины однозначно определяется ее характеристической функцией.

Приведем примеры определения характеристической функции случайной величины, закон распределения ко­торой известен.

Пример 1. Найти характеристическую функцию слу­чайной величины X, подчиняющейся распределению Пуас­сона,

Р ( Х = т) = а~ е ~ а.

Р е ш е н и е . По формуле (4.49) имеем:00 с о

g (t) = у е'"” ^ в - = < - * 2 Щ И Т = * “■ еае“ = е° .т--~ 0 т —0

Пример 2. Найти характеристическую функцию нор­мированной случайной величины, имеющей нормальное распределение.

Р е ш е н и е . Случайная величина X называется нор­мированной, если ее математическое ожидание тх — 0 , а дисперсия Dx = 1. Следовательно, плотность распре­деления нормированной нормально распределенной слу­чайной величины X имеет вид: г

180

Page 181: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

По формуле (4.50) имеем

00 СО

= у И 2 dx. (4.52)

После преобразования.V.. л'- _ 2 f t х - ,v2 - ( j t f + ( j t f _ — ( x — j t f — t*ЦХ 2 — 2 2

и заменыz — x — jt

интеграл (4.52) приводится к виду:/2

1

Ү ъ2 \ е ~ \ dz,

L

где интегрирование производится в комплексной пло­скости вдоль прямой L, изображенной на рис. 61.

Но так как.?■ со л*-

\ e ~ ' U z = [ e * d x = V 2?..L —со

то характеристическая функция нормированной случай­ной величины X , имеющей нор­мальное распределение, будет А У

g{t) = e ~ * (4.53)

Установим основные свой­ства характеристических функ­ций.

С в о й с т в о 1 . Характери­стическая функция g (t) вещест­венна тогда и только тогда, когда соответствующая плотность вероятности f (х) яв­ляется четной функцией. При этом сама функция g (/) является тако/се четной.

Справедливость этого свойства следует из свойств преобразований Фурье.

С в о й с т в о 2. Если случайные величины X и У свя­заны соотношением

Y — аХ,

-t

Рас. 61

181

Page 182: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

где а — неслучайный множитель, то их характеристиче­ские функции связаны соотношением

gy(t) = 6 x(at)- (4.54)Д о к а з а т е л ь с т в о . Имеем:

gy (t) = М [е*Л'\ = М [eJ'iaX] = М __ gx ^С в о й с т в о 3. Характеристическая функция суммы

независимых случайных величин равна произведению харак­теристических функций слагаемых.

Д о к а з а т е л ь с т в о . Пусть Х ь Хо, . . . , Х п — незави­симые случайные величины, имеющие соответственно характеристические функции

5(0» ё х Л * ) , ..., g xJ t ) .

Найдем характеристическую функцию случайной вели­чины

Y = £ x - k.1(^-1

Имеем:

gy (/) = М [eitY\ — М» £ ХиU =:= 1 = М [ е ^ • e'tx- . . . Л ] ._е

Так как случайные величины X l{ ( 6 = 1 , 2 , ..., п) независимы, то независимы и их функции ejtxk. По тео­реме умножения математических ожиданий получим:

g Y (/) = М [е//Л'>] • М \е;ЪЦ . . . М [e/txn] == ( 0 - ^ ( 0 . . . gxa (t). (4.55)

Рассмотренные свойства позволяют применить аппа­рат характеристических функций для композиции зако­нов распределения.

Приведем примеры.Пример 3. Композиция биномиальных распределений.Найдем закон распределения суммы Z = X - \ - Y неза­

висимых случайных величин X и Y, имеющих биноми­альное распределение

Р (X = т) = С;»р;« (1 — р У ' - " \Р (Y — т) = С™р™ (1 — рУ 1-—,п.

Д ля определения характеристической функции слу­чайной величины X , имеющей биномиальное распреде­ление, воспользуемся формулой (4.49), получим:

182

Page 183: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

e A D = S J""P(X=m)= Y, (i — p,)*!-” =m —0 tn~ 0

= 2 c ” (* — p,)ai~ m= 1 ( 1 — p j + p / ' V ' =m — 0

= [ 1 + P i ( e " — 1)]**.Аналогично

£ у ( 0 = П + M * " — П о ­следовательно, согласно свойству 3, характеристиче­

ская функция случайной величины Z

g z (О = 8 х (0 £у (0 = 11 -}-р, (е77 — l)]«i [ 1 -{-ра (^7 — 1)«-.(4.56)

Выражение (4.56) показывает, что композиция бино­миальных распределений при различных значениях пара­метров pi и р .2 не дает биномиального распределения. В частном случае, когда pi = р .2 — р, из выражения (4.56) получаем:

g z (0 = I Н - Р ( е " — 1)1Й1+Яз.

Таким образом, при постоянном параметре р компо­зиция биномиальных распределений имеет тоже биноми­альное распределение.

Пример 4. Композиция распределений Пуассона.Найдем закон распределения суммы Z = X - \ - Y неза­

висимых . случайных величин X и Y, подчиняющихся закону Пуассона с параметрами щ и а2 соответственно.

Согласно результату примера 1, имеем:

g x (t) = еПі(eJl~ 1} и gy (t) = ea-(eJt~ !).

Поэтому, применяя свойство 3, найдем:у ) — e a t ( c j t - 1) . c a « ( c } t - 1) __ е ( , ц -l-«ui ( c V - 1)

т. e. случайная величина Z также подчиняется закону Пуассона с параметром a = a i-\- а.>. Этот результат можно распространить на любое число взаимно независимых слагаемых.

Пример 5. Композиция нормальных распределений.Найдем закон распределения суммы Z — X - \ - Y неза­

висимых нормально распределенных случайных величии X и Ү , имеющих плотность распределения

1S3

Page 184: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Зл- ] ' 2 " • ■ З у У 2п

Определим характеристическую функцию случайной величины X . Д ля этого представим ее в виде

X = oxU,где U — нормально распределенная нормированная слу­чайная величина. Тогда, пользуясь результатом примера 2 , найдем:

gu ( 0 — е 2 .Согласно свойству 2 характеристических функций

°ІГg x ( t ) = g u ( ° J ) = c 2 = е 2 .

Аналогично3yt

g y (0 = СПрименяя свойства 3, определим характеристическую

функцию случайной величины Z

а.у~ °v<s ( 4 + 4 )g A t ) = g x ( t ) - g y ( t ) = e ~ е 2 ==е 2 ' .

Сравнивая полученную функцию g~(t) с характери- стической функцией нормально распределенной случайной величины X, мы видим, что случайная величина Z также имеет нормальное распределение с параметрами пи — О,<3; = "К °Л- ~Г °У •

Из полученного результата вытекает, что сумма любого числа взаимно независимых нормально распределенных случайных величин также подчиняется нормальному закону.

Пример 6 . Композиция показательных распределений.Найдем распределение суммы Z — X - \ - Y независимых

случайных величин X и Y , каждая из которых распре­делена по показательному закону:

е~ >іЛ' при .v ^ O , ( Xae*-?-s.v при у ^ О,

н f (У) = IО при х < ^ 0 I 0 при { / д о ­

определим характеристическую функцию случайной величины X:

Page 185: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

со со

gx (t) = 5 7 (.v) dx = J e,v *X, e r x«v dx =— со 0

CO

= >., = (4 .5 7 )6

Аналогично

s A ‘) = r r ^ T f

Следовательно, характеристическая функция случай­ной величины Z

ЫО=ЫОьМО=д7гг7 һг77т (4-58)к выражению вида (4.57) не приводится. А это значит, что показательное распределение свойством устойчивости не обладает.

В частном случае, когда = из выражения(4.58) получаем:

ё Л 0 =

Используя обратное преобразование Фурье, имеем:СО с о

I e~ " - 's A t ) d t = i $ e -" - 'w ^ w d t.— СО —со

Отсюда, вычисляя интеграл с помощью вычетов, получим:

Г лагс~?~ при г 2 =0 ,t (z\ _ ) 1/ w I 0 при 2 < 0 .

В о п ро сы д л я с а м о п р о в е р к и

1. Как находится плотность распределения случайной величины У, если эта случайная величина есть монотонная функция случай­ной величины X , закон распределения которой известен?

2. Что м ож но сказать о законе распределения линейной ф ун к ­ции?

3. Как находится закон р аспределения немонотонной функции одного случайного аргумента?

4. Как оп р еде ля ется закон распределения функции нескольких случайных аргу ментов?

5. Что значит произвести композицию д в у х законов р а с п р е ­деления?

185

Page 186: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

6. Как оп ределяется математическое ож идание функции сл у­чайного аргумента, закон распределения которого известен?

7. С ф орм ул ируй те и докаж и те тео р ем у о матем атическом о ж и ­дании суммы д в у х случайных величии.

8. С ф орм ул ируйте и докаж ите тео р ем у о математическом о ж и ­дании произведен ия д в у х случайных величин.

9. Ч ему равно матем атическое ож идан ие от произведения н е­скольких независимы х случайных величин?

10. Как оп р едел я ется дисперсия функции случайного аргумента (нес ко л ь ки х аргум ентов) , если известен только закон р а с п р е д е л е ­ния аргумента (аргументов)?

11. С ф ор м ул ир уй те и докаж и те тео р ем у о дисперсии суммы случайных величин.

12. Ч ему равна дисперсия суммы некоррелированны х случайных величин?

13. С ф орм улируйте и док а ж и те т ео р ем у о дисперсии п р о из­ведени я д в у х независимых случайных величин.

14. С ф орм улируйте и д окаж и те свойства корреляционного мо­мента:

15. Ч ему равен коэффициент корреляции случайных величин, связанных м е ж д у со б о й линейной зависимостью?

16. Д айте определения числовых характеристик комплексной случайн ой величины.

17. Д айте оп р еде лен и е характеристической функции и н азо ­вите основны е ее свойства.

18. Каким образом применяется аппарат характеристических ф ун кц и й для композиции законов распределения?

19. Какой закон получается при композиции нормальных зако­нов?

У п р а ж и е н и я

1. Найти плотность вероятности площади квадрата, стор она которого г X — случайная величина, равномерно распределенная в интервале (0 , 1 ).

— при 0 < у < 1 ;2 У у

О при у О ИЛИ 1.

2. Ч е р е з точку (0, /) проведена наугад прямая. Найти плот­ность распределения расстояния этой прямой от начала координат.

< 9— .. ■ при 0 < 2 < /;

Отв. g (z) = j л У Г- — 2-

I 0 при Z s^ O ИЛИ Z 5 : I.

3. Дана плотность вероятности f (х) случайной величины X (0 < х < со). Найти плотность вероятности случайной величины У = 1пХ.

Отв. g О») = / (сУ) сУ.

4. Система дву х случайных величин ( X, У) подчинена н ор­мальному закону распределения. Рассеивание круговое. В ероятное отклонение равно Е. Найти выражение для плотности р а сп р еде л е­ния случайной величины Z = а (Х~ + Ус), где а > » 0 .

186

Page 187: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Отв. f f (2) = | "Р" г > < *

[ 0 при z с О.

5. Известны матем атическое ож идание и д ис пер си я случайной величины X: т х — 2, D x = 3. Найти матем атическое ож идан ие и дисперсию случайной величины К = З Л ' — 5.

Отв. ту = 1 , D v — 27.

6 . Случайная величина X подчинена закону равномерной плот­ности на интервале (0, 2 ). Найти м атем атическое ож идан ие случай­ной величины У — — X - -{- ЗА' — 2.

Отв. ту — — — .

7. Случайная величина X подчинена закону равномерной плот­ности на интервале (0, 1). Найти дисперси ю случайной величины У = 2Х- .

л п 16Ошв. £>,, = 7= •у 4о

8 . С истем а д в у х случайных величин (X, У) хар актеризуется математическими ожиданиями шх = 2, шу — О, дисперсиям и D x = 1, D v — 2 и корреляционны м моментом /:ху = — 1. О пределить мате­матическое ож идание и дисперсию случаіГпой величины Z = X — 2Ү ,

Ошв. т , = 2, D z = 14.

9. Случайные величины X и У имеют математические о ж ида­ния тх = = — 1, ту = 1 и дисперсии D x — 4 и Dy — 9. Найти мате­матическое ож идан ие сл учайной величины Z — З Х У - 1-5.

Отв. / « , = 0,2.У 1

10. По мишени п р оизводится п независимых выстрелов. В е р о ­ятность попадания в мишень при t-м выстреле равна p t . Найти м атем атическое ож и д а н и е и дисперси ю числа попаданий в мишень.

П ПОшв. ш — 2 Р ь D = s р{).

i = 1 і-Л11. Имеются две случайные величины X и У, связанные с о о т ­

нош ением •)/ = 4 — X. Найти корреляционны й момент, если известно, что матем атическое ож идание тх — 3 и дисперсия D x — 2.

Ошв. кху = — 2.

12. Найти х арактеристическую функцию линейной функцииП

Y = V [ a t.Xj, -)- b независимы х случайных величин X i t .X« , . . . , Х п,/: = 1

характеристические функции которы х заданы.я

Ошв. gy ( t ) = e J tb П gx / i (ak t) .I; — 1

187

Page 188: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

13. Найти характеристическую функцию g x (t ) случайной в ел и ­чины X, распределенной по закону Паскаля: P(X — m ) — p q m (т = 0, 1, '2, ...).

Отв. gx ( t )_ — qc

14. Найти характеристическую функцию g x (t) случайной вели­чины X , равномерно распределенной в интервале (а , Ь).

„ ... sin tbОтв. g x ( t ) = .

15. Найти характеристическую функцию случайной величины, расп ределен н ой по закону Лапласа:

f (x) = ^ e — я ] л- — т \

Отв. g x (£) =a- -4- t'1

16. Найти закон распределения суммы двух независимы х сл у ­чайных величин X и У, каждая из которьіх имеет равном ерное р асп р еде л ен и е на интервале (0 , 1 ).

О, если л 0;

Ошв. F (z) =если 0

Page 189: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Г л а в а 5

ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

§ 5.1. ПРЕДВАРИТЕЛЬНЫЕ ЗАМЕЧАНИЯ

Мы уже знаем, что теория вероятностей изучает зако­номерности, свойственные массовым случайным явлениям. Как и любая другая наука, теория вероятностей пред­назначена для того, чтобы возможно точнее предсказать результат того или иного явления или эксперимента. Однако если явление носит единичный, не массовый харак­тер, то теория вероятностей способна предсказать обычно лишь вероятность исхода в весьма широких пределах. Совсем иное дело, когда явление — массовое. Закономер­ности проявляются именно при большом числе случай­ных явлений, происходящих в однородных условиях. При достаточно большом числе испытаний характеристики случайных событий и случайных величин, наблюдаемых при испытании, становятся почти неслучайными. Так, например, частота ' события при большом числе испыта­ний становится устойчива, то же самое относится к сред­ним значениям случайных величин. Это обстоятельство позволяет использовать результаты наблюдений над случайными явлениями для предсказания результатов будущих испытаний.

Группа теорем, устанавливающих соответствие между теоретическими и экспериментальными характеристиками случайных величин и случайных событий при большом числе испытаний над ними, а также касающихся пре­дельных законов распределения, объединяются под общим названием предельных теорем теории вероятностей.

В настоящей главе мы познакомимся с двумя типами предельных теорем: законом больших чисел и централь­ной предельной теоремой.

Закон больших чисел, занимающий важнейшее место в теории вероятностей, является связующим звеном между теорией вероятностей как математической наукой и закономерностями случайных явлений при массовых наблюдениях над ними. Закон больших чисел играет очень важную роль в практических применениях теории

189

Page 190: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

вероятностей к явлениям природы и техническим процес­сам, связанным с массовым производством.

При доказательстве теорем, относящихся к группе «закона больших чисел», мы воспользуемся неравенством Чебышева.

§ 5.2. НЕРАВЕНСТВО ЧЕБЫШЕВА

Рассмотрим случайную величину X, математическое ожидание которой тх и дисперсия Dx. Неравенство Чебышева утверждает: вероятность того, что отклоне­ние случайной величины от се математического ожидания будет по абсолютной величине не меньше любого положи­тельного числа s, ограничена сверху величиной

Р { \ Х - т , \ 2= * )< % ? . ( 5 . 1 )

Д о к а з а т е л ь с т в о . 1. Пусть случайная величина X дискретная с рядом распределения

Xk 1 Xl 1« !j . . . | xn

Pit 1Pi Pi Pn

Тогда дисперсия случайной величины XП

Dx = У) (xk — тху' ри. (5.2)к —-1 •

Очевидно, все слагаемые этой суммы не отрицательны. Отбросим те слагаемые, у которых | хк — тх \<^г, вследст­вие чего сумма (5.2) может только уменьшиться, т. е.

2 ( х і — п і х ) * Р һ (5.3)I -'*/—"*.v'—•

где запись | л*,-— тх | ^ s под знаком суммы означает, что суммирование распространяется только па те значе­ния І, для которых Xi отклонится от тх па величину не меньше, чем г.

Заменим под знаком суммы (5.3) выражение \x t — /;гЛ.( через г. Так как для всех членов суммы имеем \xi — mx то от такой замены сумма может только уменьшиться, значит

A , 2 е<й = е! 2 Ре (5-4)

Page 191: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Под знаком суммы (5.4) мы имеем вероятность p t только тех значении х;, которые отклоняются от мате­матического ожидания тх на величину, не меньшую, чем в. Следовательно,

v Pl = P ( \ X - m x \2s *b|.V; —/«V|D=S

Таким образом,

Dx ^ z * P ( \ X - ,пх | ^ 8)„

откуда непосредственно вытекает доказываемое неравен­ство (5.1).

2. Пусть теперь случайная величина X непрерывна с плотностью распределения f (х). Тогда

соD , = S ( x— m j f ( x ) d x . (5.5)

— со

Выделим на числовой оси вправо и влево от матема­тического ожидания тх отрезки, длиной г каждый (рис. 62). Если в выра-

/г- Г- \ } ЧС ..... F. ---->— ------ £ > Iженин (о.о) интеграл \ ° iпо всей оси Ох заме- ^нить интегралом по об­ласти, лежащей вне от- Рис . 62р.езка АВ, то, посколькупод интегралом стоит неотрицательная функция, вели­чина интеграла прп этом может только уменьшиться, т. е.

СО

Av = S (х — тх)~ f (х) d x $ (х — mx)-f (х) dx.— СО | j f — Ш Д. | > Е

(5.6)

Заменяя [х — тх \ под знаком интеграла (5.6) через г, мы опять можем только уменьшить величину интеграла. Следовательно,

S t"-f(x)dx = z- 5 f ( x ) d x . (5.7)|JC— f«v|>£ I.V — ОТ |>*

Интеграл правой части выражения (5.7) представляет собой вероятность того, что случайная величина X при­мет значение вне отрезка АВ. Поэтому

А * ^ г * Р ( | Х - Ш , | > з ) .191

Page 192: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Отсюда непосредственно вытекает неравенство Чебышева(5.1). Здесь знак ^ заменен знаком > , так как для непрерывной величины вероятность точного равенства равна нулю.

Неравенство Чебышева может быть записано и в дру­гой форме, применительно к противоположному событию — отклонению случайной величины от математического ожидания меньше, чем на s:

/ > ( | Х - т , | < 0 ) 3 = 1 (5.8)

З а м е ч а н и е . Неравенство Чебышева имеет для практики ограниченное значение, поскольку часто даетгрубую оценку. Пусть, например, е = — Ү Ъ Х , тогда полу­чим:

Р ( \Х - тх | s= ' У Ж ) < -р^ = 4.

' ^Но и без того ясно, что никакая вероятность ие может быть больше не только четырех, но даже единицы; с другой стороны, если, например, £ = 1 0 V'DX, то

Р ( X - т , 13= 10 V Щ < j B f c - = 0,01.

Э то уже неплохая оценка вероятности. Таким образом, мы видим, что неравенство Чебышева полезно лишь при относительно больших е.

Теоретическое же значение неравенства Чебышева очень велико. Ниже мы воспользуемся этим неравенством при доказательстве теоремы Чебышева.

§ 5.3. ТЕОРЕМА ЧЕБЫШЕВА

Теорема Чебышева является одной из важнейших форм закона больших чисел. Она устанавливает связь между средним арифметическим наблюдаемых значений случай­ной величины и ее математическим ожиданием.

Теорема Чебышева. При неограниченном увеличении числа независимых испытаний среднее арифметическое наблюдаемых значений случайной величины, имеющей конеч­ную дисперсию, сходится по вероятности к ее матема­тическому ожиданию.

Поясним смысл термина «сходится по вероятности».

192

Page 193: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Последовательность случайных величин Х ь Х>, X ... сходится но вероятности к велнчеие а, если для любого£ > О

lim Р ( | Х п — а | < г ) = 1,и -• -О

или более подробно: последовательность случайных вели­чин Хь Хі , . . . сходится по вероятности к величине а, если для любых г ^ > 0 п о > 0 существует такое п (г, о) , начиная с которого выполняется неравенство

Я ( | Х „ - А | < * ) > 1 - а .Таким образом, теорема Чебышева означает, что если

Х ь Х ~>,. . . независимые одинаково распределенные слу­чайные величины с математическим ожиданием тх и с огра­ниченной дисперсией Dx, то при любом s ^ > 0

lim Р \^ X - л ‘/ : I Ш,

\(5-9)

Д о к а з а т е л ь с т в о. Рассмотрим случайную величину

У2 х,І Л

Найдем числовые характеристики случайной величины Ү. Пользуясь свойствами числовых характеристик, получим:

m y ==M[Y] = M2

4 М [X;] = - • п ■ т хII Л-™ IIІ 1

V А7I

D, = D [ Y \ = D = ,;Л ’ Л |АМ = j f -II I 7/ мея ил І \

Применим теперь к случайной величине Ү неравенство Чебышева в форме (Г>.8 ):

Р(\У - / " v i < 3) sr-iо ,

Подставляя в это неравенство выражение для случай­ной величины Y и ее числовых характеристик, получим:

Р

п \

]2 *; 11 = * : 1

- W V

< 7^ 1 ljx_

III- (5 . 10)

7 ГурскнЛ 193

Page 194: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

О, при увеличе-стремится к единице. По-

Каково бы ни было малое число г1 О хпип числа п величина 1 ----- •п:

этому переходя в неравенстве (5.10) к пределу и учиты­вая, что вероятность не может быть больше единицы, получим:

lim Р vп — -J \

У х л ‘т х

< 7 = 1Теорема доказана.Теорема Чебышева может быть распространена на

более общий случаи, когда характеристики наблюдаемой случайной величины меняются от опыта к опыту. Оказы­вается, что и в этом случае при соблюдении некоторых условий среднее арифметическое является устойчивым и сходится по вероятности к определенной не случайной величине. Точнее, имеет место следующая обобщенная теорема Чебышева: при неограниченном увеличении числа независимых испытаний над случайными величинами, име­ющими ограниченные дисперсии, среднее арифметическое наблюдаемых значений сходится по вероятности к сред­нему арифметическому математических ожиданий этих величин, т. е.

1 i m Р

/ п п \|/

I 2 * 2 m xiІ : 1 І = 1

< • ]\ tl п

Д о к а з а т е л ь с т в о. величину

У

1. (5.11)

Рассмотрим снова случайную

П2 *

Характеристики случайной величины Y соответственно равны:

т у = М / , 'Ид-.-.

У! X;L)y = D

\/ ,І = 1О*.

101

Page 195: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Применяя к величине Ү неравенство Чебышева в форме (5.8), получим:

/Л.P ( \ Y - m v 1 0 ) 2 , 1 - ^ ,

или

2 *< 2/ « 1 /*-■! 2 д«<І г~, |

(5.12)

Из ограниченности дисперсий следует, что существует такое постоянное число С^>(), для которого

ПоэтомуDx . < С ( i = 1, 2 , . . . , /О-

У D , ; < пС. (5.13)

Подставляя правую часть (5.13) в неравенство (5.12), отчего последнее может быть лишь усилено, будем иметь:

/ >, Xi 1//С , с

п п2г • - 1 2 ' ы

1п п\

или, переходя к пределу и учитывая, что вероятность не может быть больше единицы, получим доказываемое равенство (5.11).

Закон больших чисел может быть распространен и па зависимые случайные величины, лишь бы соблюдалось условие

D

lim2 а'і

= о .

Это утверждение составляет теорему /Маркова. Дока­зательство теоремы Маркова предоставляется читателю.

§ 5.4. ТЕОРЕМА БЕРНУЛЛИ

Теорема Я- Бернулли является важнейшей и истори­чески первой формой закона больших чисел. Она уста­навливает связь между частотой события и его вероят­

н а

Page 196: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

постью. Доказательство, данное Бернулли, было весьма сложным. Простое доказательство дано ГІ. Л. Чебыше­в ым — как прямое следствие из его теоремы.

Теорема Бернулли. При неограниченном увеличении числа независимых опытов в постоянных условиях частота рассматриваемого события А сходится по вероятности к его вероятности р в отдельном опыте.

Если обозначить частоту события А в п опытах через р",:, теорему Бернулли можно записать в виде:

lim Р ( Ip* — p | < £ ) = 1. (5.14)а -*■ оэ

Д о к а з а т е л ь с т в о . Обозначим через X i случайную величину — число появлений события А в первом опыте, через X i — число появлений события А во втором опыте и т. д.

Каждая из величин X, (/==1, 2 , . . . , п) есть дискрет­ная случайная величина с двумя возможными значениями: О и 1. Ряд распределения величины X; имеет вид:

Xi 1 0 1

Pi 1 ч Ргде <7 = 1 — р есть вероятность неноявлеиия события /1 в г-м опыте.

Математическое ожидание каждой из величии X; равно р (см.' пример 2, § 4.5), а ее дисперсия равна pq (см. пример 1. $ 4.6).

Частота /г:: представляет собой среднее арифметическое случайных величин Х ь Х*, . . . , Х п:

И

Применяя к этим величинам теорему Чебышева, полу­чим доказываемое равенство (5.14).

Обобщением теоремы Бернулли на случай, когда опыты происходят прп неодинаковых условиях, является теорема Пуассона, которая формулируется следующим образом:

При неограниченном увеличении числа независимых опытов в переменных условиях частота события А схо­дится по вероятности к среднему арифметическому его вероятностей при данных испытаниях.

т

Page 197: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Доказательство теоремы Пуассона следует из обоб­щенной теоремы Чебышева, точно так же, как доказа­тельство теоремы Бернулли следует из теоремы Чебышева.

§ 5.5. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА

Рассмотренные в предыдущих параграфах теоремы являются различными формами закона больших чисел. Закон больших чисел устанавливает факт сходимости по вероятности некоторых случайных величин к постоян­ным их характеристикам. При этом ни в одной из форм закона больших чисел мы не имеем дела с законами рас­пределения случайных величин.

В этом параграфе мы рассмотрим вопрос, связанный с отысканием предельного закона распределения суммы

У« = V] А'„ (5.15)і I

когда число слагаемых неограниченно возрастает. Цен­тральная предельная теорема теории вероятностей (тео­рема Ляпунова) устанавливает условия, при которых указанный предельный закон является нормальным. Раз­личные формы центральной предельной теоремы отли­чаются между собой условиями, которые накладываются па распределение случайных величин Х-„ образующих сумму (5.15). Мы сформулируем и докажем простейшую форму центральной предельной теоремы, когда случайные величины Х|, Х-х, Х п взаимно независимы н одинаково распределены.

Теорема. Если случайные величины Х \, X о, . . . , Х п взаимно независимы и имеют один и тот же закон рас­пределения с математическим ожиданием т и диспер­сией а', причем существует третий абсолютный мо­мент v;t, то при неограниченном увеличении п закон рас­пределения суммы (5.15) неограниченно приближается к нормальному.

Д о к а з а т е л ь с г в о . Прп доказательстве этой тео­ремы воспользуемся характеристическими функциями.

Так как случайные величины A't, X», . . . , Х„ имеют один и тот же закон распределения, то они имеют одну и ту же характеристическую функцию g x ((). Следова­тельно, в силу формулы (4.55) и взаимной независимости

197

Page 198: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

случайных величин Xi характеристическая функция слу­чайной величины Y n будет

gv„ = lg,(0!“- <5Л6)Разложим функцию gx (/) по ч формуле Маклорена,

ограничиваясь тремя членами:fr' (0) ғ ” (0)

g x ( 0 = g x (0) + п т - 1 - г J ~ R * W • (5 Л ? )

Остаточный член (/) в форме Лагранжа имеет вид: Й','-' (ГЮ

R A 0 = ^ п ^ :і ( 0 < 0 < 1 ) .

При определении коэффициентов разложения (5.17) и оценке остаточного члена (/) положим, что случайные величины К ; непрерывны с плотностью распределения f (х )

(для дискретных случайных в'елнчин оно будет ана­логичным).

В таком случаеОО

В Л 1 ) = \ е>и Цх)с1х (5.18)— ОЭ

и при ( = 0СО

г , ( 0) = 5 f ( x ) d x = 1 .— со

Дифференцируя (5.18) rio t и полагая = 0, получим:ОЭ

g x (0) = / 5 x f ( х ) c lx — jm.— ОО

Не ограничивая общности, можно считать т — 0 (для этого достаточно перенести начало отсчета в точку т). Тогда

gx (0 ) = 0 .

Дифференцируя (5.18) дважды по / и полагая / = 0, имеем:

СО

г.И0) = - S x°f (x)i lx. (5.19)— ОЭ

При условии, что математическое ожидание случай­ной величины X равно нулю, интеграл (5.19) есть дис­персия величины X, следовательно,

g x (0) = — о*.

198

Page 199: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

е*(‘) ==-/ $’ rV 'vf(.v)d,v.— СО

Из существования третьего абсолютного момента v3 получаем следующую оценку для остаточного члена фор­мулы (5.17):

Продифференцируем (5.18) трижды по t, получим:

Я 3 (О

- j \ ллс№х / {х) ( 1х

3! (5.20)

Подставляя в (5.17) g x (0) = 1, g x (0) = 0 и gx (0) = — о-, будем иметь:

югдаг* ( 0 = 1 - £ . * * + Я 3 (О-

&Я(0 = [М 0]Я = i - c-jt4~R40 (5.21)

Для доказательства того, что закон распределения случайной величины Y п прп увеличении п приближается к нормальному, перейдем от величины Y п к нормирован­ной случайной величине

У и - п1у __ У„

О У п

ибо т,, = М

Z,

У X,І --

V Dy

= Ь [ Х , ] = 0; Dy = D V У.

V D[X/] = « 32 . Характеристическая функция вели­

чины Z/;, согласно второму свойству характеристических функции, имеет вид

8~ А 0 = 8у, / Ь

Отсюда, пользуясь формулой (5.21), получаем:

1 — -2 \ G

tУ п )

R л 12 п - | - Д з ] , ( 5 .2 2 )

где (согласно оценке (5.20))2v, а V., I V'

Page 200: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Д ля нахождения предела выражения (5.22) прп п -► со предварительно прологарифмируем его и используем экви­валентность бесконечно малых, получим:

Таким образом, последовательность характеристи­ческих функции нормированных сумм Z„ сходится при п —> со к характеристической функции нормированной нормально распределенной случайной величины (см. при­мер 2, § 4.9). Отсюда заключаем, что и закон распреде­ления величины 7 п (а значит, и величины Уа, связанной с Z„ линейной зависимостью) неограниченно прибли­жается к нормальному распределению*. Теорема дока­зана.

В практических задачах часто применяют централь­ную предельную теорему для определения вероятности того, что сумма нескольких случайных величин окажется в заданных пределах.

Пример 1. Складываются 24 независимых случайных величины, каждая из которых подчинена закону равно­мерной плотности распределения на интервале (0 , 1 ). Написать приближенное выражение для плотности суммы этих случайных величии. Найти вероятность того, что сумма будет заключена в пределах от 6 до 8 .

Р е ш е и п е. Пусть У — V Х ;, где X,- — случайные

величины, равномерно распределенные на интервале (0 , 1 ).

* Зле п . мы принимаем 'к-з дока п гельстиа, что из схо кімости характеристических функций сл едует сходимость законов р а с п р е ­деления.

ІІП1 I n g z n ( t ) — lim i l 111 (1 — щ - j - R :tj =n -> со

t-

так как

lim j Rjti I lim —.Mr:.. . .4 J'.-’// 1 - и = 0 .

Следовательно,

П CO

im g;n ( t ) = e

200

Page 201: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Условие центральной предельной теоремы соблюдено, поэтому случайная величина У имеет приближенно плот­ность нормального распределения

(5.22)

Пользуясь свойствами числовых характеристик, опре­делим математическое ожидание и дисперсию величины Y . Математическое ожидание и дисперсия случайных вели­чин Х-„ имеющих равномерное распределение на интер­вале (0, 1), соответственно равны (см. § 2.9):

т1.x .) , Е) х .I 1 I 12 '

Следовательно,

т у — М

а;. = D

г :?!h Xtі = I

У, Xi

= v /И [Х /1 = 1 2 , / : 1

= V D [X/] = 2 .( 1

Подставляя в (5.22), получим:( v - 12)3

[(У) V -Применяя формулу (2.<10). наіідем вероятность того,

что сумма (величина У) будет заключена в пределах от 6 до 8 :

р № < и < 8) = j | ф Ф (^Цг^ )] = о,°о23-

§ 5.6. ТЕОРЕМА МУАВРА — ЛАПЛАСА

Случайные величины X i .........Х п, фигурирующие в цен­тральной предельной теореме, могут обладать произволь­ными распределениями вероятностей. Если считать, что все случайные величины X,- одинаково распределены, дискретны и принимают только два возможных значения0 плп 1 , то мы придем к теореме Муавра — Лапласа, представляющей собой простейший частный случай цен­тральной предельной теоремы.

201

Page 202: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Теорема Муавра — Лапласа. Если производится п неза­висимых опытов, в каждом из которых событие А появ­ляется с вероятностью р, то для любого интервала (а, 3) справедливо соотношение

Ү — п р

У т< з \ = -^ * I •> ф J M

' 2 )ф/_^_

1 / 2 Л*(5.23)

где У — число появлений события А в п опытах, q — 1 — р, Ф (;с) — функция Лапласа.

Д о к а з а т е л ь с т в о . Пусть производится п незави­симых опытов, в каждом из которых может появиться событие А с вероятностью р.

Тогда число появления события А в п опытах есть случайная величина Y , которую можно представить в виде следующей суммы:

У = У Х и

где Х і — случайная величина, выражающая число появ­ления события А в /'-м опыте.

В примере 3 § 2.5 мы показали, чтоM[Xi] = p, D \ X i\ = pq.

Следовательно, случайная величина Y является сум­мой независимых случайных величин X,-, имеющих один и тот же закон распределения с математическим ожида­нием т — р н дисперсией o - = p q . В таком случае, на основании центральной предельной теоремы, закон рас­пределения случайной величины Y прп увеличении числа опытов приближается к нормальному. Поэтому для опре­деления вероятности попадания величины Y в интервал (а, 3) Справедлива формула (см. формулу (2.40), § 2.12):

P ( * < Y < ?) = - ф» ■ / 2

Ф:VK 2

(5.24)

Вычислим математическое ожидание и дисперсию слу чайной величины Y:

гпу= Л'/І-Л

= 2 M { X i] = Y 1 p = np,І - - Л :1

У ; Х,] = V 0 [ А ' , ] = У pq = ,ipq.i J j - i г- і

202

Page 203: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Подставляя эти выражения в (5.24), получим:

Р ( а < Г < 3 ) Ф / (І — пр

У - " р ч<!>/•

\ У ^ рч;или, перейдя будем иметь:

Р х >

к нормированной случайной величине,

У - пр W ф ( 4 _ \> 2 . \ Г 2 / 1 ) 2 / _n p q

Теорема доказана.Теорема Муавра — Лапласа описывает поведение бино­

миального распределения при больших значениях п. Эго обстоятельство позволяет существенно упростить вычис­ления, связанные с биномиальным распределением при больших п. В самом деле, подсчет вероятности попадания случайной величины У в интервал (х. 3) по точной формуле

Р ( * < у < ? ' ) = у .а < к <С 3

связан при больших /г с громоздкими вычислениями. Значительно проще воспользоваться приближенной фор­мулой (5.25).

Пример 1. Найти вероятность того, что в результате 10 0 0 бросаний монеты число выпадения герба будет заключено в интервале (475, 525).

Р е ш е н и е . В этой задаче р — ~ , п — 1 ООО. Следо­вательно, tip — 500, npq — 250.

Полагая в формуле (5.25) а = 475, 3 = 525, получим:

Р (475 < У < 525) (!) _ ф /475 - 500

\ ГоОб\ \ 500

= Ф (— ^~) = 0,8854.•К> Г о /

Пример 2 . Завод выпускает 90% изделий первого сорта п 10% изделий второго сорта. Наугад выбирают 1000 изделий. Найти вероятность того, что число изде­лий первого сорта окажется в пределах от 900 до 940.

Р е ш е н и е . Вероятность выбора изделия первого сорта /) = 0,9, число опытов п = 1 0 0 0 . Следовательно, /ф = 900, npq — 90.

Применяя формулу (5.25), получим:

Р (900 < X < 940) =

ф:

Ф(/910 - !Ю0\

V•ш

\3\ 20 j

' 180

Ф (0)

ф /900 — ОООV 180

= 0,5.

203

Page 204: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

1. В чем заключается сущ ность закона больших чисел?2 . Как записывается неравенство Чебышева?3. К а к о е практическое и теоретическое значение имеет нера­

венство Чебыш ева?4. С ф ор м ул ир уй те н докаж ите т еор ем у Чебышева.5. Чем отличается обычное понятие предела от предела по

вероятности?6 . С ф орм улируйте и докаж ите обобщ ен н ую т ео р ем у Чебышева.7. К акое "практическое значение имеют теоремы Чебышева?8 . О бъясните , пользуясь теорсмоіі Бернулли, свойство устой­

чивости относительных частот.9. Как ф орм улируется теорема Пуассона?

10. В чем заключается сущ ность центральной предельной теоремы ?

11. С ф орм улируйте и докаж ите теорем у Муавра — Лапласа.12. Приведите примеры задач, при решении которых приме­

няется теорема М уавра Лапласа.

У п р а ж н с н и я

1. Вероятность наступления события /1 в каждом испытании равна 0,3. И спользуя неравенство Чебышева, оценить вероятность того, что в 10 000 испытаниях отклонение частости события А от вероятности его не превзойдет по абсолютной величине 0,0 1 .

Ошв. Не меньше 0,79.

2 . С помощью неравенства Чебышева оценить вероятность того,' что нормальная случайная величина отклонится от своего матема­

тического ожидания больше, чем на три средних квадратических отклонения.

Отв. Р ( \ X - тх 15= Зз) 1 .

3. Сколько следует проверить деталей, чтобы с вероятностью, не меньшей 0,96, можно было ожидать, что абсолютная величина отклонения частости годных деталей от вероятности детали быть годной, равной 0,98, не превысит 0,02?

Отв. п 1 2 2 а

4. Суточная потребность электроэнергии в населенном пункте является случайной величиной, математическое ож идание которой равно 3000 tcemju, а дисперсия составляет 2500. Оценить вероят­ность того, что в ближ айш ие сутки расход электроэнергии в этом населенном пункте б у д ет от 2500 д о 3500 квт\ч.

Отв. р ^ 0,99.

5. С реднее квадратическое отклонение каждой из 2500 незави­симых случайных величин не превосходит 3. О ценить вероятность того, что абсолютная величина отклонения средней арифм етической этих случайных величин от средней арифметической их математи­ческих ожиданий не превзойдет 0,3.

Вопроси для самопроверки

Ошв. р ^ 0,96.

204

Page 205: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

6. Выборочным путем тр ебуется определить среднюю длину изго і онлпемых изделий. Сколько н уж но обследовать изделий, чтобы е г.ерояінпгіт.к), больш ей О Д можно было утверждать, что средняя длина отобранных изделий будет отличаться от математического ож идания этого с р е д н е ю (п р и н и м а ем о ю за средню ю длину изделий по всей партии) не б о л ее чем на 0,001 см? Установлено, что сред­нее квадратическое отклонение длины детали не превы ш ает 0,01 см.

О та. п 16 000.7. Вероятность того, что наудачу выбранная деталь окажется

бракованной, при каждой проверке одна и та ж е и равна 0,2. О п р е ­делить вероятность того, что среди 50 наудачу отобранны х д е т а ­лей бракованных о к аж ется не менее 6.

Отв. р — 0,921.

8. И звестно, что П()л/ 0 всего числа изготовляем ы х заводом и зд е ­лий выпускаются первым сортом. Приемщик б е р е г первы е п о п а в - , шпеся 200 изделий. Чему раина вероятность того, что среди них изделий п е р в о ю сорта окажется:

а) от 120 до 150 шт., б) от 1)0 д о 150 шт.?Отв. а) 0,‘1909.

9. Вероятность появления события Д в отдельном испытании равна 0,8. Оценить вероятность того, что при 1000 независимы х повторных испытаний отклонение частоты события Л от вероят­ности прп отдельном испытании но своей абсолютной величине будет меньше 0,05.

Ошв. 0,8-13.

10. П роверкой качества изготовляемых радиоламп установлено,что из них !>б°/0 служат не меньше гарантируем ого срока в Т часов. Наугад выбирают 15(100 ра июламп. Найти вероятность того, что со сроком службы менее гарантируем ого будет: ь

а) от 570 до (530 радиоламп,б) от ООО д о 6(50 радиоламп,в) меньш е 615 радиоламп.

Ото. а) 0,7887; 6} 0,-1938; в) 0,734.

Page 206: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Г л а в а 6

СЛУЧАЙНЫЕ ф у н к ц и и

§ 6.1. ОПРЕДЕЛЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ

Функция., значение которой при каждом значении аргу­мента (или нескольких аргументов) является случайной величиной, называется случайной функцией.

Так как случайной величиной называется величина, которая в результате опыта может принимать то или иное значение, неизвестно заранее, какое именно, то из определения случайной функции следует, что она в ре­зультате опыта может принять тот пли иной конкретный вид, неизвестно заранее, какой именно.

Конкретный вид, принимаемый случайной функцией в результате опыта, называется реализацией случайной функции.

Если над случайной функцией произвести группу опытов, то мы получим группу реализаций этой функции.

В дальнейшем мы будем обозначать случайные функ­ции прописными буквами латинского алфавита, напри­мер X (і), Ү (/), Z (/) и т. д., гд е / — аргумент случайной функции. Реализацию будем обозначать соответствую­щими малыми буквами, например x(t), y(t), z (t) и т. д.

Приведем несколько примеров случайной функции.Пример 1. При передаче сигнала по радиоканалу

в 'прнемипк радиоканала будут поступать вместе с полез­ным сигналом также различные помехи, которые являются случайными функциями времени.

Пример 2 . Отклонение снаряда от расчетной траекто­рии изменяется случайным образом в зависимости от пути, пройденного снарядом.

Пример 3. Температуру воздуха в различных точках атмосферы можно рассматривать как случайную функ­цию четырех аргументов: трех координат х, у, z и вре­мени t.

Число гірИіМеров случайных функций, встречающихся в технике, можно привести сколько угодно. Действи­тельно, в любом случае, когда мы имеем дело с какой- либо непрерывно работающей системой, то при анализе

2U(i

Page 207: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

точности работы этой системы нам приходится учитывать наличие случайных помех. Как сами помехи, так и вы­званная ими реакция системы представляет собой случай­ные функции времени.

Случайные функции бывают скалярные и векторные. Примером векторной случайной функции может служить отклонение центра массы снаряда от теоретической траек­тории. Однако анализ векторных функций удобнее про­изводить, проектируя их на некоторые координатные оси пли плоскости. Эти проекции будут скалярными слу­чайными функциями.

В заключение этого параграфа отметим, что понятие случайной функции является обобщением понятия систе­мы случайных величин.

Действительно, пусть имеется некоторая случайная функция X (/), определенная на интервале \а, Ь\. Пред­положим, что ход изменения этой функции регистри­руется с помощью некоторого прибора, который пс запи­сывает случайную функцию непрерывно, а регистрирует се значения через определенные интервалы аргумента t. Обозначим через / ь . . . , фиксированные значения аргумента /, при которых прибором регистрировались значения случайной функции.

Так как согласно определению случайной функции при фиксированном значении / случайная функция пре­вращается в обычную случайную величину, то резуль­таты записи прибора в данном случае представляют собой систему т случайных величин:

X (/i) , * ( / - ) , . . . . X ( t m). (6 . 1 )Очевидно, прп достаточно высоком темпе работы

регистрирующего прибора запись значений случайной функции через такие интервалы даст достаточно точное представление о ходе ее изменения. Следовательно, рас­смотрение случайной функции можно с некоторым прибли­жением заменить рассмотрением системы случайных вели­чин (6.1). С увеличением числа т такая замена стано­вится все более точной. В пределе число значений аргумента и соответственно число случайных величин(6 . 1 ) становится бесконечным.

Таким образом, понятие случайной функции является обобщением понятия системы случайных величии, когда этих величин — бесконечное множество (в общем случае— несчетное).

207

Page 208: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 6.2. МНОГОМЕРНЫЕ ПЛОТНОСТИ ВЕРОЯТНОСТИ

Рассмотрим, каким образом можно дать.описание слу­чайной функции с вероятностной точки зрения.

Пусть дана некоторая случайная функция X (/). Зафик­сируем какое-либо значение аргумента t = t\ и рассмот­рим значение X (1 {) случайной функции X (/). Согласно определению случайной функции, величина X (/О есть случайная величина, поэтому она может быть охаракте­ризована законом се распределения, который обычно выражается функцией распределения l'\ (.v; / 1) или плот­ностью вероятности fi (.v; t\). Индекс 1 указывает на то,что мы имеем дело с одномерным законом распределения,

a t\ указывает, что закон рас­пределения случайной величи­ны X ((\) может зависеть от выбранного момента време­ни t\. Если взять произведение f 1 (.v; 1 1) dx, то оно является при­ближенным значением вероят­ности

P ( x < X ( U ) < x - ' r dx),

которая имеет простое геометр и- Рчс. 63 ческое истолкование, а именно:

вероятность того, что график реализации х (() будет пересекать прямую l — i\ па вы­соте между х п ,v-|-d x (рнс. 03).

Итак, полное описание случайной функции X (/) прп фиксированном значении аргумента I дает одиоме|)ный закон распределения возможных значений случайнойфункции при этом значении аргумента, описываемый функцией распределения 1-\ (х\ І) или плотностью вероят­ности / 1 (.V; /).

Однако одномерный закон распределения случайной функции не характеризует связь между значениями слу­чайной функции для различных значений аргумента.Поэтому введем понятие многомерного закона распреде­ления случайной функции (будем рассматривать только плотности вероятности).

Зафиксируем два значения аргумента: и /.». Значе­ния случайной функции X (/) для двух фиксированных значении аргумента Л и /._> образуют систему двух слу­чайных величин {Л'(Л), X (/•_•)J.

208

Page 209: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Д ля того чтобы охарактеризовать вероятностную связь между нарами значений X {(\) и X {(■>), надо исполь­зовать совместную плотность вероятности [>(л'ь / ь (>). Эта функция называется двумерной плотностью вероят­ности случайной функции. Заметим, что

/.»(л'ь л.»; t\, /j) d:<\ dx -2

есть приближенное значение вероятности

Р {д-j < X (/і) < л'| -j- dxь л'.. < /Ү (/..) < .Vo -\-dXi},

которая также может быть истолкована геометрически, как вероятность того, что график реализации .v (Л будет пересекать прямую / — t\ иа высоте между л'і и .V| -j- dx{, а прямую / = /•>— па высоте между х> и л'.> dx 2 (рис. 64).

Отметим два свой­ства двумерных плотно­стей:

1 . Симметрия: h { x 1, Л'.; /,, /,.) —— f.>{Х-1. л',; /.», /,).2. Согласованность:

; Xft)

X; *■ СчГ; :__ /

0 if L2

Рис. 645 •/•> (л'ь ХУ, ti, L) dxi =

= / 1 (Xi, 11).

Очевидно, что п двумерная плотность вероятности не является полной характеристикой случайной функции. Однако знание двумерных плотностей \-2 (л*|, х 2, t\, />)достаточно для всех нужд так называемой корреляцион­ной теории случайных процессов.

Иногда для получения исчерпывающей характеристики случайной функции надо увеличивать число аргументов плотности вероятности. Д ля этого выбираются произ­вольно значения аргумента i\, /•>, и рассматри­вается /z-мерная плотность вероятности

f II (Л 1 > Л-2, . . . , Хп, /1, /•>, - . . , t/j)

системы случайных величин А '(Л), X (/._.), X (t,,),являющихся значениями случайной функции X (/) при произвольно выбранных значениях аргумента.

209

Page 210: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 6.3. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ И ДИСПЕРСИЯ СЛУЧАЙНОЙ ФУНКЦИИ

Получение и использование многомерных плотностей для описания случайных функций при решении практи­ческих задач в большинстве случаев сопряжено с очень громоздкими математическими преобразованиями. Поэтому на практике чаще всего пользуются вероятностными характеристиками случайных функций, которые анало­гичны числовым характеристикам случайной величины (математическим ожиданием, дисперсией, корреляционным моментом или коэффициентом корреляции). В отличие от числовых характеристик случайных величин, которые являются постоянными числами, характеристики случай­ных функций являются неслучайными функциями ее аргументов. В этом параграфе мы познакомимся с двумя характеристиками случайной функции: математическим ожиданием и дисперсией.

Математическим ожиданием случайной функции X (/) называется неслучайная функция тх (!) аргумента /, кото­рая при каждом данном значении аргумента равна мате­матическому ожиданию значения случайной функции при том. же значении аргумента.

По определению математического ожидания (см. (2.15) можно написать:

СО

тх (/) = Л1 [X (0 1 = J xh (-V, t) dx. (6 .2 )

Математическое ожидание случайной функции пред­ставляет собой некоторую среднюю функцию, около кото­рой группируются и относительно которой колеблются все реализации рассматриваемой случайной функции. На рис. 65 показана некоторая случайная функция и ее математическое ожидание. Математическое ожидание тх (() называют также неслучайной составляющей случайного процесса X (/), в то время как разность

Х(/) = Х ( о - / « , ( / )называют флуктуационной частью процесса.

Дисперсией случайной функции X (/) называется неслу­чайная функция Ъх (/) аргумента t, которая при каждом данном значении аргумента равна дисперсии значения случайной функции при том же значении аргумента.

210

Page 211: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

По определению дисперсии можно написать:с о

Д , (0 = й [ А' (0 ] = 5 IX — тх ( 0 f /, (.V, О d*. (6 .3)— о э

Дисперсия случайной функции характеризует разброс реализаций случайной функции относительно математи­

ческого ожидания случайной функции. , Часто вместо дисперсии случайной' функции используется среднее квад­ратическое отклонение случайной функции, равное корню квадратному из дисперсии:

ox (t) = Y D A f ) .

§ 6.4. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ СЛУЧАЙНОЙ ФУНКЦИИ

Математическое ожидание и дисперсия являются весьма важными характеристиками случайной функции, однако для описания основных особенностей случайной функции этих характеристик недостаточно. Например, на рис. 66 и 67 приведены реализации двух случайных функций Xi (t) и Х> (/), имеющих одинаковые математические ожи­дания и дисперсии. Мы видим, что характер изменения реализации этих двух случайных функций совершенно различен. Так, если случайная функция Х\ (t) при неко­тором значении аргумента t приняла значение, лежащее ниже математического ожидания случайной функции, то мы наверняка можем утверждать, что и в дальнейшем реализация случайной функции пройдет ниже ее мате­матического ожидания. При рассмотрении второй функции

211

Page 212: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

этого утверждать нельзя. Следовательно, различие между функциями Л',(/) и Л'.(/) проявляется и характере связи между значениями случайной функции для различных аргументов t\ и /■>.

Для того, чтобы учесть связь между значениями слу­чайной функции прп различных значениях аргумента,

x, f t )

тх , (t)

Нас. 66

необходимо, как. н в случае системы случайных величин, задать, кроме дисперсии, корреляционные моменты зна­чений случайной функции, соответствующие всем возмож­ным парам значений аргумента. Очевидно, если менять пары значений Л и U аргумента / случайной функции X (/)

А *2 It)

ft

Рас . 67

или менять интервалы между значениями / 1 и Л., то будет меняться и корреляционный момент. Значит, корреляци­онный момент является функцией двух переменных: 1 \ и t>. Эта функция и называется корреляционной функцией.

Таким образом, корреляционной функцией случайной функции X {() называется неслучайная функция двух иргу-

212

Page 213: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ментов K x (tь /о), которая при каждой парс значений Л и /..» равна корреляционному моменту соответствующих значений случайной функции.

Зная двумерный закон распределения /•> (.v,, лу, f,, /..) случайноіі функции X (/), мы можем, согласно определе­нию корреляционного момента (см. формулу (3.28)), опре­делить корреляционную функцию по формуле

Kx( t u t«) = M [ { X ( / , )—/и, (Л)} {X{U) — mx (/,)]] = 'со

= 5 5 [Л'1 — шх (Ml [*•> — тх (/.,)] X

Һ ( Х и ХУ, 1 1, /..) с/л'! с/л'._». (6.4)

nx (t, , t2)

Рис. 68

Из сравнения выражений (6.3) и (6.4) видно, что если аргументы корреляционной функции равны между собой, т. е. ti = t-> = t, то

K x (t, /) = D , (0 -(6.5)

Таким образом, необходимость в дис­персии как в отдел ь-11 о i i х а р а ктер 11 сті і к e случайной функции отпадает, поэтому в качестве основных ха- ^ рактеристнк случаи- ион функции доста­точно рассматривать ее математическое ожидание и кор- р ел я цнош 1 у ю фу и к ци ю.

Отметим основные с в о й с т в а корреляционной функ­ции.

1. Так как корреляционный момент двух случайных величии X (t\) и X {(■>) не зависит от последовательности, в которой эти величины рассматриваются, то корреля­ционная функция симметрична относительно своих аргу­ментов, т. е.

/С, ( / „ t.>) = Қ х (t.>, /,)•

Если изобразить корреляциониую функцию геометри­чески, т. е. в виде поверхности, то эта поверхность симметрична относительно плоскости, перпендикулярной к координатной плоскости l\Ot.> и проходящей через бис­сектрису угла i-iGt.* (рнс. 6 8 ).

Page 214: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

2. Мз неравенства (4.47) для корреляционного момента и формулы (6.5) получаем второе свойство корреляцион­ной функции:

У к 7 (Ги t , ) - K x (4. ЧК .Л Ч Ч) ' ° х ( t l) °Л- (/•-')•

Таким образом, значение корреляционной функции в любой точке (Л, /•_>) не может превосходить по абсо­лютной величине среднее геометрическое ее зпачеіпій наглавной диагонали в точках ее пересечения с прямыми,

проведенными из данной точки и параллельными со­ответственно осям О/] н Of* (рис. 69).

3. Если к случайной функ­ции X (!) прибавить неслу­чайную функцию 9 (/), то ее корреляционная функция не изменится.

Д о к а з а т с л ь с т в о.Прибавим к случайной функ­

ции X (t) неслучайную функцию 9 (/), получим новую с л у ча й н у ю фу 11 к ц и ю:

Y (I) = Х ( 1) - г г (О-

На основании свойств математического ожидания будем иметь:

т , (!) — тх (!) - j-? (О-Следовательно,

У (/) — /Ну (!) = X (!) — тх ((), а это значит, что

К у (А, Ъ) = Кх Уи •/,).4. Если умножить случайную функцию X (!) па не­

случайную функцию о {!), то ее корреляционная функ­ция умножится на 9 (Л) о (/._>).

Д о к а з а т е л ь с т в о. Умножим случайную функцию X (!) на неслучайную функцию » (/), получим новую слу­чайную функцию

к (/) = ? ( / ) * ( / ) .На

имеем:основании свойств математического ожидания

т ( 0 = 9 ( 0 /пх (!).

214

Page 215: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ПоэтомуV (/) — niy (t) = ? (/) [X (t) — mx (/)].

Следоваіелыю,K v(tu U) = M [ { Y ( t o - m y i t , ) } {Y ( і , ) - т УШ = == M [? (/,) {X (/,) - m , (/,)} * (4) {X (/,) - mx (/«)} 1 -

= ? ( t l) ' i ( t i ) Kx (tu ti).Часто вместо корреляционной функции 1(х (/ь Л) рас­

сматривают нормированную корреляционную функцию R x (ti, /о), определяя ее следующим образом:

Нормированная корреляционная функция по смыслу аналогична коэффициенту корреляции для случайных величин, но не является постоянной величиной, а зави­сит от двух аргументов: t x и t>. Как и коэффициент корреляции, нормированная корреляционная функция изменяется о т — 1 до 1. Если оба аргумента нормиро­ванной корреляционной функции равны между собой, то R x (t, /) = !• При увеличении разности t> — 1 { значе­ние функции R x (tь /о) уменьшается и при достаточно большом значении /■> — t\ стремится к нулю. Физически это означает, что с увеличением разности Ы — 1 \ откло­нения случайной функции от ее математического ожи­дания для аргументов Л и /._> все менее зависимы друг от Друга.

В заключение рассмотрим корреляционную функцию связи.

Пусть имеются дізе случайные функции: X (7) и Ү (s). При совместном рассмотрении этих функций необходимо, кроме их математических ожидании и корреляционных функций, задать еще их корреляционную функцию связи.

Корреляционной функцией связи, или взаимной корре­ляционной функцией двух случайных функций X ( t) и Y (s) , называется неслучайная функция двух аргументов К ху (t, s), которая при каждой паре значений t, s равна корреляци­онному моменту соответствующих значений случайных функций X ( t ) и Y (s):

К.,у (t, s) = М Ц Х (/) — тх (/)} {Y (.V) - т , (s)}] =СО с с

= 5 5 [ x — mx ( t ) \ [ y — my {s)]f{xt у; t, s)dxcly. (6 .6)— СС - о?

215

Page 216: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

В частном случае, если х и ;/ являются случайными функциями одного п того же аргумента (, необходимо в определении корреляционной функции связи двух слу­чайных функций (0.(5) положить s — t. Тогда получим:

Кху (Л, t-i) = М [\Х (ti) — /п, (/,)} {V' (/,) — ту (4)}] =

= м [ ! ( / , ) г (/,)],где

X (/,) = X (U) - тх (/,), 'У (/■*) = У (Ц - ту (/,)н называются центрированными случайными функциями.

Случайные функции X (/) и Y (s) называются корре­лированными, или связанными, если их корреляционная функция связи не равна тождественно пулю. Если K x y (t, s) = 0 , то случайные функции X (Л и У (s) назы­ваются некоррелированными или несвязанными.

Наряду с корреляционной функцией связи исполь­зуется нормированная корреляционная функция R x y (t,s), равная отношению корреляционной функции связи к средним квадратическим отклонениям случайных функций X (/) и Y (s) для значений аргументов t и б:

ху ^ зх (t) s., (s) ‘

§ 6.5. МОМЕНТЫ ВЫСШИХ ПОРЯДКОВ

Математическое ожидание случайной функции назы­вают начальным моментом первого порядка, а корреля­ционную функцию — центральным моментом второго порядка.

Согласно определению моментов любого порядка для случайной величины (или системы случайных величии) начальный момент порядка п случайной функции X (/) оп р еде л я ere я формулой

|ія (/„ /„ . . . , t„) = Д-І [ * ( / , ) X ( / , ) . . . X (/„)].Центральный момент порядка п случайной функции

о п р еде л я етс я формулой

К п (tu fc, . . . , t„) = М [X (t,) X ( / , ) . . . X (*„)],о

где X (/) — отклонение случайной функции X (t) от ее математического ожидания, т. е. центрированная случай­ная функция.

Page 217: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Диалогично можно определить взаимные моменты высших порядков двух случайных функций и взаимные мо­менты высших порядков нескольких случайных функций.

Для определения момента /z-го порядка случайной функции X (/) необходимо знать ее //-мерную плотность вероятности

fn (' Ь A*2i . . . » Х „ , 11, /j, . . . , tri) •

Тогда начальный момент порядка и случайной функ­ции выразится формулой

•••■> СПI *„(/,, Ц, . . . , t„) = J . . . Х\Х$. . . хп X

X f n ( x и X i ......... x ti; . . . . t „ ) d x \ . . . d x n.

Аналогичной формулой определяется центральный момент порядка п:

'>) соК п (Л, ( , ) — 5 • • • S (Л'1 — ///,; (Л)) • • • (Х> — П1Х ({»)) X

/ \ //1 (*1, • • •) Хц , 1 1, . . . , ttl) tixI . . . dxn.

В большинстве практических задач теории случайных функций достаточно знания математического ожидания и корреляционной функции. Однако существуют задачи, для точного решения которых недостаточно знать ма­тематическое ожидание и корреляционную функцию. Так, например, для точного определения математического ожидания п корреляционной функции случайной функ­ции на выходе существенно нелинейной системы необхо­димо задать моменты высших порядков случайной функ­ции на входе системы.

§ 6.6. ПРИМЕРЬ! СЛУЧАЙНЫХ САНКЦИЙ

Пример І. Гармонические колебания.Пусть

X ( t ) = A cos (с»/-j-c?), (G.7)

где А ^ О, со^-О, v — случайные величины. Каждая ре­ализация

.V (/) = An cos ((•)(/ -J- <?„)

представляет собой косинусоиду. Множество всех реали­заций зависит от трех параметров: А, ш и у; поэтому

217

Page 218: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

для определения вероятностей различных событий в этом множестве реализации необходимо знать трехмерную плотность вероятности f (А, «, ?).

В приложениях часто встречается случайная гармо­ника, для которой фиксирована частота « и фаза v не зависит от А, причем ср равномерно распределена па отрезке [0, 2-]. В этом случае множество всех реализа­ции будет зависеть только от двух параметров: А и <?; причем плотность вероятности будет иметь вид

f ( A , ?) = ± [ , ( Л )

Найдем корреляционную функцию случайной гармо­ники (6.7). Для этого запишем ее в такой форме:

X (/) == a cos W -}- 3 sin со / ,

гдеа — А COS/f, 3 = — A sin v,

и отметим следующие два свойства' случайных величин а и р:

1 ) AJ 1а] = ЛП?] = 0 ;2 ) М [а2] = М [3‘1 = ~ М f/Г’], М [аЗ] = 0.Докажем свойство 2 (свойство 1 доказывается анало­

гично). Так как случайные величины А и о незави­симы, то

М [от] = М [А '] М [cos- о], М [3-] = М [А*] М [sin2 <?•],

М [сс, fJ] = — 4 - М [Л*] М [sin 2 ?]. (6 .8 )

Используя предположение о том, что случайная ве­личина о равномерно распределена на отрезке [0 , 2 —], и учитывая, что математическое ожидание случайной величины, являющейся функцией случайной величины можно выразить непосредственно через плотность веро­ятности случайной величины z>, находим, что

2 г.

А1 [cos- 'с] — ~ cos- 9 сһ — ,о

AI [sin'2 в] = ^ { sin2 9 d? = 4 “.0

AI [sin 2s j = — sin 2 f d f — 0 .I)

218

Page 219: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Подставляя полученные значения математических ожи­даний в равенство (6 .8 ), будем иметь:

/М И = /И [Л '!]4-, М [?2] = М [Л Ч I , Л* [а, |3] = 0.

Свойство 2 доказано.Используя СЕОЙСТВО 1, получим !ПХ (/) = М [ X (/)] = О,

т. е. случайная гармоника есть чисто флуктуационный процесс. Следовательно, используя свойство 2 , получим, что корреляционная функция случайной гармоники будет иметь вид

Kx 0*1» ts) = М [(я cos ш*і -\- Р sin со/]) (a COS О)/о -{- 3 sin со/,)] = = М [а- cos со/, cos со/ 2 -}- ра sin со/, COS со/.2 -J-

apcOSco/jsillсо/о -}- !3- sin со/, sill со/.2] =

= .у М [Л2] (cos со/[ cos со/о -{-sin со/! sin со/.:) =

= 4- М [Л -] cos Ш (ti — /о). (6.9)

При ty — ti получим выражения для дисперсии слу­чайной гармоники:

D [X (/)] = к х (/, /) = І М [Л~] = a;v. (/). (6.10)

Поэтому нормированная корреляционная функция будет

Rx (tl, t-i) — COS со (/, — to) . (6.11)

Из выражения (6.11) следует, что при | / | — /21 -> оо

Rx( tu t-г)

не стремится к нулю. Это связано с периодическим ха­рактером случайной функции X (/).

Пример 2. Телеграфный сигнал.Телеграфным сигналом называется случайная функ­

ция X (/), которая может принимать одно из двух значе­ний: -j- а или — а\ причем вероятность перемены знака в интервале (/, /-[•-') не зависит от того, что происходит вне этого интервала. Реализация x( t ) такого случайного процесса имеет вид, показанный на рис. 70.

В таком случае распределение числа перемен знака функции X (/) подчиняется закону Пуассона, поэтому

Page 220: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

вероятность получения п перемен знака этой функции за время ~ определяется формулой

(>-)«(6. 12)

где У— среднее число перемен знака функции в единицу времени.

Найдем корреляционную функцию телеграфного сиг­нала. Из задания случайной функции X (/) следует,

что математическое ожидание равно нулю. Следовательно,

г_ _ К л һ - ti) = M [ X ( t l) X ( Q ] .I II I

Рис. 70

-------- Произведение X (t\) X (t>)[ j I 1 может иметь два значения:

если число перемен знака за время \t\ — / .^ я в ­ляется четным числом, и — а 1, если число перемен знака не­

четно. Так как возможные значения числа перемен знака за время ! ; представляет собой несовместные собы­тия, то вероятность получения четного числа перемен знака за это время равна сумме вероятностей

Р (0), Р ( 2), . . . . Р ( 2 к),а нечетного — сумме вероятностей

Р ( 1 ), Р ( 3), . . . , Р {2к 1 ).где Р (к) есть вероятность получения к перемен знака за время ! t \ — /.. \.

Сл едовате л ы ю, и с пол ь зу я о и ределеи не математиче­ского ожидания, получим:Kx а Ь tl) ^ а 1 [Р (0) !- Р (2) + ...] - я* [Р( \ ) + Р (3) - I - .. .J.

Используя формулу (6.12), будем иметь:

/с, (/,«=«* У. (-l)tl?' '“с-ЧҺ-:, =А9С.Л

к- :0

v / nft 0 ' 1^1 - L- I)*= а-е_ Л | / і - / - 1 > (— 1 )

= d 'c~ >'Таким образом, корреляционная функция телеграф­

ного сигнала определяется выражениемKx {tl, t'i) — < - i ~ c 1. (6 .13 )

220

Page 221: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 6.7. КОМПЛЕКСНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ

'В приложении часто оказывается удобным рассматри­вать комплексные случайные функции. Поэтому нам не­обходимо определить математическое ожидание и корре­ляционную функцию комплексной случайной функции.

Комплексной случайной функцией называется функ­ция вида

Z( t ) = X ( t ) -\--jY (О,

где /Ү (/) и У (/) — действительные случайные функции; j = \ г — 1 — мнимая единица.

Пользуясь определением математического ожидания и его свойствами для случайных величин, приходим к сле­дующему определению математического ожидания ком­плексной случайной функции Z (/):

пи (/) = тх ( 0 -\- jmy (/).

Корреляционной функцией комплексной случайной функции Z (І) называется корреляционный момент ее зна­чений, соответствующих- произвольно взятой паре значе­ний /ь t. аргумента I:

К A t и t^ = M \ z ( t , ) Z { t A (6.14)

где ноликом вверху отмечено отклонение случайной функ­ции от ее математического ожидания:

Z (0 — Z( t ) — пи (I) = X (t) -j- jY (/) — тх (I) — jm.y (t) =

= [X ( 0 - mx (/)J -|- / [У (0 - »b (t)J = A (/) -I- jY (t).Кроме того,

Z {(>) = X (ti) — jY (t*) (6.15)

есть комплексная величина, сопряженная величине

Z (t.2) = X ((■>) jY (/■>). (6.16)

Определение корреляционной функции построено так, чтобы при tx= t . , = t она обращалась в дисперсию ком­плексной случайной функции Z (/) (как и для действи­тельной случайной функции). Оказывается, этому требо­ванию нельзя было бы удовлетворить, если бы мы па::;і-

221

Page 222: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

пали корреляционной функцией математическое ожиданиео о

произведения Z(t \ )Z( to) , ибо при t\ = L — t математиче­ское ожидание такого произведения будет пе действи­тельной функцией, а комплексно!!, т. е. уже ие дает дисперсии, которая, согласно определению, действительна и существенно положительна.

Пользуясь формулами (G.14) и (6.15), найдем:

Кг (tl, Һ) = М [Z (U) Z (/,)] = М [{X (',) - f j Y ((,)} х

х {X (h) - j Y (Ai)}] = м [X (<,) X (/,)] + М [Y (tl) У (<',)] +

+ І [М [Ү (Һ) X (/,)] - М [X (/,) Y (/.)](,

или, принимая во внимание определения корреляционной функции и корреляционной функции связи действитель­ных случайных функций, имеем:

К z (tl, to) = Kx (t\, ti) - r (tl, to) -{-+ j [ K y x (tu /a) — Kxy (tl, /2)]- (6.17)

Эта формула выражает корреляционную функцию ком­плексной случайной функции через корреляционные функции и корреляционные функции связи ее действи­тельной и мнимой частей.

В случае, когда действительная и мнимая части ком­плексной случайной функции некоррелнроваиы, т. е. Кху (tl, Һ) — 0, формула (6.17) имеет вид

K z (tu U = Kx( tu t9) + K y ( t l , to). (6.18)

Из формулы (6.14) при t \= t . , = t вытекает определе­ние дисперсии- комплексной случайной функции:

D \z ( t ) ] = M [ \ Z ( t ) I*],

пли, подставляя сюда выражение (6.16) случайной функ­ции, получим:

D[Z( t ) \ = M \ { X ( t ) Y \ - { Y ( t m =

— М [{X (/)}*] - f М [{У (0}э1 = D [X (/)] - f D [Y (01- (6.19)

Таким образом, дисперсия комплексной случайной функции равна сумме дисперсий ее действительной и мнимой частей.ООО

Page 223: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 6.3. ОПЕРАЦИИ^ НАД СЛУЧАЙНЫМИ ФУНКЦИЯМИ

При решении многих практических задач приходится определять характеристики случайных функций на выходе некоторой динамической системы по известным характе­ристикам случайных функций на входе этой системы. Под динамической системой понимаем любой прибор, счетно-решающий механизм, систему автоматического управления и т. п. Например, при анализе работы какой-либо системы автоматического регулирования или управления нам обычно известны характеристики возму­щающих факторов па входе системы, а требуется оцени­вать точность работы па выходе системы. Решение задачи определения характеристик преобразованной случайной функции имеет особенно большое значение прп проекти­ровании различных систем, когда отсутствует возможностьоценки интересующих н а с __________характеристик из опытных х ( t) л ] Y(t)данных.

Рассмотрим самый про­стой случай: когда па вход Рис . 71системы (рис. 71) подаетсяслучайная функция X (/) с известными характеристиками. Система Л осуществляет над этой случайной функцией некоторые преобразования, в результате которых полу­чается новая случайная функция Y ((), характеристики которой требуется определить. Запишем это преобразо­вание символически в виде

Y (/) = Л {*(/)}.

Преобразование (оператор) Л может иметь любой вид: простое умножение па неслучайную функцию, дифферен­цирование нлп интегрирование и т. д.

Все виды подобных преобразований можно разбить па две различные группы: линейные и нелинейные. В свою очередь линейные преобразования делятся на однородные и неоднородные.

Линейными однородными преобразованиями, которые будем обозначать буквой L, называются преобразования, обладающие следующими свойствами.

1 . К сумме функции оператор L может применяться почленно:

L {Л, (/) 1 (/)} = L [Л', (/)) {- L {X, (0). (6.20)

223

Page 224: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

f5. Постоянную величину С можно выносить па пнак oiii'jbiiopa:

L { CX( t ) \ = CL{X( t ) } . (0 .2 1 )

Примеры линейных однородных операторов:а) оператор умножения на заданную функцию f (/)

Y ( t ) = f ( t ) Y ( t y ,

б) оператор дифференцирования

У ( 0 = .

в) оператор интегрирования

У (t) = \ X ( t ) d t .

Линейные операции могут быть и неоднородными, если они ссстоят из линейных однородных операций с прибавлением заданной функции /( /) :

L { X ( t ) } = U \ X ( t ) } + f((),

где La— линейный однородный оператор.Примеры линейных неоднородных операций: а) У — (/) X (I) (/);

с) К ( 0 = т г + / ( 0 ;

в) Y (t) = {x(/ )dt + l(t).О

К нелинейным операциям относятся все виды пре­образований, не удовлетворяющие условиям (0 .2 0 ) и (6 .2 1 ). Например, нелинейной операцией будет

У ( 0 = X '1 (/) .

Рассмотрим задачу определения характеристик па выходе линейной системы (т. е. системы, оператор кото­рой является линейным) для некоторых видов линейных операторов.

224

Page 225: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

1. Умножение случайной функции на неслучайную функцию

Дана случайная функция X (/) с метсматическим ожи­данием т х (/) и корреляционной функцией I(x (tь 4 ).

Случайная функция К (7) связана со случайной функ­цией X (/) следующим образом:

Y( f ) = f ( t ) X ( f ) .

Требуется определить математическое ожидание и кор­реляционную функцию случайной функции Y (t).

Находим .математическое ожидание• ту (i) — М [Y (/)] = М [f (t) А (/)].

Поскольку f (/) является неслучайной функциеіі, то ее можно вынести из-под знака математического ожидания. Тогда

my ( t ) = f ( t ) m x (t), (6 .2 2 )

т. е. при умножении случайной функции на неслучайную функцию математическое ожидание случайной функции умножается на эту неслучайную функцию.

Найдем корреляционную функцию K Y(tu £>)• По опре­делению

Қ , (/,. U) = М | Y (Л) Y (/..)! = М 1{Х (ti) f (tl) —- т х (tl) f (h)} {X (/.,) j (t.) - mx (ti) I (/»)}].

Вынесем неслучайную функцию / (/) за знак матема­тического ожидания, получим:

К V Оь Ц = f (ti) f (4) м [ х (/,) X (/,) \ = f ( t i ) f (к) К , (Л, к),(6.23)

т. е. при умножении случайной функции па неслучайную функцию корреляционную функцию случайной функции для аргументов Л и и следует дважды умножить на эту неслучайную функцию для аргументов U и L.

Заметим, что еслиY (t) = CX (I),

где С — постоянная величина, тоm v ( t ) = C m x.(t),

Ky (h, i j = C-Kx (tb 4).

8 Гурскнй 225

Page 226: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

2. Производная от случайной функции

Пусть линейное преобразование случайной функции состоит в дифференцировании ее:

Ү ( і ) = « х л & '

Математическое ожидание т х (t) и корреляционная функция Қ х (tu к) случайной функции X (/) заданы. Требуется найти my (t) и K v (Һ, к).

Представим производную в виде предела:

Y (/) = iim х {t + Aw ~ уҮ {t)• ' (6.24)а/ ~ « лг

Применим к равенству (6.24) операцию математиче­ского ожидания. Предполагая, что математическое ожи­дание предела равно пределу математического ожидания, получим: \

= ( 0 1 = tim + У> = « Л ф _

Итак,

m v (0 = — f P , (6.25)

т. е. математическое ожидание производной от случайной функции равно производной от математического ожида­ния случайной функции.

Значит, операцию дифференцирования и операцию математического ожидания можно менять местами.

Д ля определения корреляционной функции Қу (/,, /а)о и

перейдем к центрированным случайным функциям Ү (t ) и X (/); очевидно,

огY (6.26)

По определению

к , у ,, k ) = М [ү (/,) Ү ((.)].

Подставив вместо Y (tv) и Y (/..>) их выражения из (6.26), получим:

К у {tu /2) = М

226

(IX ( t , ) _ (IX ( t , ) d t v dt..

Page 227: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Представляя выражение под знаком математического ожидания в виде второй смешанной частной производнойи, учитывая, что операцию дифференцирования и мате­матического ожидания можно менять местами, будем иметь

'*> = т ж м ^ (/‘> * (У! = (6'27)т. е. корреляционная функция производной от случайной функции равна второй смешанной частной производной от корреляционной функции исходной случайной функции.

При определении характеристик производной случай­ной функции предполагалось, что случайная функция X(t) является непрерывной и производная ее существует.

Случайная функция А (/) называется непрерывной, если для любого значения аргумента / и сколько угодно малого г 0 выполняется равенство

lim Р (| X (( -h М) - X (t) I > е) = 0 .

Это равенство означает, что для непрерывной случай­ной функции должна существовать статистическая связь между значениями случайной функции при аргументахI и t- \- А/ для достаточно малого А/. Если же для любого А/ связь между значениями случайной функции отсутствует, то с вероятностью, равной единице, функция является разрывной для любого /.

Пример. На вход дифференцирующего механизма по­ступает случайная функция X (t) с математическим ожи­данием

тх (/) = A sin at

и корреляционной функцией

К А Һ , / - )= = 0 Лв-р < ',-«% _

где Од.— постоянная дисперсия случайной функции X'(f).Определить математическое ожидание и дисперсию на

выходе системы.Р е ш е н и е . Используя формулы (6.25) и (6.27),

получим:

т у (0 = — 'А -- = a. A co s а/,

К , It,, U) = = - m - W [i — 2

227

Page 228: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Полагая t\ — t-2 = f, имеем: D v (t) — 2$DX.Мз последнего равенства видно, что дисперсия па

выходе дифференцирующего механизма зависит не только от дисперсии Dx на входе, но и от параметров корреля­ционной функции Қ х (/,, /2).

3. Интеграл от случайной' функции

Пусть линейное преобразование случайной функции состоит в ее интегрировании:

tY (t) = \ X ( t ) d t . (6.28)

оИзвестны характеристики случайной функции X (/),

требуется определить математическое ожидание m v (/) и корреляционную функцию К у (t\, t>) случайпоіі функ­ции Ү (/).

Представим интеграл (6.28) как предел интегральной суммы

еУ (/) = \ X (/) d t = 1 i m У ] X (U) А/,- (6.29)

„ max л Л — о I

п применим к равенству (6.29) операцию математи­ческого ожидания, полагая, что операции отысканияпредела и математического ожидания можно поменять местами:

т , ( 0 = Л1 [ К( / ) 1 = М lim У ] Х ( Ы А//тпхДЛ-*о ;

lim '}] AI [X (іі) А/ ,1 = lim V тх (/,•) А =m a x М- -<■ о / пых- / , • — и »

Итак,

Я тх (() dt.

niy (/) — j тх (/) dt, (6.30)

т. е. математическое ожидание интеграла от случайной функции равно интегралу от математического ожидания этой случайной функции. Иными словами, операцию интегрирования и операцию математического ожидания можно менять местами.

Page 229: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Найдем корреляционную функцию Ky (t\, to). Д ля этого составим произведение

„ п (l ,, Лі „

У ((,) Y (<.) = \ X (/,) dt, S .X (/,) dl,, (6.31)о о

о огде X (/) и К ( 0 — центрированные случайные функции.

Произведение двух интегралов в правой части равен­ства (6.31) можно рассматривать как двойной интеграл:

$' X (t,) dt, $ X (U) dt, = 5 \ X (/,) X (/«) dt, dt,.о о и 0

Следовательно,

у (Л) Y (fi) = s' S X (/,) X (/,) Л , </0- (6.32)0 0

Прнмеппм теперь к равенству (6.32) операцию матема­тического ожидания и поменяем ее в правой части с опе­рацией интегрирования, получим:

/(,, (/„ /.,) = Д1 [ у (/,) к (/»)| = $‘ $',И [х (/,) х (fe)] at, dt,,О о

или/I /,

K.V (Л. -'=) = $ S /<Л (Л. л.) dt, dt... (6.33)О и

Таким образом, корреляционная функция интеграла от случайной функции равна двойному интегралу от кор­реляционной функции исходной случайной функции.

Пример. Характеристики случайной функции X (t) Заданы выражениями

тх (/) = 2 / -j- 3; / \Л. (/ь 4 ) = cos ^ cos /.».

Найти характеристики случайной фуикцинt

1у (о = | jj Х(о*.

Р е ш е н и е . Так как случайная функция V (/) есть результат двух последовательных операций (интегрирова­ние и умножение па неслучайную функцию), примененных

229

Page 230: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

к данной случайной функции X ((), то, используя фор­мулы (6.24), (6.30) и (6.33), получим:

tт , W = т Л' ( й -I- з )d l = j ( у -I- 3t) = i + 3, К , (tu /,) =

011

= \ S C0S C0S = 7Т s*n s'n (0 =° 0

= К у (t, t) — ^ sin2/.

4. Сложение случайных функции

Пусть в результате сложения двух случайных функ­ций одного аргумента X (/) и К (/) получена новая слу­чайная функция

Z(t) = X ( t ) + Y ( t ) . (6.34)

Известны характеристики исходных функций: матема­тические ожидания mx (t) и т у (/), корреляционные функ­ции K x (t\, to) и Ку (/„ /..), корреляционная функция связи К ху (ti: /о). Требуется найти характеристики случайной функции Z (/).

Применяя к равенству (6.34) операцию математиче­ского ожидания, получим:

т . (() = тх (/) -|- niy ((:), (6 .35)

т. е. при сложении двух случайных функций их матема­тические ожидания складываются.

Корреляционная функция случайной функции Z (/) выражается формулой (доказательство которой предла­гается читателю)

КЛҺ> t>) = K x (tu h) + K y(tb h ) + K xy (tь һ) + Қ Ху(і», tl).(6.36)

В случае, когда случайные функции X (t) и Y (I) не- коррелированы, K xy(tu һ ) = 0 и формула (6.36) прини­мает вид:

K £ (tl, t o ) = K X (tl, to) Ку (tl, to), (6.37)т. е. при сложении некоррелированных случайных функ­ций их корреляционные функции складываются. .

Выведенные формулы могут быть обобщены па случай произвольного числа слагаемых.

230

Page 231: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 6.9. КАНОНИЧЕСКОЕ РАЗЛОЖЕНИЕ СЛУЧАЙНЫХ ФУНКЦИЙ

В § 6 .8 были изложены общие правила определения характеристик случайной функции после линейного пре­образования.

Правило преобразования математического ожидания при практическом применении затруднений не вызывает. Что касается двойного преобразования корреляционной функции, то оно в ряде случаев приводит к очень гро­моздким операциям, что затрудняет практическое исполь­зование рассмотренных методов.

Значительное упрощение правил определения харак­теристик случайной функции после линейного преоб­разования может быть получено применением метода канониче­ских разложений, разработан­ного В. С. Пугачевым [ 1 ].

Идея метода канонических -д разложений состоит в пред­ставлении случайной функции в виде суммы элементарных случайных функций.

Простейшей случайной функцией называется функ­ция вида

X (/) = (t), (6.38)где X — обычная случайная величина;

<р (/) — неслучайная функция.Все реализации такой функции изображаются подоб­

ными кривыми, которые могут быть совмещены друг с другом путем изменения масштаба по оси ординат (рис. 72). Прп этом ось абсцисс тоже изображает реали­зацию, которая соответствует возможному значению л' = 0 случайной величины X .

Определим характеристики простейшей случайной функции (6.38). Имеем:

тх (() = М [X? (/)] — '-р (i) М [XJ = ? (/) тх,где тх — математическое ожидание случайной величины X. Если тх — 0, то математическое ожидание случайной функции X (t) также равно пулю для всех t :

тх (/) = 0 .В этом случае простейшая случайная функция (6.33) называется элементарной случайной функцией.

x(t)

231

Page 232: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Определим корреляционную функцию элементарной случайной функции. Имеем:

Рассмотрим теперь случайную функцию X (/), кото­рая является суммой взаимно некоррелированных эле­ментарных случайных функций:

Из взаимной некоррелированности элементарных слу­чайных функций, входящих в сумму (6.39), следует взаим­ная некоррелированность случайных величии Xi.

Очевидно, математическое ожидание случайной фупк-О

цпп X (t) равно пулю (так как математическое ожидание каждого слагаемого правой части (6.39) равно нулю).

Найдем корреляционную функцию случайной фупк-о

ции X (t). По определению

Перемножая выражения (6.41) и (6.42) п применяя к произведению операцию математического ожидания, получим:

где суммирование распространяется па все пары значений, как равные, так п неравные. В случае, когда i — j,

Х (/) = 2 * ; '* (/)• (6.39)

(6.40)где

(6.41)і 1

(6.42)

(6.43)ч

Page 233: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

В случае, когда і Ф /,M [ X iXj ] = Ki j = 0,

так как по условию случайные величины X,- взаимно некоррелироваиы и, следовательно, корреляционныіі мо­мент Kij — 0 .

Подставляя эти значения в формулу (6.43), получим выражение для корреляционной функции случайной фупк-

Оции X (/), заданной разложением (6.39)

ГПк л ь > « - 2 (6.44)

I

Согласно одному из основных свойств корреляцион­ной функции (§ 6.4) все случайные функции, отличаю­щиеся друг от друга только произвольным неслучайным слагаемым, имеют одну п ту же корреляционную функ­цию, поэтому случайная функция

( 111 X (0 = тх (0 + X (0 = тх (0 + 2 Х ,ъ (Q, (6.45)

/ = 1

где tnx(() - неслучайная функция, имеет корреляционную функцию, определяемую формулой (6.44).

Математическое ожидание случайной функции, опре­деляемой равенством (6.45), очевидно, равно mx (t):

М [X — (/).0

Значит, случайная функция X (/), определяемая равен­ством (6.39), является отклонением случайной функции X (/) от се математического ожидания.

Итак, случайная функция X (/), определяемая равен­ством (6.45), имеет математическое ожидание т х (I) и кор­реляционную функцию Kx (tu /•_>) определяемую равен­ством (6.44).

Представление случайной функции X (t) в виде суммы ее математического ожидания и взаимно некоррелирован­ных элементарных случайных функций называется кано­ническим разложениемi случайной функции X (/). Случай­ные величины Xi называются коэффициентами канониче­ского разложения, а неслучайные функции ot (/) — коор­динатными функциями канонического разложения.

Выражение (6.44) называется каноническим разложе­нием корреляционной функции.

233

Page 234: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Полагая в формуле (6.44) tx — tа, мы получим диспер­сию случайной функции X (I)

т

D , = s Y i i W D , .i= I

Таким образом, зная каноническое разложение случай­ной функции X (/), можно сразу найти каноническое раз­ложение ее корреляционной функции. Обратное тоже спра­ведливо, а именно: если задано каноническое разложе­ние корреляционной функции вида (6.44), то для случай­ной функции X (/) справедливо каноническое разложение вида (6.45).

Мы принимаем это положение без доказательства (см. [ 1 1 ).

Канонические разложения случайных функций очень удобны для выполнения различных операций над слу­чайными функциями, особенно линейных. Эго объясняется тем, что в каноническом разложении случайной функции X ( 0 мы имеем дело только со случайными величинами, которые являются коэффициентами разложения. Зависи­мость же случайной функции X (/) от ее аргумента t выражается координатными функциями (/), которые являются вполне определенными неслучайными функциями. Поэтому выполнение различных операций над случайной функцией X (/) (например, дифференцирование, интегриро­вание и т. д.) сводится при помощи канонического раз­ложения к соответствующим операциям над неслучайными координатными функциями (t), т. е. к обычным опера­циям математического анализа.

§ 6.10. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ

В приложениях очень часто приходится встречаться со случайными процессами, которые протекают во времени приблизительно однородно и имеют вид непрерывных слу­чайных колебаний вокруг некоторого среднего значения. Такие случайные процессы называются стационарными. Примерами стационарных случайных процессов могут слу­жить: 1 ) случайные шумы в радиоприемнике, 2 ) колеба­ние самолета на установившемся режиме горизонтального полета, 3) колебания напряжения в электрической сети и т. д.

‘234

Page 235: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

В связи с тем, что стационарные случайные процессы часто встречаются при решении физических и технических задач, на практике получила широкое применение спе­циальная теория стационарных процессов, или, иначе, теория стационарных случайных функций. Дадим точное определение стационарной случайной функции.

Стационарной случайной функцией называется такая случайная функция X (t), математическое ожидание кото­рой постоянно, а корреляционно функция зависит только от разности аргументов, т. е.

тх ( 0 — const, К хУи Һ) = kx (х),где 'z — ti — ti.

Это так называемое определение стационарной случай­ной функции в широком смысле. Д ля теории, оперирую­щей только с математическими ожиданиями и корреля­ционными функциями, достаточно приведенного определе­ния стационарности случайной функции в широком смысле.

Случайную функцию X (t) называют стационарной в узком смысле, если все ее многомерные плотности вероят­ности fn (x |, . . . , Х„, t ...........tn) при любом п зависят толькоот интервалов t* — tь /„— 1 \ и не зависят от положе­ния этих интервалов в области изменения аргумента t.

Так как в большинстве случаев мы будем интересо­ваться только характеристиками случайной функции тх (t) и К х ( / ь / о ) , то в дальнейшем будем рассматривать только стационарные случайные функции в широком смысле.

Из определения стационарной случайной функции сле­дует, что корреляционная функция стационарной случай­ной ф ун к ц и и я в л я е т с я ф ун к ц и ей не д в у х , а одной пере­менной. Это обстоятельство в ряде случаев значительно упрощает операции над стационарными случайными функ­циями.

На основании рассмотренных свойств корреляционной функции произвольной случайной функции (см. § 6.4) сформулируем основные свойства корреляционной функ­ции стационарной случайной функции:

1 ) kx (0 ) = D X (/),

т. е. дисперсия стационарной случайной функции постоянна и равна значению корреляционной функции в начале коор­динат;

2 ) М ~ ' ) = Ы ' ) .235

Page 236: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

т. е. корреляционная функция стационарной случайной, функции является четной;

3) | M ^ M O ) = = A v (0 .Из свойств 2 н 3 следует, что график корреляционной функции симметричен относительно осп координат и рас­положен в горизонтальной полосе [— Dx (t)', Ол (/)].

На практике вмссго корреляционной функции kx (i) часто пользуются нормированной корреляционной ф унк­цией

где Од. = kx (0 ) — постоянная дисперсия стационарного процесса. Функция {>х (-:) есть не что иное, как коэффи­

циент корреляции между значениями случайной функции, разделенными интервалом - по времени. Очевидно, что P.V (0 ) = 1.

Рассмотрим примеры стационарных процессов.При мер 1 . Гармоническое колебание

Л” (/) = A cos (со/ - j- 9 ) = a cos м/ р sin со/является стационарным процессом.

Действительно, в примере 1 § 6 .6 мы показали, что математическое ожидание случайной гармоники равно пулю, а корреляционная функция имеет вид

А д - ( / | , /■_>) = -С М | A ' 1} c o s со ( / , — / , ) = з ; . c o s c m ,

т. е. зависит только от разности аргументов. График корреляционной функции представляет собой косинусоиду (рис. 73).

Заметим, что случайная гармоника с фиксированной начальной фазой 9 = 9.1 является уже нестационарным случайным процессом. В самом деле, если

X (/) — A cos (со/ - ~ 9 „),то

М [X (/)j = М [А \ соъ (со/ -j- 9у) ф const.

236

Page 237: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пример 2 . Т елсграфпый сигнал (см. пример 2 § 6 .6) является стационарным процессом, так как математиче­ское ожидание равно пулю, а корреляционная функция имеет вид

Кх (Л. t-i) — а-е~2}' ' , или k x (~) — d'e~-}- I'l.

График корреляционной функции имеет вид, показан­ный на рнс. 74.

В заключение этого параграфа отметим, что прп совместном рассмот­рении нескольких ста- цио и а р 11 ы х с л у 11 а й п ы х функцйи необходимоучитывать возможную рцС. 74связь между отдельны­ми случайными' функциями. Эта связь характеризуется взаимной корреляционной функцией.

Введем следующее определение: случайные процессы X (/) и Y (i) называются стационарно связанными, если их взаимная корреляционная функция

K x A h , U) =

= М{[Х ( / , ) - / / ! , ( / . ) } {Г {1*) — ту kx y {4) .зависит только от ^ = ti — /•>.

§ 6.11. ЭРГОДИЧЕСКОЕ СВОЙСТВО СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ

Пусть имеется произвольная случайная функция X (/). Требуется найти оценки для характеристик этой случай­ной функции: ее математического ожидания mx (t), диспер­сии Dx (t) и корреляционной функции K x (tь /■>)• Д ля решения этой задачи нужно либо знать одномерную и двумерную плотности вероятности случайной функции X (t), либо располагать достаточно большим числом реа­лизации этой случайной функции для того, чтобы иметь возможность подсчитать эти характеристики прибли­женно (например, заменяя математическое ожидание сред­ним арифметическим для каждого значения случайной функции).

Большинство стационарных случайных функций обла­дает очень важным для практики эргодическим свойством,

Page 238: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

сущность которого состоит в том, что по одной доста­точно длинной, отдельной реализации можно судить о всех свойствах функции так же как по любому количеству реализаций.

Если стационарная случайная функция X (/) обладает эргодическим свойством, то для нее среднее по времени приближенно равно среднему по множеству реализаций (на достаточном большом участке наблюдения). То же будет верно и для X '1 (/), X (t) X (t -}- ■z). Следовательно, математическое ожидание, дисперсию и корреляционную функцию можно будет приближенно определять по одной достаточно длинной реализации.

Математически эргодическое свойство для указанных характеристик записывается в таком виде:

со 7

m x ( i ) — [ xji (х, /) dx — lim J r \ x ( t ) d t , (6.46)«> 7'-> со 11 Л.— оо — /

со

Дх- (0 = \ [х — тх [t) 1- U (х , 0 dx =- оэ

7

= lim [ [X(t) — mx {t)]-dtt (6.47)/ ' - C O - 7

о э с о

/г.х- СО = jj jj [х\ — m x {ti)]l-vo — tnx (/*)] X— CO - CO

7

X h ( X u X*\ tl, /,) dxi dx-i = lim ~ \ [x (t) — mx (/)] XГ —► со *1 _ y T

X [X (t -}- *0 — tnx (/)] dt, (6.48)

где x (t) - любая реализация случайной функции X ( t ) .Стационарные случайные функции могут обладать

свойствами эргодичности по отношению к моментам не всех порядков. Так. например, случайные функции могут быть эр годичны по отношению только к двум первым моментам, а по отношению к моментам высших порядков не являются эргодичными. Но так как для описания случайной функции мы пользуемся только математическим ожиданием и корреляционной функцией, то будем счи­тать стационарную случайную функцию эргодичиой в том случае, если условие эргодичности выполняется для этих характеристик.

238

Page 239: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Не все стационарные функции обладают свойством эргодичности даже по отношению к моментам первого порядка. На рис. 75 приведены реализации стационарной случайной функции X (О, для определения математиче­ского ожидания которой мы не можем пользоваться осред­нением значений одной реализации по аргументу t, ибо полученный результат будет зависеть от выбранной реа­лизации и вообще иметь зна­чение, отличное от математи­ческого ожидания случайной функции.

В частности, пеэргоднч-

т

пость случайного процесса может быть связана с нали- Рис. 7Ъчием в его составе слагаемогов виде обычной случайной величины. Действительно, рас­смотрим случайную функцию

Z (/) = X (О -j- К, ((3.49)где X (О - стационарная функция, обладающая свойством

эргодичности, с характеристиками mx (t) и kx (-)\Y — случайная величина с характеристиками m v и D Y.

Предположим, что X (/) и Y иекоррелнрованы.Тогда т . (I) = tnx (О -j- ту, (6.50)

к г ( х ) = М [ Z (/) Z (/ т) | = М [ [ X (() -!- Y } Х

Х { Х (/ + -) -1- У) ] = k x (') -!- D v. (6.51)Из формул (6.50) и (6.51) видно, что случайная функ­

ция 2 ( 0 является етлцпопирпон. Олняко она не обла­дает свойством эргодичности, так как каждая ее реали­зация будет по характеру отличаться от других. Именно, каждая реализация случайной функции Z (?) будет обла­дать тем или иным средним по времени значением в зави­симости оттого, какое значение приняла случайная вели­чина Y (рис. 76).

Об эргодичности или иеэргоднчиости стационарного случайного процесса можно судить по его корреляцион­ной функции. Если корреляционная функция /гх (х) стре­мится к нулю при неограниченном возрастании ~ (кор­реляционная связь между значениями случайного про­цесса неограниченно убывает по мере увеличения рас­стояния между ними), то это является достаточным усло-

239

Page 240: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Уі

внем для того, чтобы случайный процесс X (t) обладал свойством эргодичности относительно моментов второго порядка (т. е. дисперсии и корреляционной функции). Рассмотренная случайная функция (G.49) имеет корреля­ционную функцию

М 0 = М 0 -г£у> т. е. она отличается от корреляционной функции стацио­нарной случайной функции X (/) наличием постоянного слагаемого D v. В то время как корреляционная функция

zft) М О — 0 прп - — со ,функция к, (-) уже не стремится к нулю прп- — со , а приблнжает- ся к Dy.

П ример. Он р еде л ить, является ли эргодичиой случай 11 а я гар мопикаX (/) = A cos (со/-!-? ) =

= a cos ш/ - j- 'л sin со/.

Р е ш е н и е . В примере I § 6 и примере 1 § 10, определяя характеристики тх (() и kx (т ) как среднее по совокупности реализации, мы показали, что

тх ( / ) = 0 , 1гх ( т ) = <v c o s co t.

Найдем эти же характеристики как среднее по аргу­менту t для некоторой реализации, т. с. для некоторых фиксированных значений А = й \ и о =

т тm x (t) = lim ,jr \ х (()d(== lim ~ «і cos («о I -[-о \) dt =■

кР и с . 76

1 — с о • " I — 0 0Т - ' Г

I sill («.»* - f с ,): С(\ JIJT1

Т

кх (-) = lim rjy- ^ ci\ cos (со/ -]- 0 a, cos (<»/ -]- со- -]- ?,) dt~ * _! 7'

Г— lim Др {cos «от -j- cos ((от -j- 2 ю/ -j- 2 -р|)} г// =

7‘ — оо " «),

lim/ — со

COS (ОТ ■sin (L W -j hit • j • 2-:,) - sin ( 2‘ >7' -j- wi -}•• 2-r l )- ^

a\= COS COT.

- 7

2 1 0

Page 241: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Сравнивая полученные результаты, видим, что тх (/) = тх (/); кх (') ~ /г v (т).

Следовательно, рассматриваемая случайная гармоника по отношению к математическому ожиданию обладает свойством эргодичности, но по отношению к корреляцион­ной функции этим свойством не обладает cos on -±

так как сһ — некоторое значение случайнойа] „ \-! COS сот I

величины.Этот же результат мы получим, если используем

сформулированное свойство эргодичности по корреляцион­ной функции. Действительно, kx (-) — o% cos ют прп ~ -> оо пе стремится к нулю, а это значит, что случайная гармо­ника не обладает свойством эргодичности.

§ 6.12. СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ СТАЦИОНАРНОЙСЛУЧАЙНОЙ ФУНКЦИИ НА КОНЕЧНОМ ИНТЕРВАЛЕ

Спектральным разложением, некоторой функции назы­вается представление ее в виде суммы гармонических колебаний, имеющих разные амплитуды и частоты. Зави­симость амплитуды гармоники от частоты называется спектро:.i функции.

Рассмотрим, каким образом можно получить спект­ральное разложение стационарной случайной функции.

Пусть дана стацио­нарная случайная фупк- * л'-і111цня X (/) па конечном интервале I— Т, Т\.Пусть А'Л. (-) — корреля­ционная функция слу­чайной функции X (/)•При изменении■ t x и (> в интервале [— Т, Т\ разность t\ — /■) = ", оче­видно, изменяется в ин­тервале {— 27, 27’j. Поэтому в этом интервале н следует рассматривать корреляционную функцию к х ( ' ) .

Функция к х (х) есть четная функция:

м - о = м о >и следовательно, па графике она изобразится симметрич­ной относительно вертикальной оси кривой (рис. 77).

Р и г . 17

Page 242: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Мы знаем, что четную функцию на интервале [— 27\ 2 Л можно разложить в ряд Фурье по косинусам:

СО

кх (т) = У) D,t cos (о* т, (6.52)к = 0

где-

(О/. == /гсо,; U), = ~ = т.р ,

а коэффициенты ряда определяются по известным форму­лам теории рядов Фурье:

27"

А> = 4^ kx (~) d~,~ - т

2 Т

Dk = 27; \ cos ~d~ ПРИ к ^ 0— 2 т

или, в силу четности корреляционной функции,о Т

Do = ^ . \ k , ( - ) d - . ,6

271 СD,, = f \ кх (-) cos со/, t dx.

и

Представив формулу (6.52) в видеСО

кх (ti — to) = У] Du cos щ {ti — to) =к = I)

С'Э= У] Dk (cos со,. /, cos O)/, to —J - sin tl sin со /j ti),

к =---- 0убеждаемся в том, что формула (6.52) дает каноническое разложение корреляционной функции стационарной слу­чайной функции, координатными функциями которого являются попеременно синусы и косинусы частот, крат­ных COjI

cos<ok t, - s in со/.z1 (к — 0 , 1 , 2 , . . . ) .

Мы знаем, что по каноническому разложению корре­ляционной функции можно построить каноническое раз-

Page 243: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ложепие самой случайной функции X (/) с теми же коор­динатными функциями:

X (/) = т х (/) -{- У] (Y cos о)А. t -j- Z !t sin со,, t), (6.53)/: ~ О

где Yu и Zu (к — О, 1 , 2 , . . . ) — взаимно некоррелирован­ные случайной величины с равными нулю математиче­скими ожиданиями, причем величины Y и Z k с одина­ковым номером к имеют одну и ту же дисперсию Д .. Все коэффициенты Д , разложения (6.52) положительны.

Каноническое разложение (6.53) случайной функции X (/), координатными функциями которого являются функ­ции coso),. /, sin о п р п различных (О/., называется спект­ральным разложением ста­ционар ной слу чай нойфункции.

Спектральное разложе­ние изображает стационар­ную случайную функцию, разложенную на случай­ные гармоники различных частот °\

(0], (0.1, Рис. 78

Определяем дисперсию случайной функции X (/), задан­ной спектральным разложением (6.53). На основании свойства дисперсии имеем:

оэ оэД , (/) = D [ X ( / ) ] = У] (cos- шк t -|- sill- (Од. /) Д . = у Д.,

А-О О(6.54)

т. е. дисперсия стационарной случайной функции равна сумме дисперсий всех случайных гармоник се спектрального разложения.

Формула (6.54) показывает, что дисперсия случайной функции известным образом распределена по различным частотам. Графически распределение дисперсий по часто­там можно проиллюстрировать в виде так называемого спектра стационарной случайной функции (рнс. 78).

Очевидно, сумма всех ординат построенного таким образом спектра равна дисперсии случайной функции X (t).

В ряде случаев, с точки зрения простоты математи­ческих преобразований, удобно пользоваться спектраль­

243

Page 244: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ным разложением не в действительной форме, а в комп­лексной. Поэтому представим спектральное разложение (6.53) случайной функции X (/) в комплексной форме. Воспользуемся формулами Эйлера;

2 //°’ 1.1 -J^lJ __ j € — € /v

Подставляя эти выражения в формулу (6.53) и учиты­вая, что wk — kuh, (о0 = 0 , получим:

ү / eJU)kl Л,X (t) = m , (/) -j- Y , -I- V I ү к ------- V/<-----------

кш= 1 '/ щ t — /о) . Л г-°

- /2»* -.= «, (/) + к. -!- У +Аг = 1

+ У - 4 -— (6.55)ftr=l

Положим Y -и — У I.-, Z-u — Z.); и распространим.условно область частот со* па отрицательные значения о>; в качестве частот спектрального разложения будем рассматривать значения

(оА = /го>, (/г = zlz 1, zh 2, dt 3 , . . . ).

Тогда формулу (6.55) можем записать так:

х (о= т , (о -|- к» -|- У *1^4 e'v -j- v M S '/ i ',

или

где

X (t) — mx (l) -|- V Ut cJ-V , (6.56)к = -* — с о

(J!. = Ү о прп /г = О,

U,, = - h ~ jZk при к О,

U при /г<^0.

214

Page 245: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Разложение (6.56) представляет собой каноническое разложение случайной функции /Ү (/) с комплексными координатными функциями и комплексными коэф­фициентами Uк- Чтобы убедиться в этом, достаточно показать, что случайные коэффициенты этого разложения не коррелировали между собой. (Доказательство этого услови я представляется читател ю).

Определим корреляционную функцию случайной функ­ции /Ү (/), представленной в виде формулы (6.56). Поль­зуясь общим определением корреляционной функции комплексной случайной функции (6.14) для элементарной комплексной случайной функции U(f) = Uv(t), где слу­чайная величина U и функция ? (/) — комплексны, будем иметь:

Ка (tu U) = м [Щ {to Щ Щ \=? (/.) Т Ш М 11 и И == ? (/,) ? (ti) D„.

Следовательно, корреляционная функция случайной функции X (/)> представленной каноническим разложением (6.56), выражается формулой

K A U , и ) = у т е 1"*'' е " -*'* =А' — ТО

•а> со

= k * - a o

или, переходя к аргументу ~ —со

k , ( ~ ) = У] Dt eJ“’k~. (6.57)

Выражение (6.57) представляет собой ряд Фурье функции kx (-) в комплексной форме. Поэтому, используя формулы коэффициентов ряда Фурье,имеем:

2 Г

D t — \ fix (") ' ik , где щ = J p ,— 21 '

пли, учитывая, что kx (~)— четная функция,1!/'

Dt = !> Du = 4р \ kx (х) cos (0А X dx. и

2 1 5

Page 246: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 6.13. СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ СТАЦИОНАРНОЙСЛУЧАЙНОЙ ФУНКЦИИ НА БЕСКОНЕЧНОМ ИНТЕРВАЛЕ. СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ

Спектральное разложение случайной функции на огра­ниченном интервале | — Т, 7’] дает только приближенное описание случайной функции. Более полное представле­ние о случайной функции при ее спектральном разложе­нии может быть получено при увеличении величины Т. Поэтому целесообразно вывести из формул предыдущего параграфа предельные формулы путем предельного пере­хода при Т —>оо. При Т -> оо (Oj = ~тр —> 0; это значит,что расстояния между частотами на которых строится спектр, будут при Т -* оо неограниченно уменьшаться, т. е. дискретный спектр разложения переходит в непре­рывный и вместо дисперсии амплитуды гармоники каждой частоты следует рассматривать плотность дисперсии амплитуд на единицу частоты.

Рассмотрим отношение дисперсии амплитуды любойгармоники Dt/ к приращению частоты Aoj = a)1 = ^-, приограниченном Т. Отношение

К = ^ = 5 * г Н ) (0.58)

представляет собой среднюю плотность дисперсии на единицу частоты. Учитывая, что

2 7'I I*Dk = 2 f \ М О cos u)k -.dx

- 2 7

и До) = ^-., получим:

27

S x t (<*>а) — 4- kx (т) cos со/, zdx. (6.59)—27

Отсюда при Т -* оо (ш/; становится непрерывной вели­чиной, поэтому индекс к опускаем) имеем:

ООS x (ш) ^ 1 k x (x )cosu-d- . (6.60)

— СО

246

Page 247: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Функция 5 Л- (<о) определяет плотность распределения дисперсии гармонических колебаний разложения в зави­симости от частоты и поэтому называется спектральной плотностью стационарной случайной функции.

Спектральная плотность любой стационарной случай­ной функции является неотрицательной функцией со.

Действительно, в силу равенства (6.58), функция S xT(w/{) ^ > 0 для любого шЛ. Поэтому предел этой функ­ции при Т -> со не может быть отрица­тельным.

Кривая S.v (со)(рис. 79) изображает плотность распреде­ления дисперсий по частотам непрерыв­ного спектра.

Распространяя ус­ловно область час­тот со и па отрица­тельные значения, из выражения (6.60) получим, что спектральная плотность является четной функцией, т. е.

S , (со) = S.V (— со).Найдем выражение, определяющее обратный переход

от спектральной плотности к корреляционной функции.Из выражения (6.58) имеем:

D u = S _ x j - І ш і і ) Д(0-Подставляя эти выражения в формулу (6.52), получим:

СО6.v (') = 2 S X J (со*) COS СОд, хДш.к =0

При переходе к пределу при Т -> со сумма переходит в интеграл. Получим:

СО

кх (х) = S x (со) cos cox dco. (6.61)'о

Так как S x (со) cos сох является четной функцией со, то на основании свойства интеграла от четной функции равенство (6.61) можно записать в виде:

Page 248: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Таким образом, корреляционная функция и спектраль­ная плотность стационарной случайной функции X (t) связаны между собой следующими преобразованиями:

СО

j (6.62)

Эти выражения определяют прямое и обратное пре­образования Фурье, которые являются обобщением раз­ложения непериодической функции на бесконечном интер­вале па гармонические колебания.

Преобразования Фурье (6.62) можно записать в комп­лексной форме:

Так как е /шт = cos сот — / sin on, а функции 5 Л. (ш) и kx (т) являются четными функциями, то прп спектраль­ном разложении стационарной случайной функции выра­жения (6.62) и (6.63) совершенно эквивалентны.

Полагая во второй из формул (6.62) и = 0 и прини­мая во внимание, что kx (Q) — Dx — a:*, получим:

т. е. интеграл от спектральной плотности равен диспер­сии или квадрату среднего квадратического отклонения стационарной случайной функции. Соотношение (6.64) нашло весьма широкое применение при определении дис­персии пли среднего квадратического отклонения стацио­нарной случайной функции.

Спектральную плотность случайной функции можно рассматривать как «энергетический спектр» случайной

СО

(6.63)

со

Dx = с' 5 , (о>) clо ) = S x (о>) d<-о, (6.64)и

Page 249: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

функции. Это объясняется тем, что в качестве стационар­ной случайной функция часто рассматриваются такие величины, как ток и напряжение. Тогда распределение дисперсий, имеющих квадрат размерности амплитуды сиг­нала, пропорционально плотности распределения энергии сигнала по частотам.

На практике вместо спектральной плотности 5 Л. (<о) часто пользуются нормированной спектральной плотно­стью

где Dx — дисперсия случайной функции.Заметим, что нормированная корреляционная функция

P-v (“) 11 нормированная спектральная плотность зЛ-(со) свя­заны теми же преобразованиями Фурье:

Полагая в первом из равенств (6.65) т = 0 п учиты­вая, ч то рЛ (0 ) = 1 , и о л учим:

т. е. полная площадь, ограниченная графиком нормиро­ванной спектральной плотности, равна единице.

Пример 1. Рассмотрим телеграфный сигнал. В при-

рЛ. (-с) — ах (со) СОЯ сот с/м,о (6.65)

jj ах (со) (Һ — 1 ,

/гл- (т) —- его

Р е ш е и и е. Найдем спектральную плотность телеграф­ного сигнала, воспользовавшись формулой (6.63):

Page 250: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Разобьем этот интеграл на два:

S , H = ~

2 1 - j а

1 (2Х-/ш) " IIIе I

- (4А.-/Ы) - , .J1—00 2/. У W

1 , 1 ] _ 4 ? .а *

2?. — /о . І 2 1 -4- у со J г. (4 Х - - ] -

(о-)График спектральной плотности телеграфного сигнала

изображен на рнс. 80. Он показывает, что наибольшее значение спектралыюіі плотности приходится на низкие частоты.

Пример 2 . Устано­вить, является ли функ-

корреляционной функ­цией случайной функ­ции /Ү (/).

Р е ш е н и е . Рассмотрим преобразование Фурье:СО СО

S V (ц>) = -1 ^ k (t) С iu>~ dl — — 0-с~ А ' ' COS О)0- (cos cot —— СО — СО

СО с о

— / sin cot) d- — J— ^ ^ I ' COScootCOScotdt— ^— CO — CO

X cos co0t sin cot dx.

Так как функция e~ л I ‘ 1 cos co t sin cot является нечетной, то

S COS <o0t sin cot dx = 0.

Функция c~ A i ' 1 cos co,)t cos cot — четная, следовательно

S x (со) = ~ e Лт cos co„t cos cot dx =U

СО ОЭ

— ~ e^~ cos (co0 -j- o)) t dx -j- -- e cos (u>0 — со) xdx —

~ “Г l°r]<!-•>.______

[Л- -j- (tou - CO?]

250

Page 251: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

с <ш\ — ______ — ________ 1_______ — _______^ QлЧ г.|>.» + К + ш)=] ' - |).- -j- (о)0 — <о):] ^ U;

поэтому функцияk (-:) = а-е~ А 1 т ! COS о)0т

является корреляционной функцией.

Итак, функция

График функции S x (w) изображен на рис. 81. Из гра­фика видно, что наибольшее значение спектральная плот­ность S x ( с о ) имеет при co = cd0 .

§ 6.14. ПРИМЕРЫ СТАЦИОНАРНЫХ СЛУЧАЙНЫХ ФУНКЦИЙ

В этом параграфе рассмотрим конкретные типы стацио­нарных случайных функций и их характеристики.

1. Белый шум

Белым шумом называется случайный процесс с посто­янной спектральной плотностью для всех частот от О до оо. Понятие «белый шум» аналогично понятию «белый цвет», который получается при равномерном смешении всех цветов видимого спектра. Д ля белого шума харак­терно равномерное распределение энергии сигнала по всем частотам от 0 до со. Реально такие процессы не существуют, так как энергия такого сигнала должна быть бесконечной, но понятие «белого шума» является удобной абстракцией для тех случаев, когда спектральная плотность сигнала примерно постоянна на всем интересую­щем нас диапазоне частот.

Пусть дана стационарная случайная функция X (/), спектральная плотность которой на интервале [шь оъ]

251

Page 252: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

является постоянной п равна нулю вне этого интервала. В таком случае нормированная спектральная плотность аналитически описывается выражением

( О

О

прп (0 0>Г,

при (0, v j (!) -

прп (0 ^>(1Ь.

График нормированной спектральной плотности изоб­ражен па рнс. 82.

Найдем нормированную корреляционную функцию случайной функции X (/), воспользовавшись первой фор­мулой (G. 65):

г:.) uj j

P.v ( ' ) = J С Л- (<») COS OK rfu> = ^ ^ COS doi

(sin ton - sin OJjt).!U| " ((03 -- trtj)

Посмотрим, как будет изменяться рх (т) при о», —> о.,:

Рх ( ' ) li in • (<»і — <•>,) (sin 0 > n — sin C!)j-)

= lim("

— j C O S I — ’l _ COS <■).,»<!);!

При пахождепііп предела M

1

мы использовали первый замечательный предел,. sill X т lim ----- = 1 ..V — 11 Л

Случайная функция, для которой корреля­ционная функция имеет вид (6.67), является си­нусоидой (см. пример 1 § 6 .6 ). Заметим, чтоесли о)| -> оь, то спектр случайной функции пре­

вращается в дискретный с одной линией в точке «■>>.Пусть теперь o)t = 0. Тогда нормированная корреля­

ционная функция (6 .6 6) принимает вид

со,Рис. 82

0-Һ и)

Page 253: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Рх (О lim ;to 2 - > ОЭ

Sill оът

График этой корреляционной фупкнп'и приведен на рнс. S3.

Есди Юл —► со, то мы получаем белый шум с нормиро­ванной корреляционной функцией

j" 1 прп т = О,\ 0 при -z ф 0 .

Для получения корреляционной функции белого шума умножим нормированную корреляционную функцию па дисперсию случайной функции X (t). Будем иметь:

D x прп т = ().М О ' 'О при х Ф 0.

Таким образом, для белого шума корреля­ционная функция везде равна нулю, кроме точки t = 0. Это означает, что для белого шума совершенно отсутствует связь между значениями случайной функции для любых значений аргументов t{ и U, если t\ Ф t*.

В заключение еще раз подчеркнем, что всякий реаль­ный процесс, у которого спектральная плотность сохра­няет постоянное значение в пределах некоторой полосы частот, определяемой характером задачи, может рассмат­риваться как белый шум.

2. Случайная функция с функцией

лиисиион корреляционно!!

k x ( ' ) =

Рассмотрим стационарную случайную функцию X (/), корреляционная функция которой па интервале от 0 до т0 является линейной функцией и имеет вид:

j D:. ( l — А-) прп 0 ^ т < т0,

{ 0 при ^ > - 0-График этой корреляционной функции приведен на

рис. 84.Линейная корреляционная функция может быть ис­

пользована для аппроксимации быстро затухающей моно­тонной корреляционной функции.

253

Page 254: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Найдем спектральную плотность случайной функции X (t), использовав для этого первую формулу (6.62):

Этот интеграл представим в виде суммы двух интег­ралов, один из которых является табличным, а второй интегрируется по частям. Получим:

График S x (со) приведен на рнс. 85.Из формул (6 .6 8) и (6.69) видно, что при уменьшении

т0 корреляционная функция сжимается, а спектральная

плотность растягивается и, наоборот, при увеличении т0 корреляционная функция растягивается, а спектральная плотность сжимается.

3. Случайная функция с показательной корреляционной функцией

Рассматривая телеграфный сигнал, мы видели, что корреляционная функция имеет вид показательной функ-

СО

S x (со) — — ^ кх (т ) COS сот dо

^ k x (О COS сот d ■

— соЧ)

и

2(6.69)

кх т Sx (и)

Я 2ЛТо Т0

Рис. 85Рис . 84

254

Page 255: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пии. Рассмотрим теперь случайный процесс X (/), корре­ляционная функция которого имеет вид

kx (х) = Dxe~ a'~2, (6.70)

т. е. является показательной функцией. Подобную кор­реляционную функцию имеют случайные процессы, обла­дающие тесной связью между значениями функции X (t), разделенными малым интервалом значения аргумента.

График функции (6.70) изображен на рис. 8 6 .. Найдем спектральную плотность случайной функции

X (/), использовав для это­го первую формулу (6.63): \./<х (т)

со

S , ( « 0 = 4 j * , ( ’ )«•'*’ < < » Пі

со

И D e - d - =

CO

— e - as’s-**'dx. P u c . 8 6

Преобразуем показатель степени к полному квадрату:о о о О / ” J j ^ ~- а-,- _ /ш- = _ й--- - /«к - i y + ^ =

4а-

Тогда_ 3° / /а> 0)2

S .v (ш) = ^ Л' ^ * * / ” ^ ==— с о

(Оо С.° / . \“— jj е" ( я* 1 й?)

Применим замену переменной:

a~ - \ - J£ = t, откуда dx = -'-;dt

получим:

2 о о

Page 256: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Интеграл в этом выражепнм является интегралом Пуассона и равен У г., поэтому

0)2

= . (6.71)и} ~

Сравнивая формулы (6.70) и (6.71), мы видим, что в этом примере корреляционная функция и спектральная плотность выражаются через однотипные показательные функции. Поэтому график функции S x (to) имеет такой же вид, что и график функции кх (т).

§ 6.15. ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ ЛИНЕЙНОЙ СИСТЕМОЙ

Ранее были рассмотрены общие правила определения характеристик случайной функции после линейного пре­образования. Рассматривая каноническое разложение слу­чайной функции, мы отметили, что задача линейного пре­образования случайной функции сводится к задаче такого же линейного преобразования над неслучайными коорди­натными функциями. Для стационарной случайной функ­

ции задачу линейных пре- x it) [ ~ 1 образований удается еще

■----------->- более упростить.I I Пусть па вход линей-

noil динамической системы с постоянными параметра­ми (такую систему назы­

вают стационарной линейной системой) поступает стацио­нарная случайная функция, характеристики которой из­вестны. На выходе системы получим случайную функцию, характеристики которой требуется определить.

Схема работы системы' условно изображена на рис. 87.

Работа линейно-динамической системы с постоянными параметрами описывается обыкновенным дифференциаль­ным уравнением с постоянными коэффициентами, которое имеет следующий .вид:

а„ Y (/) + а,,-, ^ г Y «) + ••• + о.У (0 =

= ь я — X ( I) - j- ~ X (0 - j - . . . + ь л (I ) (6.72)

Рис. 87

2oG

Page 257: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

или, если обозначить оператор дифференцирования через р,

Обозначая эти линейные операции через А п (р) и Вт (р), запишем выражение (6.73) в таком виде:

Наконец, условно разрешая уравнение относительно У (/), получим:

Отношение операторов В т (р) и А„ (р) называется перс- даточной характеристикой системы и обозначается ^ (р ) .

Ограничимся рассмотрением участков времени, доста­точно удаленных от начала процесса, когда все переход­ные процессы в системе можно считать законченными и система работает в установившемся режиме.

В таком случае, если па входе линейной системы — стационарная случайная функция X (t), то па выходе системы получим случайную функцию Ү (/), которая будет также стационарной.

Так как координатные функции спектрального разло­жения стационарной случайной функции X (0 представ­ляют собой гармонические колебания» то рассмотрим, как преобразуется линейной системой гармоническое коле­бание, заданное в виде

x ( i ) — d*‘.

Реакцию системы будем искать опять в виде гармо­нического колебания

где А — коэффициент, который следует определить.Подставив выражение для х (() и у (t) в уравнение

(6.72), получим:

{«пр" -г «п 1 р" 1 -г • • • ~г «о) У (0 == (Ь,пРт -!- Ьт-\Рт~л -!-••• ьп) X (0. ( 6 .73)

А п (р) У (/) = В,а (р )Х ({) . (6.74)

(6.75)

У (0 = 4 > (p )X ( t ) . (6.76)

у (/) = Ad**, (6.77)

btfd”*. (6.78)

*/:- 9 Г урС К ІІЙ 257

Page 258: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

= (/“ )" г'“' '

А (ап (/ш)” ~һ ап- 1 (/(0)и 1 • • • Н- Л<0 —^ « ( / « Г + Ь»-! ( / м ^ + .- . + бо.

Отсюда, полагая, что Лп (/со) 92= 0, имеем:

Л = = % ^ = = Ф ( / а ) ) .Ия (7м)

Следовательно,у (t) — Ф (/оз) е/ш/.

Передаточная характеристика Ф (/?) при р — /со «язм- вается частотной характеристикой. Частотная характе­ристика Ф (/со) в общем случае является комплексной величиной.

Таким образом, если на вход линейной системы с по­стоянными параметрами поступает гармоническое колеба­ние вида ем , то реакция системы представляется в виде того же гармонического колебания, умноженного па частот­ную характеристику Ф (/со).

Модуль частотной характеристики [Ф(/со)| является коэффициентом усиления амплитуды гармонического коле­бания с частотой со.

Соотношение между вещественной и мнимой частями частотной характеристики определяет сдвиг фазы гармо­нического колебания на частоте со.

Пусть теперь случайная функция X (t) представлена на интервале (О, Т) в виде спектрального разложения [см. (6.56)]:

со

х (о= пх + 2 £V V -Һ — — со

При прохождении через линейную систему каждый член этого разложения будет умножаться на частотную характеристику Ф (jay). (Математическое ожидание стацио­нарной случайной функции X (t) будем рассматривать как гармоническое колебание нулевой частоты со = 0).

СО

К ( 0 = Ф(0) ш . , + 2 и* «>(/»*)«**' =It ==--- СО

= І ; и иФ и щ )е '"» ‘. (6.79)к — — со

Так как

то, сокращая выражение (6.78) на с1*1, получим:

258

Page 259: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Так как

Ф(0 ) = ^и0

ТО

Ф (0 ) т v = — т V = //г v.ао

Случайная функция Y (/) представлена в виде спект­рального разложения (0.79).

Определим спектр этого разложения. Д ля этого найдем дисперсию- комплексной случайной величины і / кФ (/4 ):

D [и лФ ( /4 )1 = М [| и и ф (/4)1*1 = М и и к I* I ф (/to,) I-] = = |Ф (/(О*) ]- М [| а* И = I ф 0 4 ) I-D,.

Таким образом, при преобразовании стационарной слу­чайной функции стационарной линейной системой каждая из ординат ее спектра умножается на квадрат модуля частотной характеристики системы для соответствующей частоты.

Переходя от разложения случайной функции X (Л па конечном интервале с дискретным спектром Dk к разло­жению на бесконечном интервале значений t с непрерыв­ным спектром, аналогично можем записать:

т. е. при преобразовании стационарной случайной функ­ции стационарной линейной системы ее спектральная плотность умножается на квадрат модуля частотной харак­теристики системы.

Итак, общий порядок решения поставленной в начале этого параграфа задачи следующий:

1 . Находим математическое ожидание на выходе си­стемы:

2. По корреляционной функции кх (т) входной слу­чайной функции X (/) находим спектральную плотность 5 Д. (to) сигнала на входе системы:

S y (to) == | Ф (/to) |- S.v (to)

(6.80)

(6.81)— СО

% 9

Page 260: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

3. Находим спектральную плотность сигнала на вы­ходе системы, умножая S x (со) па квадрат модуля частот­ной характеристики системы Ф (/to):

Sy («>) = IФ (/«>)|’г S x (w). (6.82)

4. Находим корреляционную функцию случайной функ­ции на выходе системы:

СО

k v (-.) = ■}- ^ S y M e f ^ d t o . • (6.83)— со

Очень часто пас интересует только дисперсия сигнала па выходе системы. Тогда из формулы (6.83) при х — 0 получаем более простую формулу:

ОО

■ s ' » d<“— оо

или, учитывая четность функции,а)

Dy = \ Sy(v)d(o. (6.84)о

Пример. На вход линейной динамической системы, описываемой дифференциальным уравнением первого по­рядка

‘һ Ціг - -I-« » Ч г -+ ь"х W '

поступает случайная функция X (/) с математическим ожиданием тх и корреляционной функцией

kx {x) = Dxe ~ ^ i,

где а — положительны!! коэффициент.Найти математическое ожидание ту и дисперсию D v

на выходе системы.Р е ш е и и е. На основании формулы (6.80) находим:

Спектральную плотность сигнала на входе систем опре­деляем, воспользовавшись примером 1 § 6.13:

2 D г*

Page 261: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Находим частотную характеристику системы Ф (/о>). Д ля этого записываем уравнение системы в операторной форме:

( « , р - [ - а») У ( 0 = ( h i p - j- £>„) А' ( / ) .

Отсюда (p — jisi)

Ф (/со) = = b iJa + ь° .

ТогдаЬ\о)" -]- //jФ (/.

Определяем спектральную плотность сигнала на вы­ходе системы:

b-у- Ң 2 и х*s у («о — | Ф ( / о . ) 5 Л. (о») ==

Далее по формуле (6.84) находим дисперсию сигнала на выходе системы:

D v — —~ { -7 Ң ■ , ? „ (Іш.~ ') ц -ы - - j- cl- a~ - j- <<>*

iiЭтот интеграл может быть вычислен разложением

подынтегрального выражения на простые дроби. Произ­ведя интегрирование, получим:

> v « и«1 (а«, + </„) ’

В опросы д л я с а м о п р о в е р к и

1. Какая функция называется случайной? П риведите примеры случайных функции.

2. Что назы вается реализацией случайной функции?3. Какая су щ ес тв у ет связь м еж ду понятием случайной функ­

ции и понятием системы случайных величин?4. Каким образом м ож но дать описание случайной функции

с вероятностной точки зрения?5. Д айте оп ределения математического ож идания, дисперсии

и корреляционной функции случайной функции.6 Какая с у щ е с тв у е т связь м ежду д и спер си ей и корреляци он ­

ной функцией?7. Н азовите основные свойства корреляционной функции.8. Чем отличается нормированная корреляционная функция от

корреляционной функции?9. Д айте о п р еде лен и е корреляционной функции связи и ука­

ж ите, что она характеризует .10. Какие преобразования случайных функций называются ли­

нейными? П риведите примеры линейных преобразований.

у Гу реки fi 2 6 1

Page 262: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

11. Ч ем у равны математическое ож идание и корреляционная функция от произведения случайной функции на неслучайную функцию?

12. Чему равны математическое ож идание и корреляционная функция производной от случайной функции?

13. Ч ему равны математическое ож идание и корреляционная функция интеграла от случайной функции?

14. Какая случайная функция называется элементарной?15. В чем заключается идея канонического разложения слу­

чайной функции?1(5. Какая случайная функция называется стационарной? При­

ведите примеры сіацпонарны х случайных функций.17. С ф орм ул ируйте основные свойства корреляционной ф у н к - ,

ции стационарной случайной функции.18. В чем заключается эргодическое свойство стационарных

случайных функций? Приведите примеры стационарных случайных функций, которы е обладают эргодическим свойством и которы е не обладают эргодическим свойством.

19. Что называется спектральным разложением функции?20. Какими преобразованиями связаны меж ду со б о й к о р р е л я ­

ционная функция и спектральная плотность стационарной сл уч ай ­ной функции?

21. Какой стационарный случайный процесс называется белым шумом?

22. Что называется передаточной характеристикой линейной системы?

23. Как пр еобр азуется стационарная случайная функция ста­ционарной линейной системой?

У п р а о/с и с н и я.

1. Плотность вероятности f v (х, () случайной функции Л' (t) равна

(л- — a s in п -

где а и о — постоянные, причем з > . 0. Найти математическое о ж и ­дание и дисперси ю случайной функции X (t).

Отв . тх ( t ) = a sin D x ( t ) = r

2. Д вум ерн ая плотность вероятности Д (.v„ л г; t u t t ) случайнойфункции X (t ) равна

Найти: а) математическое ож идание и дисперси ю случайной функ­ции X ({)', б) корреляционную функцию случайной функции X (t).

Отв. а) 0; с-; б) корреляционная функция / \ x ( t uпри t t — t« и I\x ( t j , Л.) = 0 при і у ф -t...

3. М атем атическое ож идание и корреляционная функция сл у­чайной функции X (t ) заданы выражениями

тх (t ) = t -j- 4; К х ( t u t 2) = t j *

2(52

Page 263: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Найти характеристики случайной функции

Y (t ) = Ы Х (t) - f 2.Отв. niy (t ) = 5 1~ -[- 201 -j- 2;

K v ( t lt ( , ) = 25 f j f j ; D v (t) = 251 \

4. Характеристики случайной функции X (t) заданы выраже­ниями:

тх (t) = t - Л'д- ( t lt t s ) — е l ~x Ч

Найти характеристики случайной функции

} ' ( t ) = t s ‘1 ^ 1 — -М-. d t

Отв. m v {t) = 2 t \ I \ v ( t lt t .) = -\t-{t:}e l -\ D v — 4 t ee ~ 2ia-

5. Характеристики случайной функции X (t ) заданы вы раж е­ниями:

пгх (t ) = 4t - |- 5; /СЛ- ( t u t«) — cos t x cos t s.

Найти характеристики случайной функцииt

V( t ) = j jj X ( T ) d T + t.

Ошв. m y (t) — о t -{- 5; /Cv ( t h t„) — — sin t x sin t , \

. • ' w - 4 -6. На вход диф ф ер ен ц ир у ем о го механизма п оступает случайная

функция X ( t ) с математическим ож иданием тх (t ) = .1 sin / п кор­реляционной функцией

Кх (ti, к) = І)хе - а{' * - (і)а,где Д у — постоянная дисперсия случайной функции X (t). О п р е д е ­лить математическое ож идание и дисперси ю на выходе системы.

Ошв. Шу (£) = Л сиз t\ О у {£) — 2D x a.

7. На вход динам ической системы поступает случайная функ­ция X (t ), характеристики которой известны:

тх (t) - 2</; Қ х ( t lt L ) = t j . / ' e 1-.

Работа системы описывается оператором вида

} {£) — ^ X (~) d~ -j- t~.

О пределить характеристики случайной функции Y ( t ) на выходе системы.

4 lit

К у t*) = щ : t l - *'* -i V ' 1 111 - - f t .

Отв. m v (t ) — t - -|- (<:’ - I);

9*

Page 264: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

8. Случайная функция X (t) имеет пил

Л' ( t ) = X t ~ ,

где X — случайная величина с математическим ожиданием, рап­ным 2, и д исперсией , равной 1. Найти характеристики случайной функции X ( t ).

Отв. тх (t) — 21-; К х ( t u t 2) — (Щ.

9. Случайная функция X {t) задана выражением

X ( 0 = 2 4 Л\ t + X J 2,

где А', и X» — некоррелированны е случайные величины с матема­тическими ожиданиями m X i = — 3, т Хл = 2 и дисперсиями D v = 2 , D Хп — 3. Найти характеристики случайной функции X (t).

Отв. тх (t ) = 2 — 31 2 t 2',К х { tu t s ) = 4 t xu -I- Щ і ц;

D x (t) — 21- -I- ЫК

10. Случайная функция X (t) задана каноническим разлож ением

X (t ) = cos t -j- X i -)■* X 2t -j- X 3t cos t -j- X'tt~,

Д исперсии случайных величин X lt X.z, Х л, Л', известны и со о т в ет ­ственно равны D I, D>, D z, D\- Найти математическое ожидание, корреляционную функцию и дисперсию случайной функции X (t ).

Отв. тх (t ) = cos t\К х ( t it t 2) — D i - f D$t] t* -j- D^t i t . cos 11 cos t 2 -j- D xt \ t l \

D x (t ) = D t + D J~ -\- D J - cos' t -j- D.xt \ .

И . Корреляционная функция K x { t u t s) случайной функции X (t) задана каноническим разложением

К х ( t u U) = 3 t xU - f t\t% -f- 5 t \ t \ .

Найти каноническое разложение центрированной случайной функ­

ции X (t).П

Отв. X ( t ) = X {t -}- X nt- + A V \ причем D Xl = 3 , D х 2 = 1, D Хл = 5.

12. Случайная функция X (t) задана каноническим разл ожением

X (t) = t -f- X t cos 2 1 - f X s sin 21.

Д исперсии случайных величин X t н Л'2 известны н равны 2. Найти каноническое разложение и характеристики случайной функции

Y ( t ) = M X (t ) -\- 2t-.Ошв. У ( t ) — Ый 4 - 3A V cos 'It -]- ЗА' J sin 21\

m v (t ) — Ы-\ /Су ( t u t s ) — cos 2 (t . — t j);D y ( t ) = \ 8 t - .

13. На вход динамической системы поступает случайная функ­ция X (t), заданная rt виде канонического разложения

А' (t) = 1 -j- л у -J- ХЛ- 4- л у а,

Page 265: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

причем D = 1, D Xa = D x — 2. Работа системы описывается оп е­ратором вида

Ү { і ) = 2 і Ц Р - + Ы \

Найти каноническое разл ож ен и е и характеристики случайной ф ун к ­ции X (£) на вы ходе системы.

Ото. У (£) = 3£- + 2X \ t - f А Х Г - + бX, t*;Шу (£) = 3£~;

К у ( t lt t 2) = 4 i t t i -{- 3 2 Щ -j- 72D y (£) = 4 t - + 3 2 ^ -(- 72*°.

14. Случайная функция X ( t ) задана каноническим разлож ением

X (t ) 1 -{- A i cos Myt -f- X. ‘ sin -j~ A;j cos мЛ -j“ A.i sin to t.

Известны дисперсии коэффициентов разлож ения D V = D V„ = 1 , D = D X — 2. Найти характеристики случайной функции А (г). Установить, является ли случайная функция X (£) стационарной.

Отв. mx ( t ) — I;К х ( t i , t s) — cos <->! ( t 2 — t i ) -[- 2 cos «о, (r2 — t ^; D x (t ) = 3;

X (t) является стационарной случайной функцией.

15. Нормированная корреляционная функция рЛ-(х) стационар­ной случайной функции A ( t ) з а д а н а . выражением

, ч ( 1 H P" I " I < 'о ,(-) = ' ‘0I 0 при | т ; 5 йт0.

Найти нормированную спектральную плотность ах («).2

О т в. ах (ы) = — -тг (1 — cosco70).

1G. Спектральная плотность 5 Л- (<») стационарной случайной функции X ( t ) задана выражением

P.V (' )

$х ('■')__ (I) *•Г D* ~ 4*

где а > 0. О п ре де ли ть корреляционную функцию кх (х).

Ото. 1:х (х) = У Ъ Х е ~ а~~.

17. Нормированная корреляционная функция рЛ. (х) стационар­ной случайной функции X { t ) имеет вид рЛ. (х) — с ~ а 1 х 1 cos <»„х, где и > 0. О пределить нормированную спектральную плотность av (w).

Отв. ах (to) = ~ — -j— ----- + , ~-г ---J .2“ l_a- -j- (« ■— <"(,)■ a ~ -{- (t0 ~{- (!,o)' J

18. Корреляционная функция /гл. (x) стационарной случайной функции задана выражением k x (~) = D x c ~ cos со0х, где а > . 0. О пределить спектральную плотность S x (<■*).

^ («) ч ) ц ) - ((О — ( О ,) )- "

Отв. S v (« ) == е 4* -j- 6' 1а-1 \ ~л

205

Page 266: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

19. На вход инерционного зпена *, описываемого уравнением

в с т у п а е т стационарный сигнал с белым спектром (со спектраль­ной плотностью S x — const на всех частотах от <о = 0 д о ш = со). Найти дисперси ю сигнала на выходе.

20. Работа динамической системы описывается уравнением у' U) Чу (t ) — х (t).

На вход системы поступает стационарная случайная функ­ция X (t) с математическим ож иданием nix ( t ) = \ и дисперсией 1 ) х — 2. Нормированная спектральная плотность зЛ. (w) случайной функции А'(О постоянна на интервале частот [<•>,, <->.,] и равна пулю вне этого интервала. Найти математическое ож идание и дисперсию реакции системы У (О-

21. Работа динамической системы описывается диф ф еренциаль­ным уравнением

На вход системы поступает стационарная случайная функция A ( t ) с математическим ожиданием тх = — 1 и дисперсией IJX — 1,5. Н ормированная спектральная плотность сх (ш) постоянна на интер­вале частот [м,; оь] и равна нулю вис этого интервала. Найти мате­м атическое ож идание и дисперсию реакции системы У (t).

22. Работа динамической системы описывается д иф ф ер ен ц иал ь ­ным уравнением

На вход системы поступает стационарная случайная функция A (t) с математическим ожиданием тх = 1 и корреляционной функцией к х (т) = e ~ J l TL Найти математическое ож идание и дисперси ю слу­чайной функции У (t) на выходе системы.

* Инерционным звеном называется звено, у которого прп еди ­ничном ступенчатом воздействии па входе величина на выходе по экспоненциальному закону стремится к новому установивш емуся значению.

Отв.<- I о

Отв. m v ( t ) = • - ;

У' (О - f Ь ' (О = 4.v’ (t) -|- х (t).

Отв. m v (t ) = — -f>- ;

2з-' ( t ) + у (t) = 3 x (t).

9Отв. m v (t ) = 3; D v — -r- .О

Page 267: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

23. Р абота динам ической системы описы вается дифференциаль­ным уравнением

3 / (О + 2у (t ) = 2л- (О Зл- (t).

На вход системы поступает стационарная случайная функция X (t ) с математическим ож иданием тх — 1,5 и корреляционной функцией

кх {г) = 2е 3 .

Найти м атем атическое ож идание и д ис пер си ю реакции системы.

л /м 9 „ 89Отв. my (t ) = - j ; D y = ^=.

24. Работа динам ической системы описывается диф ф еренциаль­ным уравнением

2 / ( t ) + { t) — х' (t ) - f З х {£).

На вход системы поступает стационарная случайная функция X (t) с математическим ож иданием тх — 1 и корреляционной функцией к х (~.) = 2 е ~ “ 1 ~ О пределить математическое ож идание и дисперсию сл)чайной функции на выходе системы.

О т в . шу (t) — 3; D y (t) = 4.

Page 268: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Г л а в а 7

МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

§ 7.1. ПРЕДМЕТ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ

Математической статистикой называется наука, зани- мающаяся разработкой методов получения, описания и обра­ботки опытных данных с целыо изучения закономерностей случайных массовых явлений.

Определение методов обработки опытных данных составляет одну из основных прикладных задач теорий вероятностей.

Все задачи математической статистики касаются воп­росов обработки наблюдений над массовыми случайными явлениями, но в зависимости от характера измеряемо]; велнчі.шьк--ііелн измерения при обработке^результатов измерений эти з адачи могут принимать ту или "иную форму." Типичными задачами математической статистики," которые наиболее важны для нас по своим практическим применениям, являются следующие.

1 . Оценка на основании результатов измерений неизвестной функции распределения. Задача ставится так: в результате независимых измерений (испытаний) над случайной величиной X получены следующие ее зна­чения; ДГр Л'о, . .. , х„.

Требуется приближенно оценить неизвестную функцию распределения Fx случайной величины /Ү.

2. Оценка неизвестных параметров распределения. Задача ставится так: случайная величина X имеет функцию распределения определенного вида, зависящую от k па­раметров, значение которых неизвестно (о типе функции распределения часто можно сделать достаточно опреде­ленное заключение на основании общетеоретических соображений). Требуется на основании опытных данных оценить значение этих параметров.

3. Статистическая проверка гипотез. Одна из основ­ных задач статистической проверки гипотез ставится так: на основании некоторых соображений можносчитать, что функция распределения исследуемой случайной величины X есть F (х). Спрашивается: сов-

268

Page 269: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

местимы ли наблюденные значения с гипотезой, что случайная величина X действительно имеет распределе­ния Ғ(х).

В частности, если закон распределения исследуемой случайной величины X не вызывает сомнений и в про­верке нуждаются только значения некоторых параметров, характеризующих распределение, то в задаче .спраши­вается: не опровергают ли опытные данные ту гипотезу, что параметры закона распределения имеют предпо­ложенные значения.

В основе математической статистики лежит ряд исход­ных понятий, без предварительного ознакомления с кото­рыми невозможно изучение современных методов обра­ботки опытных данных. Остановимся на выявлении существа основных понятий математической статистики.

§ 7.2. ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ И ВЫБОРКА

Пусть требуется исследовать какой-нибудь признак, свойственный большой группе однотипных изделий (на­пример, размеры деталей данного типа, вес изделий и т. д.). Совокупность значений признака всех N изделий дан­ного типа называется генеральной совокупностью. При этом предполагается, что число N в генеральной совокупности весьма велико. В некоторых случаях количество значений, образующих генеральную совокупность, можно мыслить и бесконечным. Например, прп измерении дальности до неподвижной цели мы можем получить сколь угодно много результатов измерений.

Па практике, одпако, сплошное обследование при­меняется сравнительно редко. Например, если совокуп­ность содержит очень большое число изделий, то про­вести сплошное обследование физически невозможно. Тем более, если обследование изделий связано с их уничтожением (например, проверка электронного обору­дования па продолжительность работы) или требует боль­ших материальных затрат, то проводить сплошное обсле­дование практически не имеет смысла. В таких случаях случайно отбирают из всей совокупности ограниченное число объектов (изделий) и подвергают их изучению.

Выборочной совокупностью, или просто выборкой. назы­вают совокупность случайно отобранных объектов.

Таким образом, выборочный метод заключается в том, что из генеральной совокупности берется выборка

Page 270: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

объема 11 (причем п N) и определяются характеристики выборки, которые принимаются в качестве приближен­ных значений соответствующих характеристик генераль­ной совокупности.

Чем больше п, тем более обоснованное суждение можно высказать на основе выборки о свойствах гене­ральной совокупности. Очевидно, что при п -> N выбо­рочное распределение приближается к генералі ному. Отметим, что выборка дает наибольшую информациюо генеральной совокупности только в том случае, когда результаты обследований, составляющие выборку, я в л я ­ются независимыми.

§ 7.3. СТАТИСТИЧЕСКИЙ РЯД. СТАТИСТИЧЕСКАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ

Предположим, что изучается некоторая случайная вели­чина X, закон распределения которой неизвестен. С этой целью над случайной величиной X производится ряд независимых опытов (измерений). Результаты измерений представляют в виде таблицы, состоящей из двух строк, в первой из которых указываются номера измерений І, а во второй — результаты измерений х{:

І 1 2 3 4 а

Xi ■Vi л'л х 3 Л'4 х а

Таблицу, в которой содержатся номера ft результаты измерений, в математической статистике называют ста­тистическим рядом. Статистический ряд представляет собой первичную форму записи статистического материала и может быть обработай различными способами. Одним из способов такой обработки является построение ста­тистической функции распределения случайной вели­чины X .

Статистической функцией распределения случайной вели­чины называется закон изменения частоты события X<jc в данном статистическом материале:

Г*(х) = Р* ( Х < х ) .

Для того, чтобы найти значение статистической функ­ции распределения прп данном ,v, надо подсчитать число

270

Page 271: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

опытов, в которых случайная величина X приняла зна­чения, меньшие, чем х, п разделить на общее число про­изведенных опытов.

Пример. Построить статистическую функцию распре­деления ошибок 2 0 измерений дальности до цели с помощью дальномера. Результаты измерений сведены в статисти­ческий ряд:

І 1 2 3 • 4 5 6 7 8 9 10

x it м 5 - 8 10 15 3 — С — 15 20 12 15

І 11 12 13 14 15 16 17 18 19 20

x h м — 4 - 2 20 14 - 8 - 1 2 16 10 - 5 18

Р е ш е н не. Так как наименьшее наблюдаемое зна­чение — 15, то Ғ* (— 15) = 0. Значение — 15 наблюдается один раз, его частота

1равна щ , следова­тельно, в точке — 15 Ғ* (х) имеет скачок,

.. 1 0 равный gy • В проме­жутке от — 15 до — 1 2 функция Ғ* (х)

1имеет значениев точке — 1 2 функ­ция Ғ* (х) имеет тоже

.. 1скачок, равный ^ ,ибо значение — 12 наблюдается один раз. В промежутке от

2— 12 до — 8 функция Ғ* (л') имеет значение gg , а в точке — 8

9происходит скачок па ;Э, так как значение — 8 наблюдаетсядважды п т. д.

График функции F* (х) для данного примера приведен на рис. 8 8 .

Статистическая функция распределения любой случай­ной величины (прерывной или непрерывной) представляет всегда прерывную ступенчатую функцию, скачки которой соответствуют наблюдаемым значениям случайной величи­ны и по величине равны частотам этих значений.

1 F (X)

/

1—П ; 11

Г1 і' мJ , J ! I

«ггГг—1 1 1 1

г— Г І 11 |,— < 1 111 1

....... 1_ -1—J—LXJ !

_f"l1 | 1 1 1 1 1 1 1 1 1 1

j 1 1 1 1 I | м и м 1 1 и 1 1 11 1 1 11 1 11 ( 1 1 I I M i l l

~15 -12~1д~1* ~2 0 3 5 1012 15’.8 2 0 £

Рис. 88

Page 272: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Согласно теореме Бернулли при неограниченном уве­личении числа опытов п частота события Х < ^ х сходится по вероятности к вероятности этого события. Это значит, что статистическая функция распределения Ғ* (х) при уве­личении п сходится по вероятности к подлинной функции распределения Ғ (х) случайной величины X.

Следует заметить, что при большом числе опытов п построение статистической функции распределения Ғ* (х)— очень трудоемкая операция, поэтому часто бывает удобно пользоваться другими характеристиками статистических распределений, аналогичными не функции распределе­ния Ғ(х), а плотности вероятности /(*).

§ 7.4. СТАТИСТИЧЕСКАЯ СОВОКУПНОСТЬ. ГИСТОГРАММА

При большом числе наблюдений представление резуль­татов наблюдений в виде статистического ряда бывает затруднительным, а при решении многих задач и нецеле­сообразным. В таких случаях производят подсчет резуль­татов наблюдений, попадающих в определенные группы, и составляют таблицу, в которой указываются группы и частота получения результатов наблюдений в каждой группе.' Совокупность групп , на которые разбиваются результаты наблюдений и частот получения результатов наблюдений в каждой группе, называют статистической совокупностью .-В качестве примера построена статистичес­кая совокупность ошибок 10 0 измерений дальности с помощью радиодальномера:

Группы, М -2 0 ;-1 5

— 15; -1 0

-10 ;—5 - 5 ; 0 0; 5 5; 10 10; 15 15; 20

Число оши­бок в группе 2 S 17 24 26 13 6 4

Частота 0,02 0,08 0,17 0,24 0,20 0,13 0,06 .0,04

Из примера видно, что статистическая совокупность образуется из статистического ряда путем деления его на группы по некоторым признакам и подсчета чисел и частот измерений в каждой группе.

Заметим, что если при группировке наблюдаемых ■■'зна­чений имеем значение, которое в точности лежит на грз-

272

Page 273: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

нице двух групп, то следует прибавить к числам пц•• ’ Г ТІодной п другой групп по -9- . Что касается числа групп,

таким образом,оыли хорошо обозримы

*Pi

чтобы и со­

то их количество выбирается результаты измерений держали достаточно большее количество сведений.

Графическим изо­бражением статисти­ческой совокупности является так назы­ваемая гистограмма.Гистограмма строит­ся следующим обра­зом: по оси абсцисс откладываются ин­тервалы, соответст­вующие группам совокупности, и па каждом из них, как на основании, строится прямоугольник, площадь кото­рого равна частоте данной группы. Из способа построе­ния гистограммы следует, что полная площадь ее равна единице. ,

В качестве примера построим гистограмму статисти­ческой совокупности ошибок 10 0 с помощью радиодальномера (рис.

измерении89).

дальности

Очевидно, что если точки гистограммы соединить плавной линией, то эта л}шня в первом приближении будет представлять график плотности вероятности слу­чайной величины /Ү. При этом, если число опытов уве­личивать и выбирать более мелкие группы в статисти­ческой совокупности, то гистограмма будет всеболее приб­лижаться к плотности вероятности случайной величины.

Page 274: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пользуясь данными статистической совокупности, можно приближенно построить и статистическую функцию распределения случайной величины X. Д ля примера построим приближенно статистическую функцию распре­деления ошибок 10 0 измерений дальности с помощью радиодальномера. В качестве точек осп Ох для вычисления Ғ* (х) возьмем границы ,vlt лг2, . . . групп, которые фигури­руют в статистической совокупности. Тогда будем иметь:

F * (— 20) = 0; Г* (— 15) = 0,02; /«*(— 10) == 0 ,0 2 -1-0,08 = 0 , 1 ;

р* (—5) ^ 0,27; Ғ* (0) = 0,51; Ғ* (5) = 0,77; Ғ* ( 10) = 0,9; Ғ* (15) = 0,96; Ғ * ( 2 0 ) = \ .

Приближенный график статистической функции рас­пределения дан на рис. 90.

§ 7.5. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СТАТИСТИЧЕСКОГО РАСПРЕДЕЛЕНИЯ

Закон распределения случайной величины представ­ляет собой некоторую функцию, указание этой функции полностью описывает случайную величину с вероятност­ной точки зрения. Однако прп решении многих практи­ческих задач нет необходимости характеризовать случай­ную величину исчерпывающим образом, а достаточно указать только отдельные числовые характеристики, кото­рые характеризуют существенные черты распределения случайной величины. Основными числовыми харатернстн- ками случайной величины является математическое ожи­дание и дисперсия. /Математическое ожидание характеризует среднее значение, около которого группируются возмож­ные значения случайной величины, а дисперсия характе­ризует степень разбросанности этих значений относитель­но среднего.

Аналогичные числовые характеристики существуют и для статистических распределений. Аналогией математи­ческого ожидания случайной величины X является сред­нее арифметическое наблюдаемых значений случайной величины

П

г * : VI__1

27-1

Page 275: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

где Xi — значение случайной величины, наблюдаемое в i-м опыте,

п — число опытов.Эту характеристику называют статистическим средним

случайной величины.Прп большом числе опытов среднее арифметическое

наблюдаемых значений случайной величины приближается (сходится по вероятности) к ее математическому ожида­нию и может быть принято приближенно равным мате­матическому ожиданию.

Аналогией дисперсии случайной величины X является статистическая дисперсия, которая определяется следую­щим образом:

П

где Xi — значение случайной величины, наблюдаемое в (-м опыте;

п — число опытов; ni* = М* [Л] — статистическое среднее.

Аналогично определяются статистические начальные и центральные моменты любых порядков:

п2 А

л г* [х * з= ,

2 (л'і - mt)*М* ЦХ - mj)‘ 1 = — -— ------------ .

Заметим, что прп увеличении числа наблюдений все статистические характеристики будут сходиться по веро­ятности к соответствующим числовым характеристикам случайной величины и при достаточном п могут быть приняты приближенно равными им.

§ 7.6. СВОЙСТВА ТОЧЕЧНЫХ ОЦЕНОК

Рассмотрим следующую общую задачу. Имеется слу­чайная величина X, закон распределения которой содер­жит неизвестный параметр а. Требуется па основании опытных данных найти подходящую оценку параметра а.

Page 276: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Обозначим через' Хь Хо, Хя (7 1)

наблюдаемые значения случайной величины X в резуль­тате проведенных п независимых опытов. Пусть вели­чина а, вычисленная на основе материала (7.1), является оценкой параметра а. Это значит, что а является функ­цией величин Х ь Хо, Х п:

а = а ( Х ь Хо, . . . , Х„).Кроме того, наблюдаемые значения Х ь Х2, . . . , Х п

следует рассматривать как случайные величины, каждая из которых распределена по тому же закону, что и слу­чайная величина X. Поэтому а является тоже случай­ной величиной, закон распределения которой зависит, во-первых, от закона распределения случайной вели­чины X, во-вторых, от числа опытов п. Д ля того чтобы оценка а имела практическую ценность, она должна обладать следующими свойствами.

1. Несмещенность оценки. Различают оценки смещен­ные и несмещенные. Смещенными называются оценки, математическое ожидание которых не равно оцениваемому параметру:

М [а (Хь Хо, . . Х„)] а .Несмещенными называют оценки, для которых выпол­няется условие

М [ й ( Х ь Хо, Х я)] = а.Естественно в качестве приближенного неизвестного па­раметра брать несмещенные оценки, для того чтобы не делать систематической ошибки в сторону завышения или занижения.

2. Состоятельность оценки. Оценка a ( X b X.., . . . , Х п) для параметра а называется состоятельной, если она сходится но вероятности к оцениваемому параметру при неограниченном возрастании числа опытов п, т. е.

lim Р [ \ а (Xj, Х 2, Х„) — а | < в] = 1 , (7 .2 )п со

где г — сколь угодно малое положительное число. Для удовлетворения требования (7.2) достаточно, чтобы дис­персия оценки стремилась к нулю при п —>оо, т. е. чтобы выполнялось условие

lim D [a (Х„ Хо, . . . , Х„)] = 0 (7.3)

276

Page 277: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

и, кроме того, чтобы оценка была несмещенной. От фор­мулы (7.2) легко перейти к выражению (7.3), если вос­пользоваться неравенством Чебышева.

Итак, состоятельность оценки означает, что при доста­точно большом количестве опытов п со сколь угодно большой достоверностью отклонение оценки от истинного значения параметра меньше любой наперед заданной величины.

Очевидно, такому требованию должна удовлетворять всякая оценка, пригодная для практического использо­вания.

3. Эффективность оценки. Оценки, обладающие свой­ством несмещенности и состоятельности, при ограничен­ном числе опытов могут отличаться дисперсиями.

Совершенно очевидно, что чем меньше дисперсия оценки, тем меньше вероятность грубой ошибки прп определении приближенного значения параметра. Поэтому необходимо, чтобы дисперсия оценки была минимальной, т. е. чтобы выполнялось условие

D\ a( X[ , X о.........X„)] = Dmin.Оценка, обладающая таким свойством, называется эффек­тивной.

При выработке практических методов обработки опыт­ных данных с целью получения оценок, принимаемых в качестве приближенных значении искомых параметров, необходимо руководствоваться сформулированными свой­ствами оценок.

§ 7.7. ОПРЕДЕЛЕНИЕ ПРИБЛИЖЕННОГО ЗНАЧЕНИЯ ИЗМЕРЯЕМОЙ ВЕЛИЧИНЫ И ПРИБЛИЖЕННОГО ЗНАЧЕНИЯ ДИСПЕРСИИ В СЛУЧАЕ ПРЯМЫХ РАВНОТОЧНЫХ ИЗМЕРЕНИИ

Определить приближенное значение измеряемой вели­чины X — это значит произвести оценку математического ожидания величины X . При этом, если измеряемая вели­чина X постоянна, то оценка для тх есть приближенное значение истинного значения измеряемой величины, а если измеряемая величина случайная, то оценка для тх есть приближенное значение математического ожида­ния измеряемой случайной величины.

Необходимость получения по опытным данным при­ближенного значения дисперсии возникает в связи с опре­

Page 278: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

делением характеристики точности прибора или характе­ристики рассеивания измеряемой случайной величины.

Пусть имеется случайная величина X с математическим ожиданием тх и дисперсией Dx\ оба параметра неизвестны. Требуется па основании опытных данных найти состоя­тельные и несмещенные оценки этих параметров.

Обозначим через Л'ь X з, Х п значения случайной величины X , наблюдаемые в результате проведенных п независимых равноточных измерений, т. е. измерений, которые проводились в одинаковых условиях. Обычно считают эти условия выполненными, если измерения про­водились одним прибором.

Естественно в качестве оценки для математического ожидания принять среднее арифметическое наблюдаемых значений, которые мы обозначили через

т ■ nix

Покажем, что эта оценка является состоятельной и несмещенной. Действительно, согласно закону больших чисел,

lim Р.

п -

2I . 1I — 1

n x_

1

Это значит, что т = т% является состоятельной оценкой. Оценка т = т% является также п несмещенной, ибо

М [ш] = Мл іі I

til.

(наблюдаемые значения А',, Х>, . . . , Х п рассматриваем как случайные величины, каждая из которых распре­делена но тому же закону, что и случайная величина X).

Перейдем к оценке для дисперсии Dx. Возьмем ста­тистическую дисперсию и проверим ее на состоятельность н несмещенность.

Статистическая дисперсия имеет вид

2 (Xi III)-

D% (7.4)

278

Page 279: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

где

V ,v .

Преобразуем выражение (7.4) к другому виду:п п

У] (Xi — I'll)- 2 j (а ’<: — 2A'iill ■ I' in'-)D i = , : д | ---------= i---------- --------------=

S Ai 2 « v А,- V v V x i____ i : 1 І 1 j І : J / I ~ ,r-*— r — - - = — ------- //r. (/.G)

т = . (7.5)

n tl 1 // /ІПервый член в правой части равенства (7.G) представ­ляет собой среднее арифметическое п наблюдаемых зна­чений случайной величины Х~, следовательно, он схо­дится по вероятности к М [Л'-j. Второй член п г сходится по вероятности к т%. Это значит, что вся правая часть равенства (7.G) сходится по вероятности к величине

Д/ [А'-] — m ; = Dx.Следовательно, статистическая дисперсия Dx является состоятельной оценкой дисперсии D v.

Проверим теперь, является ли оценка DA- также и несмещенной. Для этого в фо|)мулу (7.6) вместо in под­ставим его выражение нз формулы (7.5) и произведем у к аз а н и ые де ii ств и я :

П ! ■■I \ “ « пv X } I V AV \ V А? 2 АІ

D I = — --------- '• — j = — — - — — 4--------II II I U ІГ2 ^ X iX J 4

— V Х і — 'І V X j X - . (7.7)il- n- t : J ' >II' II"i I * < j

Так как дисперсия Dx не зависит от того, в какой точке выбрать начало координат, то выберем его в точке тх и найдем математическое ожидание величины (7.7). Получим:

П2 V

У. i M f X f ] - - - V. M[ X , X j ] =II-1 i < j

п — I V гл 2 V Г' - оч— > Dv------> Kx.x.. {/ .8)"- и i 7 ' ’i I

27!)

Page 280: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Из независимости опытов следует, что Қ х .х . — 0, поэтому равенство (7.8) принимает вид:

Отсюда видно, что статистическая дисперсия Dx не явля­ется несмещенной оценкой для дисперсии Dx, ее матема­тическое ожидание не равно Dx, а несколько меньше.

лучим оценку для дисперсии Dx, обладающую свойством несмещенности, ибо

будет также и состоятельной.Таким образом, если в результате проведенных п неза­

висимых измерений случайной величины X с неизвестным математическим ожиданием тх и дисперсией Dx получены значения

то для определения этих параметров следует пользоваться следующими приближенными оценками:

Заметим, что в качестве оценки для дисперсии слу­чайной величины X с известным математическим ожида-

AI[DS1 = D , . (7.9)

Однако если умножить величину D% на , то мы по-

Так как множитель стремится к единице при п ->оо,то оценка

П

11 п

ГП = D = - - 1п

И Л И

/ \

(7.10)

280

Page 281: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

иием тх необходимо брать статистическую дисперсиюИ

В этом случае статистическая дисперсия удовлетворяет условию несмещенности и состоятельности (проверка этих условий предлагается читателю).

Определение приближенных значений математического ожидания тх и дисперсии Dx случайной величины X по формулам (7.10) иногда приводит к громоздким вычисле­ниям, поэтому на практике целесообразно использование формул

t № - “) л . * =*= 1 I „

п Г V' ' 1 1 /2 (Л',- - ")*

D = " .!—!------------------(т — аҮ ,п — 1 п 4 '

которые при умелом подборе числа а значительно облег­чают обработку статистического материала. Заметим, что формулы (7.11) простыми преобразованиями приводятся к формулам (7.10).

Пример. Через каждый час измерялось напряжение тока в электросети. Результаты измерений в вольтах представлены в виде статистического ряда:

І 1 2 3 ■1 • 6 7 N 9 Ш 11 12

xi , и 9 ) 0 219 221 220 218 217 221 220 215 218 223 225

* 13 м 1Г> и; 17 IS 10 2. 22 за 21

X i, в 220 226 221 216 211 219 220 221 222

со 221 219

Найти оценки для математического ожидания и дис­персии результатов измерений.

Р е ш е н и е . Оценки для математического ожидания и дисперсии найдем по формулам (7.11), положив а = 22G. Все необходимые вычисления приведены в следующей табли це:

281

Page 282: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

І .V. — (I 1 ( x . - a f.< .V- — п ( х . - а у

'X. - -І 1 (x i ~ a )-

1 4 9 —5 25 17 1 1о — 1 1 10 _•> 4 18 - 1 13 4 10 11 3 9 19 0 04 0 0 12 5 25 20 1 15 _ 2 4 13 0 0 21 2 46 - 3 9 14 0 3G 22 _2 47 1 1 15 1 1 23 1 18 0 0 10 - 4 16 24 — 1 1

С умма 1 35 4 116 1 13

Следовательно,ai2 ( . с , - 2 2 0 )

----------Ь 220 = 220 = 220,25 (в),

2 (.V, — 220)=І ~ I_________

24(220,25 — 220)- 7,06 (<г).

§ 7.8. ОПРЕДЕЛЕНИЕ ПРИБЛИЖЕННОГО ЗНАЧЕНИЯИЗМЕРЯЕМОЙ ВЕЛИЧИНЫ В СЛУЧАЕ НЕРАВНОТОЧКЫХ ИЗМЕРЕНИЙ

Рассмотрим определение приближенного значения мате­матического ожидания тх некоторой величины X по не- равпоточиым измерениям, т. е. по измерениям, каждое из которых характеризуется своей величиной рассеивания.

Пусть мы имеем серию Х ь Х>, . . . , Х п независимых измерений одной и той же величины X , дисперсии кото­рых соответственно равны с;.., а;.

Требуется по результатам измерений найти оценку т, удовлетворяющую свойствам несмещенности, состоятель­ности п эффективности.

Искомая оценка Гп является функцией результатов измерений, т. е.

Гп = /Һ (AY Х.>, . . . , Х„).Известно, что наиболее простой функциональной зави­

симостью является линейная зависимость. Поэтому будем искать нужную нам функцию в виде

ill = С,А', -І С,X., - j - . . . -I- С„Х„ = v С ,х„ (7.12)І J

282

Page 283: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

где Си С,, Сп — некоторые постоянные коэффициенты, которые следует определить таким образом, чтобы оценка (7.12) удовлетворяла условию несмещенности и обладала наименьшей дисперсией.

Условие несмещенности выполняется, если

Так как результаты измерений /Үь Хо, Х п не имеют постоянной погрешности, то

/VI [X/] — тх (І — 1, 2, . . . , п).

Следовательно, чтобы оценка Гп удовлетворяла усло­вию несмещенности, необходимо выполнение равенства

Теперь будем выбирать коэффициенты С,- ( / = ! , 2, .. . . , п) так, чтобы дисперсия оцепкн (7.12) была мини­мальной, т. е. чтобы оценка Гп была эффективной. Дис­персия оценки Гп, согласно свойству дисперсии, равна

Исследуем выражение (7.14) па минимум. Ввиду того, что на коэффициенты С/ уже наложено условие (7.13), исследуем выражение па условный минимум, применяя метод множителей Лагранжа.

Составляем функцию Лагранжа:

Приравняв правую часть пулю и решив полученное уравнение относительно С;, находим:

М[Гп\ = М У) С і Х і = У і СіМ[Х;] = тх .і -= 1 .J і== 1

£ С , = 1 . (7.13)

г- П -I ПD [ m ) — D У \ CiXi = У ;CJD[X, ] . (7.14)

.1 = 1 _ i -|

283

Page 284: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Обозначая ■ g i , будем иметь:

Ci = '-gi.

Подставив найденное значение Сг- в равенство (7.13), получим:

Отсюда

Следовательно,

Х * * « = * 2 в , = і . i = 1 / = 1

1

2 аi = 1

Ci — >~gi = - p —

2 й

Подставив полученное значение Сг в формулу (7.12), будем иметь:

т =

£

2Si v __ 1X/. (7.15)

Проверим теперь, является ли оценка m также и сос­тоятельной. Для этого найдем дисперсию величины т.

D [m] — D2 &Хі

І = 1 1tl / n \

rr.L » j f e *

IX ,],

но (согласно обозначению)

D[Xi]gi ’

поэтому

Page 285: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Поскольку ряд v g. при п —> оо расходится (не выпол- i~ \

няется необходимый признак сходимости ряда), то при п ^ о о D [/7г]->0. Это значит, что функция Гп, опреде­ляемая выражением (7.15), является состоятельной оцен- кой тх.

Таким образом, оценка

£ е,х,

2 */ 1

для математического ожидания тх измеряемой величины X прп неравноточных измерениях обладает свойствами не­смещенности, состоятельности и эффективности.

Величину

принято называть весом І-го измерения.Из выражения (7.16) видно, что чем больше диспер­

сия , тем меньше вес g ( результата измерения X/.Пример. Производились измерения специальной меры

длины. Результаты измерения приведены в следующей таблице:

Порядковый Л'.- измерения

От к.'.онсннс от номинального размера, мы

Прибор «V 1 Прибор .V' 2 Прибор Х* 3 Прибор .V; 4

1 10,3 10,8 У,9 11,32 10,5 1 1,2 10,6 11,13 10,7 10,4

• Сумма 120,8 32,7 20,5 32,8

При этом известно, что дисперсии погрешностей измере­ний на применявшихся приборах имели следующие зна­чения в МК1'.

cj-= 0 ,32 ; о.] = 0 ,25 ; с;; = 0 ,50 ; з| = 0 ,16.

Требуется оценить отклонение действительного раз­мера меры от номинального ее размера.

285

Page 286: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Р е ш е н и е . Мы имеем 10 результатов измерений, которые получены на четырех различных приборах. По­этому некоторые измерения имеют одинаковые дисперсии.

Применяя формулу (7.16), найдем вес каждого изме­рения:

_ 1 . __ I& £ч 0,50 ’ ~ ^ 10 “ 0,16 ’

Их сумма:

V — A I J L _ l _ L _ i _ _ L _ 4 1b‘ ~ 0,32 f 0,32 1 0,50 1 0,16

Поэтому на основании формулы (7.15)

20,8 • ~ + 32,7 • J j l -}- 20,5 • -|- 32,8 • ~0,32 0,2о 0,э0 0,lb . Л гпт — -----------------------1 ^ ---------1-------------- — 10,67.

§ 7.9. ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ. ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ

Оценки, которыми мы до сих пор занимались, назы­ваются точечными, так как они указывают точку па числовой оси, в которой должно находиться значение неизвестного параметра. В ряде задач требуется не только найти для параметра а подходящее числовое значение, но и оценить его точность и надежность. Такого рода задачи очень важны при малом числе наблюдений, так как точечная оценка а в значительной мере является случайной н приближенная замена а па а может привести к серьезным ошибкам.

Для определения точности оценки а в математической статистике пользуются доверительными интервалами, а определения надежности — доверительными вероят­ностями. Раскроем существо этих понятий.

Пусть для параметра а получена из опыта несмещен­ная оценка а. Требуется оценить возможную при этом ошибку. Задаем некоторую вероятность р (например, = 0,9) н находим такое значение г 0, для которого

Р( \ а — а | < е ) = р. (7.17)

286

Page 287: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Равенство (7.18) означает, что неизвестное значение пара­метра а с вероятностью 3 попадет в интервал

/ р(а — е, r t - f e ) . (7.19)

Заметим, что здесь неизвестное значение параметра а является неслучайной величиной, а интервал I является случайной величиной, так как полож ение’'интервала на осп зависит от случайной величины а (центр интервала), длина интервала 2г тоже в общем случае является слу­чайной величиной. Поэтому в данном случае вероят­ность 3 лучше толковать не как вероятность попадания точки а в интервал ^а как вероятность того,что- случайный ннтер- ___ f вал /ч накроет точку 0 а-е(рис. ‘91).

Интервал 1{1 назы­вается доверительныминтервалом, а вероятность 3 — доверительной вероятно­стью, т. е. доверительной вероятностью или надежностью 3, соответствующей данному доверительному интервалу /,, называется вероятность того, что истинное значение параметра лежит в этом интервале.

В качестве примера рассмотрим задачу о доверитель­ном интервале для математического ожидания.

Пусть произведено п. независимых опытов над слу­чайной величиной X с неизвестными математическим ожиданием тх и дисперсией Dx. На основании опытных данных для этих параметров построены оценки:

Представим (7.17) в видеР (a. — &<^и<"'а -|- s) = 3. (7.18)

Г а

Гиг. 91

п — 1

Требуется построить доверительный интервал /,, соот­ветствующий доверительной вероятности 3, для матема­тического ожидания случайной величины X.

Так как величина Гп представляет собой сумму п независимых одинаково распределенных случайных вели­чии Xi, то согласно центральной предельной теореме ее закон распределения близок к нормальному. Пользуясь

287

Page 288: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

свойствами математического ожидания и дисперсии, на­ходим:

М [пг ] = МS *iz= I = — 'У Л '1 [ Х , ] = — У тх — тх,П 1 ‘J П ішк

і =,- I і=і

D [th] — D n

Найдем теперь такую величину s., для которойР ( \ т - т л. \ < г ;) = ?. (7.20)

Учитывая, что закон распределения случайной величины т близок к нормальному, выразим вероятность J3 в левой части равенства (7.20) через функцию Лапласа:

Р (j т — тх І < г.) =

r Dl

Ф I z3 \ — ф , (7.21)

среднее квадратическое отклонениегде с~ = ] / - f оценки.

Так как функция Лапласа нечетная, то равенство (7.21) принимает вид:

— ч> ( \

Из уравнения

Ф(.

(7.22)

W ~ У 2 /' m f 1находим значение г,:

^ = в* К 2 ф" (? ) .

где Ф-1 (3)— функция, обратная функции Лапласа. Вели­

чина о - = ] / £ * , входящая в формулу (7.22), выражается через неизвестную нам дисперсию Dx, поэтому в качестве ее ориентировочного значения можно взять оценку D и положить приближенно

Page 289: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Таким образом, доверительный интервал для математи­ческого ожидания приближенно равен

' /3 = ( /& —■£-; т - |- £р),где £. определяется формулой (7.22).

Пример. Произведено 20 опытов над величиной X . Результаты опытов приведены в следующей таблице:

І x l І x i

1 10,9 11 10,89 10,7 12 10,33 11,0 13 10,54 10,5 14 10,85 10,6 15 10,96 10,4 16 10,6

11,37 11,3 178 10,8 18 10,89 11,2 19 10,9

10 10,9 20 10,7

Требуется найти оценку /Һ для математического ожида­ния величины X и построить доверительный интервал, соответствующий доверительной вероятности р==0,8б.

Р е ш е н и е . Имеем:2,:)

/Гг = 2 2 Xj = 10,78.I — 1

Использовав формулу для оценки дисперсии, находим:

0;, = ] / — = 0 ,0 5 6 4 .гп Г п

По формуле (7.22) находим значение г,:г, = 0,0564 У 2 Ф 1 (0,86) = 0 ,0 8 3 .

Доверительные границыm i — th — е., = 10,78 — 0,083 я» 10,70; пи = т = 10,78 —|— 0,083 10,86.

Доверительный интервал/ = (10,70; 10,86).

289

Page 290: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 7,10. ПОСТРОЕНИЕ ДОВЕРИТЕЛЬНОГО ИНТЕРВАЛАДЛЯ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ СЛУЧАЙНОЙ ВЕЛИЧИНЫ, РАСПРЕДЕЛЕННОЙ ПО НОРМАЛЬНОМУ ЗАКОНУ. РАСПРЕДЕЛЕНИЕ СТЬЮДЕНТА

В предыдущем параграфе мы рассмотрели прибли­женный метод построения доверительного интервала для математического ожидания тх величины X с неизвестным законом распределения. Д ля точного построения довери­тельного интервала необходимо знать закон распределе-

И2 А‘-

нпя случайной величины /п = — , который в общемслучае зависит от самих неизвестных параметров вели­чины X . Оказывается, в некоторых случаях от случайной величины т можно перейти к другой случайной вели­чине, являющейся функцией наблюдаемых значенийХ и Х > , ___ Х п, закон распределения которой не зависитот неизвестных параметров величины X, а зависит только от числа опытов п и от вида закона распределения слу­чайной величины X.

Так, например, доказано, что при нормальном распре­делении величины X случайная величина

Т = Ү 1 і $ ~ (7.23)U

где

_____ 1 ' 1 ^ ■ 1п ’ п — 1 ’

подчиняется распределению Стыодеита с п — 1 степенями свободы. Плотность вероятности распределения Стыодеита имеет вид:

г (*)1)1'

І-

где Г (д-) = \ tix' xe 'n du — гамма-функция.о

Из формулы (7.24) видно, что распределение Стыодеита не зависит от ui и D, а зависит только от числа опытов п. При этом S n~i it) является четной функцией от t.

Page 291: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Рассмотрим применение распределения Стыодеита при построении доверительного интервала для математического ожидания.

Пусть произведено п независимых опытов над случай­ной величиной X, распределенной по нормальному за ­кону с неизвестными математическим ожиданием тл и дисперсией Dx. На основании опытных данных для этих параметров построены оценки

Требуется построить доверительный интервал соот­ветствующий доверительной вероятности 3, для матема­тического ожидания случайной величины X.

Обозначим через s, половину длины интервала, сим­метричного относительно /и, -тогда будем иметь:

Перейдем в левой части равенства (7.25) от случай­ной величины т к случайной величине Т, распределен­ной по закону Стыодеита. Д ля этого умножим обе части неравенства \ t h — m x | г. на положительную величину

Учитывая четность функции S n-i (t), получим, что ве-

П П2 № -Im п — 1tl

(7.25)

получим

или, пользуясь обозначением (7.23),

роятиость |3 осуществления неравенства \ T \ < ^ t —

равна (см. свойства 3, § 2.4):

и

21) 1

Page 292: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Равенство (7.26) определяет величину Л в зависимо­сти от доверительной вероятности [1

Имеется готовая таблица (см. в приложении табл. 3), пользуясь которой, по доверительной вероятности £ и числу степеней свободы п — 1 находят величину

Определив величину по формуле

находим половину ширины доверительного интервала /,. Следовательно, сам интервал

Пример. Произведено 10 независимых опытов над слу­чайной величиной X, распределенной нормально с неиз­вестными параметрами тх и ах . Результаты опытов пред­ставлены в виде статистического ряда:

/ 1 .'5 4 5 6 7 8 9 10

Л', 2,5 2 — 2,3 1,9 - 2,1 2,4 ■> 3 - 2,5 1,5 - 1 ,7

Найти оценку т для математического ожидания и построить доверительный интервал, соответствующий до­верительной вероятности £ = 0,95.

Р е ш е н и е . Имеем:

По табл. 3 приложения для п — 1 = 9 и 3 = 0,95 находим:

г I'*V

Г П — -Г Г ,

»— 1

откуда

Доверительный интервал будет

Page 293: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 7.11. ОПРЕДЕЛЕНИЕ ПРИБЛИЖЕННЫХ ЗНАЧЕНИЙ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН

Пусть над системой случайных величин (X, К) произ­ведено в одинаковых условиях п независимых опытов. Результаты опытов

(Хь Ү \), (Хо Ко), . . . . (Хя. Ү п)являются иезавпсимымп системами случайных величин, математические ожидания, дисперсии и корреляционные моменты которых одинаковы, т. е. тх. = тх, туі — ту , DX. = DX> Dyi — Dy \ k x .y . = k xy . Требуется путем обра­ботки опытных данных, найти приближенные значения указанных числовых характеристик.

Эта задача решается аналогично тому, как мы решали ее для одной случайной величины.

Так как неизвестные математические ожидания тх и т ү, а также дисперсии Dx и Dv являются характерис­тиками отдельных случайных величин, входящих в си­стему, то для определения приближенных их значений, применяя формулы (7.10), получим:

ПS *І : ~ 1

►п2 у,~ i — Iт = --------.

п

д . = ~ т 2 і — 1

п

6 >' = ,7 ^ Т 1 (У ! - * > ? ■i = I

Поскольку корреляционный момент есть математическое ожидание произведения отклонений случайных величин X и К от своих математических ожиданий, то прибли­женное значение корреляционного момента fixy ищем как линейную комбинацию вида

Ьху = У, Q {Xi — гіі л.) (К, — thy), (7.27)І = 1

293

Page 294: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

где С; — постоянные коэффициенты, причем, в силу равно- точности измерений,

Q = C.

Неизвестный коэффициент С определяем из условия, чтобы величина Ъху была несмещенной оценкой для корре­ляционного момента k xv, т. е. чтобы

М [kxy] = М J \ C ( X i - m x) (Yi — thy)Z_Jі = l

: С 2 M [(Xi - rnx) (Yt - my)\ = kxy.i--.\

Преобразуем выражение, стоящее под знаком матема­тического ожидания. Так как по условию тх. = тх, то

п п п2 Л/ 2 тх 2 т*

Y ___ t y, ___ у ___ / — 1 _1_ / — 1__________ / — 1 ___Л-і т х --А; : --

= ( X i - m xi)

аналогично

2 ( * / - ' % ) й 2 'хі 1=1------т--------= х і — ^ —

т -i л 2 > /

Y t ~~tnv — Yi

Следовательно,Щ ( Х і — тх) (Ү і — /«..)]

Page 295: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Принимая во внимание, что kx .y . = kxy, а кх.у . ==0 при і Ф /, имеем:

/VI К Хі — /и.») ( К г — /« .,)] = /гл.,, .vv +

1“ \ ^.vy----кху ~ кХу [ п» flkxy п - 1 Һ п -ХУ’

І = 1Таким образом,

ПМ [А,,1 = с 2 А1 [ № - (К, - - OTj.) ]

{• = 1

= с У n— k = с — У к х.у = с ' - ^ ‘пкху=п ■ > п iLm У п ->

1=I / —- I= С (п — 1) kxy = kxy,

1если С •— ,./г — 1

Д ля того, чтобы показать состоятельность оценки (7.27) при условии, что С,- = С = ?ү-^-ү, найдем дисперсию этой оценки:

2 U » - тх) ( Y i - m y )D \ k xy\ = D i = l

= („,!. I)- 2 ° l № — 'п.х)(Уі— /%)]•1= 1

Так как по условию случайные величины Хг- и К,- имеют одинаковые распределения, то

D [ Z i ] - D - = const ( / = 1 , 2 , . . . , я ) ,

где Zi = (Xi — nix) (Уі — ту) .Следовательно,

Я [ k x y ]xyi (n— I fn D ~

(л — l)2i= i t = l

Выражение D[kxy] = — 0 при n — *0 0 , а этозначит, что

n

к = ^ г т 2 ( Х і - { Ү і (7 '28>

295

Page 296: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

является несмещенной и состоятельной оценкой для кор­реляционного момента kxv системы случайных величин (X, У). Формула (7.28) наиболее употребительна для опре­деления корреляционного момента двух случайных вели­чин по опытным данным.

Опытный коэффициент корреляции гху определяют по формуле

При этом среднее квадратическое отклонение опытного коэф­фициента корреляции вычисляется по формуле

1 — r~.v 1 — Гхуг XV ~ Т ^ Vп - ) *

§ 7.12. МЕТОД НАИБОЛЬШЕГО ПРАВДОПОДОБИЯ ДЛЯ НАХОЖДЕНИЯ ОЦЕНОК ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЙ •

В § 7.7 мы рассмотрели оценки для математического ожидания и дисперсии. В этом параграфе рассмотрим один из важнейших методов для отыскания оценок пара­метров по данным опыта, который носит название метода наибольшего правдоподобия.

Пусть функция f (х, 0), зависящая от параметра 0, является плотностью вероятности случайной величины X. Требуется на основании опытных данных определить неиз­вестный параметр 0.

Обозначим через Xi, л'о, . . . ,хп наблюдаемые значения случайной величины X в результате проведенных а опытов.

Функцией правдоподобия называется функция

L, (aj, л'о, . . . , хп,0) —= f(* „ 0 ) /(* ь 0). . . / (л'м, 0). (7.29)

Если случайная величина X - дискретная с возмож­ными значениями

f- Һ у-«1. •••» *г,

аНҺ, ш-2, . . . , тг

‘2У6

Page 297: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

будут равны соответственно числу опытных значений, которые совпадают с с,, Ь, %п то функция правдопо­добия определяется соотношением

L (Л'Ь л,, . . . , хп, 0) = (0) Р а“ а (0)... Р тг г (0), (7.30)где Pi (0) = Р (.X = сі) (/ — 1, 2,

Считая наблюдаемые значения Х\, х*, . . . . хп данными, будем рассматривать L как функцию неизвестного пара­метра 0. Сущность метода наибольшего правдоподобия заключается в том, что в качестве оценки параметра 0 выбирается значение аргумента, которое обращает функ­цию L в максимум. Это значение является функцией от л*ь Хі , . . . , х„ и называется оценкой наибольшего правдо­подобия. Отсюда согласно известным правилам дифферен­циального исчисления, для нахождения оценки наиболь­шего правдоподобия необходимо решить уравнение

| = 0 (7 .3 1 )

и отобрать то решение 0, которое обращает функцию L в максимум.

Обычно с целыо упрощения функцию правдоподобия заменяют ее логарифмом и решают вместо (7.31) уравнение

1п I*— — — о (7 32)ОЬ L ОН ( / - OZ)

В случае двух параметров 0! и 0.2 оценки их опреде­ляются из двух совместно решаемых уравнений:

д In L Л д In L а—гг- — О II —777" = 0 .d(), 04.,

Продемонстрируем применение метода наибольшего правдоподобия па примерах.

Пример 1. Оцепить качество продукции некоторого производства.

Р е ш е н и е . Искомой величиной является вероятность р того, что наугад выбранное изделие окажется бракован­ным. Вероятность р считается постоянной величиной, не зависящей от результатов проверки других изделий. Д ля отыскания величины р из готовой продукции случайным образом отбирается п изделий и проверяется их качество. Вероятность р мы можем рассматривать как параметр, входящий в распределение дискретной двузначной вели­чины X, принимающей только два значения ? і = 1 и ?2 = 0

10 Гурскин 297

Page 298: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

в зависимости от того, каким окажется наугад выбран­ное изделие: бракованным или хорошего качества.

Пусть среди наугад выбранных изделий оказалось т бракованных, тогда согласно (7.30) мы будем иметь

L — pm (1 — р)п

и уравнение (7.32) запишется так:д In L ____ т п — т _______ q

др J 1 - р ~

Оно имеет единственное решение:

Следовательно, оценка вероятности р по методу паи* „ .. шбольшего правдоподооия совпадает с частотоп — сооытпяпоявления бракованных изделий.

Пример 2. На вход приемного устройства поступает сумма Y (/) = X -J- Z (/) неизвестного, не зависящего от времени сигнала X и случайной помехи Z(t) . В моменты времени t it t«, . . . , tn производятся измерения случайного процесса У ((). На основании полученных данных у и у,, . уп нужно указать приближенное значение 0 (уи у . . . , уп) сигнала Л'.

Р е ш е п ие. Пусть случайные величины Z (/i), Z (Л), . . . . . . , Z (/„) взаимно независимы и распределены нормально с математическим ожиданием, равным 0, и дисперсией, равной с \ Тогда при заданном значении X — 0 случай­ные величины

Ул. = У (/*) = X -!- Z (/*) ( £ = 1 , 2 , — /г)

также взаимно независимы 'и подчиняются нормальному закону с той же дисперсией а- и математическим ожида­нием 0. Следовательно, функция f (.v, 0) для нашего при­мера имеет вид:

, _ (-у - 6)*f(Vk, 0) = — .

Согласно (7.29), запишем функцию правдоподобия

Page 299: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ПInL = - ln[3" (V '2 i ) “J - ' У (ук - О)2,

Заменяя ее логарифмом, получим:

2с2Л»!

поэтому уравнение (7.32) запишется так:

о in L I / х г\ пТ Г = ;Н >, й - н « | = 0.

Отсюда

О

А; = 1

I V- УкП J

Функция L{ij\, у-2, . . . , уп, Щ достигает при этом зна­чении б своего наибольшего значения. Следовательно, оценка сигнала X по методу наибольшего правдоподобия имеет вид:

110 ( l /h Уъ . . . » У г ) = п ^ У к,

к ■-= 1

т. е. является средним арифметическим результатом измерений.

Метод наибольшего правдоподобия обладает важными достоинствами: он всегда приводит к состоятельным (хотя иногда и смещенным) оценкам, имеющим наименьшую возможную дисперсию по сравнению с другими и наилуч­шим образом (в некотором смысле) использующим всю информацию о неизвестном параметре, содержащуюся в выборке. Однако на практике он часто приводит к необ­ходимости решать весьма сложные системы уравнений.

§ 7.13. СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ

При обработке опытных данных очень часто прихо­дится решать задачу, в которой необходимо исследовать зависимость одной физической величины у от другой физической величины л\ Например, исследование вели­чины погрешности размера изделия от температуры, вели­чины износа резца от времени и т. д.

10* 209

Page 300: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пусть производится опыт с целыо исследования зависимости величины у от величины л\ которая в общем случае может быть записана в виде

У — f (*)•Вид этой зависимости и требуется определить из опыта.

Предположим, что в результате опыта получен ряд экспериментальных точек (л'ь у {), (л\>, //._>), . . . . ( хп, у„) и построен график зависимости переменной величины у от независимой переменной v (рис. 92). Так как производи­мые в ходе опыта измерения связаны с ошибками слу­

чайного характера, то обычно экспери­ментальные точки па графике имеют неко­торый разброс отно­сительно общей зако­номерности. В силу случайности ошибок измерения этот раз­брос или уклоненияточек от общей за ­кономерное! и также

Рис. 92 являются случай­ными.

Следовательно, задача состоит в такой обработкеэкспериментальных данных, при которой по возможности 'ЮЧНО. была бы отражена тенденция зависимости у от х и возможно полнее исключено влияние случайных, неза­кономерных уклонений, связанных с погрешностями опыта. Т акая задача является типичной для практики и назы­вается задачей сглаживания экспериментальной зависи­мости.

Очень часто бывает так, что вид зависимости y = f ( x )

до опыта известен из физических соображений, связанных с существом решаемой задачи, а на основании опытных данных требуется определить только некоторые параметры этой зависимости, которые входят в эту зависимость линейно.

При решении задачи сглаживания экспериментальной зависимости в случае, когда вид зависимости y — f (х) до опыта известен, обычно применяется расчетный метод, известный под названием «метода наименьших квадратов»,

300

Page 301: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

§ 7.14. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ

Метод наименьших квадратов применяется для реше­ния различных задач, связанных с обработкой результа­тов опыта. Наиболее важным приложением этого метода является решение задачи сглаживания эксперименталь­ной зависимости, т. е. изображения опытной функцио­нальной зависимости аналитической формулой. При этом метод наименьших квадратов не решает вопроса о выборе общего вида аналитической функции, а дает возможность при заданном типе аналитической функции у = )'(х) подо­брать наиболее вероятные значения для параметров этой функции.

Сущность метода наименьших квадратов при решении поставленной задачи заключается в следующем.

Пусть получено п экспериментальных точек с абсцис­сами

Х\) Хо, .. . , Xп

и соответствующими им ординатами

£/ь У’Ъ • • •» Уп-

Зависимость у от х, изображаемая' аналитической фуикцпей

У / ( )> (( -33)

не может совпадать с экспериментальными значениямиУі во всех п точках. Это означает, что для всех или некоторых точек разность

Ь і ~ У і — І (*<) (7 .34)

будет отлична от нуля.Требуется подобрать параметры функции (7. 33) таким

образом, чтобы сумма квадратов разностей (7. 34) была наименьшей, т. е. требуется обратить в минимум выра­жение

* = 2 ЛІ = 2 l№ - > t o ) I*- (7- 35)i I /=- •>!

Таким образом, прп методе наименьших квадратовприближение аналитической функции y = f (х) к экспери­ментальной зависимости считается иаплучшпм, если

301

Page 302: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

выполняется условие минимума суммы квадратов откло­нений искомой аналитической функции от эксперименталь­ной зависимости.

Следует заметить, что выражение (7. 35) представляет собой полином второй степени относительно неизвестных параметров (неизвестные параметры в зависимость y — f (а-) входят линейно), который не может принимать отрица­тельных значений. Поэтому существуют такие значения неизвестных параметров, при которых функция (7. 35) достигает минимума, и этот минимум в зависимости от значений лг,- н у, будет положительным или равным нулю.

Прп решении многих практических задач функцио­нальную зависимость у от х ищут в виде

у = у : « л м , (7 .36)к ■-. 1

где /і (лг), fi (х), . . . , fm (х) — известные функции, аи а2, . . . . . . , ат — неизвестные параметры.

Так, например, прп исследовании колебательных про­цессов функциями f t:(x) (к — 1,2, . . . , tn) являются триго­нометрические функции

//, (л*) = COS kx, fk (.v) = s in kx.

При исследовании во многих областях техники очень часто встречаются степенные функции

fk (.v) == хи ~ 1 [к — 1.2, . . . , т ) .

Таким образом, /», (л) в равенстве (7. 36) являются известными элементарными функциями аргумента х.

Исходя из принципа наименьших квадратов, мы должны подобрать такие значения неизвестных парамет­ров а{, аг, . . . , ат, при которых обращается в минимум выражение

Уі — У, auf u (.v4)к == I

(7. 37)

Выражение (7. 37) является функцией неизвестных параметров ак, поэтому для отыскания минимума этой функции нужно согласно правилам дифференциального исчисления найти частные производные функции г по

Page 303: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

веем параметрам ак [k — 1,2, tn) и приравнять их нулю:

Подставляя в систему (7.38) опытные значения л*г- и у{, мы получим систему т линейных уравнений относительно неизвестных параметров а,., решение которой может быть получено с помощью определителей или последователь­ным исключением неизвестных.

Рассмотрим применение метода наименьших квадратов, когда для изображения экспериментальной зависимости выбрана парабола второго порядка

Пусть в результате независимых опытов получено п значений величины у:

Д ля определения неизвестных параметров а, b и с мето­дом наименьших квадратов составляем сумму квадратов отклонений искомой аналитической функции от наблюдае­мых значений в данных точках

Дифференцируя функцию (7.39) по неизвестным пара­метрам а, b и с и приравнивая производные к нулю,

j = 1 L ){ = 1

tl in

п гпd z

дат 2 2 У‘ - 2 йЛ(лГі)і = i

у — ax'- -[- bx -j- с.

соответствующих значениям велпчипы л-:

ПУ (Уі — ах! — Ьх{ — с)-. (7.39)

зоз

Page 304: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

получим следующую систему уравнении:п

— ү = У, (Уі — ахі — Ьхі — с) xi = О,і -- 1

~ - | - = У. ( I j , - a x i - b x , - c ) дг, = 0, [ • (7.40) і Г ,

1 д.'2 с/с

~ = У (у-, — axf — Ьхі — с) = О,

или несколько преобразовав уравнения (7.40), получим систему уравнении:

а У] xi -j- b 2 х] -f- с 2 х і = У} хіуі,І — 1 І - - I І 1 і - - I

а У) xi -'r b V x j JrC j Xi — V xitji, j. (7.41)І = 1 І = 1 i I i = 1

й У 4 + 6 2 -v' + с/г = 2 У1-і = i / .-, I i == I ;

Система (7.41) представляет собой систему трех ли­нейных уравнений относительно неизвестных параметров а, Ь, и с. Решая систему (7.41) с помощью определите­лей третьего порядка пли последовательным исключением неизвестных, мы и получим значение параметров а, Ъ и с по методу наименьших квадратов.

§ 7.15. СТАТИСТИЧЕСКАЯ ПРОВЕРКА ГИПОТЕЗ

Прежде чем формулировать задачу проверки гипотез в общем виде, рассмотрим два примера.

Пример 1. Имеется склад готовой продукции. Изве­стно, что изделия (например, радиолампы одного типа) поступают на склад партиями с двух заводов, выпускаю­щих продукцию разного качества, и такими же партиями отпускаются потребителю. Качество продукции завода характеризуется вероятностью Р того, что наугад выбран­ное изделие является бракованным. Д ля одного завода Р = Р 0, для другого Р = Рі ( Р о > Р і ) . Потребитель на­

304

Page 305: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

угад выбирает одну партию изделий. Нужно па основании результатов контроля решить, на каком заводе изгото­влена выбранная партия изделий.

Р е ш е н и е . Я» — гипотеза, состоящая в том, что вы­бранная партия изделий плохого качества, т. е. вероят­ность брака равна Р„; //( — противоположная гипотеза, вероятность брака равна /V Будем называть Я«— нуле­вой, а Н\ — конкурирующей гипотезой.

Отберем из партии наугад п изделий. Пусть Ү обо­значает количество бракованных изделий среди отобран­ных. Ясно, что У является случайной величиной, воз­можными значениями которой будут 0, 1, 2 , . . . , п. Под решением поставленной задачи понимается выработка решающего правила, которое сопоставляет каждому воз­можному зпачешпо случайной величины Ү одну из гипо­тез Но или Н 1 .

Обозначим набор возможных значений случайной вели­чины У через А, тогда согласно сказанному выше, иско­мое решающее правило состоит и некотором разбиении множества А на части А„ и А,. При попадании возможного значения случайной величины Ү в множество А0 прини­мается гипотеза Я 0 и, наоборот, прп попадании возмож­ного значения в множество А, принимается гипотеза Н\.

Вопрос заключается в том, какое из возможных раз­биений множества А на части А0 и А, следует выбрать.

Пример 2. На вход приемного устройства в некоторый момент времени поступает случайная величина Ү , которая либо является суммой известного сигнала X и случайной помехи Z, либо одной помехой. Производится измерение величины Ү. По полученному числовому значению у нужно решить, присутствовал ли па входе сигнал X, т. е. выбрать одну из двух возможностей:

y — x - \ - z пли у — г.

Р е ш е н и е . В качестве пулевой гипотезы //« возьмем отсутствие сигнала, а в качестве конкурирующей гипо­тезы Н | — наличие сигнала. Задача заключается в про­верке гипотезы //„ относительно гипотезы Н\.

Множество А возможных значений случайной вели­чины Y представляет собой всю ось у. Искомое решаю­щее правило состоит в разбиении оси у на две части: А0 и Aj. Требуется выбрать одно из таких разбиений.

Общая постановка задачи. Имеются две противопо­ложные гипотезы //« п Ну п некоторая связанная с ними

Page 306: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

случайная величина У. Пусть у обозначает числовое значение случайной величины У, полученное в резуль­тате испытания, А— множество всех возможных значений случайной величины У. Требуется произвести проверку нулевой гипотезы относительно конкурирующей гипотезы Н 1 на основании результатов испытания.

Разобьем множество А на две части А0 и At с усло­вием принятия гипотезы Н0 при попадании полученного значения у случайной величины У в результате прове­денного опыта в А„ и гипотезы И\ — при попадании у в А]. Выбор решающего правила, т. е. правила разбиения множества А на две части А0 и Aj в любой задаче про­верки гипотез возможен больше, чем одним способом.

Дд Л1 _ Лр ________ At ДО _

Т, *у t Т2 *у

Рис. 93 Рис. 94

Так, в примере 2 можно задать какое-нибудь число 1{и положить

Д0 = (— ОО, Һ), А, = (/ь оо) (рис. 93).

Другой вариант решающего правила изображен на рис. 94.

Спрашивается: какому из этих разбиений следуетотдать предпочтение, или, отвлекаясь от рассматриваемого примера, какое из всех возможных разбиений в каждой конкретной задаче считать паилучшим?

Метод минимума [)иска. Д ля применения к задаче проверки гипотез метода минимума риска нужно распо­лагать некоторыми вероятностными данными.

Будем считать известными два условных распределе­ния вероятностей случайной величины У:

и (у) — при условии, что верна гипотеза Я 0;fi (y) — при условии, что верна гипотеза Н\.

Заметим, что случайная величина У может быть и дискретной (пример 1) и непрерывной (пример 2). Тогда под функциями /о (у) и ft (у) в первом случае будем пони­мать условные дискретные распределения вероятностей, во втором случае — условные плотпостп распределения.

В примере 1 вероятность Р того, что наугад выбран­ное изделие является бракованным, не зависит от резуль­татов проверки других изделий и при условии истин­

Page 307: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ности гипотезы Я 0 равна Р 0. Поэтому закон распределения случайной величины Ү является биномиальным и, следовательно, имеет вид

Һ (У) = Р ( Ү = У\р = Р.) = a i P l (1 - Р 0)п~*. (7.42)

Аналогично, прп условии истинности гипотезы Н\

U ( У ) = Р ( У = у \ Р = Pi) = С Х (1 - Р,)"->. (7.43)

В примере 2 будем считать случайную величину Z подчиненной нормальному закону с нулевым математи­ческим ожиданием и дисперсией а-, тогда условная плот­ность распределения /„ (у) случайной величины У при условии отсутствия сигнала имеет вид

(7.44)

так как в случае отсутствия сигналаY = Z.

Если же сигнал присутствует, то

Y = X -J-Zи, следовательно,

Һ (.'/) = / » (и - X) = - - 4 - - С- ^ . (7.45)а

Кроме условных распределений f0(y) и f i(y), нам потребуется априорная (доопытиая) вероятность Р того, что гипотеза Н() имеет место.

Иногда мы располагаем сведениями об этой вероят­ности, а иногда нам ничего н е «. известно или известно очень мало. Так, например, если в задаче- о приемочном контроле известно, что среди партий готовой продукции, хранящейся на складе, одна четверть плохого качества, то при условии, что потребитель наугад выбирает одну партию изделий,

Будем рассматривать следующие случайные события: Л — верна гипотеза /70,/ 1 — верна гипотеза I I и

301

Page 308: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

В — результат эксперимента у попал в область Д(ьВ — результат эксперимента //попал в область А,.Тогда в результате принятия решения возможен одни

из следующих четырех исходов:АВ — верна гипотеза На и принято решение о ее

истинности;АВ — верна гипотеза Н ь а принято решение о истин­

ности гипотезы /'/о;АВ — верна гипотеза /7(Ь а принято решение о истин­

ности гипотезы Я,;АВ — верпа гипотеза Hi и принято решение о ее истин­

ности.Отсюда видно, что исходы АВ и А В связаны с оши­

бочными решениями. Исходу АВ соответствует так назы­ваемая ошибка первого рода, а исходу АВ — ошибка второго рода.

Например, в задаче обнаружения сигнала ошибке первого рода соответствует принятие решения о наличии сигнала в случае его отсутствия, ошибке второго рода соответствует принятие решения об отсутствии сигнала в случае его наличия.

Д ля ответа на вопрос, какое из решающих правил следует считать наилучшим, введем понятия функции потерь и среднего риска.

Функция потерь сопоставляет каждому из четырех возможных исходов АВ, АВ, АВ, АВ соответствующие потери, выраоісенные в некоторой системе единиц.

Прп правильном решении естественно положить потерн равными нулю. Потери, связанные с ошибками первого и второго рода, обозначим соответственно С| и С.>. Будем считать, что С] и Со— положительные. Для задания функции потерь нужно указать эти два числа. В даль­нейшем предполагается, что функция потерь задана. Заметим, однако, что в практических задачах часто трудно сделать обоснованный выбор величины С\ п С>. Ниже мы покажем, как поступают в таких случаях.

Перейдем теперь к понятию риска. Пусть Р 0, Р і и Р 2— вероятности соответственно правильного решения, ошибки первого рода и ошибки второго рода. Опреде­ление значений этих вероятностей будет приведено ниже. Величина потерь С, к которым приводит однократное применение решающего правила, является случайной величиной, принимающей значения О, Сь С> с вероят­ностями соответственно Р 0, Pi и Р->.

308

Page 309: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Математическое ожидание М [С] случайной величины С называется средним риском (или просто риском) и обо­значается буквой г. Таким образом,

г = М [С] = / V О -І- Р,С, -j- Р,С, = Р,С, -j- Р іСі . (7.46)

Понятие риска присолит к естественному способу сравнения решающих правил. Из двух правил лучшим считается то, которое приводит к меньшему риску.

Оптимальным решающим правилом называется пра­вило, приводящее к наименьшему возможному в данной задаче риску.

Итак, мы должны найти оптимальное решающее пра­вило, которое соответствует заданным условным распре­делениям (//) и / 1 (//), априорной вероятности Р и функ­ции потерь (Ci, С,). Это правило будем обозначать бук­вой Г. При отыскании правила Г ограничимся рассмот­рением непрерывной случайной величины Y.

Обозначим через я условную вероятность ошибки первого рода, вычисленную при условии истинности гипо­тезы Но, а через — условную вероятность ошибки вто­рого рода, вычисленную при условии пстиппостп гипо­тезы Н\. Применяя правило определения вероятности попадания случайной величины Y на заданный участок, если известна ее плотность вероятности, запишем вероят­ности а и $ с помощью условных плотностей fn (у) п fj (у):

a. = P ( B : A ) = \ f „ ( u ) i ! i / , Р (В/А) = \ h ( u ) d y . (7.47)•ІI ' А 0

В свою очередь, безусловные вероятности Р\ и Р.2 оши­бок первого и второго рода/ входящие в (7.46), выра­жаются через условные вероятности этих ошибок а и [3 и априорную вероятность Р следующим образом:

Р у = Р (АВ) = Р (А) Р (В;А) = Ра, Р , == Р (АВ) == Р (А) Р (В, /1) = (1 — Р) 3.

Поставим полученные значения Р\ и Р.. в формулу (7.46), получим:

г = Р,.С, -i- (I — IJ) = PC, Ц 1„ (у) cly -!-

+ (1 - P ) C . ! \h(U)<ly- (7.48)

Из формулы (7.48) видно, что каждому способу разбие­ния множества А па области А0 и А, соответствует свое

30!)

Page 310: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

значение риска. Нужно выбрать области Afl и Ai так, чтобы выражение (7.48) достигло минимума.

Используя свойства плотности вероятности

$ /о (у) dy = \ /о (у) dy + 5 /о (у) d y — \,Д Лц

перепишем формулу (7.48) в виде

r = PCi

= PC, + J [(1 - Р) С-,/, (у) - РС,/„ (</)] dy.Л О

Последнее выражение достигает минимума при таком выборе области Д0, который приводит к наименьшему возможному значению интеграла в правой части. А длятого, чтобы интеграл был минимальным, нужно вклю­чить в состав Д0 те и только те значения у, в которых подынтегральная функция отрицательна, т. е.

(1 - Р) Со/, (у) - />С,/0 (у) < 0, (7.49)

а в состав Д і— остальные значения у.Запишем неравенство (7.49) в таком виде:

Л Су) ^ РСу п/ о ( > » ) < ( 1 - Р ) С У ( 7 - 5 0 )

Функция называется отношением правдоподобия./о ‘У)

Таким образом, искомое оптимальное решающее пра­вило Г заключается в следующем: для полученногов результате эксперимента значения у вычисляется отно­шение правдоподобия j -Щ. и сравнивается с числом.

/ о (У /

l ~ (1 - Р ) С , ’ І 7 ' 5 1 )

если отношение правдоподобия меньше /, принимается гипотеза # 0; в противном случае — гипотеза Н {.

Оптимальное решающее правило Г называется поро­говым критерием для отношения правдоподобия

Р С ■С порогом / = jy z ir p y c '

Аналогичны!! результат получается и для дискретной случайной величины.

310

Page 311: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Применим пороговый критерий Г к рассмотренным выше примерам.

Пример 1. Используя равенства (7.42) и (7.43), най­дем отношение правдоподобия

/, м ^ с у р у ц - г ^ - у/ ' . ' О ’ » ~С-'пРУ(\

[P.( l-Po>l-v ,1 Р Л пІ 'Р 0)"-У | Р 0 (1 - Р . ) I - V у _ / > , ,

Следовательно, неравенство (7.50) для данного примера принимает вид

Р ,(1 /V'Р .)

откудаЯ о ( 1

Р , (1 — Р „

3’ /1I —

PC,- P n

РА 1 - / V <р с ,

( I - P ) C S ’

/ I - Р о(1 - Р ) С , / Л ) .

(7.52)

Из условия, что Р о ^ > Р ь следует неравенство P i П - Р о )

а это значит, чтоРо (1 — Pi)

, Р . ( 1 - Р о )

< 1.

< 0.Ро (1 — Pi)Поэтому, определяя у из неравенства (7.52), будем иметь:

P C t / 1 - р ' « '111 / 1 - Р ) С - V 1 — Р111 р, ІІ - /Л,) (7.53)

Р „ (1 - Р . )Итак, если число/у бракованных изделий среди наугад

выбранных /г изделий удовлетворяет неравенству (7.53), то принимается решение о плохом качестве полученной партии, в противном случае— решение о хорошем качестве.

Пример 2. Используя равенства (7.44) и (7.45), най­дем отношение правдоподобия:

( V — -V)-

/ 1 О') /п ( У )

Следовательно, принимает вид:

* Г 2г. = е~- с

с у '2 ? . 6

неравенство (7.50) для этого примера

е:~ с <р с ,

о - Р) С » • (7.54)

311

Page 312: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Пусть х 0. Тогда, определяя у из неравенства (7.54), получим:

РС,у С - In ‘ ,Л' .(1 — р) Со е~*т (7.55)

Итак, если значение у, полученное на входе прием­ного устройства, удовлетворяет неравенству (7.55), то принимается решение об отсутствии сигнала, в против­ном сл у ч ае— решение о его наличии.

Покажем это па графике. Изобразим плотности вероят­ностей /„(//) и /, (у) (рис. 95).

Согласно формулам (7.47) условные вероятности в этом примере имеют вид:

СО „•> /|

= т ш \ е Р = Г І

( V — -V )-

dy.

под кривой правее точки

Следовательно, величина а равна площади области, рас­положенной (рис. 95)

/»(</)• У = 1 ь

величина $ — площа­ди области, располо­женной под кривой /,(//), левее y = h. Из рис. 95 видно, что при изменении порога U одна из

или 3 растет, другая — убывает. В част-вероятностеи а «ности,

l im a = 0 ,/ 1 - Н - О Э

lim 3 = 1 , 1п п а— с о

І І П і З : / | ---------с о

0.

Из формулы (7.48) следует, что при изменении а, т. с. при изменении /ь изменяется также и риск г и дости­гает минимума при значении /ь определенном форму­лой (7.55).

Величина /, входящая в решающее правило Г, опре­деляется значениями априорной вероятности Р и потерь Сь С>. Задание этих величин на практике, как мы уже отмечали выше, сопряжено с большими трудностями. Поэтому желательно было бы получить величину / без использования значений Р, С,, С>. Оказывается, часто прп решении задачи проверки гипотез задают условную

312

Page 313: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

вероятность ошибки первого рода а. Зная эту величину и зависимость, которая связывает а и /, можно найти порог /.

Так, например, при решении задачи обнаружения сигнала мы имели такую зависимость:

Полагая теперь, например, а = 10 с помощью таблицы функции Лапласа находим порог

Это значит, что решение о наличии сигнала принимается, если результат измерения у удовлетворяет неравенству

и решение об отсутствии сигнала — в противном случае.

§ 7.16. ПОНЯТИЕ

Во многих случаях практики на основании тех или иных данных делается предположение о виде закона распределения интересующей пас случайной величины X. Однако для окончательного решения вопроса о виде закона распределения в подобных случаях представляется целесообразным проверить, насколько сделанное пред­положение согласуется с опытом. При этом ввиду огра­ниченного числа наблюдений опытный закон распреде­ления обычно будет в какой-то мере отличаться от предполагаемого, даже если предположение о законе распределения сделано правильно. В связи с этим возникает необходимость решать следующую задачу: является ли расхождение между опытным законом рас­пределения п предполагаемым законом распределения

Используя функцию Лапласа, можем записать:

О КРИТЕРИЯХ СОГЛАСИЯ

313

Page 314: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

следствием ограниченного числа наблюдений, или оно является существенным и связано с тем, что действи­тельное распределение случайной величины отличается от предполагаемого. Для решения поставленной задачи служат так называемые «критерии согласия».

Идея применения критериев согласия заключается в следующем.

Пусть, например, на основании данного статистиче­ского материала нам предстоит проверить гипотезу Я, состоящую в том, что случайная величина X имеет функцию распределения Ғ (х).

Д ля того чтобы принять пли опровергнуть гипо­тезу Я, будем рассматривать случайную величину Ү, характеризующую степень расхождения теоретического и статистического распределений. Величину Ү можно выбирать различными способами. Например, в качестве Ү можно взять максимальное отклонение статистической функции распределения Ғ* (х) от теоретической Ғ (х). Очевидно, закон распределения случайной величины Ү зависит от закона распределения случайной величины X, над которой производились опыты, и от числа опытов п.

Предположим, что закон распределения случайной величины нам известен.

Пусть в- результате проведенных п опытов над слу­чайной величиной X величина Ү приняла некоторое значение у. Спрашивается, можно ли объяснить приня­тое значение Ү — и случайными причинами или же это значение слишком велико и указывает на наличие суще­ственной разницы между теоретическим и статистиче­ским распределениями, т. е. непригодность гипотезы Я? Д ля ответа на этот вопрос допустим, что верна гипо­теза Я, и вычислим вероятность того, что случайная величина Ү за счет случайных причин, связанных с ограниченным объемом опытного материала, примет зна­чение не меньше, чем наблюдаемое значение у, т. е. вычислим вероятность Р (У ^ у ) . Если эта вероятность мала, то гипотезу Я следует опровергнуть как мало­правдоподобную, а если же эта вероятность значительна, то экспериментальные данные не противоречат гипо­тезе Я.

Д ля вычисления вероятности Р (Ү ^ у) необходимо знать закон распределения случайной величины Ү, ко­торый, как мы уже отмечали, зависит от закона рас­пределения случайной величины X (функции распреде-

Page 315: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ления Ғ (а*)) и от числа опытов п. Оказывается, что при некоторых способах выбора случайной величины У ее закон распределения при достаточно большом п прак­тически не зависит от закона распределения случайной величины X . Именно такими мерами расхождения и пользуются в математической статистике в качестве кри­териев согласия.

Наиболее простым критерием проверки гипотезы о виде закона распределения является критерий акаде­мика А. Н. Колмогорова, представляющий собой мак­симальное значение абсолютной величины разности между статистической функцией распределения Р* (х) и соответствующей теоретической функцией распределе­ния Ғ (х) , т. е.

D = max ! F* (х) — F ( а*) |.

А. Н. Колмогоров доказал, что какой бы вид не имела непрерывная функция распределения F (х) при неограниченном возрастании числа независимых наблю­дений п, вероятность неравенства

D У п ^ Xстремится к пределу

СО

Р (I) = 1 — 2 ( — ])к е - 2к2}'2. (7.56)к — оэ

Для вероятности Р (I) составлена таблица, краткая выдержка из которой приводится ниже:

/. | O.S28 | 1.221 | l.MYi 1,627 | 1.950

Р (?•) 0,5 0,1 0,05 0,01 0,001

Схема применения критерия А. И. Колмогорова сле­дующая.

1. По результатам п произведенных измерений стро­ится статистическая- функция распределения F* (х).

2. На том же графике строится предполагаемая тео­ретическая функция распределения Ғ (х).

3. Определяется максимальная величина модуля разности их ординат (рис. 96).

4. Вычисляется величина

а = D У 11 .315

Page 316: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

5. По вышеуказанной таблице находится верояіг- ность Р (/0, соответствующая тому, что за счет случай- пых причин максимальное расхождение между Ғ* (.v) и F (х) будет не меньше, чем факти’чески наблюдаемое.

Если вероятность Р ('-) очень мала, гипотеза бра­куется: при сравнительно большой вероятности Р (X) гипотеза считается совместимой с результатами опыта.

Заметим, что критерий А. II. Колмогорова может применяться только в случае, когда гипотетическое рас­пределение F (х) полностью известно, т. е. известен не только вид функции распределения F (х), но и все вхо­

дящие в нее параметры. Очевидно, что такие случаи на практике встречаются редко. Обычно из теоретических соображений известен только вид функции F (х), пара­метры ее приходится определять по результатам выборки. В таких случаях следует применять другие критерии согласия. Один из наиболее часто применяемых па прак­тике критериев согласия, который позволяет произво­дить проверку гипотезы соответствия опытного закона распределения предполагаемому (теоретическому) не только в случаях, когда последний известен полностью, но и тогда, когда параметры предполагаемого закона рас­пределения определяются на основании опытных данных, является критерий •/.- (хи-квадрат). Описание этого кри­терия можно найти, папрнмер, в работе [2].

В о п р о си д./я с а м о п р о ве р к и

1. Чем заним ается матем атическая статистика?2. М азоните основны е задачи матем атической статистики.3. Н азовите основны е понятия м атем атической статистики.4. Что назы вается статистической функцией р аспределения?5. Что такое гистограмма?

F\ x ) Ғ(Х)

1

ОРис. 96

Page 317: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

6. Н азовите числовы е характеристики статисти ческ ого р а сп р е­д ел ен и я . Д ай те оп р едел ен и е этих характеристик.

7 . Какая оценка парам етра назы вается состоятельн ой ?8. Какая оценка парам етра назы вается н есм ещ енн ой ?9. Какая оценка для м атем атического ож идания обладает

свойствами состоятельн ости и н есм ещ енности в случае прямых равноточны х изм ерений?

10. Какая оценка для диспер си и обладает, свойствам и с о с т о я ­тельности п н есм ещ енн ости ?

11. Какая оценка для м атем атического ож идания обладает свойствами состоятельн ости и н есм ещ енности в сл уч ае неравно- точны х изм ерений?

12. Что назы вается доверительны м интервалом и довери тел ь ­ной вероятностью (надеж ностью )?

13. Как строится доверительны й интервал для м атем атического ож идания случайной величины , р асп р еделен н ой по норм альном у закону?

14. Какая оценка для корреляционного мом ента обл адает св ой ­ствами состоя тел ь н ости и несм ещ енности?

15. В чем заклю чается сущ ность м етода н аибольш его правдо­п одоби я для н ахож ден ия оценок парам етров расп ределен и й?

16. В чем заклю чается сущ ность м етода наим еньш их квадра­тов при обр а б о тк е результатов наблю дений?

17. С ф ор м ул ир уй те задачу статистической проверки гипотез.18. П р иведите примеры задач на проверк у гип отез.19. Какими н уж но располагать вероятностны м и данными для

прим енения м етода минимума риска к реш ен и ю задачи проверки гипотез?

‘20. В чем заклю чается сущ ность м етода минимума риска при реш ении задачи проверки гипотез?

21. С ф орм ул ируй те оптим альное р еш аю щ ее правило Г.22. В чем заклю чается идея прим енения критериев согласия

при реш ении задачи о согласованности т ео р ет и ч еск о го и статисти ­ческого расп р еделен и я?

У п р а ж н е н и я

1. С целью и сследования закона р асп р едел ен и я ош ибки и зм е­рения дальности с пом ощ ью радиодальном ера п р ои зв еден о 300 и зм ерен и й дальности. Результаты изм ерений представлены в виде статисти ч еск ой совокупности:

/. м 1 > т і Р*1 /. м п in . 1 РР1

560 - 570 С 0,02 610 — 620 42 0,14570 — 580 27 0,09 620 - 630 21 0,07580 — 590 •15 0,15 630 - 640 6 0,02590 — 600 72 0,24 640 — 650 3 0,01600 — 610 78 0,26

О пределить статические м атем атическое ож идан ие и д и сп ер си ю . П остроить статисти ч еск ую ф ункцию р асп р еделен и я .

О г/i в. т* — G00 м; £ ) * = 2 ‘17 м~.

317

Page 318: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

2. П о в о зд у ш н о й цели ведется стрельба независимы ми о ч ер е­дям и, каж дая из которы х состои т из четырех- вы стрелов. С лучай­ная величина X — число попаданий в цель для одной о ч ер еди . П р о и зв ед ен о 30 оч ер едей . Результаты опы тов представлены в виде статисти ч еск ой совокупности:

Л'< 0 1 2 3 4

щ 3 6 12 6 3

Pi 0,1 0,2 0,4 0,2 0,1

П остроить статистическую ф ункцию расп ределен и я и о п р едел и ть статисти ческ ое м атем атическое ож идание и статисти ческ ую д и с п ер ­сию случайной величины X

Отв. т* = 2; £ > * = 1 ,2 .

3. П роизведен о 400 бом бом етаний с радиолокационны м п р и ц е­лом в прим ерно одинаковы х усл ови ях (Я = : 3000 м", и як 900 км!ч). С лучайная величина X — отклонение бомбы по дальн ости от центра цели. Р езультаты опытов представлены в виде стати сти ч еск ой сов ок уп н ости :

•« mi /. м п т. p i

_ 500 — - 400 4 0,01 0 - 100 96 0,24

_ 400 --------300 12 0,03 100 — 200 60 0,15

_ 3 0 0 -------- 200 28 0,07 200 — 300 32 0,08

— 200 -------- 100 56 ' 0,14 300 — 400 8 0,02

_ Ю 0 -------- 0 100 0,25 400 — 500 1 0,01

О п редели ть статистические м атем атическое ож и дан и е и д и с п ер ­сию отклонения бомбы но дальности. П остроить гистограм м у д ан ­ной статпстическоіі совокупности.

О ш в. ш * ~ 0; D% — '2,72 • 10' m s.

‘4 . П р ои зведен о 500 опы тов, в которы х определялась м ощ ность отр аж ен н ого от участка моря сигнала ни вы ходе радиолокацион­ного приемника. Результаты опы тов сведены в статистическую совокупность:

I І, в in 0 — 0,1 0,1 — 0,2 0,2 - 0,3 0,3 - 0,4 0,4 - 0,5

165 !20 75 55 35

Pi 0,33 0.24 0,15 0,1 i 0,07

318

Page 319: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

/,-, вт 0,5 — 0,6 0,6 — 0,7 0,7 - 0,8 0,8 — 0,9

т 20 15 10 5

p f 0,04 0,03 0,02 0,01

О пределить статисти ч еск ое м атем атическое ож идан ие и ср едн ее квадратическое отклонение мощ ности сигнала.

О т в. т* = 0 ,225 вт', а:-: = 0,189 вт.

5. При помощ и радиодальном ера п р ои зв еден о 16 изм ерений одного и того ж е расстояния. Р езультаты и зм ерения в метрах представлены в виде статисти ческ ого ряда:

І 1 2 3 •l 5 7 к у 10 П \> іа 1! 15 ifi

D i 201 195 207 203 191 208 198 210 204 192 195 211 206 196 208 197

И звестно, что р адиодальном ер не им еет си стем ати ч еск ой ош ибки. Найти н есм ещ ен н ую оц енк у м атем атического ож идания, и зм ер я е­мого расстояния и оп редели ть довери тел ьны е границы , в которы х с вероятностью 0,9 заклю чено это расстояни е.

От в. т* — 201 м; т 1 = т* — £ = 201 — 3 = 1 9 8 м\/»,. = 201 - | - 3 = 204 м.

6. П роизводи тся серия независим ы х опы тов с целы о о п р еде­ления вер оятн ости собы тия А. В р езул ьтате 200 опы тов собы тие А произош ло 68 раз. Ч астота собы тия приним ается за приближ ен­ное зн ачен ие вероятности. Найти границы , в которы х с вероят­ностью не м енее 0,9 б у д е т заклю чено наблю даем ое значение частоты появления собы тия А.

О т в. / f, % (0,286; 0,394).

У к а з а и и е. М атем ати ч еск ое ож идан ие случайной величины Л', которая в каж дом отдельном опы те принимает зн ач ен ие 1, если собы ти е А п оявилось , и 0, если не появилось, равно частоте р * , се ди сп ер си я />*(1 — р * )■

7. П р ои зводи тся сери я независим ы х опы тов с целью о п р ед е л е­ния вероятн ости собы тия А. В р езул ьтате 100 опы тов собы тие /1 п р ои зош ло 36 раз. Ч астота собы тия приним ается за приближ енное зн ач ен и е вероятн ости эт о го собы тия. Найти вероятность того, что доп ущ ен н ая при этом ош ибка не п р евосходи т 20°/0-

Ошв. [і — 0,87.

8. П р оизводится серия независим ы х опы тов с целы о о п р ед е л е­ния вер оятн ости собы тия А. В р езул ь тате 100 опы тов собы ти е А п р ои зош л о 36 раз. Ч астота собы тия приним ается за п р ибл иж ен ное зн ач ен и е вероятности. К аково д олж н о быть число опы тов для то го , чтобы с вероятностью не м енее 0,9 м ож но бы ло утверж дать , что допущ енн ая при этом ош ибка не превы ш ает 15%?

Ошв. п ^ 213.

319

Page 320: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

9. П роизводи тся п независим ы х опы тов, в р езул ьтате которы х собы тие А появилось т раз. Т р ебуется м етодом н аибольш его прав­д о п о д о б и я оценить величину вероятности Р появления собы тия А в отдельн ом опы те.

От в. Р = — .ti10. Случайная величина X подчинена закону П уассон а с н еи з­

вестны м парам етром 0 и м ож ет принимать лю бое из значении0, 1, 2, — П усть д'ц .Г о ,. . . , х п — наблю даем ы е значения случайной величины в резул ьтате проведенны х п опы тов и г — наибол ьш ее из этих значении. Числа ///„, тг представляю т со б о й час­тоты, с которы ми встречаю тся наблю денны е значения случайной величины Л'. Требуется методом н аибольш его п р авдоп одоби я о ц е­нить параметр О,

п1

Отв. О = — / л';. п _( = 1

Page 321: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

П Р И Л О Ж Е Н И Й

Т а б л и ц а 1

2 (*Значения функции Лапласа Ф (.v) = ~т~п \ с d t

V яо

X Ф (х) .V Ф (х) А- «1> (.V)

0,00 0,0000 0,95 0,8209 1,90 0,99280,05 0,0564 1,00 0,8427 1,95 0,99420,10 0,1125 1,05 0,8(524 2,00 0,99530,15 0,1680 1,10 0,8802 2,05 0,99630,20 0,2227 1,15 0,8961 2,10 0,99700,25 0,2763 1,20 0,9103 2,15 0,99760.30 0,3286 1,25 0,9229 2,20 0,99810,35 0,3794 1,30 0,9340 2,25 0,99850,40 '0,4284 1,35 0,9438 2,30 0.99880,15 0,4755 1,40 0,9523 2,35 0,99910,50 0,5205 1,45 0,9597 2,40 0,99930,55 0,5633 1,50 0,9661 2,45 0,99950,00 0,6039 1,55 0,9716 2,50 0,99960,65 0,6420 1,60 0,9736 2,55 0,99970,70 0,6778 1,65 0,9804 2,60 0,99980,75 0,7112 1,70 0,9838 2,65 0,99980,80 0,7421 1,75 0,9867 2,70 0,99990.85 0,7707 1,80 0,9891 2,75 0,99990,00 0 ,7969 1,85 0,9911 2,80 0,99990,95 0,8209 1,90 0,9928 3,00 1,0000

Т а б л и ц а 2) т —А.

Значения функции Р (х = т) = — — ст\

лгп 0.1 * 0,2 0,3 0,4 0.5 0,0

0 0,904837 0,818731 0,740818 0,670320 0,606531 0,5488121 0,090484 0,163746 0,222245 0,268128 0,303265 0,3292872 0,004524 0,016375 0,033337 0 ,053626 0,075816 0,0987863 0,000151 0,001092 0,003334 0,007150 0,012636 0,0197574 0,000004 0,000055 0,000250 0,000715 0,001580 0.G029645 0,000002 0,000015 0,000057 0,000158 0,0003566 0,000001 0,000004 0,000013 0,0000367 0,000001 0,000003

321

Page 322: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

Про

долж

ение

та

бл.

j 3.0 0,0

49

78

70

,149

361

0,2

24

04

20

,22

40

42

0,1

68

03

10

,10

08

19

0,0

50

40

90

,02

16

04

0,0

08

10

20

,00

27

01

0,0

00

81

00

,00

02

21

0,0

00

05

50

,00

00

13

0,0

00

00

30

,000

001

О

0,1

35

33

50,

2706

710,

2706

710

,18

04

47

0,0

90

22

40

,03

60

89

0,0

12

03

00

,00

34

37

0,0

00

89

90,

0001

910

,00

00

38

0,0

00

00

70,

0000

01

О

0,3

67

87

9

0,3

67

87

9

0,1

83

94

0

0,0

61

31

3

0,0

15

32

8

0,0

03

06

6

0,00

0511

0

,00

00

73

0

,00

00

09

0

,000

001

0.9

0,4

06

57

00

,36

59

13

0.1

64

66

10

,04

93

98

0,0

11

11

50

,00

20

01

0,0

00

30

00

,00

00

39

0,0

00

00

4

СОО

0,4

49

32

90

,35

94

63

0,1

43

78

50

,03

83

43

0,0

07

66

90

,00

12

27

0.0

00

16

40

,00

00

13

0,0

00

00

2

о

0,4

96

58

50

,34

76

10

0,1

21

66

30

,02

83

88

0,0

04

96

80,

0000

810

,00

00

08

0,00

0001

У О —н ОІ СО 1-0 О Г— СО СЭ О — <М ГС IO/5

Page 323: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

r C - 'O O t f ' f 'O O t O C O O O i O O ^ - •ОСОГООГ—-?'ЗОСМСО<ССМ CM —< ОЭ СЭ 00 СМ СЭ •—■ 1.0 ІО CO Dl «О Г- WCO р; Э9 О) Г“ — с о о ^ —'О О —' ' - ® О Г ' Г ^ О - ' ( ч- І ' - Ю О Г ' С 0 С ^ Т 0 > һ - М С 0 О ( М ' - ' О О О О0 ’- ‘?'тте0'-'һ"«00мм0£'10!0йс'1-<0000000о о о ^ г п с а - с о м - а м о м - ^ о о о о о о о о о оО О О О О О О — — ~ — О О О С С5 С 0 _ 0 С О 0 „ 0 о о о оо о о о о о о о о о о о о о о ' о о о о о о о о о о о о

lO IO «С !М "З* СО Г- Г- Г- СМ О Г'- О "Ч* СС СО тГ Г» О — СМ 00 ГО —■сс м и о! ю о c l эо со > о з ; (М — м (М — С! -з1 о> ю о :м о о о ГО <С С М СО — Ю lO О !М — —■ СС СЭ О to •— С5 00 — о о о о оо (М о со г----і і м о а т с і и ю о е о т м о о о о о о о оч—' V. -ч v v — ^ -1 С4 ] ^ Э *2 ) -ту i.О О —• CJ іО О СМ ГС ГС C l СЭ tо о о о о о ---- —■ -

І О С О О О С с с с с о

о о і х о е с і - г м о с о с о о о о С Э Һ - Т С Ч - О О С О О С О О О О О С О С С О О О О О О О О О О О О-С -С -Г —~ ' о о " о * о* о " о " о " о " о " о о "

СМ ГО *—1 С> СС Г"- ГС 00 Г - 1.0 СС^ - - V - u. J •— О СО Ч’ — СО О (М 1.0 О Ч/ —со см см — о о г ^ с с о м о о о о і - гг сэ го со го — с о ГСГС —'N l - O O C C r C — ГС —■ о со т ю см о о о о о а м о і —' О) 05 О — O i Q C T I ^ X - о о о о о о ог-■: у-м іг гт> гч rf* т*< сг: <Г5 гг С4'! О г*} э {“э г~? г-і г-'. г-*, с—>о ___ . . .О О СМ Ю СЭ СМ ООО ОС О о О О О О о

- . -0000000000 Ю .0 - .Я .Я .Ч ,о о _о о _о о о " d o " о о о ’ о о о " о о " о ’ о " о *о " о ’ о "

— — — О О С оГ © о о о о о о о о <

СС ГО lO £; Г- ГС *+ О О — СМ 1C С4) СС 1.0 - ? — ого о Го со сс см — |.о г— см С1СЭО — о о о о оСО ГС О 1.0 Ю О Т С5 С; СС 1.0 —' о о с о о о о— I---ГСЭСЭіОО іОСМ — О О О о о о о о оО с - І - - - - о с о о о о о. о. о_ о о о,о" о о* о" о о о о" с о о о" о о с о о" с о

Page 324: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

/РЗначения t$ , удоплстворяю щ ис равенству 2^ S n х (/) dt — fi

ив зависимости от (’» и п — I

Т а б л и ц а 3

'ңЧ-1Ч\ ^ 0.1 0,2 0,3 0, I Г. 5 O.G 0.7

1 0,158 0.325 0,510 0,727 1,000 1,376 1,9632 142 289 445 617 0.810 1.001 1,3363 137 277 424 584 705 0,978 1,2504 134 271 414 569 711 94! 1,1905 132 207 4 0S 559 727 920 1,1566 131 205 401 553 718 906 1,1347 130 263 402 549 711 896 1,1198 130 262 39!) 546 706 88!) 1,1089 129 261 398 543 103 883 1,100

10 129 260 397 542 700 879 1,09311 129 260 390 540 097 876 1,08812 128 259 395 539 095 873 1,08313 128 259 394 538 694 870 1,07914 128 258 393 537 092 808 1,07615 128 258 393 536 091 866 1,074И) 128 258 392 535 090 865 1,07117 128 257 392 534 089 863 1,06918 127 257 392 534 088 862 1,06719 127 257 391 533 688 861 1,06620 127 257 391 533 687 860 1,06421 127 257 391 532 680 859 1,00322 127 256 390 532 080 858 1,06123 127 250 390 532 685 858 1,06024 127 256 390 531 085 857 1,05925 127 256 390 531 084 856 1,05820 127 256 390 531 684 850 1,05827 127 25(3 389 531 681 855 1,05728 127 256 38!) 530 683 855 1,05629 127 256 389 530 683 854 1,05530 127 256 389 530 683 854 1,05540 120 255 388 529 681 851 1,05000 120 254 387 527 679 848 1,010120 120 254 380 520 677 815 1,041

0,120 0,253 0,о8о 0,524 0,674 0,842 1,036

323

Page 325: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

123•I5О789

К)II121314151(51718192021')0‘2324252627282930406020

Продолжение

0,8 0,9 0,95 0.98 (',99

3,08 0,31 12.71 31,8 63,71,886 2,92 4,30 (5,96 9,921,038 2,35 3,18 4,54 5,841,533 2,13 2,77 3,75 4,601,476 2,02 2,57 3.36 1,031,440 1,943 2,45 3,14 3,711,415 1.895 2,3(5 3,00 3,501,397 1.860 2,31 2,90 3,3(51,383 1,833 2,20 2.82 3.251,372 1,812 2.23 2.76 3,171,363 1.796 2,20 2,72 3,111.356 1,782 2,18 2,68 3,0(51,350 1.771 2,Ю 2.65 3,011,345 1,761 2.14 2.(52 2,981,341 1,753 2,13 2,60 2,951.337 1,746 2,12 2,58 2,921.333 1.740 2,11 2,57 2,901,330 1,734 2,10 2,55 2,881.328 1,729 2,09 2,54 2І861,325 1,725 2,09 2,53 2,841.323 1.721 2,08 2,52 2,831,321 1,717 2,07 2,51 2,821,319 1,714 2,07 2,50 2,811,318 1.711 2,0(5 2,49 2,801,316 1,708 2,0(5 2,48 2,791.315 1,700 2,00 2,48 2,781,314 1,703 2.05 2,47 2,771,313 1,701 2,05 2,47 2,7(51,311 1,099 2,01 2,46 2,7(51,310 1.097 2,01 2,40 2,751,303 1,684 2,02 2.12 2,701,296 1,671 2,00 2,39 2,0(51,289 1,058 . 1,980 2,36 2,021,282 1,045 1,960 2,33 2,58

Page 326: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ЛИТЕРАТУРА

1. В. С. П у г а ч е в . Теория случайны х ф ункций и ее п рим ене­ние к задачам автом атического управления. М ., Ф изм атгнз, I960.

2. Е. С. В е и т ц е л ь. Теория вероятностей. М., Ф изматгнз, 1962.

3. Б. В. Г и е д е н к о. К урс теории вероятностей . М., Ф изм ат­гнз, 1961.

4. 11. В. С м и р н о в н 11. В. Д у н и п-В а р к о в с к и и. М., К рат­кий курс матем атической статистики для технических приложений. М ., Ф изматгнз, 1959.

5. В. Ф е л л е р. В веден ие в теорию вероятностей и ее прилож е­ния, т. 1 и 2. М., «Л\пр», 1967.

6. В. Е. Г м у р м а и. В веден ие в теорию вероятностей и м атем а­тическую статистику. М., «Вм еш ан школа», 1963.

7. Б. Г. В о л о д и н и др. Сборник задач по теории вероятно­стей, матем атической статистике и теории случайны х функции. М., «Н аука», 1965.

8. С. И. Л о з и н с к и й . Сборник задач по теории вероятностей н математической статистике. М., «Статистика», 1967.

Page 327: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

ОГЛАВЛЕНИЕ

Стр.П редисловие ............................................................................................................. 3В в е д е н и е ..................................................................................................................... 4Г л а в а 1. О п ределен и е вероятности и основны е правила сс

вычисления ........................................................................................ 8$ 1.1. Случайны е собы тия. Классификация собы тий. 8§ 1.2. Сумма и произведение событий .......................... 10$ 1.3. Частота собы тия и се с в о й с т в а ............................ 12§ 1.1. Вероятность с о б ы т и я ................................................. 15$ І Л Геом етрическая в е р о я т н о с т ь ................................ 18§ I.e. А ксиом атическое построение теории вероят­

ностей .................................................................................... 21§ 1.7. Теорема слож ения в е р о я т н о с т е й ........................ 24$ \.х. Теорема ум нож ения в е р о я т н о с т е й .................... 27§ I.!). Теорема слож ения вероятностей для совм ест­

ных с о б ы т и й ....................................................................... 31$ 1.10. Ф ормула полной в е р о я т н о с т и ................................ 34§ 1.11. Теорем а гипотез (форм ула Б е й е с а ) .................... 35$ 1.12. П овторение испытаний. Ф ормула Бернулли 38§ 1.13. П аивероятнейш ее число наступлений события

при повторении и с п ы т а н и й ...................................... 42Вопросы для самопроверки ...................................... 44У праж нения ...................................................................... 44

Г л а в а 2. Случайные в е л и ч и н ы .................................................................... 48$ 2.1. П онятие случайной в ел и ч и н ы ............................... 4S§ 2 .2 . Закон распределения вероятностей дискрет­

ной случайной величины ............................................ 50§ 2.3. Функция р а с п р е д е л е н и я ........................................... 52§ 2.4. Плотность р а с п р е д е л е н и я ....................................... 59§ 2.5. Числовые характеристики случайной величины 65§ 2.6. Моменты случайной в е л и ч и н ы .......................... 77§ 2.7. Биномиальное р а с п р е д е л е н и е ............................... 80§ 2.8. Р аспр едел ен ие П у а с с о н а ........................................... 82$ 2.9. Равномерное р а с п р е д е л е н и е ................................... 87$ 2.10. П оказательное р а с п р е д е л е н и е ................................ 80§ 2.11. Н ормальное р а с п р е д е л е н и е .............................. . 91§ 2.12. Вероятность попадания случайной величины,

имею щ ей нормальное р асп р едел ен и е, на за ­данный участок Фукция Л а п л а с а ........................ 94Вопросы для сам опроверки ......................................... 99У п р а ж н е н и я ......................................................................... 100

Г л а в а 3. Системы случайны х в е л и ч и и ............................................... 103§ 3.1. Понятие о си стем е случайны х величин . . . . 103§ 3.2. Закон расп р еделен и я системы случайны х . .

величин. Таблица расп ределен и я ........................ 101§ 3.3. Функция расп ределен и я системы д в ух случай­

ных в е л и ч и н ......................................................................... 105

326

Page 328: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

I

Стр.§ Я .I. Плотность расп ределен и я системы дпух сл у ­

чайных в е л и ч и н ................................................................. 109§ 3 .5 . Плотности распределения отдельны х величин,

входящ их в систем у. Условные законы рас­пределения ......................................................................... 11-1

§ 3.6. Зависимы е и независимы е случайны е величины 119§ 3.7. Числовые характеристики системы двух сл у­

чайных величин. К орреляционны й момент.К оэффициент к о р р е л я ц и и ......................................... 122

§ 3.8. Ф ункция и плотность расп ределен и я системыпроизвольною числа случайны х величин . . . 126

§ 3.9. Числовые характеристики системы произволь­н ою числа случайны х величин ............................. 129

§ 3.10. Н ормальное расп ределен и е на плоскости . . 132Вопросы для сам опроверки .................................... Ы0У п р а ж н е н и я ......................................................................... 141

Г ла ва •/. Функции случайны х в е л и ч и н ............................................... 145§ 4.1. Закон расп ределен и я функции одной сл уч ай ­

ной ' величины ..................................................................... 145§ 1 . 2 . Р асп р едел ен и е ф ункциональною п р еобр азова­

ния системы случайны х в е л и ч и н ......................... 151§ 4.3. Закон расп ределен и и функции нескольких сл у­

чайных в е л и ч и н ................................................................. 153§ 4.4. Р асп р едел ен и е Р э л е я .................................................... 157§ 4.5. О п ределен и е м атем атическою ожпчания функ­

ции случайны х величин. Теоремы о м атем аш -чеекпх о ж и д а н и я х ............................................................. 159

§ 4.6. О п р едел ен и е дисперсии функции случайны хвеличин. Теоремы о д и с п е р с и я х ............................. 106

§ 4.7. О п р едел ен и е корреляционною момента ф унк­ции случайны х величин. С войства корреляци­он н ою момента и коэффициента корреляции 172

§ 4.8. Комплексная случайная в е л и ч и н а ........................ 177§ 4.9. Х арактеристические ф у н к ц и и .................................... 179

Вопросы для сам опроверки ......................................... 185У праж нения ......................................................................... 18(5

\ Глина Л. П редельны е теорем ы теории в е р о я т н о с т е й ................... 189§ 5.1. П редварительны е з а м е ч а н и я ............... . . . . . . 189§ 5 .2 . Н еравенство Ч е б ы ш е в а ................................................. 190§ 5.3. Т еорем а Ч е б ы ш е в а ....................................................... 192§ 5.4. Теорем а Б е р н у л л и ............................................................ 195§ 5.5. Ц ентральная предельная т е о р е м а ....................... 197§ 5.6. Т еорем а М уавра — Л а п л а с а ....................................... 201

Вопросы для сам опроверки ......................................... 204,У праж нения ......................................................................... 204

Г л а в а 6. С лучайны е ф у н к ц и и ................................................................... 206§ 6.1. О п ределен и е случайной ф у н к ц и и ......................... 206§ 6.2. М ною м ерны е плотности в е р о я т н о с т и .................. 208§ 6.3. М атем атическое ож идание и дисперсия сл у­

чайной ф у н к ц и и ................................................................. 210§ 0.4. К орреляционная функция случайной функции 211§ 6.5. М оменты вы сш их п о р я д к о в ...................................... 216

327

Page 329: ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ ...repository.enu.kz/bitstream/handle/123456789/8166/Gmurman...517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория

I

Стр.§ 0.6. Примеры случайны х ф у н к ц и и .................................217§ 0 .7 . Комплексны е случайны е ф у н к ц и и ..................... 221§ 6.8. О перации нал случайными функциями . . . . 223 § 6.9. Каноническое разлож ение случайны х ф ункции 231§ 6.10. Стационарны е случайны е ф у н к ц и и .................... 234§ 6.11. Э ргодическое свойство стационарной случай­

ной ф у н к ц и и ........................................................................ 237§ 6.12. С пектральное разлож ение стационарной сл у­

чайной функции на конечном интервале . . . 211 § 6.13. С пектральное разлож ение стационарной сл у­

чайной функции на бесконечном интервале. Спектральная плотность стационарной случай­ной ф у н к ц и и .........................................................................246

§ 6.14. Примеры стационарны х случайных функций 251 § 6.15. П реобразование стационарной случайной

функции линейной системой .................................. 256Вопросы для сам опроверки ................................... 261У п р а ж н е н и я .........................................................................262

Г л а в а 7. М атематическая с т а т и с т и к а .................................................... 268§ 7.1. П редмет математической ст а т и ст и к и ...............268§ 7.2. Генеральная совокупность и выборка . . . . 269 § 7.3. С татистический ряд. С татистическая функция

распределения .................................................................... 270§ 7.4. С татистическая совокупность. Гистограмма. 272 § 7.5. Числовые характеристики статистического

распределения ..................................................................... 274§ 7.6. Свойства точечны х о ц е н о к .................................... 275§ 7.7. О п ределен и е приближ енного значении и зм еря­

емой величины и приближ енного значения д и с­персии в случае прямых равноточных изм ерений 277

§ 7.8. О п ределен и е приближ енного значения и зм е­ряемой величины в случае неравноточны хи з м е р е н и й .............................................................................2S2

§ 7.9. Д оверительны й интервал. Д оверительнаяв е р о я т н о с т ь .........................................................................286

§ 7.10. П остроение доверительного интервала для м атем атического ожидания случайной вели­чины, распределенной но нормальному закону.Распределен ие С т ы о д е и т а ......................................... 290

§ 7.11. О пределен и е приближ енны х значений число­вых характеристик системы двух случайны хвеличин .................................... ........................................... 293

§ 7.12. М етод н аибол ьш ею правдоподобия для нахож ­дения оценок параметров расп ределен и й . . ’. 296

§ 7.13. С глаж ивание эксперим ентальны х зависим о­стей ........................................................................................ 299

§ 7.14. М етод наим еньш их к в а д р а т о в ................................301§ 7.15. Статистическая проверка г и п о т е з ........................304§ 7.16. Понятие о критериях с о г л а с и я ............................ 313

Вопросы для сам опроверки .................................... 316У п р а ж н е н и я ........................................................................ 317

П р и л о ж е н и я ..............................................................................................................321Л и т е р а т у р а ........................................................................................ 325