73
1 Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyzna- czania prostych parametrów rozkladu w przypadku zgadnień kombinatorycznych. Zadania te wymagają podstawowej wiedzy kombinatorycznej oraz dyskretnych zmiennych losowych. 1. (Eg 48/4) W urnie znajduje się 16 kul, z których 8 jest bialych i 8 czarnych. Losujemy bez zwracania 6 kul, a następnie 5 z pozostalych kul. Niech S 2 oznacza liczbę kul bialych uzyskaną w drugim losowaniu. Oblicz VarS 2 . Odp: B-> 11 12 . Rozwiązanie. Stosujemy zmienne wlączeniowe, X i ∈{0, 1}, i ∈{1, 2, ..., 11}, gdzie X i =1 jeśli w i-tym losowaniu wyciągnięto bialą kulę i 0 w przeciwnym przypadku. Oczywiście S 2 = 11 i=7 X i . Zachodzi EX i = P(X i = 1) = 1 2 , i ∈{1, 2, ..., 11} oraz EX i X j = P(X i =1,X j = 1) = 1 2 7 15 = 7 30 , i 6= j , i, j ∈{1, 2, ..., 12}. Zatem ES 2 =5 · 1 2 =3, ES 2 2 =5P(X 1 = 1) + 5 · 4P(X 1 =1,X 2 = 1) = 5 2 + 14 3 = 43 6 . Czyli VarS 2 2 = 14 3 - 5 2 2 = 86 12 - 75 12 = 11 12 . 2. (Eg 49/6) Dysponujemy dwiema urnami: A i B. W urnie A 2 kule biale i 3 czarne, w urnie B 4 kule biale i 1 czarna. Wykonujemy trzy etapowe losowanie: (a) losujemy urnę; (b) z wylosowanej urny ciągniemy 2 kule bez zwracania, a następnie wrzucamy do tej urny 2 kule biale i 2 czarne; (c) z urny, do której wrzuciliśmy kule, losujemy jedną kulę. Okazalo się, że wylosowana w trzecim etapie kula jest biala. Obliczyć p-stwo, że w drugim wylo- sowano 2 kule tego samego koloru. Odp: C-> 0, 5. Rozwiązanie. Mamy drzewo prawdopodobieństw przejścia do poszczególnych stanów Stan1 P-p Stan2 P-p Stan3 P-p (2, 3) 1 2 (2, 5) 1 10 biala 2 7 (2, 3) 1 2 (3, 4) 6 10 biala 3 7 (2, 3) 1 2 (4, 3) 3 10 biala 4 7 (4, 1) 1 2 (4, 3) 6 10 biala 4 7 (4, 1) 1 2 (5, 2) 4 10 biala 5 7 . Niech P(3,b) będzie prawdopodobieństwem uzyskania bialej kuli w 3 losowaniu, P(3,b)= 1 2 · 1 10 · 2 7 + 1 2 · 6 10 · 3 7 + 1 2 · 3 10 · 4 7 + 1 2 · 6 10 · 4 7 + 1 2 · 4 10 · 5 7 = 76 140 . Z drugiej strony prawdopodobieństwo, że w drugim losowaniu pojawily się kule biala i czarna, a w trzecim losowaniu biala P(2, (b, c); 3,b) wynosi P(2, (b, c); 3,b)= 1 2 · 6 10 · 3 7 + 1 2 · 4 10 · 5 7 = 38 140 . Zatem P(2, (b, c)|3,b)= P(2, (b, c); 3,b)/P(3,b)= 38 76 · 1 2 . 1

1 Kombinatoryka

  • Upload
    lexuyen

  • View
    220

  • Download
    0

Embed Size (px)

Citation preview

Page 1: 1 Kombinatoryka

1 KombinatorykaW tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyzna-czania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagająpodstawowej wiedzy kombinatorycznej oraz dyskretnych zmiennych losowych.

1. (Eg 48/4) W urnie znajduje się 16 kul, z których 8 jest białych i 8 czarnych. Losujemy bezzwracania 6 kul, a następnie 5 z pozostałych kul. Niech S2 oznacza liczbę kul białych uzyskaną wdrugim losowaniu. Oblicz VarS2.Odp: B-> 11

12 .

Rozwiązanie. Stosujemy zmienne włączeniowe, Xi ∈ 0, 1, i ∈ 1, 2, ..., 11, gdzie Xi = 1 jeśli wi-tym losowaniu wyciągnięto białą kulę i 0 w przeciwnym przypadku. Oczywiście S2 =

∑11i=7Xi.

Zachodzi EXi = P(Xi = 1) = 12 , i ∈ 1, 2, ..., 11 oraz EXiXj = P(Xi = 1, Xj = 1) = 1

2715 = 7

30 ,i 6= j, i, j ∈ 1, 2, ..., 12. Zatem

ES2 = 5 · 1

2= 3, ES2

2 = 5P(X1 = 1) + 5 · 4P(X1 = 1, X2 = 1) =5

2+

14

3=

43

6.

Czyli

VarS22 =

14

3−(

5

2

)2

=86

12− 75

12=

11

12.

2. (Eg 49/6) Dysponujemy dwiema urnami: A i B. W urnie A są 2 kule białe i 3 czarne, w urnie Bsą 4 kule białe i 1 czarna. Wykonujemy trzy etapowe losowanie:

(a) losujemy urnę;(b) z wylosowanej urny ciągniemy 2 kule bez zwracania, a następnie wrzucamy do tej urny 2 kule

białe i 2 czarne;(c) z urny, do której wrzuciliśmy kule, losujemy jedną kulę.

Okazało się, że wylosowana w trzecim etapie kula jest biała. Obliczyć p-stwo, że w drugim wylo-sowano 2 kule tego samego koloru.Odp: C-> 0, 5.

Rozwiązanie. Mamy drzewo prawdopodobieństw przejścia do poszczególnych stanów

Stan1 P-p Stan2 P-p Stan3 P-p(2, 3) 1

2 (2, 5) 110 biała 2

7(2, 3) 1

2 (3, 4) 610 biała 3

7(2, 3) 1

2 (4, 3) 310 biała 4

7(4, 1) 1

2 (4, 3) 610 biała 4

7(4, 1) 1

2 (5, 2) 410 biała 5

7 .

Niech P(3, b) będzie prawdopodobieństwem uzyskania białej kuli w 3 losowaniu,

P(3, b) =1

2· 1

10· 2

7+

1

2· 6

10· 3

7+

1

2· 3

10· 4

7+

1

2· 6

10· 4

7+

1

2· 4

10· 5

7=

76

140.

Z drugiej strony prawdopodobieństwo, że w drugim losowaniu pojawiły się kule biała i czarna, aw trzecim losowaniu biała P(2, (b, c); 3, b) wynosi

P(2, (b, c); 3, b) =1

2· 6

10· 3

7+

1

2· 4

10· 5

7=

38

140.

Zatem P(2, (b, c)|3, b) = P(2, (b, c); 3, b)/P(3, b) = 3876 ·

12 .

1

Page 2: 1 Kombinatoryka

3. (Eg 50/7) W urnie znajduje się 20 kul białych, 20 kul czarnych i 20 kul niebieskich. Losujemy bezzwracania 24 kule. Niech

(a) X oznacza liczbę wylosowanych kul białych;

(b) Y oznacza liczbę wylosowanych kul czarnych;

(c) Z oznacza liczbę wylosowanych kul niebieskich.

Współczynnik korelacji zmiennych losowych X + 2Y i Z, Corr(X + 2Y, Z) jest równy?Odp: B-> −

√32 .

Rozwiązanie. Przypomnijmy, że Corr(X + 2Y,Z) = Cov(X+2Y,Z)√Var(X+2Y )

√Var(Z)

. Łatwo zauważyć, że

Cov(X,Z) = Cov(Y,Z), Var(X) = Var(Y ) = Var(Z), zatem

Cov(X + 2Y,Z) = Cov(X,Z) + 2Cov(Y, Z) = 3Cov(X,Z).

Podobnie

Var(X + 2Y ) = Cov(X + 2Y,X + 2Y ) = 5Var(X,X) + 4Cov(X,Y ).

Korzystamy zmiennych włączeniowych, żeby obliczyć Cov(X,Z). Niech X =∑24i=1 1Xi=1, gdzie

Xi = 1 jeśli w i tym losowaniu pojawiła się biała kula. Analogicznie definiujemy Yi, Zi, i ∈1, 2, ..., 24. Zachodzi

EX = 24P(X1 = 1) =24

3= 8,

EX2 = 24P(X1 = 1) + 24 · 23P(X1 = 1, X2 = 1) = 8 +24 · 23 · 19

3 · 59= 8 · 496

59.

WreszcieEXY = 24 · 23P(X1 = 1, Y2 = 1) =

24 · 23

3 · 203 · 59 = 8 · 23 · 20

59.

czyli Cov(X,Y ) = 8(46059 −

47259

)= −8 · 1259 oraz Var(X) = 8

(49659 −

47259

)= 8 · 2459 . Niech zatem

a = 8 · 1259 , mamy

Cov(X + 2Y,Z) = −3a, Var(X + 2Y ) = 10a− 4a = 6a, Var(Z) = 2a.

Ostatecznie

Corr(X + 2Y,Z) =−3a√6a√

2a= − 3

2√

3= −√

3

2.

4. (Eg 51/10) Pan A przeznaczył 5 zł na pewną grę. W pojedynczej kolejce gry pan A wygrywa 1zł z p-stwem 1/3 przegrywa 1 zł z p-stwem 2/3. Pan A kończy grę, gdy wszystko przegra lub gdybędzie miał 10 zł. P-stwo, że A wszystko przegra jest równe?Odp: D-> 0, 97.

Rozwiązanie. Zadanie dotyczy prawdopodobieństwa ruiny. W celu rozwiązania budujemy nieza-leżne zmienne losowe Xk, k > 1 takie, że Xk = 1 jeśli A wygrywa oraz Xk = −1 jeśli A przegrywa.Definiujemy Sn = X1 + ... + Xn, n > 1 oraz S0 = 0. Okazuje się, że zmienne Mn = 2Sn , n > 0tworzą martyngał względem naturalnej filtracji. Rzeczywiście

E(Mn|Fn−1) = Mn−1E2Xn = Mn−1

(1

3· 2 +

2

3

1

2

)= Mn−1.

Zauważmy, że gracz kończy grę w momencie τ = infn > 0 : Sn ∈ −5, 5. Zatem z twierdzeniaDooba (moment τ nie jest ograniczony ale nietrudno pokazać, że w tym przypadku również to

2

Page 3: 1 Kombinatoryka

twierdzenie działa) wynika, że 1 = EMτ . Niech teraz a = P(Sτ = 5), b = P(Sτ=−5). Ponieważ jakłatwo sprawdzić P(τ <∞) = 1, więc a+ b = 1, nadto

1 = EMτ = a25 + b2−5.

Mamy zatem układ równań a+ b = 1a25 + b2−5 = 1

Stąd a = 25−1210−1 , b = 210−25

210−1 . Szukana wartość to b ' 0, 97.

5. (Eg 52/2) W urnie znajduje się 100 ponumerowanych kul o numerach 1, 2..., 100. Losujemy bezzwracania 10 kul, zapisujemy numery, kule zwracamy do urny. Czynność te powtarzamy 10 razy.Oblicz wartość oczekiwaną liczby kul, które zostały wylosowane dokładnie dwa razy.Odp: D-> 19, 37.Rozwiązanie. Zadanie staje się proste jeśli zastosujemy zmienne włączeniowe, 1Xi=1, i ∈ 1, 2, ..., 100,gdzie Xi = 1 jeśli dokładnie dwa razy kula z numerem i została wylosowana. Należy wyznaczyćE∑100i=1 1Xi=1 = 100P(X1 = 1), gdyż P(Xi = 1) są identyczne. Pozostaje zauważyć, że

P(Xi = 1) =

(10

2

)(1

10

)2(9

10

)8

.

Stąd E∑100i=1 1Xi=1 = 45 ·

(910

)8 ' 19, 37.

6. (Eg 53/10) Z urny, w której jest 6 kul czarnych i 4 białe losujemy kolejno bez zwracania po jednejkuli, tak długo aż wylosujemy kulę czarną. Wartość oczekiwana liczby wylosowanych kul białychjest równa?Odp: B-> 4

7 .Rozwiązanie. Przypomnijmy wzór EX =

∑∞k=0 P(X > k), dla zmiennych X o watotściach

całkowitych dodatnich. Sprawdzamy, że

P(X > 0) = 1, P(X > 1) =4

10=

2

5, P(X > 2) =

4 · 310 · 9

=2

15,

P(X > 3) =4 · 3 · 210 · 9 · 8

=1

30, P(X > 4) =

4 · 3 · 2 · 110 · 9 · 8 · 7

=1

210,

nadto P(X > k) = 0 dla k > 4. Stąd EX = 25 + 2

15 + 130 + 1

210 = 120210 = 4

7 .

7. (Eg 54/7) mamy dwie urny: I i II. Na początku doświadczenia w każdej z urn znajdują się 2kule białe i 2 czarne. Losujemy po jednej kuli z każdej urny - po czym kulę wylosowaną z urny Iwrzucamy do urny II, a te wylosowana z urny II wrzucamy do urny I. Czynność tę powtarzamywielokrotnie. Granica (przy n → ∞) p-stwa, iż obie kule wylosowane w n-tym kroku są jednako-wego koloru, wynosi:?Odp: C-> 3

7 .Rozwiązanie. Zadanie rozwiązuje się metoda łańcuchów Markowa. Jest możliwych 5 stanów naliczbę kul białych w urnie I. Należy znaleźć prawdopodobieństwa przejścia w jednym kroku. Mamy

P =

S 0 1 2 3 40 0 1 0 0 01 1

16616

916 0 0

2 0 14

12

14 0

3 0 0 916

616

116

4 0 0 0 1 0

3

Page 4: 1 Kombinatoryka

należy wyznaczyć rozkład stabilny z równania πM = π oraz warunku, że∑4k=0 πk = 1. Nietrudno

zauważyć symetrię macierzy skąd wynika, że π0 = π4, π1 = π3. Nadto natychmiast zauważamy, żeπ0 = 1

16π1. Wystarczą zatem 2 równania (w terminach π1 i π2)π1 = 7

16π1 + 14π2

1 = 18π1 + 2π1 + π2

Skąd wynika, że π0 = π4 = 170 , π1 = π3 = 8

35 , π2 = 1835 . Obliczamy prawdopodobieństwa warunkowe

wylosowania kul różnego koloru w zależności od stanu liczby kul białych w I urnie

P((b, c)|0) = P((b, c)|4) = 1, P((b, c)|1) = P((b, c)|3) =5

8, P((b, c)|2) =

1

2.

Dostajemy ze wzoru Bayesa dla stanów rozłożonych według π (czyli w granicy n→∞)

P((b, c)) = 2 · 1

70+ 2 · 5

8· 8

35+

1

2

18

35=

4

7.

Zatem prawdopodobieństwo zdarzenia przeciwnego wynosi 37 .

8. (Eg 55/3) Wylosowano niezależnie 15 liczb z rozkładu symetrycznego ciągłego i ustawiono je w ciągwedług kolejności losowania. Otrzymano 8 liczb dodatnich (każda z nich oznaczamy symbolem a)i 7 ujemnych (każdą z nich oznaczamy symbolem b). Obliczyć p-stwo, że otrzymano 6 serii, gdzieserią nazywamy ciąg elementów jednego typu, przed i za którym występuje element drugiego typu,na przykład w ciągu: aaabbbbaabbbbba jest 5 serii (3 serie elementów typu a i 2 serie elementówtypu b).Odp: C-> 14

143

Rozwiązanie. Należy zauważyć, że zbiór Ω złożony ze wszystkich możliwych podzbiorów 8 ele-mentowych w zbiorze 15 elementowym ma

(158

)elementów. Teraz należy zauważyć, że seria będzie

jednoznacznie wyznaczonym podzbiorem jeśli podamy od jakiego symbolu zaczynamy, a następniedługości ścieżek k1, k2, k3 dla serii symbolu a oraz l1, l2, l3 dla serii symbolu b. Oczywiście ścieżkimuszą mieć długość dodatnią nadto k1 + k2 + k3 = 8, l1 + l2 + l3 = 7. Ogólnie liczba rozwiązańrównania x1 + ...+ xk = n w liczbach naturalnych (bez zera) wynosi

(n−1k−1). Zatem liczność zbioru

A6 złożonego z serii długości 6 wynosi

|A6| = 2 ·(

7

2

)(6

2

).

OstatecznieP(A6) =

|A6|||Ω|

=14

143.

9. (Eg 56/4) Dysponujemy 5 identycznymi urnami. Każda z nich zawiera 4 kule. Liczba kul białychw i-tej urnie jest równa i − 1, gdzie i = 1, 2, ..., 5, pozostałe kule są czarne. Losujemy urnę, anastępnie ciągniemy z niej jedną kulę i okazuje się, że otrzymana kula jest biała. Oblicz p-stwo,że ciągnąc drugą kule z tej samej urny (bez zwracania pierwszej) również otrzymamy kulę białą.Odp: D-> 2

3 .Rozwiązanie. Ze symetrii zadania jest jasne, że szansa wylosowania białej kuli w pierwszej rundziewynosi 1

2 . Aby obliczyć szansę wyciągnięcia dwóch kul białych stosujemy wzór Bayesa

P((b, b)) =

5∑i=1

(i−12

)(42

) 1

5.

Zachodzi wzór kombinatoryczny∑5i=1

(i−12

)=(53

)(trójkąt Pascala). Nadto

(53

)/(42

)= 5

3 , stądP((b, b)) = 1

3 . To oznacza, że P((b, b)|b) = 23 .

4

Page 5: 1 Kombinatoryka

10. (Eg 57/1) Urna zawiera 5 kul o numerach: 0, 1, 2, 3, 4. Z urny ciągniemy kulę, zapisujemy numer ikulę wrzucamy z powrotem do urny. Czynność tę powtarzamy, aż kula z każdym numerem zostaniewyciągnięta co najmniej raz. Oblicz wartość oczekiwaną liczby powtórzeń.Odp: C-> 11 5

12 .

Rozwiązanie. Tutaj łatwo zauważyć, że jeśli T1, ..., T5 będą czasami oczekiwania na kolejny nowysymbol, to T1 = 1 nadto Tk+1 − Tk, k ∈ 1, 2, 3, 4 ma rozkład geometryczny z prawdopodobień-stwem sukcesu pk = 5−k

5 (i wartości oczekiwanej 1/pk). Zatem

ET5 = 1 +

4∑k=1

E(Tk+1 − Tk) = 1 +

4∑k=1

5

5− k= 11

5

12.

11. (Eg 58/7) W urnie znajduje się 20 kul: 10 białych i 10 czerwonych. Losujemy bez zwracania 8 kul, anastępnie z pozostałych w urnie kul losujemy kolejne 6 kul. Niech S8 oznacza liczbę wylosowanychkul białych wśród pierwszych 8 wylosowanych kul, a S6 liczbę kul białych wśród następnych 6 kul.Oblicz Cov(S8, S8 + S6).Odp: C-> 12

19 .

Rozwiązanie. Oczywiście skorzystamy ze zmiennych włączeniowych. Niech Xi, i ∈ 1, ..., 14oznacza 1 jeśli w i tej rundzie pojawiła się biała kula i 0 w przeciwnym przypadku. Mamy S8 =∑8i=1Xi oraz S6 =

∑16i=9Xi. Zachodzi

ES8 = 8P(X1 = 1) = 4, E(S6) = 6P(X1 = 1) = 3.

TerazES2

8 = 8P(X1 = 1) + 8 · 7P(X1 = 1, X2 = 1) = 4 + 56 · 1

2· 9

19=

328

19.

Stąd

VarS8 =328

19− 304

19=

24

19.

Z drugiej strony

ES8S6 = 48P(X1 = 1, X2 = 1) = 48 · 1

2· 9

19.

Co daje

Cov(S8, S6) =216

19− 228

19= −12

19.

OstatecznieCov(S8, S8 + S6) = VarS8 + Cov(S8, S6) =

24

19− 12

19=

12

19.

12. (Eg 60/9) W urnie znajduje się 30 kul, na każdej narysowana jest litera i cyfra. Mamy:

(a) 10 kul oznaczonych X1;

(b) 6 kul oznaczonych Y 1;

(c) 8 kul oznaczonych X2;

(d) 6 kul oznaczone Y 2.

Losujemy bez zwracania 15 kul. Niech NX1 oznacza liczbę kul oznaczonych literą X1 wśród kulwylosowanych,a N2 liczbę kul z cyfrą 2 wśród kul wylosowanych. Obliczyć Var(NX1|N2 = 5).Odp: A-> 15

16 .

Rozwiązanie. Dokonujemy uproszczenia, mamy pięć kul wylosowanych z cyfrą 2. Zatem de factolosujemy 10 typu X1 lub X2, czyli ze zbioru 18 elementowego. W tym modelu probabilistycznym

5

Page 6: 1 Kombinatoryka

musimy policzyć wariancję zmiennej NX1 co robimy przez zmienne włączeniowe. Niech Xi, i ∈1, ..., 10 będzie zmienną przyjmującą 1 jeśli na i-tej pozycji stoi X1 oraz 0 jeśli X2. OczywiścieNX1 =

∑10i=1 1Xi=1. Wyznaczamy

ENX1 = 10P(X1 = 1) = 10 · 5

8=

25

4.

Nadto

EN2X1 = 10P(X1 = 1) + 90P(X1 = 1, X2 = 1) = 10 · 5

8+ 90 · 5

8· 9

15=

320

8= 40.

Stąd

VarNX1 =640

16− 625

16=

15

16.

13. (Eg 61/5) W urnie znajduje się 100 kul ponumerowanych od 1 do 100. Losujemy bez zwracania 25kul i zapisujemy numery, a następnie wrzucamy kule z powrotem do urny. Czynność powtarzamy5 razy. Oblicz wartość oczekiwaną liczby kul, które zostały wylosowane co najmniej 2 razy.Odp: D-> 36, 7.Rozwiązanie. Zadanie rozwiązujemy przez zmienne włączeniowe. Niech Xi, i ∈ 1, ..., 100 przyj-muje wartość 1 jeśli kula z numerem i pojawiła się co najmniej 2 razy w losowaniu i 0 w przeciwnymprzypadku. Oczywiście szukana odpowiedź to

E

100∑i=1

Xi = 100P(X1 = 1).

Żeby policzyć P(X1 = 1) zauważmy, że w każdym z 5 losowań kula i miała prawdopodobieństwo14 , że się pojawi. Zatem

P(X1 = 1) =

5∑k=2

(5

k

)(1

4

)k (3

4

)5−k

= 1−(

3

4

)5

− 5 · 1

4

(3

4

)4

=47

128.

Czyli wynik to 100 · 47128 ' 36, 7.

14. (Eg 62/6) Z urny, w której są 2 kule białe i 3 czarne, wylosowane jedną kulę a następnie wrzucono jaz powrotem dorzucając kulę w tym samym kolorze co wylosowana. Następnie z urny wylosowano 2kule, wrzucono je z powrotem dorzucając 2 kule identyczne jak wylosowane. Następnie wylosowano3 kule. Okazało się, że są to 3 kule białe. Oblicz p-stwo, że w drugim losowaniu wylosowane kuleróżnych kolorów.Odp: A-> 15

29 .Rozwiązanie. Potrzebujemy struktury drzewa aby opisać kolejne losowania

Stan1 P-p Stan2 P-p Stan3 P-p(3, 3) 2

5 (5, 3) 15 (b, b, b) 5

28(3, 3) 2

5 (4, 4) 35 (b, b, b) 1

14(3, 3) 2

5 (3, 5) 15 (b, b, b) 1

56(2, 4) 3

5 (4, 4) 115 (b, b, b) 1

14(2, 4) 3

5 (3, 5) 815 (b, b, b) 1

56

Wyznaczamy

P(3, (b, b, b)) =2

5· 1

5· 5

28+

2

5· 3

5· 1

14+

+2

5· 1

5· 1

56+

3

5· 1

15· 1

14+

3

5· 8

15· 1

56=

29

25 · 28.

6

Page 7: 1 Kombinatoryka

Teraz wyznaczamy

P(2, (b, c); 3, (b, b, b)) =2

5· 3

5· 1

14+

3

5· 8

15· 1

56=

16

25 · 28.

Stąd

P(2, (b, c); 3, (b, b, b)) =16

29.

15. (Eg 63/1)W urnie znajdują się kule, z których każda jest oznaczona jedną z liter alfabetu:

• 10 kul oznaczonych literą A.

• 20 kul oznaczonych literą B.

• 30 kul oznaczonych literą C.

• x kul oznaczonych innymi literami alfabetu.

Losujemy bez zwracania 9 kul z urny. Zmienne losowe NA, NB , NC oznaczają, odpowiednio, liczbęwylosowanych kul z literami A,B,C. Jakie musi być x , aby zmienne losowe NA+NB oraz NB+NCbyły nieskorelowane.Odp: C-> x = 15.

Rozwiązanie. Korzystamy ze zmiennych Ai, Bi, Ci, Xi, 1 6 i 6 9 gdzie zmienne przyjmują warto-ści 0 lub 1, przy czym 1 jeśli na pozycji w i-tym losowaniu wybrano odpowiednio A,B,C oraz innąliterę. Zachodzi NA =

∑9i=1Ai, NB =

∑9i=1Bi NC =

∑9i=1 Ci. Należy wyliczyć Cov(NA, NB),

Cov(NB , NC), Cov(NC , NA). Zachodzi

ENA = 910

60 + x, ENB = 9

20

60 + x, ENC = 9

30

60 + x,

nadto

ENANB = 72EA1B2 = 7210

60 + x

20

59 + x,

ENBNC = 72EB1C2 = 7220

60 + x

30

59 + x,

ENCNA = 72EC1A2 = 7230

60 + x

10

59 + x,

EN2B = 72EB1B2 + 9EB2

1 = 7220

60 + x

19

59 + x+ 9

20

60 + x.

Stąd

Cov(NA, NB) =9 · 10 · 20

60 + x(

8

59 + x− 9

60 + x) =

9 · 10c20(−x− 51)

(60 + x)2(59 + x),

Cov(NB , NC) =9 · 20 · 30

60 + x(

8

59 + x− 9

60 + x) =

9 · 20 · 30(−x− 51)

(60 + x)2(59 + x),

Cov(NB , NC) =9 · 30 · 10

60 + x(

8

59 + x− 9

60 + x) =

9 · 30 · 10(−x− 51)

(60 + x)2(59 + x),

Cov(NB , NB) =9 · 20

60 + x(

8 · 19

59 + x+ 1− 9 · 20

60 + x) =

9 · 20(x2 + 91x+ 34 · 60)

(60 + x)2(59 + x).

Zatem NA +NB i NB +NC są nieskorelowane jeśli

0 = Cov(NA +NB , NB +NC) = Cov(NA, NB) +Cov(NC , NA) +Cov(NB , NB) +Cov(NB , NC)

7

Page 8: 1 Kombinatoryka

co jest równoważne−1100(x+ 51) + 20(x2 + 91x+ 34 · 60) = 0.

Przekształcając to równaniex2 + 36x− 765 = 0.

Rozwiązaniami tego równanie są x = −36±662 , czyli x1 = 15 i x = −51. Interesują nas wyłącznie

rozwiązania dodatnie zatem x = 15.

8

Page 9: 1 Kombinatoryka

1 Gaussowskie zmienne losoweW tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza natemat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych.

1. (Eg 48/6) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi o identycznym rozkła-dzie o gęstości f(x) = 1

2√x

1(0,1)(x). Niech Un = (X1...Xn)1n . Wtedy: (asymptotyka Un − e−2)?

Odp: B-> limn→∞P((Un − e−2)√n < 4e−2) = 0, 977.

Rozwiązanie. Zadanie polega na umiejętnym zastosowaniu CTG. Zauważmy, że Yi = − logXi,i ∈ 1, ..., n oraz

P(Yi > t) = P(Xi < e−t) = e−t2 , t > 0.

Czyli Yi ma rozkład Exp( 12 ), w szczególności EYi = 2, VarYi = 4. Zatem

(Un − e−2)√n = e−2(exp(

1

n

n∑i=1

(Yi − 2)− 1)√n.

Z mocnego prawa wielkich liczb wynika, że limn→∞1n

∑ni=1(Yi − 2) = 0. Zatem

(exp(1

n

n∑i=1

(Yi − 2)− 1)√n =

1√n

n∑i=1

(Yi − 2)(1 +O(1

n

n∑i=1

(Yi − 2)).

Czyli w sensie rozkładu

limn→∞

(Un − e−2)√n = e−2 lim

n→∞

1√n

n∑i=1

(Yi − 2) = 2e−2Z,

gdzie Z ma rozkład N (0, 1). Stąd

limn→∞

P((Un − e−2)√n < 4e−2) = P(Z < 2) ' 0, 977.

2. (Eg 50/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemypróbką X1, ..., Xn z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej 4. Prze-prowadzamy najmocniejszy test hipotezy H0 : µ = 0 przeciwko alternatywie H1 : µ = −1 napoziomie istotności α = 1/2. Niech βn oznacza prawdopodobieństwo błędu drugiego rodzaju, dlarozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka βn)Odp: D-> limn→∞ βn

en8√πn√

2= 1.

Rozwiązanie. Najpierw znajdujemy błąd drugiego rodzaju czyli akceptacja hipotezy H0 w sytu-acji gdy zachodzi H1. Test najmocniejszy oparty jest na konstrukcji obszaru krytycznego wynika-jącej z Twierdzenia Neymana-Pearsona (o porównywaniu gęstości). Niech µ0 = 0, µ1 = −1 orazniech fµ0

, fµ1będą gęstościami rozkładu wektora (X1, ..., Xn) niezależnych zmiennych losowych

o tym samym rozkładzie co zmienna X, odpowiednio X ∼ N (µ0, 4), X ∼ N (µ1, 4). W meto-dzie Neymana-Pearsona badamy iloraz wiarygodności, to znaczy fµ1(x1, ..., xn)/fµ0(x1, ..., Xn).W przypadku rozkładów ciągłych nie potrzeba randomizacji, a obszar krytyczny ma postać

K = (x1, ..., xn) ∈ Rn : fµ1(x1, ..., xn)/fµ0

(x1, ..., xn) > C

dla stałej C dobranej tak aby Pµ0((X1, ..., Xn) ∈ K) = α. W naszym przypadku oznacza tokonieczność znalezienia stałej C takiej, że

Pµ0(X1 + ...+Xn < C) =

1

2.

1

Page 10: 1 Kombinatoryka

Oczywiście C = 0. Błąd drugiego rodzaju wynosi

βn = Pµ1(X1 + ...+Xn > C) = P(−n+ 2

√nZ > 0),

gdzie Z ma rozkład N (0, 1). Zatem zostaje zbadać asymptmpotykę

βn = P(Z >

√n

2).

Oczywiście P(Z > t) ' 1√2πt

e−t22 stąd

limn→∞

βn

√πn√2en8 = 1.

3. (Eg 51/4) Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach normalnych, przytym EX = EY = 0, VarX = 3 i VarY = 1. Oblicz P(|X| < |Y |).Odp: A-> P(|X| < |Y |) = 0, 3333.Rozwiązanie. To zadanie ma czysto geometryczne rozwiązanie. Wystarczy wykorzystać rotacyjnąniezmienniczość standardowego rozkładu normalnego nadto zauważyć, że X =

√3X, gdzie X ma

rozkład N (0, 1). Zatem (X, Y ) ma standardowy rozkład normalny na R2 oraz

P(|X| < |Y |) = P(√

3|X| < |Y |) = µS1(α ∈ S1 : | tgα| < 1√3),

gdzie µS1 jest miarą Lebesgue’a na okręgu jednostkowym unormowaną do 1. Oczywiście α ∈ S1 :| tgα| < 1√

3 = α ∈ S1 : |α| 6 π

6 lub |π − α| 6 π6 Zatem

µS1(α ∈ S1 : | tgα| < 1√3) =

1

3.

4. (Eg 52/5) Załóżmy, że X,Y są zmiennymi o łącznym rozkładzie normalnym, EX = EY = 0,VarX = 2, VarY = 4 i Cov(X,Y ) = 1. Oblicz E(XY |X − Y = t),Odp: C-> 7

4 −316 t

2.

Rozwiązanie. Potrzebujemy metody znajdowania bazy niezależnych liniowych funkcji od X,Yzawierającej X − Y . Szukamy α takiego, że X − αY będzie niezależne od X − Y . Wystarczysprawdzić kowariancję

Cov(X − Y,X − αY ) = 2− α− 1 + 4α = 1 + 3α.

Stąd α = − 13 . Wystarczy teraz rozpisać X,Y w znalezionej bazie. Mamy

X = 14 [(X − Y ) + 3(X + 1

3Y )]Y = 3

4 [−(X − Y ) + (X + 13Y )]

Niech Z = (X + 13Y ), zmienną X −Y możemy traktować jako parametr t przy wyliczaniu warun-

kowej wartości oczekiwanej (bo jest niezależna od Z). Zatem

E(XY |X − Y = t) = E(1

4(t+ 3Z)

3

4(−t+ Z)) =

3

16(−t2 + 3tEZ + 3EZ2).

Oczywiście EZ = 0. Natomiast z dwuliniowości kowariancji i

EZ2 = VarZ = 2 +2

3+

4

9=

28

9.

Czyli E(XY |X − Y = t) = − 316 t

2 + 74 .

2

Page 11: 1 Kombinatoryka

5. (Eg 53/9) Mamy próbą prostą ((X1, Y1), (X2, Y2), ..., (X10, Y10)) z rozkładu normalnego dwuwy-miarowego o nieznanych parametrach

EXi = EYi = µ, VarXi = VarYi = σ2, Cov(Xi, Yi) = σ2ρ.

Niech

Zi = Xi + Yi, Ri = Xi − Yi, S2Z =

1

9

10∑i=1

(Zi − Z)2, S2R =

1

9

10∑i=1

(Ri − R)2,

gdzie Z oraz R to odpowiednie średnie z próbki. Do testowania hipotezy H0 : ρ = 13 przeciwko

alternatywie H1 : ρ 6= 13 możemy użyć testu o obszarze krytycznym postaci:

S2Z

S2R

< k1, lubS2Z

S2R

> k2,

przy czym liczby k1 i k2 dobrane są tak, aby przy założeniu, że H0 jest prawdziwa

P(S2Z

S2R

< k1) = P(S2Z

S2R

> k2) = 0, 05.

Liczby k1 i k2 są równe: ?Odp: D-> k1 = 0, 629 i k2 = 6, 358.

Rozwiązanie. Zauważmy, że (Xi + Yi) jest niezależne od (Xi − Yi), istotnie

Cov(Xi + Yi, Xi − Yi) = VarXi −Cov(Xi, Yi) + Cov(Yi, Xi)−Var(Yi) = 0.

To oznacza, że S2Z i S2

R są niezależne. Wystarczy wyznaczyć ich rozkłady. Mamy

Var(Xi + Yi) = 2σ2 + 2ρσ2 = 2(1 + ρ)σ2.

AnalogicznieVar(Xi − Yi) = 2σ2 − 2ρσ2 = 2(1− ρ)σ2.

To oznacza, że Zi = [2(1 + ρ)]12σZi, Ri = [2(1 − ρ)]

12 Ri, gdzie Zi, Ri są niezależne z rozkładu

N (0, 1). ZatemS2Z

S2R

=1 + ρ

1− ρS2Z

S2R

.

To oznacza, że aby wyznaczyć k1, k2 należy wziąć wartości dla F9,9 i pomnożyć je przez 1+ρ1−ρ , które

przy H0 wynosi 2. Czyli k2 = 2 · 3, 1789 ' 6, 358 oraz k1 = 2 · (1/3, 1789) ' 0, 629

6. (Eg 54/9) Zmienne losowe X i Y są niezależne i zmienna X ma rozkład logarytmiczno-normalnyLN(µ, σ2), gdzie µ = 1 i σ = 2, a zmienna Y ma rozkład wykładniczy o wartości oczekiwanej 2.Niech S = X + Y . Wtedy E(S|X > e) jest równa?Odp: E-> 41, 26.

Rozwiązanie. Przypomnijmy definicję

E(S|X > e) =ES1X>eP(X > e)

.

Teraz zauważmy, że X = eY , gdzie Y ma rozkład N (1, 4), czyli Y = 1 + 2Z, gdzie Z ∼ N (0, 1).Zatem

P(X > e) = P(1 + 2Z > 1) = P(Z > 0) =1

2.

3

Page 12: 1 Kombinatoryka

Obliczamy

ES1X>e = EX1X>e + P(X > e)EY = Ee1+2Z1Z>0 +1

22 = 1 + eEe2Z1Z>0.

Należy obliczyć

Ee2Z1Z>0 =

∫ ∞0

e2x 1√2πe−

x2

2 dx = e2

∫ ∞0

1√2πe−

12 (x−2)2 .

ZatemEe2Z1Z>0 = e2

∫ ∞−2

1√2πe−

x2

2 dx = e2P(Z > −2).

OstatecznieE(S|X > e) = 2 + 2e3P(Z > −2) ' 41, 26.

7. (Eg 55/4) Załóżmy, że zmienne losowe X,Y mają łączny rozkład normalny taki, że

EX = 1, EY = 0, Var(X) = 2, Var(Y ) = 9, i Cov(X,Y ) = 3.

Oblicz Cov(X2, Y 2).Odp: D-> 18.

Rozwiązanie. Przypomnijmy, że ogólny wzór na k-ty moment zmiennej V rozkładzie N (0, σ2)ma postać

EV 2k = σ2k(2k − 1)(2k − 3)...3 · 1,EV 2k+1 = 0

Aby obliczyć Cov(X2, Y 2) potrzebujemy policzyć EX2Y 2. Po raz kolejny należy posłużyć się bazązłożoną z liniowych względem X,Y zmiennych niezależnych. Ściślej szukamy α takiego, że X−αYjest nieskorelowane z Y , a przez to niezależne bo (X,Y ) tworzą wektor gaussowski. Mamy

Cov(Y,X − αY ) = 3− 9α,

stąd α = 13 . Niech Z = X − 1

3Y , zachodzi EZ = 1, VarZ = 2− 233 + 1

99 = 1. Dalej mamy rozkładX = Z + 1

3Y , stąd

EX2Y 2 = E(Z +1

3Y )2Y 2 = EZ2EY 2 +

2

3EZEY 3 +

1

9EY 4.

Drugi składnik powyżej jest zerem bo EY = 0, a stąd EY 3 = 0. Zauważmy jeszcze, że podobnie

EX2EY 2 = (EZ2 +1

9EY 2)EY 2.

Dlatego

Cov(X2, Y 2) =1

9(EY 4 − (EY 2)2).

Pozostaje zauważyć, że EY 4 = 3 · 92 oraz EY 2 = 9. Zatem

Cov(X2, Y 2) =1

9(3 · 92 − 92) = 2 · 9 = 18.

4

Page 13: 1 Kombinatoryka

8. (Eg 57/3) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu normalnego owartości oczekiwanej 0 i nieznanej wariancji σ2. Rozważmy estymatory odchylenia standardowegoσ postaci σc = c

∑ni=1 |Xi|. Niech σc oznacza estymator o najmniejszym błędzie średniokwadrato-

wym w klasie rozważanych estymatorów. Wtedy c jest równe ?Odp: D->

√2π

π+2n−2 .

Rozwiązanie. Niech X ma rozkład N (0, σ2). Oczywiście E|X| =√

2√πσ, zatem

f(c) = E(σc − σ)2 = Var(σ) + (Eσ − σ)2 = nc2Var(|X|) + (cn

√2√π− 1)2σ2 =

= nc2(1− 2

π)σ2 + (cn

√2√π− 1)2.

Aby obliczyć punkt minimum znajdujemy z równania f ′(c) = 0. Zachodzi

f ′(c) = 2nc(1− 2

π)σ2 + 2(n2c

2

π− n√

2√π

)σ2.

stąd f ′(c) = 0 dla

n(2

π(n− 1) + 1)c = n

√2√π

czyli c =

√2π

π + 2n− 2.

9. (Eg 58/4) Niech X1, X2, ..., Xn, ..., N będą zmiennymi losowymi. Zmienne X1, X2, ..., Xn, ... mająrozkład logarytmiczno-normalny LN(µ, σ2), gdzie µ = 2, σ2 = 4. Zmienna N ma rozkład Poissonao wartości oczekiwanej 2. Niech SN =

∑Ni=1Xi dla N > 0 oraz SN = 0 dla N = 0. Wtedy

współczynnik asymetrii E(SN−ESN )3

(VarSN )3/2jest równy?

Odp: D-> e6√2.

Rozwiązanie. Niech X ma rozkład LN(µ, σ2), najpierw zauważmy, że

E(SN −ESN )3 = EE[(SN −ESN )3|N ] = EE[(SN −NEX + (N −EN)EX)3|N ] =

= ENE(X −EX)3 + 3EN(N −EN)EXE(X −EX)2 + E(N −EN)3(EX)3.

Zauważmy, że

2 = EN = VarN = E(N −EN)2 = EN(N −EN) = E(N −EN)3

(scentrowane momenty drugi i trzeci dla rozkładu Poissona są równe wartości oczekiwanej). Zatem

E(SN −ESN )3 = 2(E(X −EX)3 + 3EXE(X −EX)2 + (EX)3) = 2EX3.

Z definicji X = exp(Y ), gdzie Y ma rozkład N (µ, σ2), a dalej Y = σZ + µ, gdzie Z ma rozkładN (0, 1). Przypomnijmy wzór n transformatę Laplace’cea dla rozkładu N (0, 1)

E exp(λZ) = exp(λ2

2).

StądEX3 = E exp(3σZ + 3µ) = e

9σ2

2 +3µ = e24.

Zatem E(SN −ESN )3 = 2e24. Analogicznie pokazujemy

VarSN = E(SN −ESN )2 = ENE(X −EX)2 + VarN(EX)2 = 2EX2.

5

Page 14: 1 Kombinatoryka

MamyEX2 = E exp(2σZ + 2µ) = e2σ2+2µ = e12.

czyli VarSN = E(SN −ESN )2 = 2e12. Obliczamy

E(SN −ESN )3

(VarSN )3/2=

2e24

(2e12)32

=e6

√2.

10. (Eg 59/1) Zmienna losowa X rozkład logarytmiczno-normalny LN(µ, σ2), gdzie µ = 1 i σ2 = 4.Wyznacz E(X−e|X>e)

EX .Odp: C-> 1, 82.

Rozwiązanie. Zauważmy, że X = eY , gdzie Y ma rozkład N (µ, σ2), nadto Y = σZ+µ = 2Z+1,gdzie Z pochodzi z rozkładu N (0, 1). Z definicji

E(X − e|X > e) =E1X>e(X − e)

P(X > e).

Obliczamy

P(X > e) = P(2Z + 1 > 1) = P(Z > 0) =1

2.

ZatemE1X>e(X − e) = eE1Z>0(e2Z − 1) = e(E1Z>0e

2Z − 1

2).

NadtoE1Z>0e

2Z =

∫ ∞0

e2xe−x2

21√2πdx = e2

∫ ∞0

e−(x−2)2

21√2πdx

a stąd

E1Z>0e2Z = e2

∫ ∞−2

e−x2

21√2πdx = e2P(Z > −2).

OtrzymujemyE(X − e|X > e) = 2e3P(Z > −2)− e

z drugiej strony z transformaty Laplace’a

EX = E exp(2Z + 1) = e3.

CzyliE(X − e|X > e)

EX= 2P(Z > −2)− e−2 ' 1, 82.

11. (Eg 60/6) Zmienne losowe X1, X2, ..., X20 są niezależne o jednakowym rozkładzie normalnym owartości oczekiwanej 1 i wariancji 4. Niech S5 =

∑5i=1Xi i E(S2

5 |S20 = 24) jest równa ?Odp: D-> 51.

Rozwiązanie. Niech S15 =∑20i=6Xi. Z jednej strony S20 = S5 + S15 nadto szukamy α takiego,

że

0 = Cov(S5 + S15, S5 − αS15) = Var(S5)− αVar(S15) = 5 · 4− α15 · 4 = 20(1− α3).

Stąd α = 3. Oczywiście

S5 =1

4[(S5 + S15) + 3(S5 −

1

3S15)] =

1

4[S20 + 3(S5 −

1

3S15)].

6

Page 15: 1 Kombinatoryka

Zatem

E(S25 |S20 = 24) = E

(1

16

[S20 + 3(S5 −

1

3S15)

]2

|S20

)=

=1

16S2

20 +3

8S20E(S5 −

1

3S15) +

9

16E(S5 −

1

3S15)2.

Sprawdzamy

E(S5 −1

3S15) = 0, E(S5 −

1

3S15)2 = 5 · 4 +

15

9· 4 =

80

3.

ZatemE(S2

5 |S20 = 24) =1

16S2

20 +9

16

80

3= 36 + 15 = 51.

12. (Eg 61/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemypróbką X1, ..., Xn z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej 2. Prze-prowadzamy najmocniejszy test hipotezy H0 : µ = 0 przeciwko alternatywie H1 : µ = 2 napoziomie istotności α = 1

2 . Niech βn oznacza prawdopodobieństwo błędu drugiego rodzaju, dlarozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka βn).Odp: E-> limn→∞

βne−n/

√4πn

= 1.

Rozwiązanie. Niech f0, f2 będą gęstościami odpowiednio N (0, 2),N (2, 2). Przypomnijmy, że testnajmocniejszy Neymana Pearsona polega na porównaniu gęstości, czyli zbiór krytyczny ma postać

K = (x1, ..., xn) ∈ Rn :f2(x1, ..., xn)

f0(x1, ..., xn)> C,

gdzie C jest stałą taką, że

Pµ=0((X1, ..., Xn) ∈ K) =1

2.

Łatwo zauważyć, że

K = (x1, ..., xn) :

n∑i=1

xi > C.

Stąd szukamy stałej C takiej, że

Pµ=0(X1 + ...+Xn > C) =1

2

stąd C = 0. Błąd drugiego rodzaju to akceptacja hipotezy H0 podczas, gdy zachodzi H1. Oznaczato, że

βn = Pµ=2(X1 + ...+Xn 6 0).

Przy µ = 2 zachodzi Xi =√

2Zi + 2, gdzie Z,Zi, i = 1, 2, . . . będą niezależne z rozkładu N (0, 1).Stąd

βn = P(√

2(Z1 + ...+ Zn) 6 −2n) = P(√

2nZ 6 −2n) = P(Z 6 −√

2n).

Ponieważ P(Z > t) ' 1√2πt

e−t2

2 , więc

limn→∞

βn

e−n/√

4πn= 1.

7

Page 16: 1 Kombinatoryka

13. (Eg 62/2) Niech X1, X2, X3, ... będą niezależnymi zmiennymi losowymi o tym samym rozkładzielogarytmiczno normalnym parametrami µ ∈ R i σ > 0. Niech Tn oznacza estymator największejwiarygodności wariancji V 2 w tym modelu w oparciu o próbę X1, X2, ..., Xn. Niech µ = −0, 5 iσ = 1. Wtedy

P(|Tn − V 2|√n > 10, 73) =?

Odp: A-> 0, 134.Rozwiązanie. Zachodzi Xi = eYi , i = 1, 2, ..., n, gdzie Y, Y1, Y2, ..., Yn są niezależne i pochodząz rozkładu N (µ, σ2). Trzeba przypomnieć estymatory największej wiarygodności dla rozkładunormalnego

µn = Y =1

n(Y1 + ...+ Yn), σ2

n = Y 2 − (Y )2 =1

n

n∑i=1

(Yi − Y )2.

Powyższe estymatory wykorzystujemy aby znaleźć estymator wariancji V 2. Mamy

V 2 = VarY = EY 2 − (EY )2 = e2σ2+2µ − eσ2+2µ = e− 1.

Nadto z powyższego wzory wynika, że

Tn = e2µn(e2σ2n − eσ

2n).

Należy pamiętać, że µn i σ2n są niezależne. Mamy

Tn − V 2 = (e2µn − e−1)(e2σ2n − eσ

2n)+

+ e−1(e2σ2n − e2 − eσ

2n − e).

Z mocnego prawa wielkich liczb wynika, że µn → µ, σ2n → σ2 prawie na pewno. Nadto

√n(e2µn − e−1) =

√ne−1(e2µn+1 − 1) =

√ne−1(2µn + 1)(1 +O(2µn + 1)).

Oczywiście w sensie słabej zbieżności

limn→∞

√n(2µn + 1) = N (0, 4).

Stądlimn→∞

√n(e2µn − e−1)(e2σ2

n − eσ2n) = A ' N (0, [2(e− 1)]2)

Ściślej korzystając z σ2n → σ2

limn→∞

√n(e2µn − e−1)(e2σ2

n − eσ2n) = lim

n→∞

√n(e2µn − e−1)(e2 − e) = A.

Analogiczniee2σ2

n − e2 + eσ2n − e = (2e2 − e)

√n(σ2

n − 1)(1 +O(σ2n − 1)).

W sensie słabej zbieżnościlimn→∞

√n(σ2

n − 1) = N (0, 2).

Zatemlimn→∞

e−1(e2σ2n − e2 − eσ

2n − e) = B ' N (0, 2[2e− 1]2).

Ostatecznie korzystając z niezależności µn oraz σ2n dostajemy dla niezależnych A i B

limn→∞

√n(Tn − V 2) = A+B ' N (0, [2(e− 1)2] + 2[2e− 1)]2).

Niech Z będzie z N (0, 1) otrzymujemy

limn→∞

P(|Tn − V 2|√n > 10, 73) = P(|Z| > 10, 73√

[2(e− 1)2] + 2[2(e− 2)]2) = 0, 134.

Przedstawiona metoda ma swoją nazwę jako metoda delta. Powyższy przypadek szczególny możnazebrać w ogólne twierdzenie.

8

Page 17: 1 Kombinatoryka

Twierdzenie 1 (Metoda delta) Jeżeli dla ciągu zmiennych Tn mamy√n(Tn − µ) → N (0, σ2)

przy n→∞ i h : R→ R jest funkcją różniczkowalną w punkcie µ, to√n(h(Tn)− h(µ))→ N (0, σ2(h′(µ))2),

w sensie zbieżności według rozkładu.

14. (Eg 63/7) Zmienna losowa (X,Y, Z) ma rozkład normalny z wartością oczekiwaną EX = 0,EY = EZ = 1 i macierzą kowariancji 1 1 0

1 4 20 2 4

.Obliczyć Var(X(Y + Z)).Odp: D-> 17.

Rozwiązanie. Stosujemy metodę z uniezależnianiem zmiennych. Z założenia wynika, żeCov(X,Y ) =1 oraz Cov(X,Z) = 0, Cov(Y, Z) = 2. Zatem zmienne X i Z są niezależne, Wystarczy dobrać αi β tak aby Y − αX − βZ było niezależne (czyli równoważnie nieskorelowane) ze zmiennymi X iZ. Sprawdzamy, że

Cov(Y − αX − βZ,X) = 1− α, czyli α = 1

nadtoCov(Y − αX − βZ,Z) = 2− 4β, czyli β =

1

2.

Zatem baza liniowa składa się ze zmiennych niezależnych X, Y = Y − X − 12Z,Z, gdzie X ma

rozkład N (0, 1), zmienna Y ma rozkład N ( 12 , 2), a zmienna Z rozkład N (1, 4). Obliczamy

Var(X(Y + Z)) = Var(XY ) + 2Cov(XY,XZ) + Var(XZ) =

= Var(XY ) + 2Cov(XY ,X(X +1

2Z)) + Var(X(X +

1

2Z))+

+ 2Cov(XY ,XZ) + 2Cov(X(X +1

2Z), XZ) + Var(XZ) =

= EX2EY 2 + EX2EYEZ + EX4 − (EX2)2 +1

4EX2EZ2+

+ 2EX2EYEZ + 2EX2EZ2 = (2 +1

4) +

1

2+ 2 +

5

4+ 1 + 10 = 17.

15. (Eg 64/9) Niech Y1, Y2, ..., Yn będą niezależnymi zmiennymi losowymi, przy czym zmienna Yi,i = 1, 2, ..., n, ma rozkład logarytmiczno-normalny LN(bxi, 1), gdzie x1, x2, ..., xn są znanymiliczbami, a b jest nieznanym parametrem. Załóżmy, że

∑ni=1 x

2i = 4. Niech b będzie estymatorem

największej wiarogodności parametru b, a g = exp(2b) estymatorem funkcji g(b) = exp(2b). Wtedyobciążenie estymatora g

Ebg − g(b)

jest równeOdp: B-> e2b(

√e− 1).

Rozwiązanie. Najpierw obliczamy wiarygodność dla zmiennych Z1, Z2, ..., Zn, gdzie Zi = lnYi,czyli Zi ma postać N (bxi, 1). Obliczamy wiarygodność dla Z1, ..., Zn

L(b, z) = (2π)−n2 exp(−1

2

n∑i=1

(zi − bxi)2).

9

Page 18: 1 Kombinatoryka

Rozwiązujemy równanie f ′(b) = 0 dla f(b) = lnL(b, z). Wówczas

n∑i=1

(zi − bxi)xi = 0, czyli b =〈x, z〉〈x, x〉

=1

4〈x, z〉.

Stąd

b =1

4

n∑i=1

xiZi.

Pozostaje zauważyć, że b ma rozkład N (b, 14 ). Stąd

Ebg − g(b) = Eb exp(2b)− e2b = e2b(e12 − 1).

10

Page 19: 1 Kombinatoryka

1 Parametry rozkładówW tej serii będziemy obliczać różne parametry zmiennych losowych. Wymagana jest znajomość własnościrozkładów probabilistycznych oraz umiejętne korzystanie z niezależności zmiennych losowych.

1. (Eg 48/7) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi o jednakowym rozkła-dzie wykładniczym o gęstości

f(x) = 2e−2x gdyx > 0 oraz f(x) = 0 gdy x 6 0.

Niech N będzie zmienną losową, niezależną od X1, X2, ..., Xn, ..., o rozkładzie ujemnym dwumia-nowym P(N = n) = Γ(r+n)

Γ(r)n! pr(1 − p)n dla n = 0, 1, 2, ..., gdzie r > 0 i p ∈ (0, 1) są ustalonymi

parametrami. Niech ZN = min(X1, X2, ..., XN ), gdy N > 0 oraz ZN = 0, gdy N = 0. ObliczE(NZN ) i Var(NZN ).Odp: C-> E(NZN ) = 1−pr

2 i Var(NZN ) = 1−p2r4 .

Rozwiązanie. Dla zmiennej Z z rozkładu wykładniczego Exp(λ) zachodzi EZ = k!λk

, k =0, 1, 2, . . .. Przypomnijmy, ze minimum z niezależnych zmiennych wykładniczych ma rozkład wy-kładniczy o parametrze będącym sumą parametrów dodawanych zmiennych. To znaczy rozkład Zma postać Exp(2n). W szczególności EZn = 1

2n oraz EZ2n = 1

2n2 oraz EZ0 = EZ20 = 0. Obliczamy

E(NZN ) =

∞∑n=0

P(N = n)nEZn =1

2

∞∑n=1

P(N = n) =1

2(1− pr),

E(NZN )2 =

∞∑n=0

P(N = n)n2EZ2n =

∞∑n=1

=1

2

∞∑n=1

P(N = n) =1

2(1− pr).

Stąd

Var(NZN ) =1

4(2− 2pr − 1 + 2pr − p2r) =

1

4(1− p2r).

2. (Eg 49/3) NiechX1, X2, ..., Xn, ... I1, I2, ..., In, ..., N będą niezależnymi zmiennymi losowymi. ZmienneX1, X2, ..., Xn, ... mają rozkład o wartości oczekiwanej 2 i wariancji 1. Zmienne I1, I2, ..., In, ...mają rozkład jednostajny na przedziale (0, 1). Zmienna N ma rozkład ujemny dwumianowyP(N = n)Γ(2+n)

n! ( 34 )2( 1

4 )n dla n = 0, 1, 2, ... Niech SN = 0, gdy N = 0 oraz SN =∑Ni=1 IiXi,

gdy N > 0. Wtedy Var(SN ) jest równa: ?Odp: C-> VarSN = 4

3 .Rozwiązanie. Przypomnijmy własności rozkładu ujemnego dwumianowego EN = 2( 3

4 )−1( 14 ) = 2

3oraz VarN = 2( 3

4 )−2 14 = 8

9 i EN2 = 43 . NiechX ma rozkład taki jakX1, X2, . . . nadto I ma rozkład

taki jak I1, I2, . . . Mamy

ESN =

∞∑n=0

P(N = n)ESn =

∞∑n=0

P(N = n)nEIEX =

∞∑n=1

P(N = n)n = EN.

Nadto

ES2N =

∞∑n=0

P(N = n)ES2n =

∞∑n=0

P(N = n)(nEX2EI2 + n(n− 1)(EXEI)2) =

=

∞∑n=0

P(N = n)(n(n+2

3)) = EN(N +

2

3).

Czyli

VarSN = EN2 +2

3EN − (EN)2 =

4

3+

4

9− 4

9=

4

3.

1

Page 20: 1 Kombinatoryka

3. (Eg 50/1) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi z rozkładu gamma ogęstości

p(x) = 16xe−4x, gdy x > 0, oraz p(x) = 0 gdyx 6 0.

Niech N będzie zmienną losową niezależna od zmiennych X1, X2, ..., Xn, ... spełniającą

P(N = 0) =1

2, i P(N = 1) = P(N = 2) = P(N = 3) =

1

6.

Niech S = 0, gdy N = 0 oraz S =∑Ni=1Xi, gdy N > 0. Wtedy E(S −ES)3 jest równe ?.

Odp: B-> 716 .

Rozwiązanie. Przypomnijmy momenty dla zmiennej Z z rozkładu Gamma(α, β) zachodzi

EZ =α

β, E(Z −EZ)2 =

α

β2, E(Z −EZ)3 =

β3.

W przypadku zadania α = 2, β = 4, stąd

EX =1

2, E(X −EX)2 =

1

8, E(X −EX)3 =

1

16.

Podobnie wyznaczamy

EN = 1, E(N −EN)2 =4

3, E(N −EN)3 = 1.

Zatem

E(S −ES)3 = E(S −NEX +NEX −ES)3 = EE[(S −NEX +NEX −ES)3|N ] =

= ENE(X −EX)3 + 3E(N −EN)2EXE(X −EX)2 + E(N −EN)3(EX)3 =

=1

16+ 3 · 4

3· 1

2· 1

8+

1

8=

7

16.

4. (Eg 51/7) Załóżmy, że X1, X2, ..., Xn, ... są niezależnymi zmiennymi losowymi o jednakowym roz-kładzie wykładniczym o gęstości

f(x) = exp(−x) dla x > 0.

Zmienna losowa N jest niezależna od X1, X2, ..., Xn, ... i ma rozkład Poissona o wartości oczeki-wanej λ. Niech

Yi = min(Xi, 2), Zi = Xi − Yi,

S(Y ) =

N∑i=1

Yi, S(Z) =

N∑i=1

Zi.

Oblicz Cov(S(Y ), S(Z)).Odp: A-> Cov(S(Y ), S(Z)) = 2λe−2.

Rozwiązanie. Niech Y,Z będą miały rozkład odpowiednio jak X1, X2, . . ., Y1, Y2, . . .. Wyzna-czamy

ES(Y ) = ENEY = λEY

orazES(Z) = EN(EX −EY ) = λEZ.

2

Page 21: 1 Kombinatoryka

Wyznaczamy

ES(Y )S(Z) =

∞∑n=0

P(N = n)E(

n∑i=1

Yi,

n∑i=1

Zi) =

∞∑n=0

P(N = n)(nE(Y Z) + n(n− 1)EYEZ) =

= ENE(Y Z) + E(N(N − 1))EYEZ = λE(Y Z) + λ2EYEZ.

Mamy

E(Y Z) = 2E(X − 2)+ = 2

∫ ∞t=0

P(X > 2 + t)dt = 2e−2.

StądCov(S(Y ), S(Z)) = 2λe−2

5. (Eg 52/8) Załóżmy, że X1, X2, ..., Xn, ... są niezależnymi zmiennymi losowymi o tym samym roz-kładzie jednostajnym na przedziale [0, 1], zaś N jest zmienną losową o rozkładzie ujemnym dwu-mianowym:

P(N = n) =

(n+ 2

n

)p3(1− p)n dla n = 0, 1, 2, ...

niezależną od zmiennych losowychX1, X2, ..., Xn, ... NiechMN = maxX1, X2, ..., XN, gdyN > 0oraz MN = 0, gdy N = 0. Statystyk otrzymał trzy niezależne obserwacje zmiennej losowej MN

równe0, 0,

1

2.

Wartość estymatora największej wiarogodności dla parametru p otrzymana na podstawie tychdanych jest równa ?Odp: B-> 0, 877.

Rozwiązanie. Zadanie należy rozwiązać przez wyznaczenie wiarygodności, skoro wśród obserwacjipojawiły się dwa zera to znaczy, że dwukrotnie pojawiło się zdarzenie o prawdopodobieństwie p3.Z drugiej strony szansa otrzymania wartości 0 < t 6 1 wynosi

∞∑n=1

P(N = n)P(max(X1, ..., Xn) 6 t) =

∞∑n=1

P(N = n)tn =p3

(1− t(1− p))3,

gdzie ostatnia równość bierze się ze zmiany parametru w rozkładzie ujemnym dwumianowym.Zatem warunkowo na N > 0 zmienna MN ma rozkład ciągły o gęstości

3p3(1− p)(1− t(1− p))4

.

Stąd wiarygodność będzie miała postać

L(p, (0, 0,1

2))) =

48p9(1− p)(1 + p)4

.

Znajdujemy maksimum f(p) = logL(p, (0, 0, 12 )),

0 = f ′(p) = 91

p− 1

1− p− 4

1

1 + p.

Stąd równanie

6p2 + 5p+ 9 = 0, p =−5 +

√406

12' 0, 877.

3

Page 22: 1 Kombinatoryka

6. (Eg 53/2) Niech X0, X1, ..., Xn, ... będą niezależnymi zmiennymi losowymi o rozkładzie jednostaj-nym na przedziale (0, 2). Niech zmienna losowa N oznacza numer pierwszej ze zmiennych losowychX1, ..., Xn, ... o wartości większej niż X0, zatem

N = infn > 1 : Xn > X0.

Wtedy EXN jest równa?Odp: C-> 3

2 .

Rozwiązanie. Dla ustalonego X0 = x ∈ (0, 2) rozkład Nx = infn >: Xn > x jest rozkłademgeometrycznym z prawdopodobieństwem sukcesu (1 − x). Dalej rozkład XN dla ustalonego N iX0 ma rozkład jednostajny na (x, 2) ze średnią x+2

2 . Zatem

EXN = EE(XN |X0, N) = EX0 + 2

2=

3

2.

7. (Eg 54/4) Zmienna losowa N ma rozkład geometryczny postaci

P(N = k) = (1

4)k

3

4dla k = 0, 1, 2, ...

Rozważamy losową liczbę zmiennych losowychX1, X2, ..., XN przy czym zmienne losoweX1, X2, ..., XN

są niezależne wzajemnie i niezależne od zmiennej losowej N . Każda ze zmiennych Xi ma ten samrozkład o parametrach

EX = 1, E(X2) = 2, E(X3) = 3.

Niech SN =∑Ni=1Xi, gdy N > 0 oraz SN = 0, gdy N = 0. Współczynnik skośności E(SN−ESN )3

(VarSN )32

Odp: B-> 2, 538.

Rozwiązanie. Przypomnijmy, że

E(S −ES)3 = E(S −NEX +NEX −ES)3 = EE[(S −NEX +NEX −ES)3|N ] =

= ENE(X −EX)3 + 3E(N −EN)2EXE(X −EX)2 + E(N −EN)3(EX)3.

Dla rozkładu geometrycznego (startującego z 0) z parametrem p

EN =1− pp

, E(N −EN)2 =(1− p)p2

, E(N −EN)3 =(1− p)(2− p)

p3.

StadEN =

1

3, E(N −EN)2 =

4

9, E(N −EN)3 =

20

27.

DalejEX = 1, E(X −EX)2 = 1, E(X −EX)3 = −1.

Dostajemy

E(S −ES)3 = −1

3+

4

3+

20

27

Podobnie

E(S −ES)2 = ENE(X −EX)2 + E(N −EN)2(EX)2 =1

3+

4

9=

7

9.

Współczynnik skośnościE(SN −ESN )3

(VarSN )32

=47

(7)32

' 2, 538.

4

Page 23: 1 Kombinatoryka

8. (Eg 55/7) Zmienna losowa N ma rozkład geometryczny

P(N = n) = pn(1− p), dla n = 0, 1, 2, ...,

gdzie p ∈ (0, 1) jest nieznanym parametrem. Rozważamy losową liczbę zmiennych losowych

X1, X2, ..., XN ,

przy czym zmienne losowe X1, X2, ..., XN są niezależne wzajemnie i niezależne od zmiennej losowejN . Każda ze zmiennych Xi ma rozkład jednostajny o gęstości danej wzorem: fθ(x) = 1/θ, dla0 6 x 6 θ oraz 0 w przeciwnym przypadku, gdzie θ > 0 jest nieznanym parametrem. Obserwujemytylko te spośród zmiennych X1, X2, ..., XN , które są większe od 5. Nie wiemy ile jest pozostałychzmiennych ani jakie są ich wartości. Przypuśćmy, że zaobserwowaliśmy następujące wartości

8.5, 10, 6, 7.4, 9, 5.2.

Na podstawie tych danych wyznacz wartości estymatorów największej wiarogodności parametrówθ i p.Odp: C-> θ = 10 i p = 12

13 .

Rozwiązanie. Niech X ma rozkład taki jak X1, X2, . . .. Znajdujemy wiarygodność, szansa żewylosujemy 6 zmiennych większych niż 5 wynosi

(P(X > 5))6∞∑n=0

P(X 6 5)nP(N = n+ 6) = (P(X > 5))6(1− p)p6∞∑n=0

(n+ 6

6

)(5p

θ)n.

Warunkowo względem wymagania, że 6 zmiennych przekroczyło 5 ma gęstość postaci

(P(X > 5))−6(5

θ)6

6∏i=1

1xi<θ.

Nadto z własności rozkładu ujemnego dwumianowego

∞∑n=0

(n+ 6

6

)(5p

θ)n = (1− 5p

θ)−7

Stąd wiarygodność ma postać

L(θ, p;x1, x2, x3, x4, x5, x6) = (1− p)(5p

θ)6

6∏i=1

1xi<θ(1−5p

θ)−7.

Najpierw zauważamy, że θ > 10 (w przeciwnym razie dostajemy 0) nadto dla θ > 0 funkcja L jestmalejąca czyli zatem θ = 10. Wówczas wystarczy znaleźć p dla którego maksimum osiąga funkcjaL(10, p;x1, x2, x3, x4, x5, x6). To oznacza, że trzeba znaleźć punkt maksimum funkcji

f(p) = (1− p)p6(1− 1

2p)−7.

Warunek f ′(p) = 0 jest równoważny

(6p5 − 7p6)(1− 1

2p) +

7

2p6 − 7

2p7.

Stąd p = 1213 .

5

Page 24: 1 Kombinatoryka

9. (Eg 56/6) Załóżmy, że X1, X2, ..., Xn, ... są niezależnymi zmiennymi losowymi o tym samym roz-kładzie jednostajnym na przedziale [0, 1], zaś N jest zmienną losową o rozkładzie geometrycznym,

P(N = k) = p(1− p)k, gdy k = 0, 1, 2, ...

niezależną od zmiennych losowych X1, X2, ..., Xn, ... Liczba p ∈ (0, 1) jest ustalona. Niech YN =minX1, ..., XN, gdy N > 0 oraz YN = 0, gdy N = 0 i ZN = maxX1, ..., XN, gdy N = 0.Obliczyć P(ZN − YN > 1

2 ).Odp: B-> 1− 4p

(1+p)2 .

Rozwiązanie. Zacznijmy od prostszego zadania, rozkład (Yn, Zn) ma gęstość n(n−1)(z−y)n−210<y<z<1.Zatem

P(Zn − Yn >1

2) =

∫ 1

12

∫ z− 12

0

n(n− 1)(z − y)n−2dydz =

∫ 1

12

n(zn−1 − (1

2)n−1)dz = 1− 1

2n− n 1

2n.

Stąd

P(ZN − YN >1

2) = EP(ZN − YN >

1

2|N) = E(1− 1

2N−N 1

2N) =

1−∞∑k=0

(1 + k)p[(1− p)2−1]k = 1− 2p

1 + p− 2p(1− p)

(1 + p)2= 1

4p

(1 + p)2.

10. (Eg 57/4) NiechX1, X2, ..., Xn, ... I1, I2, ..., In, ..., N będą niezależnymi zmiennymi losowymi. ZmienneX1, X2, ..., Xn, ... mają rozkład wykładniczy o wartości oczekiwanej 1. Zmienne I1, I2, ..., In, ...mają rozkład dwupunktowy P(Ii = 1) = 1 − P(Ii = 0) = 1

2 . Zmienna N ma rozkład ujemnydwumianowy P(N = n) =

(n+1n

)( 3

4 )2( 14 )n dla n = 0, 1, 2, .... Niech SN = 0, gdy N = 0 oraz

SN =∑Ni=1 IiXi, gdy N > 0. Wtedy współczynnik zmienności

√Var(SN )

ESNjest równy: ?

Odp: C->√

132 .

Rozwiązanie. Niech X, I mają rozkład taki jak odpowiednio X1, X2, . . ., I1, I2, . . .. ObliczamyEN = 2/3, VarN = 8/9 (rozkład ujemny dwumianowy B−(α, p) ma wartość oczekiwana α 1−p

p

i wariancję α 1−pp2 ), EI = 1

2 , EX = 1, VarX = 1 (rozkład wykładniczy Exp(λ) ma wartośćoczekiwaną λ i wariancję 1/λ2). Zatem

ESN = ENEIEX = 2(1

4/

3

4)1

2=

1

3.

Z drugiej strony

VarSN = ENVar(IX) + VarN(EIX)2 = EN(EI2EX2 − (EIEX)2) + VarN(EIEX)2 =

=2

3(1

2· 2− (

1

2)2) +

8

9(1

2)2 =

1

2+

2

9=

13

18.

Czyli √Var(SN )

ESN=

√13√2.

11. (Eg 59/8) Załóżmy, że X1, X2, ..., Xn, ... są dodatnimi niezależnymi zmiennymi losowymi o jed-nakowym ciągłym rozkładzie prawdopodobieństwa. Niech R0 = 0 i Rn = maxX1, ..., Xn, gdyn > 0. Niech N i M będą niezależnymi zmiennymi losowymi o rozkładach Poissona, przy czym

6

Page 25: 1 Kombinatoryka

EN = 1 i EM = 2. Wtedy P(RN+M > RN ) jest równe?Odp: C-> 2

3 (1− e−3).

Rozwiązanie. Zauważmy, że dla n+m > 0

P(Rn+m > Rn) =m

n+m,

bo szanse, że któraś ze zmiennych jest największa są równe a szansa, że dwie zmienne przyjmujątę samą wartość jest zerowa. Zatem

P(RN+M > RN ) = EP(RN+M > RN |N,M) = EM

N +M1N+M>0.

Przypomnijmy, że rozkład warunkowy M pod warunkiem N +M ma postać B( EMEN+EM , N +M)

nadto N +M ma rozkład Poiss(EN + EM). Czyli

EM

N +M1N+M>0 = E

1

N +M1N+M>0E(M |N +M) =

2

3E1N+M>0 =

2

2(1− e−3).

12. (Eg 60/2) Zmienne losowe X1, X2, ..., Xn są warunkowo niezależne przy znanej wartości zmiennejlosowej θ i mają rozkłady o wartości oczekiwanej E(Xi|θ) = 10θ i wariancji Var(Xi|θ) = 100θ2.Niech N będzie zmienną losową warunkowo niezależną od X1, X2, ..., Xn przy znanym θ i o wa-runkowym rozkładzie

P(N = n|θ) = n(1− θ)n−1θ2, dla n = 1, 2, 3, ...

Zmienna losowa θ ma rozkład Beta o gęstości p(θ) = 6θ(1−θ), gdy θ ∈ (0, 1). Niech SN =∑Ni=1Xi.

Wtedy wariancja Var(SNN ) jest równa?Odp: C-> 25.

Rozwiązanie. Zauważmy, że E(N−1|θ) = θ2∑∞n=1(1− θ)n−1 = θ, zatem

E(SNN−E

SNN

)2 = EE[(SN −NE(X|θ)

N+ E(X|θ)−E

SNN

)2|θ] =

= E[E(N−1|θ)Var(X|θ)] + Var(E(X|θ)) = 100Eθ3 + 100Var(θ) =

Dalej Eθ3 = 6∫ 1

0θ4(1 − θ)dθ = 1

5 , Eθ2 = 6∫ 1

0θ3(1 − θ)dθ = 3

10 , Eθ = 6∫ 1

0θ2(1 − θ) = 1

2 , stądVarX = 1

20 . Ogólnie można pamiętać wzór że dla rozkładu Beta(α, β), EX = αα+β , VarX =

αβ(α+β)2(α+β+1) , w zadaniu α = 2, β = 2. Czyli

VarSNN

= 20 + 5 = 25

13. (Eg 61/10) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi o rozkładzie wykład-niczym o wartości oczekiwanej 4. Niech N będzie zmienną losową o rozkładzie geometrycznym ofunkcji p-stwa

P(N = k) =4

5· (1

5)k dla k = 0, 1, 2, ...,

niezależną od zmiennych X1, X2, ..., Xn, ... Niech Sn =∑Ni=1Xi, gdy N > 0 oraz SN = 0 gdy

N = 0. Wtedy P(SN < 5) jest równe: ?Odp: C-> 1− 0, 2e−1.

7

Page 26: 1 Kombinatoryka

Rozwiązanie. Przypomnijmy, że Sn, n > 1 ma rozkład Gamma(n, 14 ) Obliczamy

P(SN > 5) = EP(SN > 5|N) =

∞∑n=1

P(Sn > 5)P(N = n) =

∞∑n=1

∫ ∞5

1

(n− 1)!4nxn−1e−

14xdx =

=4

5

∫ ∞5

(

∞∑n=1

xn−1

(n− 1)!(20)n)e−

14xdx =

1

25

∫ ∞n=5

e( 120−

14 )xdx =

1

5e−1.

Stąd P(SN < 5) = 1− 0, 2e−1.

14. (Eg 62/9) Niech X1, ..., Xn, ... będą niezależnymi zmiennymi losowymi z rozkładu jednostajnego naprzedziale [0, 1]. Niech N będzie zmienną losową o rozkładzie ujemnym dwumianowym niezależnąod zmiennych X1, ..., Xn, ... o funkcji p-stwa

P(N = n) =(n+ 2)(n+ 1)

2p3(1− p)n, dla n = 0, 1, 2, ...

Niech YN = minX1, ..., XN, gdy N > 0 oraz YN = 0, gdy N = 0 i ZN = maxX1, ..., XN, orazZN = 0 gdy N = 0. Wyznacz E(YNZN ).Odp: E-> p(1−p2)

2 .

Rozwiązanie. Przypomnijmy, że (Yn, Zn) ma rozkład o gęstości n(n − 1)(z − y)n−2106y<z61.Nadto z rozkładu beta wiemy, że

∫ 1

0xα−1(1− x)β−1dx = Γ(a)Γ(b)

Γ(a+b) Zatem podstawiając y = zw

EYnZn =

∫ 1

0

∫ z

0

n(n− 1)yz(z − y)n−2dydz = n(n− 1)

∫ 1

0

zn+1dz

∫ 1

0

w(1− w)n−2dw =1

n+ 2.

Stąd

E(YNZN ) = EE(YNZN |N) = E1

N + 21N>0 =

∞∑n=1

(n+ 1)

2p3(1− p)n.

Z ujemnego rozkładu dwumianowego wiemy, że∑∞n=0(n+ 1)p2(1− p)n = 1. Zatem

E(YNZN ) = −p3

2+p

2=p(1− p2)

2.

15. (Eg 63/6) Niech X1 będzie zmienną losową o rozkładzie jednostajnym na przedziale (0, 1), X2

zmienną losową o rozkładzie jednostajnym na przedziale (0, X1), X3 zmienną losową o rozkładziejednostajnym na przedziale (0, X2) i tak dalej. Niech N oznacza zmienną losową, taką że

P(N = n) =λn

n!(eλ − 1), gdy n = 1, 2, 3, ...,

gdzie λ > 0 jest ustaloną liczbą. Zmienna N jest niezależna od zmiennych X1, X2, X3, .... WtedyE(N !X1 ·X2 · ... ·XN ) jest równaOdp: D-> eλ−λ−1

λ(eλ−1).

Rozwiązanie. Zaważmy, że

E(X1...Xn) = E(X1...Xn−1)E(Xn|X1, ..., Xn−1) = E(X1...Xn−2)X2n−1

2=

= E(X1...Xn−2)E(X2n−1

2|X1, ..., Xn−2) = ... =

1

(n+ 1)!.

8

Page 27: 1 Kombinatoryka

Zatem

EN !(X1...XN ) =

∞∑n=0

λn

n!(eλ − 1)

1

n+ 1=

=

∞∑n=1

λn

(n+ 1)!(eλ − 1)=eλ − λ− 1

λ(eλ − 1).

9

Page 28: 1 Kombinatoryka

1 Testowanie hipotezW tej części rozwiązane zostaną zadania dotyczące testowania hipotez. Wymagana jest wiedza z zakresunajmocniejszych testów, ilorazu wiarygodności, parametrów testów statystycznych.

1. (Eg 52/1) Niech X1, X2, ..., X8 będzie próbką z rozkładu prawdopodobieństwa Pareto o dystrybu-ancie

Fθ(x) = 1− 1

xθdla x 6 1 oraz Fθ(x) = 0 dla x < 1,

gdzie θ > 0 jest nieznanym parametrem. Rozpatrzmy zadanie testowania hipotezy H0 : θ = 2przeciwko alternatywie H1 : θ = 4. Zbudowano taki test, dla którego suma prawdopodobieństwbłędów I i II rodzaju, oznaczanych odpowiednio przez α i β, jest najmniejsza. Oblicz tę najmniejsząwartość α+ β.Odp: B-> 0, 3336.

Rozwiązanie. Niech fθ(x) = θxθ+1 będzie gęstością rozkładu Pareto. Testem który dla ustalonegobłędu pierwszego rodzaju (równego α) minimalizuje błąd drugiego rodzaju jest test Neymana-Pearsona, którego obszar krytyczny ma postać

K = (x1, .., x8) :

∏8i=1 f4(xi)∏8i=1 f2(xi)

> C,

gdzie C jest dobrane tak aby Pθ=2(X ∈ K) = α. Nietrudno zauważyć, że K = (x1, .., x8) :∑8i=1 log xi < C dla pewnego C. Zauważmy, że logXi ma rozkład Exp(θ) zatem

∑8i=1 logXi ma

rozkład Gamma(8, θ). Stąd C musi być tak dobrane, że

Pθ=2(

8∑i=1

logXi < C) =

∫ C

0

28

7!x7e−2xdx = α(C).

Z kolei błąd drugiego rodzaju to

Pθ=4(

8∑i=1

logXi 6 C) =

∫ ∞C

48

7!x7e−4xdx = β(C).

Wystarczy znaleźć punkt minimum funkcji α(C) + β(C). Zauważmy, że α′(C) + β′(C) = 0 jeśli

−28e−2C + 48e−4C = 0

stąd C = 4 log 2. Pozostaje albo skorzystać z tablic rozkładu χ2, wtedy dostajemy 0, 3336. Zprzybliżenia rozkładem normalnym. Niech Z będzie z rozkładu N (0, 1)

α(C) = Pθ=2(

∑8i=1 logXi − 4√

2<C − 4√

2) ' P(Z <

(4 log 2)− 4√2

) ' 0, 1927.

oraz

β(C) = Pθ=4(

∑8i=1 logXi − 2√

1/26C − 2√

1/2) ' P(Z >

(8 log 2)− 4√2

) ' 0, 1373.

Zatem α(C) + β(C) ' 0, 330.

2. (Eg 53/3) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu normalnegoN (m+ θ, 1), Y1, Y2, ..., Yn będą niezależnymi zmiennymi losowymi z rozkładu normalnego N (m−θ, 1). Wszystkie zmienne są niezależne. Parametry m i θ są nieznane. Weryfikujemy hipotezęH0 : θ = 0 przy alternatywie H1 : θ = 0, 5 za pomocą testu opartego na ilorazie wiarogodności na

1

Page 29: 1 Kombinatoryka

poziomie istotności 0, 05. Moc tego testu przy n = 18 jest równa: ?Odp: C-> 0, 913.

Rozwiązanie. Testy oparte na ilorazie i wiarygodności polegają na tym, że porównuje się LK(x) =supθ∈ΘK L(θ, x z LH(x) = supθ∈ΘH L(θ, x). Obszar krytyczny ma zatem postać

K = x ∈ Rn :LK(x)

LH(x)> λ0

dla pewnego λ0 > 1 spełniającego warunek

Pθ(LK(X)

LH(X)> λ0) 6 α, gdy θ ∈ ΘH ,

dla zadanej istotności α. W przypadku tego zadania są tylko dwie hipotezy i dlatego test opartyna ilorazie wiarygodności redukuje się do testu Neymana Pearsona. Najlepiej zapamiętać, że wprzypadku rozwiązywanego zadania obszar krytyczny będzie miał postać K = (x, y) ∈ Rn ×Rn :∑ni=1(xi − yi) > C. Oczywiście wynik ten można potwierdzić rachunkiem zauważmy, że

LK(x, y)

LH(x, y)=

exp(− 12 (∑ni=1[(xi −m− 1

2 ))2 + (yi −m+ 12 )2])

exp(− 12 (∑ni=1[(xi −m))2 + (yi −m)2])

=

= exp(1

2(

n∑i=1

[(xi − yi)−1

2])).

Stąd natychmiast szukana postać obszaru krytycznego. Znajdujemy właściwe C ze wzoru

Pθ=0(K) = P(

n∑i=1

(Xi − Yi) > C) = 0, 05.

Niech Z będzie z rozkładu N (0, 1) oczywiście w sensie rozkładu∑ni=1(Xi − Yi) (przy założeniu

θ = 0) ma postać√

2nZ. Stad C = 6 · 1, 64 nadto dla θ = 12 w sensie rozkładu

∑ni=1(Xi − Yi) ma

postać n+√

2nZ

Pθ= 12(K) = P(n+

√2nZ >

√2n1, 64) = P(Z > 1, 64− n√

2n).

Dla n = 18 dostajemy P(Z > 1, 64− 3) = P(Z > −1, 36) ' 0, 913.

3. (Eg 54/10) Niech X1, X2, X3, X4, X5 będą niezależnymi zmiennymi losowymi z rozkładu o gęstości

pλ(x) = λe−λx, gdy x > 0, oraz pλ(x) = 0 gdyx < 0,

gdzie λ > 0 jest nieznanym parametrem. Niestety nie obserwujemy zmiennych X1, X2, X3, X4, X5

ale zmienne Yi = [Xi], i = 1, 2, 3, 4, 5, gdzie symbol [x] oznacza część całkowitą liczby x. Dyspo-nując próbą Y1, Y2, Y3, Y4, Y5 weryfikujemy hipotezę H0 : λ = 1, przy alternatywie H1 : λ = 3 zapomocą testu o obszarze krytycznym

K = λ > 1, 79,

gdzie λ oznacza estymator największej wiarygodności parametru λ otrzymany na podstawie próbylosowej Y1, Y2, Y3, Y4, Y5. Rozmiar tego testu jest równy (wybierz najlepsze przybliżenie).Odp: C-> 0, 286.

Rozwiązanie. Rozkład zmiennych Yk ma postać

Pλ(Yk = n) = Pλ(Xk ∈ [k, k + 1)) = e−λk − e−λ(k+1) = (1− e−λ)e−λk, dla k > 0,

2

Page 30: 1 Kombinatoryka

czyli jest rozkładem geometrycznym z prawdopodobieństwem sukcesu p = (1−e−λ). Wiarygodnośćdla rozkładów geometrycznych o prawdopodobieństwie sukcesu p ma postać

L(p, k) =

5∏i=1

p(1− p)ki = p5(1− p)k1+...+k5 , gdzie k = (k1, ..., k5).

Dla ustalonego k niech f(p) = logL(p, k). Szukamy p takiego, że f ′(p) = 0, czyli

f ′(p) =5

p− (k1 + ...+ k5)

1

1− p= 0.

Czyli p = 55+k1+...+k5

. Stąd natychmiast λ = − log(1− p). Ponieważ jest to rosnąca funkcja p, więcobszar krytyczny ma postać K = k ∈ N5 : 5

5+k1+...+k5> 1 − exp(−1, 79). Obliczamy rozmiar

testuPλ=1(

5

5 + Y1 + ...+ Y5> 1− exp(−1, 79)).

Oczywiście przy założeniu λ = 1 zmienna Y1 + ...Y5 ma rozkład B−(5, p), gdzie p = 1−e−1. Zatem

Pλ=1(Y1 + ...+ Y5 < 5[(1− exp(−1, 79))−1 − 1]) = Pλ=1(Y1 + ...+ Y5 6 1)

Przypomnijmy, że p = 1− e−λ. Otrzymujemy

Pλ=1(Y1 + ...+ Y5 = 0) = p5, Pλ=1(Y1 + ...+ Y5 = 1) = 5p5(1− p).

Zatem odpowiedź to p5 + 5p5(1− p), gdzie p = 1− e−1, która w przybliżeniu wynosi 0, 286.

4. (Eg 55/5) Niech X będzie pojedynczą obserwacją z rozkładu o gęstości

pθ(x) =2

θ2(θ − 2|x|) gdy x ∈ [−θ

2,θ

2] oraz pθ(x) = 0 gdy |x| > θ

2,

gdzie θ > 0 jest nieznanym parametrem. Weryfikujemy hipotezę H0 : θ = 1 przy alternatywieH1 : θ 6= 1 za pomocą testu opartego na ilorazie wiarogodności na poziomie istotności 0.2. Moctego testu przy alternatywie θ = 6 jest równa: ?Odp: B-> 0, 76.

Rozwiązanie. Ponownie należy skorzystać z testu opartego na ilorazie wiarygodności. Zauważmy,że w tym przypadku

LK(x)

LH(x)=

supθ pθ(x)

p2(x).

Zauważmy, że x musi należeć do przedziału [− 12 ,

12 ] w przeciwnym przypadku iloraz będzie nie-

skończony. Zatem supθ pθ(x) = supθ2θ2 (θ − 2|x|) przyjmuje maksimum dla ∂pθ(x)

∂θ = 0 czyli

− 4

θ3(θ − 2|x|) +

2

θ2= 0

stąd θ = 4|x|. ZatemLK(x) =

1

4|x|.

To oznacza, żeLH(x)

LK(x)=

1

8|x|(1− 2|x|).

Obliczamy C takie, że

Pθ=1(1

8|x|(1− 2|x|)> C) = 0, 2.

3

Page 31: 1 Kombinatoryka

Warunek jest równoważny temu, że |x|(1−2|x|) 6 (8C)−1. Niech d =√

1− C−1 czyli |x| 6 1−d4 = a

lub |x| > 1+d4 = b. Zauważmy, że

Pθ(X 6 t) =1− 1

2 [θ − 2|x|]2 0 < t 6 θ2

12 [θ − 2|x|]2 − θ2 < t 6 0

.

Stąd Pθ(|X| 6 a) = 1− [θ−2|a|]2θ2 , jeśli |a| 6 θ

2 , a w przeciwnym razie 1 nadto Pθ(|X| > b) = [θ−2|b|]2θ2

jeśli |b| 6 θ2 , a w przeciwnym razie 0. Zatem

Pθ=1(X ∈ K) = 1− [1− 2|b|]2 + [1− 2|a|]2 = 1 + 2d− 2d(1/2) = 0, 2.

Pozostaje zauważyć, że b− a =

√1−8C2 nadto b2 − a2 =

√1−8C4 . Niech d =

√1− 8C. Zachodzi

Pθ=1(X ∈ K) = 1− [1− 2|a|]2 + [1− 2|b|]2 = 1− 2d+ d = 1− d

Stąd d = 45 a dalej a = 1

20 , b = 920 . Obliczamy moc testu dla θ = 6

Pθ=6(|x| 6 a, |x| > b) = 1−(6− 1

10 )2

36+

(6− 910 )2

36' 0, 76.

5. (Eg 56/5) Obserwujemy niezależne zmienne losowe X1, X2, X3, X4, Y1, Y2, Y3, Y4, Y5. Zmienne lo-sowe X1, X2, X3, X4 mają ten sam rozkład o dystrybuancie Fµ1

. Dystrybuanta Fµ spełnia warunek

Fµ(x) = F (x− µ)

dla pewnej ustalonej, nieznanej, ciągłej, ściśle rosnącej dystrybuanty F . Weryfikujemy hipotezęH0 : µ1 = µ2 przy alternatywie H1 : µ1 < µ2 stosując test o obszarze krytycznym

K = S : S < 16,

gdzie S jest sumą rang zmiennych losowych X1, X2, X3, X4 w próbce złożonej ze wszystkich ob-serwacji ustawionych w ciąg rosnący. Wyznaczyć rozmiar testu.Odp: A-> 18

126 .Rozwiązanie. Test rangi oparty jest o spostrzeżenie, że gdyby µ1 = µ2 wtedy zmienne X iY powinny być losowo wymieszane. W związku z tym wystarczy obliczyć prawdopodobieństwowszystkich układów sprzyjających temu że S < 16 przy założeniu losowego położenia zmiennychX1, ..., X4 po ustawieniu w ciąg rosnący w całej próbce. Sprawdzamy, że jest dokładnie 18 moż-liwych układów nadto wyborów zbiorów 4 elementowych w 9 elementowym jest

(94

)= 126. Stąd

rozmiar testu wynosi 18126 .

6. (Eg 56/10) NiechX1, X2, X3, X4 będą niezależnymi zmiennymi losowymi o identycznym rozkładziegeometrycznym postaci

P(X = k) = p(1− p)k gdy k = 0, 1, 2, ...,

gdzie p ∈ (0, 1) jest nieznanym parametrem. Hipotezę H0 : p = 12 przy alternatywie H1 : p > 1

2weryfikujemy testem jednostajnie najmocniejszym na poziomie istotności 0, 1875. Moc tego testuprzy alternatywie p = 4

5 jest równa:?Odp: E-> 0, 73728.

Rozwiązanie. Test jednostajnie najmocniejszy oparty jest o statystykę T (x) przy której dladowolnego p′ > p funkcja L(p′,k)

L(p,k) jest rosnącą funkcją T (k). Obliczamy

L(p′, k)

L(p, k)=

(1− p′)k1+...+k4

(1− p)k1+...+k4=

(1− p′

1− p

)k1+...+k4

.

4

Page 32: 1 Kombinatoryka

Zatem szukaną statystyką jest T (k) = −(k1 + ... + k4). W przypadku rozkładów zawsze trzebaliczyć się z problemem randomizacji testu. To znaczy test ma postać

ϕ(k) =

1 gdy T (k) > Cγ gdy T (k) = C0 gdy T (k) < C

Stałe C i γ wyznacza się z warunku Ep= 12ϕ(X) = 0, 1875. Zauważmy, że przy p = 1

2 , X1 + ...+X4

ma rozkład ujemny dwumianowy B−(4, 12 ). Należy znaleźć C ∈ N takie, że Pp= 1

2(X1 + ...+X4 <

C) 6 0, 1875 oraz P(X1 + ... + X4) > 0, 1875. Okazuje się, że C = 2, a test szczęśliwie nie jestzrandomizowany. Obliczamy moc testu dla p = 4

5 .

Pp= 45(X1 + ...+X4 < 2) = 0, 7328.

7. (Eg 57/6) Niech X1, X2, ..., X8 będzie próbką z rozkładu prawdopodobieństwa Pareto o dystrybu-ancie

Fθ(x) = 1− 1

xθdla x 6 1 oraz Fθ(x) = 0 dla x < 1,

gdzie θ > 0 jest nieznanym parametrem. Rozpatrzmy zadanie testowania hipotezy H0 : θ = 4przeciwko alternatywie H1 : θ = 2. Zbudowano taki test, dla którego suma prawdopodobieństwbłędów I i II rodzaju, oznaczanych odpowiednio przez α i β, jest najmniejsza. Oblicz tę najmniejsząwartość α+ β.Odp: B-> 0, 3336.

Rozwiązanie. Zauważmy, że gęstość ma postać fθ(x) = θ8∏8i=1

1xi

θ+1. Stosujemy test NeymanaPearsona, w tym obliczy iloraz wiarygodności

L(2, x)

L(4, x)= 2−8

8∏i=1

x2i = 2−8 exp(2

8∑i=1

log xi).

Zatem obszar krytyczny K = x ∈ R8 : L(2,x)L(4,x) > C można zapisać jako

K = x ∈ R8 :

8∑i=1

log xi > C

Należy zauważyć, że logXi ma rozkład Exp(θ) stąd∑8i=1 logXi ma przy zadanym θ rozkład

Γ(8, θ). Stąd

α(C) + β(C) = Pθ=4(K) + 1−Pθ=2(K) =

=

∫ ∞C

48

7!exp(−4x)dx+

∫ C

0

28

7!exp(−2x)dx = f(C).

Poszukujemy C takiego, że f ′(C) = 0 Równanie f ′(C) = 0 jest równoważna

e−2C = 28e−4C .

Czyli C = 4 log 2. Pozostaje obliczyć α(C)+β(C). Można skorzystać z tablic rozkładu chi-kwadrat,wtedy odpowiedzią jest 0, 3336. Alternatywnie korzystając z rozkładu normalnego dla zmiennej Zz rozkładu N (0, 1)

α(C) = Pθ=4(

∑8i=1 logXi − 2√

1/26C − 2√

1/2) ' P(Z >

(8 log 2)− 4√2

) ' 0, 1373

5

Page 33: 1 Kombinatoryka

oraz

β(C) = Pθ=2(

∑8i=1 logXi − 4√

2<C − 4√

2) ' P(Z <

(4 log 2)− 4√2

) ' 0, 1927,

a stąd α(C) + β(C) ' 0, 330.

8. (Eg 57/8) Niech X będzie zmienną losową o rozkładzie Weibulla o gęstości

fθ(x) = 3θx2 exp(−θx3), gdy x > 0 oraz fθ(x) = 0 gdy x 6 0.

gdzie θ > 0 jest nieznanym parametrem. Niestety nie obserwujemy zmiennej X, ale zmienną YrównąX−1, gdyX > 1. W wyniku tych obserwacji otrzymujemy prostą próbę losową Y1, Y2, ..., Y10

(nie wiemy ile razy pojawiły się wartości zmiennej X z przedziału (0, 1]) i na jej podstawie wyzna-czamy estymator największej wiarogodności θ parametru θ. Dobierz stałą c tak, aby zachodziłarówność

Pθ(θ < cθ) = 0, 95.

Odp: D-> 1, 57.Rozwiązanie. W zadaniu musimy przejść do zmiennych Yi które mają gęstość fθ(xi|xi > 1). Jestjasne, że p = P(Xi > 1) ma postać

p =

∫ ∞0

3θx2 exp(−θx3)dx =

∫ ∞1

θ exp(−θx)dx = e−θ.

Zatem zmienne Yi mają gęstość eθfθ(yi + 1)1yi>0, stąd wiarygodność ma postać

L(θ, y) = e10θ10∏i=1

fθ(yi + 1)1yi>0.

Aby obliczyć estymator największej wiarygodności rozważmy funkcję f(θ) = logL(θ, y), którejpochodna ma postać jest równa

f ′(θ) = 10 + 101

θ−

10∑i=1

(yi + 1)3.

Stąd θ = 10∑10i=1((Yi+1)3−1)

. Zauważmy, że dla przechodząc do zmiennych obserwowanych Yi tenestymator ma postać

θ =10∑10

i=1((1 + Yi)3 − 1)

Pozostaje sprawdzić dla jakiego c zachodzi

Pθ(θ 610c∑10

i=1(1 + Yi)3 − 1) = 0, 95.

Oczywiście (1 + Yi)3 ma rozkład wykładniczy Exp(θ) przesunięty o 1. Stąd też

∑10i=1(1 + Yi)

3 marozkład Γ(10, θ) przesunięty o 10. Ściślej

∑10i=1(1 + Yi)

3 ma ten sam rozkład co 10 + Y , gdzie Yma rozkład Γ(10, θ). Stąd

Pθ(θ 610c∑10

i=1(1 + Yi)3 − 1) = Pθ(θ 6

10c

Y) = 0, 95.

Łatwo zauważyć, że Y ma ten sam rozkład co Z/(2θ), gdzie Z ma rozkład Γ( 202 ,

12 ) czyli χ2 z 20

stopniami swobody. Zatem0, 95 = P(Z 6 20c)

Z tablic rozkładu χ2 dostajemy 20c ' 31, 410, czyli c ' 1, 57.

6

Page 34: 1 Kombinatoryka

9. (Eg 58/3) Niech X1, X2, ..., X10 będą niezależnymi zmiennymi losowymi o tym samym rozkładzie.Weryfikowano hipotezę H0 : VarX = 4 przy alternatywie H1 : VarX > 4. Zakładając, że zmiennelosowe X, mają rozkład normalny o wartości oczekiwanej 0 wykorzystano test jednostajnie naj-mocniejszy na poziomie 0, 05. W rzeczywistości zmienne losowe X, mają rozkład o gęstości

fc(x) = c|x| exp(−cx2),

gdzie c > 0 jest nieznanym parametrem. Wyznacz rzeczywisty rozmiar wykorzystanego testu(wybierz najlepsze przybliżenie).Odp: B-> 0, 013.

Rozwiązanie. Korzystamy z testu Neymana Pearsona dla gaussowskich zmiennych losowych.Iloraz wiarygodności dla θ > 4 ma postać

L(θ, x)

L(4, x)=

(2π4)5

(2πθ)5exp(−1

2(1

θ− 1

4)

10∑i=1

x2i )

co jest rosnącą funkcją∑10i=1 x

2i . Zatem obszar krytyczny ma postać

K = x ∈ R10 :

10∑i=1

x2i > C

dla C takiego, że PVarX=4(∑10i=1X

2i > C) = 0, 05. Oczywiście przy VarX = 4 rozkład

∑10i=1X

2i

to rozkład zmiennej 4Z, gdzie Z ma rozkład χ2 z 10 stopniami swobody. Z tablic otrzymujemy,że C/4 = 18, 307. Pozostaje obliczyć

α(c) = Pc(

10∑i=1

X2i > C)

dla Xi o rozkładzie z gęstością fc(x). Zauważmy najpierw, że X2i ma rozkład o dystrybuancie

P(X2i 6 t) = 2P(0 6 Xi 6

√t)

skąd wyznaczamy gęstość c exp(−ct)1t>0, czyli X2i ma rozkład wykładniczy z parametrem c Pa-

rametr c obliczamy z warunku, że EX2i = VarXi = 4. Stąd c = 1/4. Zatem

∑10i=1X

2i ma rozkład

Γ(10, 14 ). Ostatecznie

∑10i=1X

2i ma rozkład jak 2Z, gdzie Z pochodzi z rozkładu Γ( 20

2 ,12 ) czyli

χ2(20). Z tablic odczytujemy, żeP(Z > C/2) ' 0, 013.

10. (Eg 59/9) Zakładając, że zmienne losowe X1, X2, ..., X5, Y1, Y2, , ..., Y5 są niezależnymi zmien-nymi losowymi, przy czym Xi, i = 1, 2, ..., 5 mają rozkłady normalne N (µX , 1), a zmienne Yi,i = 1, 2, ..., 5 mają rozkłady normalne N(µY , 2

2), zbudowano test najmocniejszy dla weryfikacjihipotezy : H0 : µX = µY = 0 przy alternatywie H1 : µX = 1 i µY = −1 na poziomie istotno-ści 0, 05. W rzeczywistości zmienne losowe (Xi, Yi), i = 1, 2, ..., 5 są niezależne i mają rozkładynormalne o parametrach EXi = µX , EYi = µY , VarXi = 1, VarYi = 4, współczynnik korelacjiρ(Xi, Yi) = 0, 5. Przy tych warunkach moc zbudowanego testu jest równa: ?Odp: E-> 0, 87.

Rozwiązanie. Stosujemy test Neymana-Pearsona, obliczamy iloraz wiarygodności

L((1,−1), (x, y))

L((0, 0), (x, y))= exp(

5∑i=1

(xi −yi4

) +25

8)

7

Page 35: 1 Kombinatoryka

Zatem obszar krytyczny ma postać K = (x, y) ∈ R5 × R5 :∑5i=1(xi − yi

4 ) > C; , gdzie C jesttak dobrane aby

P(µX ,µY )=(0,0)(

5∑i=1

(Xi −Yi4

) > C).

Niech Z będzie z rozkładu N (0, 1). Przy założeniu µX = µY = 0 rozkład∑5i=1(Xi− Yi

4 ) ma postać52Z. Stąd

25C ' 1, 64. Należy więc sprawdzić rozkład

∑5i=1(Xi − Yi

4 ) przy założeniu korelacji orazµX = 1, µY = −1. Obliczamy wartość oczekiwaną E

∑5i=1(Xi− Yi

4 ) = 254 . Obliczamy kowariancję

Cov(Xi, Yi) = 1 i wreszcie wariancję

Var(

5∑i=1

(Xi −Yi4

)) =25

4− 5

2=

15

4.

Zatem∑5i=1(Xi − Yi

4 ) ma rozkład 254 +

√152 Z, gdzie Z ma rozkład N (0, 1). Stąd

P(µX ,µY )=(1,−1)(

5∑i=1

(Xi −Yi4

) 6 C) = P(25

4+

√15

2Z >

5

2· 1, 64) ' 0, 866.

11. (Eg 60/5) Obserwujemy niezależne zmienne losowe X1, X2, X3, Y1, Y2, Y3, Y4, Y5. Zmienne losoweX1, X2, X3 mają ten sam rozkład o dystrybuancie Fµ1

, a zmienne Y1, Y2, Y3, Y4, Y5 mają ten samrozkład o dystrybuancie Fµ2

. Dystrybuanta Fµ warunek

Fµ(x) = F (x− µ)

dla pewnej ustalonej, nieznanej, ciągłej, ściśle rosnącej dystrybuanty F . Weryfikujemy hipotezęH0 : µ1 = µ2 przy alternatywie H1 : µ1 6= µ2 stosując test o obszarze krytycznym

K = S : S < 10 ∨ S > 17,

gdzie S jest sumą rang zmiennych losowych X1, X2, X3 w próbce złożonej ze wszystkich obserwacjiustawionych w ciąg rosnący. Wyznaczyć rozmiar testu.Odp: B-> 0, 250.Rozwiązanie. Korzystamy z testu rangi. Wszystkich możliwych rozmieszczeń 3 elementów wśród8 jest

(83

)= 56. Obliczamy teraz liczbę rozmieszczeń dla zbioru krytycznego to znaczy spełniającą

warunki S < 10 lub S > 17. Dla S < 10 jest ich tyle samo co dla S > 17 czyli 7. Zatem rozmiartestu wynosi 14

56 = 0, 25.

12. (Eg 60/8) Zakładając, że zmienne losowe X1, X2, X3 są niezależne i mają jednakowy rozkładjednostajny na przedziale (−θ, θ), gdzie θ > 0 jest nieznanym parametrem, weryfikujemy hipotezęH0 : θ = 1 przy alternatywieH1 : θ 6= 1 za pomocą testu jednostajnie najmocniejszego na poziomieistotności 0, 2. W rzeczywistości zmienne losowe X1, X2, X3 są niezależne o tym samym rozkładzieo gęstości

p(x) =1

4|x|, gdy x ∈ (−2, 2), oraz p(x) = 0 gdy |x| > 2.

Prawdopodobieństwo zbioru krytycznego rozważanego testu przy tym rozkładzie zmiennychX1, X2, X3

jest równe: ?Odp: B-> 0, 9850.Rozwiązanie. Zazwyczaj testy najmocniejsze są jednostronne. Znajdźmy strukturę testu Ney-mana Pearsona dla θ > 1 opartą o iloraz wiarygodności

L(θ, x)

L(1, x)=

∏3i=1 1|xi|6θ

θ3∏3i=1 1|xi|61

8

Page 36: 1 Kombinatoryka

jest stale równy 1/θ3 na zbiorze T = max16i63 |xi| 6 1 i może być nieskończony dla T > 1. Tooznacza, że w zbiorze krytycznym znajduje się zbiór x ∈ R3 : T > 1. Dla θ < 1

L(θ, x)

L(1, x)=

∏3i=1 1|xi|6θ

θ3∏3i=1 1|xi|61

co daje 1 gdy T 6 θ oraz 0 gdy T > θ na zbiorze T 6 1, czyli jest rosnącą funkcją statystyki1/T . To oznacza, że w zbiorze krytycznym znajduje się zbiór x ∈ R3 : T (x) 6 C. Pozostajesprawdzić, że dla C dobranego tak, że Pθ=1(T (X) ∈ K) = 0, 2 obszar krytyczny spełnia warunkidostateczne testu Neymana-Persona dla dowolnego θ. Obliczamy

Pθ=1(T (X) 6 C ∪ T (X) > 1) = 0, 2.

Stąd C3 = 0, 2. Przy poprawionej funkcji gęstości dostajemy

Pθ=1(T (X) 6 C ∪ T (X) > 1) = (1

4C2)3 + 1− (

1

4)3 = 0, 985.

13. (Eg 61/1) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi z rozkładu jednostaj-nego na przedziale (0, θ1), a Y1, Y2, ..., Y6 niezależnymi zmiennymi losowymi z rozkładu jednostaj-nego na przedziale (0, θ2) , gdzie θ1, θ2 są nieznanymi parametrami dodatnimi. Wszystkie zmiennesą niezależne. Weryfikujemy hipotezę H0 : θ1 = θ2 przy alternatywie H1 : θ1 = 2θ2 testem oobszarze krytycznym

K = max(X1, X2, ..., X6)

max(Y1, Y2, ..., Y6)> c,

gdzie c jest stałą dobraną tak, aby test miał rozmiar 0, 1. Moc tego testu jest równaOdp: B-> 0, 961.

Rozwiązanie. W tym zadaniu dysponujemy obszarem krytycznym zatem wystarczy przeprowa-dzić odpowiedni rachunek. Najpierw zauważmy, że (max16i66Xi,max16i66 Yi) ma rozkład na R2

o gęstości6t5

θ61

106t6θ16s5

θ62

106s6θ2 .

Zatem

Pθ1,θ2(max16i66Xi

max16i66 Yi> c) =

∫ θ1

0

∫ θ2

0

1 xy>c

36x5y5

θ61θ

62

dydx =

=

∫ θ1

0

∫ θ2∧ xc 36x5y5

θ61θ

62

dydx =

∫ θ1

0

6x5(θ2 ∧ xc )6

θ61θ

62

dx =

=(θ1 ∧ cθ2)12

2c6θ61θ

62

+ 1− (θ1 ∧ cθ2)6

θ61

.

Dla θ1 = θ2 zatem rozmiar testu wynosi

α(c) =(1 ∧ c)12

2c6+ 1− (1 ∧ c)6.

Czyli c6/2 = 1− 0, 1, c6 = 1, 8. Dla θ1 = 2θ2 dostajemy

β(c) =c12

27c6+ 1− c6

26= 1− 1.8

27' 0, 986.

9

Page 37: 1 Kombinatoryka

14. (Eg 62/1) Każda ze zmiennych losowych X1, X2, ..., X9 ma rozkład normalny z nieznaną wartościąoczekiwaną m1 i wariancją 1, a każda ze zmiennych losowych Y1, Y2, ..., Y9 rozkład normalny z nie-znaną wartością oczekiwaną m2 i wariancją 4. Założono, że wszystkie zmienne losowe są niezależnei wyznaczono, przy tych założeniach, test oparty na ilorazie wiarogodności dla testowania hipotezyH0 : m1 = m2 przy alternatywie H1 : m1 6= m2 na poziomie istotności 0, 05. W rzeczywistościzałożenie to nie jest spełnione:

• co prawda pary zmiennych (X1, Y1), (X2, Y2), ..., (Xn, Yn) są niezależne i mają rozkłady nor-malne, ale

• dla i = 1, 2, ..., 6, Xi, Yi są zależne i współczynnik korelacji Corr(Xi, Yi) = − 12 .

Moc testu przy alternatywie m1 = m2 + 1 jest równa:?Odp: B-> 0, 293.Rozwiązanie. Stosujemy test oparty na ilorazie wiarygodności

LK(x)

LH(x)=

sup(m1,m2)∈K L((m1,m2), x)

supθ∈H L((m1,m2), x).

Obliczamy

sup(µ1,µ2)∈K

L((m1,m2), x) = sup(m1,m2)

(2π)92 (8π)

92 exp(−

9∑i=1

[(xi −m1)2

2+

(yi −m2)2

8]) =

= supm1,m2

(2π)92 (8π)

92 exp(−

9∑i=1

[(xi − x)2

2+

(yi − y)2

8]),

gdyż maksimum jest osiągane dla m1 = x = 1n (x1 + ...+ xn), m2 = y = 1

n (y1 + ...+ yn). Z drugiejstrony

sup(m1,m2)∈H

L((m1,m2), x) = supm1

(2π)92 (8π)

92 exp(−

9∑i=1

[(xi −m1)2

2+

(yi −m1)2

8]) =

= supm1

(2π)92 (8π)

92 exp(−

9∑i=1

[x2i

2+y2i

8− 2

5n(x+

y

4)2]).

Stąd

exp(−9∑i=1

[n(x2

2+y2

8− 2

5(x+

y

4)2)]) = exp(n

9∑i=1

(x− y)2

10).

Zatem obszar krytyczny ma postać

K = (x, y) : |x− y| > C

co warto zapamiętać jako fakt pomocniczy. Obliczamy wartość C

Pm1=m2(|X − Y | > C) = 0, 05.

Przy założeniu X − Y ma rozkład N (0, 59 ) czyli dla Z z rozkładu N (0, 1)

Pm1=m2(|X − Y | > C) = P(

√5

3|Z| > C) = 0, 05.

Zatem 3√5C = 1, 96, C =

√5

3 · 1, 96. Dla m1 = m2 + 1 rozkład X − Y ma wartość średnią 1. Nadtoprzy założeniach o korelacji dla i = 1, 2, ..., 6 zachodzi Cov(Xi, Yi) = −1. Zatem

Var(X − Y ) =11

27.

10

Page 38: 1 Kombinatoryka

Obliczamy

Pm1=m2+1(|X − Y | > C) = P(|1 +

√11√27Z| > C) ' 0, 293.

15. (Eg 62/3) Załóżmy, że dysponujemy pojedynczą obserwacją X z rozkładu Laplace’a o gęstości

fµ,λ(x) =λ

2e−λ|x−µ|,

gdzie λ > 0 i µ ∈ R są parametrami. Rozważamy zadanie testowania hipotezy

H0 : µ = −1 i λ = 0, 5

przy alternatywieH1 : µ = 0 i λ = 1.

Obszar krytyczny najmocniejszego testu na poziomie istotności α jest postaci

K = x : x ∈ (b, 2).

Moc testu jest równaOdp: C-> 0, 676.

Rozwiązanie. Najmocniejszy test ma konstrukcję testu Neymana-Pearsona czyli powinniśmywyznaczyć iloraz wiarygodności

L((−1, 12 ), x)

L((0, 1), x)= 2 exp(−|x|+ 1

2|x+ 1|).

Zatem obszar krytyczny ma postać K = x ∈ R : −|x|+ 12 |x+1| > C. Stąd C = − 1

2 oraz b = − 23 .

Pozostaje obliczyć moc testu

Pµ=0,λ=1(X ∈ K) =

∫ 2

− 23

1

2e−|x|dx =

=1

2(1− e−2) +

1

2(1− e− 2

3 ) ' 0, 676.

11

Page 39: 1 Kombinatoryka

1 Warunkowe wartości oczekiwaneW tej serii zadań rozwiążemy różne zadania związane z problemem warunkowania.

1. (Eg 48/1) Załóżmy, że X1, X2, X3, X4 są niezależnymi zmiennymi losowymi o jednakowym rozkła-dzie Poissona z wartością oczekiwaną λ równą 10. Obliczyć ν = Var(X3 +X4|X1 +X2 +X3 = 9)Odp: C-> ν = 12.Rozwiązanie. Przypomnijmy, że rozkład X3 pod warunkiem X1 + X2 + X3 = 9 ma postaćBernoulliego B(9, 12 ). Warto zauważyć, że

Var(X3+X4|X1+X2+X3 = 9) = VarX4+Var(X3|X1+X2+X3 = 9) = λ+9· 13· 23

= 10+2 = 12.

2. (Eg 49/7) Niech X0, X1, X2, ..., Xn, n > 2, będą niezależnymi zmiennymi losowymi z rozkładuPareto o gęstości f(x) = 3

(1+x)4 1x>0. Niech U = minX0, X1, X2, ..., Xn. Wtedy E(U |X0 = 1)jest równaOdp: E-> 1

3n−1 (1− 123n−1 ).

Rozwiązanie. Obliczamy

E(U |X0 = 1) = Emin1, X1, X2, ..., Xn =

= P(minX1, ..., Xn > 1) +

∫ 1

0

P(t < minX1, ..., Xn 6 1)dt =

= (

∫ ∞1

f(x)dx)n +

∫ 1

0

(

∫ 1

t

f(x)dx)ndt = 2−3n +

∫ 1

0

[(1 + t)−3n − 2−3n]dt =

=

∫ 1

0

(1 + t)−3ndt =1

3n− 1(1− 2−3n+1).

3. (Eg 50/2) Niech X i Y będą niezależnymi zmiennymi losowymi każda z rozkładu wykładniczegoo wartości oczekiwanej 1. Niech U = 2X + Y i V = X − Y . Wtedy prawdopodobieństwo P(U ∈(0, 6) i V ∈ (0, 6)) jest równeOdp: C-> 1

2 (1− 4e−3 + 3e−4).Rozwiązanie. Mamy do policzenia prawdopodobieństwo, że (U, V ) ∈ (0, 6)2. Jest jasne, że(U, V ) jest przekształceniem liniowym T (X,Y ). Zatem (U, V ) ∈ (0, 6)2 tłumaczy się na (X,Y ) ∈T−1(0, 6)2. Wystarczy sprawdzić na co przekształcane są punkty (0, 0), (6, 0), (0, 6), (6, 6), dosta-jemy (0, 0), (2, 2), (2,−4), (4,−2) czyli wierzchołki równoległoboku R. Mamy

P((U, V ) ∈ (0, 6)2) = P((X,Y ) ∈ R) =

∫ 2

0

∫ x

0

e−ydydx+

∫ 3

2

∫ 6−2x

0

e−ydye−xdx =

=

∫ 2

0

(e−x − e−2x)dx+

∫ 3

2

(e−x − e−6+x)dx = 1− e−2 − 1

2(1− e−4) + e−2 − e−3 − e−3 + e−4 =

=1

2(1− 4e−3 + 3e−4.

4. (Eg 51/1) Niech będzie dwuwymiarową zmienną losową o funkcji gęstości f(x, y) = 2x2+ 43xy10<x<110<y<1

Niech S = X + Y i V = Y −X. Wyznacz E(V |S = 1).Odp: C-> − 3

8 .Rozwiązanie. W tym zadaniu należy wyznaczyć trzeba wyznaczyć rozkład (S, V ) mamy

fS,V (s, v) =1

2f(

1

2(s− v),

1

2(s+ v)) = [

1

4(s− v)2 +

1

6(s2 − v2)]1|v|<min(s,2−s).

1

Page 40: 1 Kombinatoryka

Pozostaje zatem wyznaczyć rozkład warunkowy

fS,V (v|s = 1) =[ 14 (1− v)2 + 1

6 (1− v2)]1|v|<1∫ 1

−114 (1− v)2 + 1

6 (1− v2)dv=

=9

8[1

4(1− v)2 +

1

6(1− v2)]1|v|61.

Obliczamy

E(V |S = 1) =

∫ 1

−1

9

32v(1− v)2 +

3

16(v − v3)dv = −3

8.

5. (Eg 52/7) Niech (X,Y ) będzie dwuwymiarową zmienną losową o funkcji gęstości

f(x, y) = e−x1x>010<y<1.

Niech Z = X + 2Y . Wtedy łączny rozkład zmiennych Z,X jest taki, żeOdp: D-> jego funkcja gęstości na zbiorze (z, x) : 0 < x < z < 2 + x wyraża się wzoremg(z, x) = 1

2e−x.

Rozwiązanie. Mamy przekształcenie (Z,X) = T (X,Y ), gdzie T jest przekształceniem liniowymT (X,Y ) = (X+2Y,X). Zatem T−1(Z,X) = (X, 12 (Z−X)), nadto moduł z wyznacznika |DT−1| =12 . Obliczamy

fZ,X(z, x) =1

2f(x,

1

2(z − x)) =

1

2e−x1x>010< 1

2 (z−x)<1 =1

2e−x10<x6z62+x.

6. (Eg 53/1) Zmienna losowa X ma rozkład wykładniczy o wartości oczekiwanej 1, a zmienna losowa Yrozkład wykładniczy o wartości oczekiwanej 2. Obie zmienne są niezależne. Oblicz E(Y |X+Y = 3)Odp: A-> 1, 86.Rozwiązanie. Należy wyznaczyć wspólny rozkład (Y,X + Y ) = T (X,Y ). Zatem T−1(U, V ) =(V − U,U) oraz |DT−1| = 1 co oznacza, że

fY,X+Y (u, v) = e−(v−u)1

2e−

12u1v−u>01u>0 =

1

2e−v+

12u1v>u>0.

Stąd

fY,X+Y (u|v) =e

12u1v>u>0

2(e12 v − 1)

.

Zatem

E(Y |X + Y = 3) = (1− e−3)−1∫ 3

0

ue−udu =4 + 2 · e 3

2

2(e32 − 1)

' 1, 86.

7. (Eg 54/2) Załóżmy, że niezależne zmienne losowe X1, X2, ..., Xn mają rozkłady wykładnicze owartościach oczekiwanych równych EXi = 1

i , i = 1, 2, ..., n. Wtedy prawdopodobieństwo P(X1 =minX1, X2, ..., Xn) jest równeOdp: D-> 2

n2+n .Rozwiązanie. Przypomnijmy, że min(X2, ..., Xn) ma rozkład wykładniczy którego parametr jestsumą parametrów poszczególnych zmiennych to znaczy Exp(2 + 3 + ... + n) = Exp( (n+1)n

2 − 1).Nadto jeśli X,Y są niezależne z rozkładu Exp(1), to X1 ∼ X, min(X2, ..., Xn) ∼ 2

n2+n−2Y . Zatem

P(X1 = minX1, X2, ..., Xn) = P(X 62

n2 + n− 2Y ) = EP(X 6

2

n2 + n− 2Y |X) =

=

∫ ∞0

e−n2+n−2

2 xe−xdx =2

n2 + n.

2

Page 41: 1 Kombinatoryka

8. (Eg 56/3) Niech (X,Y ) będzie dwuwymiarową zmienną losową o funkcji gęstości

f(x, y) =2

x31x>1116y62.

Niech S = X + Y i V = X − Y . Wtedy P(V < 1|S = 4) jest równeOdp: C-> 81

125 .Rozwiązanie. Należy wyznaczyć rozkład (V, S) = (X−Y,X+Y ) = T (X,Y ). Mamy T−1(V, S) =( 12 (S + V ), 12 (S − V )), |DT−1| = 1

2 , stąd

fV,S(v, s) =1

2f(s+ v

2,s− v

2) =

8

(s+ v)31s+v>2126s−v64

ZatemfS,V (v|s = 2) =

288

5(4 + v)3106v62.

Pozostaje obliczyć

P(V < 1|S = 4) =

∫ 1

0

288

5(4 + v)3dv =

81

125.

9. (Eg 57/5) Niech X i Y będą niezależnymi zmiennymi losowymi z rozkładów o gęstościach fX(x) =32x2e−4x1x>0, fY (x) = 16xe−4x1x>0. Wtedy E(X − Y |X + Y = s) jest równaOdp: C-> 1

5s.Rozwiązanie. W tym zadaniu szczęśliwie mamy te same parametry przy rozkładach gamma.Rozkład zmiennej X ma postać Γ(3, 4) rozkład Y ma postać Γ(2, 4). Możemy skorzystać z wiedzy,że rozkład X pod warunkiem X + Y ma rozkład Beta(3, 2) (niezależny od X + Y ), natomiastrozkład Y ma rozkład Beta(2, 3) (niezależny od X+Y ). Przypomnijmy, że dla rozkładu Beta(α, β)wartość oczekiwana wynosi α

α+β . Zatem

E(X − Y |X + Y = s) = sEX

X + Y− sE Y

X + Y= s(

3

5− 2

5) =

s

5.

10. (Eg 58/10) Niech Z1, Z2, ..., Zn będą niezależnymi zmiennymi losowymi o rozkładzie jednostajnymna przedziale (−1, 1). Wyznaczyć E(Z1+Z2+...+Zn|max(Z1, Z2, ..., Zn) = t), gdzie t jest ustalonąliczba z przedziału (−1, 1))

Odp: E-> (n+1)t−n+12 .

Rozwiązanie. Problem najpierw redukujemy do zmiennych X1, X2, ..., Xn z rozkładu jednostaj-nego na (0, 1) podstawieniem Zi = −1 + 2Xi. Stąd

E(Z1 + ...+ Zn|max(Z1, ..., Zn) = t) = −n+ 2E(X1 + ...+Xn|max(X1, ..., Xn) =1 + t

2).

Zauważmy, że max(X1, ..., Xn) ma rozkład o gęstości g(t) = ntn−1 Zatem szukamy funkcji bore-lowskiej F : R→ R takiej, że

EX1 + ...+Xn1max(X1,...,Xn)∈A = EF (max(X1, ..., Zn))1max(X1,...,Xn)∈A =

∫A

F (t)g(t)dt.

Statystyki pozycyjne Xn:1, ..., Xn:n mają rozkład jednostajny na sympleksie 4n = x ∈ Rn : 0 6x1 6 x2... 6 xn 6 1 o gęstości n!106x16...6xn61. Obliczamy

EX1 + ...+Xn1max(X1,...,Xn)∈A = E(Xn:1 + ...+Xn:n)1Xn:n∈A =

= n!

∫4n

(

n∑i=1

xi)1xn∈Adx1...dxn = n!

∫A

(

∫ xn

0

...

∫ x2

0

n∑i=1

xidx1...dxn−1)dxn.

3

Page 42: 1 Kombinatoryka

Pozostaje zauważyć, że

(n− 1)!

xn−1n

∫ xn

0

...

∫ x2

0

n∑i=1

xidx1...dxn−1 = (xn + (n− 1

2)xn) =

n+ 1

2xn.

Stąd

EX1 + ...+Xn1max(X1,...,Xn)∈A =

∫A

n(n+ 1)

2xnndxn =

∫A

(n+ 1)

2tg(t)dt.

Czyli F (s) = n+12 s. Podstawiając s = 1+t

2 otrzymujemy

E(Z1 + ...+ Zn|max(Z1, ..., Zn) = t) = −n+ 2n+ 1

2

1 + t

2=

(n+ 1)t− n+ 1

2.

11. (Eg 59/3) Zmienne losowe Xj , gdzie j = 1, 2, 3, ... są warunkowo niezależne pod warunkiem zmien-nej Θ i mają rozkłady warunkowe o wartości oczekiwanej Θ i wariancji 4Θ2. Zmienna losowa Npod warunkiem zmiennej losowej Λ = λ ma rozkład Poissona o wartości oczekiwanej λ. Zmienne(X1, X2, ...), N są niezależne. Zmienna Θ ma rozkład Gamma z parametrami (100, 2), a zmiennaΛ ma rozkład Gamma z parametrami (2, 4). Zmienne Λ i Θ są niezależne. Wariancja zmiennejlosowej

SN =

N∑i=1

Xi, dla N > 0 S = 0 dla N = 0

jest równaOdp: E-> 6634, 375.Rozwiązanie. Mamy do policzenia wariancje SN . Najpierw wyznaczamy wartość oczekiwaną

ESN =

∞∑n=0

P(N = n)ESn =

∞∑n=0

P(N = n)EE(Sn|θ) =

= ENEΘ = EE(NΛ)EΘ = EΛEΘ =1

2· 50 = 25.

Obliczamy

ES2N =

∞∑n=0

P(N = n)ES2n =

∞∑n=0

P(N = n)ES2n =

=

∞∑n=0

P(N = n)EE(S2n|θ) =

∞∑n=0

P(N = n)EnVar(X|Θ) + n2(E(X|Θ))2 =

= 4ENEΘ2 + EN2EΘ2 = 4EE(NΛ)EΘ2 + EE(N2|Λ)EΘ2 =

= E(Λ2 + 5Λ)EΘ2 = 7259, 375.

Stąd VarSn = 6634, 375.

12. (Eg 59/6) Niech A, B, C będą zdarzeniami losowymi spełniającymi warunki P(C\B) > 0 iP(B\C) > 0 i P(B ∩ C) > 0 i P(A|C\B) > P(A|B). WtedyOdp: B-> P(A|B ∪ C) > P(A|B).Rozwiązanie. Mamy

P(A|B ∪B) =P(A ∩ (B ∪ C))

P(B ∪ C)=

P(A ∩B) + P(A ∩ (C\B))

P(B) + P(C\B)=

P(A|B)P(B) + P(A|C\B)P(C\B)

P(B) + P(C\B)>

P(A|B)P(B) + P(A|B)P(C\B)

P(B) + P(B\C)= P(A|B).

4

Page 43: 1 Kombinatoryka

13. (Eg 60/7) Wybieramy losowo i niezależnie dwa punkty z odcinka [0, 2π] Traktując te dwa punktyjako punkty na okręgu o promieniu 1, obliczyć wartość oczekiwaną odległości między nimi (odle-głość mierzymy wzdłuż cięciwy).Odp: B-> 4

π .

Rozwiązanie. Jeden z punktów możemy ustalić. Wtedy wybór drugiego punktu to wybór kąta αtworzonego przez środek okręgu i dwa punktu. Długość cięciwy liczymy ze wzoru 2 sinα/2 gdzieα pochodzi z rozkładu jednostajnego na [0, 2π]. Zatem wartość oczekiwana ma postać

1

∫ 2π

0

2 sinα

2dα =

4

π.

14. (Eg 61/8) Niech U i V będą niezależnymi zmiennymi losowymi z rozkładu jednostajnego naprzedziale (0, 1). Niech

Z =U

12

U12 + V 4

,

wtedy E(Z|U 12 + V 4 < 1) jest równe ?

Odp: B-> 89 .

Rozwiązanie. Zadanie polega na umiejętnym wykorzystaniu rozkładu beta. Zauważmy najpierw,że zmienne (X,Y ) = ( U

12

U12 +V 4

) powstają przez przekształcenie T : (0, 1)2 → (0, 1) × (0, 2) któ-

rego odwrotne ma postać T−1(X,Y ) = ((XY )2, ((1 − X)Y )14 ), a którego jakobian ma postać

|DT−1(x, y)| = 12xy

5(1− x)−34 . Stąd gęstość rozkładu (X,Y ) ma postać

1

2xy

54 (1− x)−

34 (10<x<110<y<1 + 11− 1

y<x<1y116y<2).

Pozostaje obliczyć z rozkładu beta

P(Y < 1) =

∫ 1

0

∫ 1

0

1

2xy

54 (1− x)−

34 dxdy =

2

9

Γ(2)Γ( 14 )

Γ(2 + 14 )

=32

45.

Nadto ponownie z rozkładu beta

EX1Y <1 =

∫ 1

0

∫ 1

0

1

2x2(1− x)−

34 y

54 dxdy =

2

9

Γ(3)Γ( 14 )

Γ(3 + 14 )

=256

405.

Stąd

E(X|Y < 1) =45

32· 256

405=

8

9.

15. (Eg 62/5) Zmienna losowa (X,Y ) ma rozkład prawdopodobieństwa o funkcji gęstości f(x, y) =8xy10<y<x<1. Niech U = X + Y i V = X − Y . Wtedy E(V |U = 4

3 ) jest równa ?Odp: D-> 7

22 .

Rozwiązanie. Obliczamy wspólny rozkład (V,U) = T (X,Y ). Przekształcenie odwrotne ma po-stać T−1(V,U) = (1

2 (U + V ), 12 (U − V )), którego jakobian ma postać |DT−1| = 12 . Zatem

fV,U (v, u) =1

2f(u+ v

2,u− v

2) = 2(u2 − v2)10<v<min(u,2−u)10<u<2.

Pozostaje wyznaczyć gęstość warunkową

fV,U (v|u =4

3) =

81

88(16

9− v2)10<v< 2

3.

5

Page 44: 1 Kombinatoryka

Obliczamy

E(V |U =4

3) =

∫ 23 0 81

88v(

16

9− v2)dv =

7

22.

6

Page 45: 1 Kombinatoryka

1 Przedziały ufnościW tym rozdziale będziemy zajmować się przede wszystkim zadaniami związanymi z przedziałami ufności.Będą nas również interesować statystki pozycyjne oraz estymatory największej wiarygodności.

1. (Eg 48/10) Niech X1, X2, ..., Xn, n > 5 będą niezależnymi zmiennymi losowymi o rozkładziejednostajnym na przedziale (0, θ), gdzie θ > 0 jest nieznanym parametrem. Wyznaczamy przedziałufności dla parametru θ postaci

[2X3,n, 2Xn−2,n],

gdzie Xk,n oznacza k-tą statystykę pozycyjną z próby X1, X2, ..., Xn. Dla jakiej najmniejszej li-czebności próby losowej n zachodzi

Pθ(θ ∈ [2X2,n, 2Xn−2,n]) > 0, 9.

Odp: D-> 11.

Rozwiązanie. Należy pamiętać, że dla ustalonej wartości t zdarzenie Xk,n 6 t jest osiągnięciemco najmniej k sukcesów w doświadczeniu Bernoulliego z prawdopodobieństwem sukcesu F (t) = t/θdla 0 < t < θ, gdzie F jest dystrybuantą rozkładu jednostajnego na (0, θ). Zatem z prawdopodo-bieństwem sukcesu F (t) = t/θ dla 0 < t < θ, gdzie F jest dystrybuantą rozkładu jednostajnegona (0, θ). Zatem

Pθ(X2,n 6θ

26 Xn−2,n) = P(2 6 S 6 n− 2),

gdzie S pochodzi z rozkładu B(n, 12 ). Obliczamy

P(2 6 S 6 n−2) = 1−P(S 6 2)−P(S > n−2) = 1−2(

(n

2

)2−n+n2−n+2−n) = 1−(n2+n+2)2−n.

Dla n = 11 otrzymujemy po raz pierwszy wartość (n2 + n+ 2)2−n mniejszą od 0, 1.

333333

2. (Eg 49/10) Niech X1, X2, ..., X10 będą niezależnymi zmiennymi losowymi o tym samym rozkładzieo gęstości

fθ(x) = θxθ−11x∈(0,1),

gdzie θ > 0 jest nieznanym parametrem. Wyznaczamy przedział ufności dla parametru θ postaci

[cθ, dθ],

gdzie θ = θ(X1, X2..., X10) jest estymatorem największej wiarogodności, a stałe c i d są dobranetak, aby Pθ(θ < cθ) = Pθ(θ > dθ) = 0, 05. Wyznaczyć c i d. Odp: A-> c = 0, 54 i d = 1, 57.

Rozwiązanie. Obliczamy wiarygodność

L(θ, x) = θ1010∏i=1

xθ−1i 1xi∈(0,1).

Zatem dla ustalonego x funkcja f(θ) = lnL(θ, x) osiąga maksimum dla θ spełniającego f ′(θ) = 0,czyli

101

θ+

10∑i=1

lnxi = 0.

Stąd

θ = − 10∑10i=1 lnxi

.

1

Page 46: 1 Kombinatoryka

Pozostaje znaleźć c i d takie, że

Pθ(θ < cθ) = Pθ(θ > dθ) = 0, 05.

Nietrudno sprawdzić, że − lnXi ma rozkład wykładniczy z parametrem θ. Stąd −∑10i=1 lnXi ma

rozkład Gamma(10, θ). Zatem θ/θ ma rozkład Gamma(10, 10), który dalej jest tym samym co120Gamma( 20

2 ,12 ) czyli 1

20χ2(20). To oznacza, że 20c będzie dolnym a 20d górnym kwantylem dla

rozkładu χ2(20) dla wartości 0, 05. Korzystając z tablica znajdujemy c ' 0, 54, d ' 1, 57.

3. (Eg 50/5) NiechX1, ..., Xn, n > 1 będzie próbką z rozkładu jednostajnego o gęstości danej wzorem:

fθ(x) =1

θ1x∈(0,θ),

gdzie θ jest nieznanym parametrem. Zmienne losowe X1, ..., Xn nie są w pełni obserwowalne.Obserwujemy zmienne losowe Yi = min(Xi,M), gdzie M jest ustaloną liczbą dodatnią. Obliczestymator największej wiarogodności θ parametru θ jeśli wiadomo, że w próbce Y1, ..., Yn, jest Kobserwacji o wartościach mniejszych niż M i K ∈ 1, ..., n− 1 Odp: B-> Mn/K.

Rozwiązanie. Z danych zadania dostajemy, że θ > M . Szansa, że dokładnie K zmiennych będziemniejszych niż M wynosi (

n

K

)(M

θ)K(

θ −Mθ

)n−K .

Warto zauważyć, że przy okazji jest to funkcja wiarygodności. Poszukujemy wartości θ dla którejfunkcja f(θ) = lnL(θ, x) przyjmuje maksimum czyli punktu θ takiego, że f ′(θ) = 0. Zachodzi

−n1

θ+ (n−K)

1

θ −M= 0.

Zatem θ = Mn/K.

4. (Eg 51/2) Załóżmy, że X1, X2, ..., Xn, n > 2 są niezależnymi zmiennymi losowymi o jednakowymrozkładzie wykładniczym. Niech S =

∑ni=1Xi. Oblicz

p = P(X1 6 S/2, ..., Xn 6 S/2).

Odp: D-> 1− n2n−1 .

Rozwiązanie. Kluczowe to aby zauważyć, że zdarzeniem przeciwnym do X1 6 S/2, ..., Xn 6 S/2jest

⋃ni=1Xi > S/2. Zatem

P(X1 6 S/2, ..., Xn 6 S/2) = 1− nP(X1 > S/2).

Rozkład X1/S jest postaci Beta(1, n− 1). Stąd

P(X1 6 S/2) =

∫ 1

12

(n− 1)(1− y)n−2dy =1

2n−1.

Stąd p = 1− n2−n+1.

5. (Eg 52/9) Załóżmy, że X1, X2, ..., Xn, ... jest ciągiem niezależnych zmiennych losowych o jednako-wym rozkładzie wykładniczym o gęstości

f(x) =1

µexp(−x/µ) dla x > 0.

2

Page 47: 1 Kombinatoryka

Zmienna losowa N jest niezależna od X1, X2, ..., Xn, ... i ma rozkład geometryczny dany wzorem:

P(N = n) = p(1− p)n dla n = 0, 1, 2, ...

Niech SN =∑Ni=1 (przy tym S0 = 0, zgodnie z konwencją). Oblicz E(N |SN = s), dla s > 0.

Odp: D-> s(1− p)/µ+ 1.

Rozwiązanie. Stosujemy ogólny wzór Bayesa. Najpierw wyznaczamy gęstość (N,S) względemµ ⊗ λ, gdzie µ jest miarą liczącą na Z, a λ miarą Lebesgue’a na R. Przypomnijmy, że Sn marozkład Gamma(n, 1

µ )

fN,SN (n, s) = p(1− p)n sn−1

(n− 1)!µne−

sµ 1s>01N=0.

Rozkład (N,SN ) ma też atom w (0, 0) który osiąga z prawdopodobieństwem p. Obliczamy gęstośćwarunkową dla s > 0

fN,SN (n|s) =[(1− p)s]n−1

(n− 1)!µn−1e

(1−p)sµ 1n>0.

Zatem

E(N |Sn = s) =

∞∑n=1

n[(1− p)s]n−1

(n− 1)!µn−1e−

(1−p)sµ = 1 +

s(1− p)µ

.

6. (Eg 53/6) Rozważmy zmienne losowe N,X, Y . Wiadomo, że rozkład warunkowy zmiennej losowejN , gdy X = x i Y = y jest rozkładem Poissona o wartości oczekiwanej x. Rozkład warunkowyzmiennej losowej X, gdy Y = y jest rozkładem Gamma(2, y), a rozkład zmiennej Y jest rozkłademGamma(4, 3), gdzie rozkład Gamma(α, β) ma gęstość

pα,β =βα

Γ(α)xα−1e−βx1x>0.

Wtedy wariancja VarN jest równaOdp: B-> 7.

Rozwiązanie. Obliczamy

VarN = EN2 − (EN)2 = EE(N2|X,Y )− (EE(N,X, Y ))2 = E(X2 +X)− (EX)2 =

= EE(X2 +X|Y )− (EE(X|Y ))2 = E6

Y 2+

2

Y− (E

2

Y)2.

Dla zmiennej Z z rozkładu Gamma(α, β) jeśli α > 2, to EZ−2 = β2

(α−1)(α−2) oraz jeśli α > 1, toEZ−1 = β

α−1 . Zatem EY −2 = 32 , EY −1 = 3

3 = 1. Czyli

VarN = 9 + 2− 4 = 7.

7. (Eg 54/8) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi o tym samym rozkładzieo gęstości

pa,b = be−b(x−a)1x>a

gdzie a ∈ R i b > 0 są nieznanymi parametrami. Rozważmy estymator największej wiarygodności(Ta, Tb) wektora parametrów (a, b). Wartości oczekiwane ETa i ETb są równeOdp: D-> ETa = a+ 1

nb , ETb = nn−2b.

3

Page 48: 1 Kombinatoryka

Rozwiązanie. Obliczamy wiarygodność

L((a, b), x) = bn exp(−bn∑i=1

(xi − a))1min(xi)>a.

Szukamy punktu (a, b) maksymalizującego wiarygodność. Oczywiście Ta = min(x1, ..., xn) nato-miast b wyznaczamy korzystając z funkcji f(b) = lnL((Ta, b), x), rozwiązując równanie f ′(b) = 0czyli

n

b=

n∑i=1

(xi − Ta), zatem Tb =n∑n

i=1(xi − Ta).

Obliczamy

ETa − a =

∫ ∞0

P(Xi − a > t)ndt =

∫ ∞0

e−nbxdx =1

nb,

czyli ETa = a + 1nb . Z powodu braku pamięci rozkładu wykładniczego rozkład

∑ni=1(xi − Ta)

będzie rozkładem (n − 1) zmiennych niezależnych o rozkładzie wykładniczym z parametrem bczyli Gamma(n− 1, b). Obliczamy

ETb = n

∫ ∞0

bn−1

(n− 2)!xn−2e−bxdx =

n

n− 2b.

8. (Eg 55/6) Niech N oraz X1, X2, ... będą niezależnymi zmiennymi losowymi, przy czym N marozkład Poissona z wartością oczekiwaną λ = 1, zaś rozkład każdej ze zmiennych Xn podajenastępująca tabelka: [

x 1 2 3P(Xn = x) 1

214

14

].

Niech S =∑Ni=1Xi dla N > 0 i S = 0 dla N = 0. Oblicz warunkową wartość oczekiwaną

E(N |S = 3).Odp: A-> 27

19 .Rozwiązanie. Mamy klasyczny wzór Bayesa

E(N |S = 3) =

∞∑n=0

nP(N = n|S = 3) =

∞∑n=0

nP(S = 3|N = n)P(N = n)∑∞

m=0 P(S = 3|N = m)P(N = m).

Nadto∞∑n=0

nP(S = 3|N = n)P(N = n) = P(X1 = 3)P(N = 1) + 2(P(X1 = 2, X2 = 1)+

+ P(X1 = 1, X2 = 2))P(N = 2) + 2P(X1 = X2 = X3 = 1)P (N = 3) =

= e−1(1

4+

1

4+

1

16)

oraz∞∑m=0

P(S = 3|N = m)P(N = m) = P(X1 = 3)P(N = 1)+

+ (P(X1 = 2, X2 = 1) + P(X1 = 1, X2 = 2))P (N = 2) + P(X1 = X2 = X3 = 1) =

= e−1(1

4+

1

8+

1

48)

Stąd E(N |S = 3) = 2719 .

4

Page 49: 1 Kombinatoryka

9. (Eg 56/9) NiechX1, X2, ..., Xn będą zmiennymi losowymi o rozkładzie Pareto(1, a1) a Y1, Y2, ..., Ymbędą zmiennymi losowymi o rozkładzie Pareto(1, a2), gdzie a1, a2 > 0 są nieznanymi parametrami.Wszystkie zmienne są niezależne. Na poziomie ufności 1− α budujemy przedział ufności [dT, cT ]dla parametru a1

a2na podstawie estymatora największej wiarogodności T tegoż parametru w ten

sposób, żePa1,a2(cT <

a1

a2) = Pa1,a2(dT >

a1

a2) =

α

2.

Jeśli α = 0, 1 i m = 4 i n = 5, to przedział ufności ma długośćOdp: E-> 3, 02T .

Rozwiązanie. Jeśli m = 4 i n = 5, to funkcja wiarygodności ma postać

L((a1, a2), (x, y)) = α51α

42

5∏i=1

(xi)−α1−11xi>1

4∏j=1

(yj)−α2−11yj>1.

Zatem estymatorem ENW (α1, α2) jest punkt minimum funkcji f(α1, α2) = lnL((a1, a2), (x, y)),czyli rozwiązanie równania ∂f

∂α1= ∂f

∂α2= 0. Obliczamy

5

α1=

5∑i=1

lnxi,4

α2=

4∑i=1

ln yi.

Stąd α1 = 5∑5i=1 lnXi

, α2 = 4∑4i=1 lnYi

. Zatem

T =α1

α2=

5

4

∑4i=1 lnYi∑5i=1 lnXi

.

Oczywiście∑5i=1 lnXi ma rozkład Gamma(5, α1), a

∑4i=1 lnYi rozkład Gamma(4, α2) nadto te

zmienne są niezależne. Stąd 2α1

∑5i=1 lnXi ma rozkład Gamma( 10

2 ,12 ) = χ2(10), a 2α2

∑4i=1 lnYi

ma rozkład Gamma( 82 ,

12 ) = χ2(8). Zatem a1

a2T ma rozkład Fishera-Snedecora F (10, 8). Odczytu-

jemy z tablic c = 3, 347, d = 0, 326. Stąd długość [dT, cT ] wynosi w przybliżeniu 3, 021T .

10. (Eg 57/7) Niech X1, X2, ..., X10 będą niezależnymi zmiennymi losowymi o tym samym rozkładzieo nieznanej medianie m. Budujemy przedział ufności dla parametru m postaci [X3:10, X7:10], gdzieXk:10 oznacza k-tą statystykę pozycyjną z próby X1, X2, ..., X10. Prawdopodobieństwo P(m ∈[X3:10, X7:10]) jest równeOdp: A-> 114

128 .

Rozwiązanie. Należy zauważyć, że dla ustalonego t szansa, że Xk:10 6 t jest równe prawdopo-dobieństwu uzyskania co najmniej k sukcesów w doświadczeniu Bernoulliego z prawdopodobień-stwem F (t), gdzie F jest dystrybuantą wspólnego rozkładu zmiennych X1, ..., X10. Przyjmujemy,że rozkład jest ciągły (ściślej, że F (m) = 1

2 ), w przeciwnym razie zadanie nie daje się rozwiązać.Wówczas przyjmując, że zmienna S ma rozkład B(10, 1

2 ) zachodzi równość

P(m ∈ [X3:10, X7:10]) = P(3 6 S < 7) = 1− 2(1 + 10 + 45) + 120

210= 1− 23(14 + 15)

29=

99

128.

11. (Eg 58/2) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu Pareto o gę-stości

fθ(x) =θλθ

(λ+ x)θ+11x>0,

gdzie θ, λ > 0 są nieznanymi parametrami. Rozważmy estymatory największej wiarygodnościθn, λn parametrów θ i λ. Chcemy dobrać stałą t tak aby przy n dążącym do nieskończoności

5

Page 50: 1 Kombinatoryka

prawdopodobieństwo zdarzenia |θn− θ|√n > t było równe 0, 1. Jeżeli θ = 3 i λ = 1, to stała t jest

równaOdp: A -> 19, 7.

Rozwiązanie. W tym zadaniu najprościej skorzystać z twierdzeń o asymptotycznej zbieżności.Twierdzenia te bazują na analizie wiarygodności

L((θ, λ), x) =

n∏i=1

θλθ

(λ+ xi)θ+1, lnL((θ, λ), x) = n(ln θ + θ lnλ)− (θ + 1)

n∑i=1

ln(λ+ xi).

Aby zachodziła asymptotyczna normalność po pierwsze musi być spełniony warunek zgodności.To znaczy, że (θn, λn) → (θ, λ) przynajmniej według prawdopodobieństwa. Okazuje się, że przyróżniczkowalnej funkcji wiarygodności wystarczy aby ∂ lnL = 0, czyli równanie

∂ lnL((θ, λ), x)

∂θ= 0,

∂ lnL((θ, λ), x)

∂λ= 0

miało dokładnie jedno rozwiązanie dla dowolnego n. Sprawdzamy warunek

∂ lnL((θ, λ), x)

∂θ= n(

1

θ+ lnλ)−

n∑i=1

ln(λ+ xi) = 0,

∂ lnL((θ, λ), x)

∂λ= n

θ

λ− (θ + 1)

n∑i=1

1

λ+ xi= 0.

Zatem w rozwiązaniu tego równania parametr θ można wyrazić jako funkcję λ to znaczy

θ =

∑ni=1

λλ+xi

n−∑ni=1

λλ+xi

.

Natomiast powstała po podstawieniu wyliczonego θ funkcja od λ czyli

n(n∑n

i=1λ

λ+xi

− 1) + n

n∑i=1

lnλ

λ+ xi

jest malejąca i zmienia się od +∞ dla λ = 0 do −n dla λ = ∞ zatem ma tylko jedno miejscezerowe.

Jeśli teraz skończone są również drugie pochodne funkcji lnL to rozkłady (λn, θn) mają asympto-tycznie rozkład normalnyN ((λ, θ), Cn), gdzie macierz kowariancji Cn = −(E∂2 lnL)−1. Obliczamyzatem drugie pochodne

−∂2 lnL(θ, λ) =

[nθ2 −nλ +

∑ni=1

1λ+xi

−nλ +∑ni=1

1λ+xi

nθλ2 − (θ + 1)

∑ni=1

1(λ+xi)2

].

Pozostaje obliczyć odpowiednie parametry dla θ = 3 i λ = 1

En

θ2=n

9,

E− n

λ+

n∑i=1

1

λ+Xi= −n+

3

4n = −n

4, E

λ2− (θ + 1)

n∑i=1

1

(λ+Xi)2= 3n− 4n

3

5=

3n

5,

gdzie korzystamy z faktu E(λ+Xi)k = 3

3+k , dla k > 0. Stąd wynika, że

Cn =

[n9 −n4−n4

3n5

]−1

=15 · 16

n2

[3n5

n4

n4

n9

].

6

Page 51: 1 Kombinatoryka

W szczególności oznacza to, że (θn−3)√n

12 zbiega według rozkładu do Z z rozkładu N (0, 1). Obli-czamy

limn→∞

P(|θn − θ|√n > t) = lim

n→∞P(|θn − 3|

√n

12>

t

12) = P(|Z| > t

12) = 0, 1.

Z tablic dostajemy t12 ' 1, 64. Stąd t ' 19, 68.

12. (Eg 59/10) Niech X1, X2, ..., X10 będą niezależnymi zmiennymi losowymi o tym samym rozkładziePareto o gęstości

fθ(x) =2θθ

(2 + x)θ+11x>0,

gdzie θ > 0jest nieznanym parametrem. W oparciu o estymator największej wiarogodności Tparametru θ zbudowano przedział ufności dla θ na poziomie ufności 0, 95 postaci [cT, dT ], gdzieliczby c i d dobrano tak, aby Pθ(θ < cT ) = Pθ(θ > dT ) = 0, 025. Liczby c i d są równe Odp: A->c = 0, 48 i d = 1, 71.

Rozwiązanie. Obliczamy estymator ENW (θ), wiarygodność ma postać

L(θ, x) =

10∏i=1

2θθ

(2 + xi)θ+1,

stąd

lnL(θ, x) = 10θ ln 2 + 10 ln θ − (θ + 1)

10∑i=1

ln(2 + xi).

Należy znaleźć rozwiązanie równania ∂ lnL(θ,x)∂θ = 0, czyli

10 ln 2 +10

θ−

10∑i=1

ln(2 + xi) = 0.

To znaczy

θ =10∑10

i=1(ln(2 + xi)− ln 2).

Wyznaczmy rozkład ln(2 +Xi)− ln 2. Dla t > 0

P(ln(2 +Xi)− ln 2 > t) = P(Xi > 2et − 2) = 2θ(2et)−θ = e−θt,

czyli rozkładem ln(2+Xi)− ln 2 jest rozkład wykładniczy z parametrem θ. Stąd∑10i=1(ln(2+Xi)−

ln 2) ma rozkładGamma(10, θ). Zatem 1/T ma rozkład 10−1Gamma(10, θ) = 20−1θ−1Gamma( 202 ,

12 )

czyli 20−1θ−1χ2(20). Niech Z będzie z rozkładu χ2(20), zachodzi

Pθ(θ < cT ) = P(Z < 20c) = 0, 025, Pθ(θ > dT ) = P(Z > 20d) = 0, 025.

Z tablic rozkładu χ2 otrzymujemy 20c ' 9, 591, 20d ' 34, 170, czyli c ' 0, 48, d ' 1, 71.

13. (Eg 60/1) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu o gęstości

fθ(x) =1

θx−

1θ−11x>1,

gdzie θ ∈ (0, 1) jest nieznanym parametrem. Rozważamy nieobciążony estymator parametru θpostaci Tn = aY , gdzie Y = min(lnX1, lnX2..., lnXn) i a jest odpowiednio dobraną stałą (byćmoże zależną od liczebności próby n). Dla θ = 1

3 i ε = 16 zachodzi

Odp: C-> Pθ(|Tn − θ| > ε) = 1− e− 12 + e

32 .

7

Page 52: 1 Kombinatoryka

Rozwiązanie. Jak nietrudno stwierdzić lnXi ma rozkład wykładniczy Exp( 1θ ). Dalej rozkład Y

ma postać Exp(nθ ) i w końcu aY ma rozkład Exp( naθ ). Stąd a = n, niech teraz Z będzie z rozkładuExp(1), zachodzi

Pθ(|Tn − θ| > ε) = P(|θZ − θ| > ε) = P(|Z − 1| > 1

2).

Czyli

limn→∞

Pθ(|Tn − θ| > ε) = 1−P(Z ∈ [1

2,

3

2]) = 1− e− 1

2 + e−32 .

14. (Eg 61/7) Zmienna losowa X ma rozkład o gęstości

fθ(x) =θ

xθ+11x>1,

gdzie θ > 0 jest nieznanym parametrem. Nie obserwujemy zmiennej X ale zmienną Y równą X,gdy X jest większe od 2. Nie wiemy, ile było obserwacji zmiennej X nie większych niż 2 anijakie były ich wartości. W wyniku tego eksperymentu otrzymujemy próbkę losową Y1, Y2, ..., Y8

Na podstawie próbki budujemy przedział ufności dla parametru θ postaci [c1T, c2T ], gdzie T jestestymatorem największej wiarogodności parametru θ, a stałe c1 i c2 dobrane są tak, by

P(θ < c1T ) = P(θ > c2T ) = 0, 05

Wtedy długość przedziału ufności jest równaOdp: C-> 1, 146T .Rozwiązanie. Interesuje nas rozkład warunkowy X pod warunkiem, że X > 2 który ma gęstość

gθ(x) =θ2θ

xθ+11x>2.

Dalej zadanie jest standardowe, wyznaczamy estymator ENW (θ) z równania ∂ lnL(x,θ)∂θ = 0, czyli

8 ln 2 +8

θ−

8∑i=1

lnxi = 0.

Stąd

T =8∑8

i=1(lnXi − ln 2).

Dalej zauważamy, że lnXi−ln 2 ma rozkład Exp(θ). Stąd∑8i=1(lnXi−ln 2) ma rozkładGamma(8, θ)

i wreszcie T−1 ma rozkład 16−1θ−1Gamma( 162 ,

12 ) = 16−1θ−1χ2(16). To pozwala obliczyć stałe c1

i c2 z tablic rozkładu χ2. Istotnie niech Z będzie z rozkładu χ2(16), zachodzi

P(θ < c1T ) = P(Z < 16c1) = 0, 05, P(θ > c2T ) = P(Z > 16c2).

Zatem 16c1 ' 7, 962, 16c2 ' 26, 296, czyli c1 ' 0, 498, c2 = 1, 644. Długość przedziału ufnościwynosi w przybliżeniu 1, 146T .

15. (Eg 62/7) Niech X1, ..., X10, ..., X30 będzie próbką losową z rozkładu normalnego N (µ, σ2), z nie-znanymi parametrami µ i σ2. Niech

X10 =1

10

10∑i=1

Xi, X30 =1

30

30∑i=1

Xi,

S2 = S210 =

1

9

10∑i=1

(Xi − X10)2.

8

Page 53: 1 Kombinatoryka

Skonstruowano przedział [X10 − aS, X10 + aS] taki, że

P(X30 ∈ [X10 − aS, X10 + aS]) = 0, 95.

Liczba a jest równaOdp: E-> 0, 584.

Rozwiązanie. W tym zadaniu istotne jest aby umiejętnie przejść do rozkładu t-Studenta. Mamyniezależność X10, X20 = 1

20

∑30i=11Xi oraz S. Nadto X30 = 1

3X10 + 23X20. Stąd

P(X30 ∈ [X10 − aS, X10 + aS]) = P(|X20 − X10| <3

2aS)

Teraz X20 − X10 ma rozkład N (0, 3σ2

20 ). Natomiast∑10i=1(Xi − X10 ma rozkład σ2χ2(n− 1). Stąd

Z =

√20√3

(X20 − X10)

S, ma rozkład t-Studenta

a 9 stopniami swobody. Zatem

P(X30 ∈ [X10 − aS, X10 + aS]) = P(|Z| >√

15a) = 0, 95.

Zatem√

15a = 2, 262, czyli a ' 0, 584

16. (Eg 63/9) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi o tym samym rozkładzieLaplace’a o gęstości

fθ(x) = exp(−2|x− θ|) dla x ∈ R,

gdzie θ jest nieznanym parametrem rzeczywistym. Rozważamy estymator θ parametru θ równymedianie z próby X1, X2, ..., Xn

θ = X[0,5n]:n.

W oparciu o ten estymator budujemy przedział ufności dla parametru θ postaci

(θ − a, θ + a),

gdzie a dobrane jest tak, aby dla każdego θ ∈ R

limn→∞

Pθ(θ ∈ (θ − a, θ + a)) = 0, 95.

Wtedy a jest równeOdp: C-> 0,98√

n.

Rozwiązanie. Niech Fθ będzie dystrybuantą rozkładu fθ, czyli

Fθ(t) =

1− 1

2 exp(−2|t− θ|) t > θ12 exp(−2|t− θ|) t 6 θ.

Przypomnijmy, że rozkład X[0,5n]:n można wyznaczyć korzystając ze zmiennej Borelowskiej Sn(t)z rozkładu B(n, Fθ(t)) to znaczy

Pθ(X[0,5n]:n 6 t) = P(Sn(t) > [0, 5n]).

Z warunków zadania

Pθ(θ ∈ (θ − a, θ + a)) = Pθ(θ − a < θ < θ + a) =

= P(Sn(θ − a) > [0, 5n])−P(Sn(θ + a) > [0, 5n]),

9

Page 54: 1 Kombinatoryka

gdzie korzystamy z tego, że X[0,5n]:n ma rozkład ciągły. Będziemy tak dobierać ciąg a aby zacho-dziło CTG. Niech Z będzie z rozkładu N (0, 1), wówczas jeśli a = c√

nwtedy na mocy CTG

limn→∞

P(Sn(θ − a) > [0, 5n]) = P(Z > −2c),

gdzie korzystamy z równości

limn→∞

[0, 5n]− Fθ(θ − a)√nFθ(θ − a)(1− Fθ(a− θ))

) = −2c.

Istotnie zauważmy, że

limn→∞

√Fθ(θ − a)(1− Fθ(a− θ)) =

1

2

nadto na mocy przybliżenia e−x ' 1− x dla małych x otrzymujemy

limn→∞

2([0, 5n]− Fθ(θ − a))√n

= −2c

Analogicznielimn→∞

P(Sn(θ + a) > [0, 5n]) = P(Z > 2c).

Dobieramy zatem 2c tak aby P(Z ∈ (−2c, 2c)) = 0, 95. Zatem 2c = 1, 96, czyli c = 0, 98.

10

Page 55: 1 Kombinatoryka

1 Zadania różneW tym rozdziale znajdują się zadania nietypowe, często dotyczące łańcuchów Markowa oraz własnościzmiennych losowych. Pojawią się także zadania z estymacji Bayesowskiej.

1. (Eg 48/3) Rozważamy łańcuch Markowa X1, X2, ..., na przestrzeni stanów 1, 2, 3 o macierzyprzejścia

P =

12

12 0

14 0 3

40 1 0

,gdzie Pi,j = P(Xn+1 = j|Xn = i) dla i, j = 1, 2, 3. Załóżmy, że rozkład początkowy łańcucha jestwektorem

π = (2

9,

4

9,

1

3),

gdzie πi = P(X1 = i) dla i = 1, 2, 3. Oblicz p = P(X1 = 1|X2 6= 1 ∨X3 6= 1)Odp: B-> 1

8 .Rozwiązanie. Najpierw zauważmy, że rozkład π jest rozkładem stacjonarnym. Obliczamy

P(X1 = 1|X2 6= 1 ∨X3 6= 1) =P(X3 6= 1 ∨X2 6= 1|X1 = 1)P(X1 = 1)

P(X3 6= 1 ∨X2 6= 1).

Oczywiście P(X1 = 1) = π1 = 29 , nadto

P(X3 6= 1 ∨X2 6= 1|X1 = 1) = P(X3 = 3, X2 = 2|X1 = 1) = P (3, 2)P (2, 1) =3

4· 1

2=

3

8.

Obliczamy

P(X3 6= 1 ∨X2 6= 1) = P(X3 = 3, X2 = 2) + P(X3 = 2, X2 = 3) = P (3, 2)π2 + P (2, 3)π3 =

=3

4· 4

9+ 1 · 1

3=

2

3

Stąd

P(X1 = 1|X2 6= 1 ∨X3 6= 1) =1

8.

2. (Eg 50/9) Rozważamy łańcuch Markowa X1, X2, ..., na przestrzeni stanów 0, 1, 2 o macierzyprzejścia

P =

12

12 0

14 0 3

413

13

13

,gdzie Pi,j = P(Xn+1 = j|Xn = i) dla i, j = 0, 1, 2. Niech Z1, Z2, ..., Zn, ... będzie ciągiem zmien-nych losowych o wartościach w zbiorze 0, 1 niezależnych od siebie nawzajem i od zmiennychX1, X2, ..., Xn, ... o jednakowym rozkładzie prawdopodobieństwa:

P(Zi = 1) =3

4i P(Zi = 0) =

1

4.

Niech Yi = ZiXi. Wtedy limn→∞P(Yn > Yn+1) jest równaOdp: E-> 41

144 .Rozwiązanie. Wyznaczamy rozkład stacjonarny łańcucha X1, X2, ..., dostajemy π = ( 10

27 ,827 ,

927 ).

Przechodząc do granicy otrzymamy

limn→∞

P(Yn > Yn+1) = P(Z1 · 0 > Z2X2|X1 = 0)π0 + P(Z1 · 1 > Z2X2|X1 = 1)π1+

+ P(Z1 · 2 > Z2X2|X1 = 2)π2 = P(Z1 = 1)P(Z2 = 1)P(X2 = 0|X1 = 1)π1 + P(Z1 = 1)P(Z2 = 0)π1+

+ P(Z1 = 1)P(Z2 = 1)P(X2 ∈ 0, 1|X1 = 2)π2 + P(Z1 = 1)P(Z2 = 0)π2 = =9

16· 1

4· 8

27+

3

16· 8

27+

9

16· 2

3· 9

27+

3

16· 9

27=

41

144.

1

Page 56: 1 Kombinatoryka

3. (Eg 51/6) Załóżmy, że X1, X2, ...Xn są niezależnymi zmiennymi losowymi o jednakowym, ciągłymrozkładzie prawdopodobieństwa, mającymi momenty rzędu 1, 2 i 3. Znamy

µ = E(Xi) i σ2 = Var(Xi).

Niech f(x) oznacza gęstość rozkładu pojedynczej zmiennejXi. Wiemy, że rozkład jest symetrycznyw tym sensie, że f(µ + x) = f(µ − x) dla każdego x. Oblicz trzeci moment sumy E(S3

n), gdzieSn = X1 + ...+Xn.Odp: C-> n2µ(nµ2 + 3σ2).

Rozwiązanie. Z faktu symetrii wynika, że

EXi = µ, E(Xi − µ)2 = σ2, E(Xi − µ)3 = 0.

Stąd również E(Sn − nµ) = 0, E(Sn − nµ)2 = nσ2, E(Sn − nµ)3 = 0. Pozostaje obliczyć

E(S3n) = E(Sn − nµ+ nµ)3 = 3n2µσ2 + n3µ3 = n2µ(nµ2 + 3σ2).

4. (Eg 52/3) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu o gęstości

fθ(x) = exp(−2|x− θ|).

Niech Tn = X[0,5n]:n, gdzie [x] oznacza część całkowitą liczby x. Które z poniższych stwierdzeńjest prawdziwe?Odp: A-> limn→∞P(((Tn − θ)

√n > 1) = 0, 023.

Rozwiązanie. Zmienne Xi mają rozkład o dystrybuancie

F (θ + t) =

12 (2− e−2(t−θ)) t > θ12e−2(θ−t) t < θ

Przypomnijmy, że P(Tn 6 t) jest takie same jak to, że zmienna Sn(t) z rozkładu BernoulliegoB(n, F (t)) będzie miała co najmniej [0, 5n] sukcesów. Obliczamy dla zmiennej Sn = Sn(θ + 1√

n)

P(((Tn − θ)√n > 1) = P(Tn > θ +

1√n

) = P(Sn < [0, 5n]) =

= P(Sn − nF (θ + 1√

n)√

nF (θ + 1√n

)(1− F (θ + 1√n

))<

[0, 5n]− n2 (2− e−

2√n )√

n2 (1− 1

2e− 2√

n )e− 2√

n

).

Pozostaje obliczyć

limn→∞

[0, 5n]− n2 (2− e−

2√n )√

n2 (1− 1

2e− 2√

n )e− 2√

n

= −2.

Z drugiej strony z CTG wynika, że

Sn − nF (θ + 1√n

)√nF (θ + 1√

n)(1− F (θ + 1√

n))→ Z,

gdzie Z ma rozkład N (0, 1). Otrzymujemy wynik

P(Z < −2) ' 0, 23.

2

Page 57: 1 Kombinatoryka

5. (Eg 53/7) Niech X1, X2, ..., X13 będą niezależnymi zmiennymi losowymi o tym samym rozkładzienormalnym N (m, 1). Parametr m jest nieznany i jest realizacją zmiennej losowej o rozkładzienormalnym N (1, 3). Wyznaczamy estymator bayesowski parametru m przy funkcji straty LINEXdanej wzorem

L(m, a) = em−a − (m− a)− 1,

gdzie a oznacza wartość estymatora. Załóżmy, że w wyniku doświadczenia uzyskano próbkę losowątaką, że

∑13i=1Xi = 15. Wtedy estymator bayesowski przyjmuje wartość

Odp: E-> 1916 .

Rozwiązanie. W teorii decyzji statystycznej mamy do czynienia z regułami decyzyjnymi δ : X →A, dalej z funkcjami starty L : Θ×A → R oraz funkcjami ryzyka

R(θ, δ) = Eθ(θ, δ(X)).

W przypadku reguł bayesowskich mamy zadany rozkład a priori ν na przestrzeni parametrów Θ.Dzięki temu można zdefiniować

r(ν, δ) =

∫R(θ, δ)ν(dθ).

Dysponując powyższym funkcjonałem definiujemy optymalną regułę bayesowską δµ jako argumentminimum funkcji r(µ, δ). Wyznaczenie optymalnej reguły bayesowskiej polega na skorzystaniu zewzoru Fubiniego ∫

Θ

∫XL(θ, δ(x))µθ(dx)ν(dθ) =

∫X

∫Θ

L(θ, δ)νx(dθ)µ(dx),

gdzie miara µθ jest rozkładem X na X przy prawdopodobieństwie Pθ, nadto miary µ i νx(θ)wyznacza się ze wzoru

µθ(dx)ν(dθ) = νx(dθ)µ(dx).

Rozkład µx nazywa się rozkładem a posteriori. Dla każdego x ∈ X wybieramy wartość δµ(x) jakoargument minimum funkcji f : A → R

f(δ) =

∫Θ

L(θ, δ)νx(dθ).

Dla L(θ, a) = (θ − a)2 estymatorem bayesowski jest wartość oczekiwana względem νx, nadto dlaL(θ, a) = |θ − a| tym estymatorem jest mediana νx. W przypadku funkcji LINEX L(m, a) =em−a − (m− a)− 1 obliczamy

f ′(δ) =

∫Θ

em−δνx(dm)− 1

Czyli

δ(x) = log

∫Remνx(dm).

Należy zatem wyznaczyć rozkład a posteriori νx. Mamy

µm(dx) = (2π)−n2 exp(−1

2

n∑i=1

(xi −m)2)dx1...dxn

dalej

ν(dm) = (2π3)−12 exp(−1

6(m− 1)2).

3

Page 58: 1 Kombinatoryka

Stąd µm(dx)ν(dm) jest rozkładem Gaussowskim, a zatem również νxma rozkład Gaussowski, conatychmiast pozwala wyznaczyć jego postać N (

1+3∑n

i=1 xi

1+3n , 31+3n ). Rozkład µ też jest Gaussowski

i można wyznaczyć jego postać, nie ma to jednak znaczenia dla tego zadania. Pozostaje wyznaczyć∫Remνx(dm) = exp(

1 + 3∑ni=1 xi

1 + 3n+

3

2(1 + 3n)).

Stąd

δ(x) =1 + 3

∑ni=1 xi

1 + 3n+

3

2(1 + 3n)=

5 + 6∑ni=1 xi

2(1 + 3n).

Podstawiając n = 13 oraz∑13i=1Xi = 13 dostajemy

δ(X) =19

16.

6. (Eg 54/6) O zmiennych X1, X2, ..., Xn o tej samej wartości oczekiwanej równej µ oraz tej samejwariancji równej µ oraz tej samej wariancji równej σ2 zakładamy, iż:

Cov(Xi, Xj) = ρσ2 dla i 6= j.

Zmienne losowe ε1, ε2, ..., εn są nawzajem niezależne oraz niezależne od zmiennych losowychX1, X2, ..., Xn

i mają rozkłady prawdopodobieństwa postaci:

P(ε1 = 1) = P(εi =1

2) = P(εi = 0) =

1

3.

Wariancja zmiennej losowej S =∑ni=1 εiXi jest równa.

Odp: A-> n12 (5σ2 + 2µ2 + 3(n− 1)ρσ2).

Rozwiązanie. Obliczamy wariancję

Var(S) =

n∑i=1

Var(εiXi) +∑i6=j

Cov(εiXi, εjXj) =

= n[5

12(µ2 + σ2)− 1

4µ2] + n(n− 1)[

1

4ρσ2] =

=n

12(5σ2 + 2µ2 + 3(n− 1)ρσ2).

7. (Eg 55/1) Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przyczym EX = 4, EY = 6. Rozważmy zmienną Z = Y

X+Y . WtedyOdp: B-> mediana rozkładu Z jest równa 0, 4.Rozwiązanie. Poszukujemy C takiego, że

P(Y

X + Y> C) =

1

2.

stąd

1

2= P((1− C)Y > CX) = EP((1− C)Y > CX|X)) =

∫ ∞0

1

4e−

Cx6(1−C) e−

x4 dx =

1

1 + 2C3(1−C)

.

Czyli3(1− C) = 2C, zatem C = 0, 6.

4

Page 59: 1 Kombinatoryka

8. (Eg 56/8) Cyfry 1, 2, 3, ..., 9 ustawiamy losowo na miejscach o numerach 1, 2, 3, ..., 9. Niech Xbędziezmienną losową równą liczbie cyfr stojących na miejscach o numerach równych cyfrom. Wariancjazmiennej X jest równaOdp: B-> 1.

Rozwiązanie. Warto zapamiętać, że graniczna liczba koincydencji jest zmienną Poissona z pa-rametrem 1, a więc i wariancję równą 1. W przypadku skończonym tego zadania korzystamyze zmiennych włączeniowych X = X1 + ... + X9, gdzie Xi przyjmuje wartość 1 jeśli i-ta cy-fra stoi na swoim miejscu i 0 w przeciwnym przypadku. Jest jasne, że P(Xi = 1) = 1

9 orazP(Xi = 1, Xj = 1) = 1

9 ·18 zatem

VarXi =8

9 · 9, Cov(Xi, Xj) =

1

8 · 9 · 9.

Stąd

Var(X) = 9VarX1 + 9 · 8Cov(X1, X2) =8

9+

1

9= 1.

9. (Eg 57/2) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu jednostajnegona przedziale (0, θ), gdzie θ > 0 jest nieznanym parametrem. Rozważamy estymator parametru θpostaci

Tn = (n+ 1) minX1, X2..., Xn.

Jeśli θ = 1, to dla każdego ε ∈ (0, 1) granica limn→∞P(|Tn − 1| > ε) jest równaOdp: B-> 1− eε−1 − e−ε−1.

Rozwiązanie. Najpierw wyznaczamy rozkład Tn, dla 0 < t < n+ 1

P(Tn > t) = (1− t

n+ 1)n → e−t.

Stąd dla T o rozkładzie wykładniczym

limn→∞

P(|Tn − 1| > ε) = P(|T − 1| > ε) = P(T > 1 + ε) + P(T < 1− ε) =

= e−ε−1 + 1− eε−1.

10. (Eg 57/9) Zmienne losowe X1, X2, ..., Xn, ... są niezależnymi o jednakowym rozkładzie

P(Xn = 1) = P(Xn = 2) = P(Xn = 3) = P(Xn = 4) =1

4.

Niech Y0 = 2 oraz niech dla n = 1, 2, 3, ... zachodzi

Yn =

4 gdy Xn = 4min(Yn−1, Xn) gdy Xn < 4

Oblicz limn→∞P(Yn 6 3)Odp: B-> 3

4 .

Rozwiązanie. Nietrudno zauważyć, że (Yn)∞n=0 jest łańcuchem Markowa o macierzy przejścia

P =

34 0 0 1

414

24 0 1

414

14

14

14

14

14

14

14

5

Page 60: 1 Kombinatoryka

Obliczamy rozkład graniczny ze wzoru π = πP , zachodzi π = ( 12 ,

16 ,

112 ,

14 ). Zatem

limn→∞

P(Yn 6 3) = π + 1 + π + π3 =3

4.

11. (Eg 58/1) Niech X1, X2, ..., Xn, ... będą zmiennymi losowymi o tym samym rozkładzie ujemnymdwumianowym

Pθ(Xi = k) = (k + 1)θ2(1− θ)k, k = 0, 1, 2, ..., i = 1, 2, ..., n+ 1,

gdzie θ ∈ (0, 1) jest nieznanym parametrem. Zmienne X1, X2, ..., Xn, Xn+1 są warunkowo nieza-leżne przy danym θ. Załóżmy, że rozkład a priori parametru θ jest rozkładem o gęstości

π(θ) = 12θ2(1− θ), gdy θ ∈ (0, 1).

Na podstawie próby losowej X1, X2, ..., Xn wyznaczamy predyktor bayesowski. zmiennej Xn+1

przy kwadratowej funkcji straty. Wariancja tego predykatora jest równaOdp: D-> 8n

n+1 .

Rozwiązanie. Podstawową wiedzą z teorii warunkowych wartości oczekiwanych jest, że przykwadratowej funkcji straty najlepszym estymatorem Xn+1 jest E(Xn+1|X1, ..., Xn), gdzie wartośćoczekiwana oznacza całkowanie względem miary Pθµ(dθ). Oczywiście z warunkowej niezależnościX1, .., Xn pod warunkiem Θ = θ dostajemy

E(Xn+1|X1, ...., Xn) = E(E(Xn+1|Θ, X1, ..., Xn)|X1, ..., Xn) =

= E(21−Θ

Θ|X1, ..., Xn).

Musimy wyznaczyć rozkład warunkowy Θ pod warunkiem X1 = k1, ..., Xn = kn. Najpierw wy-prowadzamy gęstość rozkładu łącznego

f(θ, k) = 12θ2(n+1)(1− θ)1+∑n

i=1 ki

n∏i=1

(ki + 1).

Pozostaje wyznaczyć, gęstość f(θ|k). Nietrudno zauważyć, że jest rozkład Beta(2n+3, 2+∑ni=1 ki).

Dla zmiennej Z z rozkładuBeta(α, β) oraz α > 1 wartośćEZ−1 = α+β−1α−1 ,EZ−2 = (α+β−1)(α+β−2)

(α−1)(α−2) .Stąd

E(21−Θ

Θ|X1, ..., Xn) = 2 ·

2 +∑ni=1Xi

2(n+ 1)=: T.

Nadto X1 + ...+Xn pod warunkiem Θ = θ ma rozkład ujemny dwumianowy B−(2n, θ). Zatem

VarT = EVar(T |Θ) + VarE(T |Θ).

Z własności rozkładu ujemnego dwumianowego

E(T |Θ) =2n

n+ 1

1

Θ− 2(n− 1)

n+ 1

orazVar(T |Θ) =

8n

4(n+ 1)2· 1−Θ

Θ2.

Korzystając z własności rozkładu Beta(3, 2) obliczamy

VarE(T |Θ) = 8n2

(n+ 1)2

6

Page 61: 1 Kombinatoryka

nadtoEVar(T |Θ) = 8

n

(n+ 1)2

Podsumowując VarT = 8nn+1 .

12. (Eg 58/8) Załóżmy, że W1,W2, ...,Wn, ... jest ciągiem zmiennych losowych takim, że

• zmienna W1 ma rozkład jednostajny na przedziale (0, 1),

• dla każdej liczby naturalnej n zmienna losowa Wn+1 warunkowo przy danych W1,W2, ...,Wn

ma gęstość

f(wn+1|w1, ..., wn) =

1 gdy wn 6 0, 53x2 gdywn > 0, 5

dla wn+1 ∈ (0, 1).

Wtedy limn→∞P(Wn > 0, 25) jest równaOdp: B-> 15

16 .

Rozwiązanie. Nietrudno zauważyć, że mamy do czynienia z jednorodnym łańcuchem Markowazdanym przez funkcję przejścia

P (x,A) = |A|1x6 12

+

∫A

3y2dy1x> 12.

Poszukujemy rozkładu stacjonarnego π na [0, 1] takiego, że

π(A) = |A|π([0,1

2]) +

∫A

3y2dyπ((1

2, 1])

Stąd natychmiast wynika, że π jest absolutnie ciągłą względem miary Lebsegue’a której gęstość fspełnia warunek

f(x) = π([0,1

2])106x61 + π(

1

2, 1])3x2106x61.

Współczynniki a = π([0, 12 ]), b = π(( 1

2 , 1]) wyznaczamy ze wzorówa = a 1

2 + b 18

1 = a+ b

Stąd 4a = b oraz a = 15 , b = 4

5 . Obliczamy

limn→∞

P(Wn >1

4) = π((

1

4, 1]) =

=1

5

3

4+

4

5(1− 1

64) =

3

20+

63

80=

75

80=

15

16.

13. (Eg 59/4) Dysponujemy dwiema urnami. W urnie I mamy dwie kule białe i jedną czarną, w urnieII mamy trzy kule białe i trzy czarne. Powtarzamy n razy eksperyment polegający na tym, żelosujemy jedną kulę z urny I, nie oglądając jej wkładamy ją do urny II, następnie losujemy jednąkulę z urny II i nie oglądając jej wkładamy ją do urny I. Niech Xn oznacza zmienną losową równąliczbie kul białych w urnie I po n doświadczeniach. Wtedy limn→∞E(XnXn+1) jest równaOdp: C-> 65

21 .

Rozwiązanie. Ponownie korzystamy z teorii łańcuchów Markowa. Pod długim czasie rozkład kulbędzie się stabilizował, aby wyznaczyć rozkład graniczny piszemy macierz przejścia dla liczby kul

7

Page 62: 1 Kombinatoryka

w I urnie

P =

S 0 1 2 30 2

757 0 0

1 221

1121

821 0

2 0 621

1221

321

3 0 0 47

37

Rozwiązujemy układ równań

π0 = 27π0 + 2

21π1

π1 = 57π0 + 11

21π1 + 621π2

π3 = 321π2 + 3

7π3

1 = π0 + π1 + π2 + π3

którego rozwiązaniem jest π0 = 121 , π1 = 15

42 , π2 = 1021 , π3 = 5

42 . Zatem

limn→∞

E(XnXn+1) = Eπ(X0X1) =

3∑k=0

3∑l=0

klP (k, l)πk.

Czyli

limn→∞

E(XnXn+1) = 1 · 1 · 11

21· 15

42+ +1 · 2 8

21· 15

42+ 2 · 1 · 6

21· 10

21+

+ 2 · 2 · 12

21· 10

21+ 2 · 3 · 3

21· 10

21+ 3 · 2 · 4

7· 5

42+ 3 · 3 · 3

7

5

42=

65

21.

14. (Eg 60/10) Niech X1, X2, ..., Xn, n > 2, będą niezależnymi zmiennymi losowymi z rozkładu Paretoo gęstości

f(x) =3

(1 + x)41x>0.

Niech U = minX0, X1, X2, ..., Xn. Wtedy Cov(U,X0) jest równaOdp: C-> 3

2(3n+1)(3n+2) .

Rozwiązanie. Niech X ma rozkład taki jak X0, X1, X2, ..., Xn. Mamy

P(X > t) =1

(1 + t)3, t > 0.

Stąd EX0 =∫∞

0P(X > t)dt = 1

2 . Nadto

P(U > t) =1

(1 + t)3n, t > 0.

Zatem EU =∫∞

0P(X > t)dt = 1

3n+2 . Pozostaje obliczyć

EUX0 = EX0E(U |X0) = EX0

∫ X0

0

1

(1 + t)3ndt =

=1

3n− 1EX0(1− 1

(1 +X0)3n−1) =

1

2(3n− 1)− 1

3n− 1

∫ ∞0

3t

(1 + t)3n+3dt.

Do policzenia występujących powyżej wartości oczekiwanych najprościej użyć podstawienia x =1

1+t ∫ ∞0

t

(1 + t)3n+3dt =

∫ 1

0

x3n(1− x)dx =Γ(3n+ 1)Γ(2)

Γ(3n+ 3)=

1

(3n+ 1)(3n+ 2).

8

Page 63: 1 Kombinatoryka

Zatem

Cov(U,X0) =3

3n− 1(1

2− 1

(3n+ 1)(3n+ 2))− 1

2(3n+ 2)=

=9n− 3

2(3n+ 2)(9n2 − 1)=

3

2(3n+ 1)(3n+ 2).

15. (Eg 61/2) Niech zmienna losowa Sn będzie liczbą sukcesów w n (n > 1) próbach Bernoulliego zprawdopodobieństwem sukcesu p. O zdarzeniu losowym A wiemy, że

P(A|Sn = k) = ak

ndla k = 0, 1, 2, ..., n,

gdzie a jest znaną liczbą 0 < a 6 1. Oblicz E(Sn|A).Odp: A-> pn+ 1− p.Rozwiązanie. Obliczamy

P(A) =

n∑k=0

P(A|Sn = k)P(Sn = k) =

n∑k=0

ak

n·(n

k

)pk(1− p)n−k = ap.

Zatem korzystając z własności rozkładu Bernoulliego

E(Sn|A) = P(A)−1n∑k=0

kP(Sn = k ∩A) = (ap)−1n∑k=0

kP(A|Sn = k)P(Sn = k) =

= (ap)−1n∑k=0

ak2

n

(n

k

)pk(1− p)n−k = (1− p) + np.

9

Page 64: 1 Kombinatoryka

1 Błąd średniokwadratowyW tej części zadań zajmiemy się błędem średniokwadratowym.

1. (Eg 48/9) Zmienne losowe X1, X2, ..., Xn, n > 2 są niezależne i EXi = m oraz VarXi = m2

i ,i = 1, 2, ..., n, gdzie m jest nieznanym parametrem rzeczywistym. Niech m będzie estymatoremparametru m minimalizującym błąd średniokwadratowy w klasie estymatorów postaci

m =

n∑i=1

aiXi,

gdzie ai, i = 1, 2, ...n, są liczbami rzeczywistymi. Wtedy współczynniki ai są równeOdp: D-> ai = 2i

n2+n+2 , i = 1, 2, ..., n.

Rozwiązanie. Obliczamy błąd średniokwadratowy

E(m− m)2 = (Em−m)2 + Varm = m2[(

n∑i=1

ai − 1)2 +

n∑i=1

a2i

i].

Najlepsze ai wyznaczamy z warunku na pochodne

(

n∑i=1

ai − 1) =aii, ß = 1, 2, ..., n.

Stąd równieżn(n+ 1)

2(

n∑i=1

ai − 1) = (

n∑i=1

ai),

co dalej oznaczan∑i=1

ai =n(n+ 1)

n2 + n− 2,

n∑i=1

ai − 1 =2

n2 + n− 2.

Otrzymujemy

ai =2i

n2 + n− 2, i = 1, 2, ..., n.

2. (Eg 49/8) Niech X1, X2, ..., Xn, n > 2 będą niezależnymi zmiennymi losowymi o tym samymrozkładzie normalnym o wartości oczekiwanej 1 i nieznanej wariancji σ2. Rozważamy rodzinę es-tymatorów parametru σ postaci Sa = a

∑ni=1 |Xi−1|, przy czym a jest liczbą dodatnią. Wyznaczyć

a∗, tak aby estymator Sa∗ był estymatorem o najmniejszym błędzie średniokwadratowym wśródestymatorów postaci Sa.Odp: D-> a∗ =

√2π

2n+π−2 .

Rozwiązanie. Niech X ma rozkład N (1, σ2). Należy wyznaczyć błąd średniokwadratowy esty-matorów Sa, to znaczy

f(a) = E(Sa−σ)2 = E(a

n∑i=1

(|Xi−1|−E|Xi−1|)+anE|X−1|−σ)2 = a2nVar|X−1|+(anE|X−1|−σ)2.

Oczywiście E|X − 1| =√

2√πσ oraz

Var|X − 1| = E(X − 1)2 − (E|X − 1|)2 = σ2 − 2

πσ2.

1

Page 65: 1 Kombinatoryka

Zatem

f(a) = a2n(1− 2

π)σ2 + (an

√2√π− 1)2σ2.

Znajdujemy punkt minimum tej funkcji, czyli a∗ z równania f ′(a) = 0 czyli

f ′(a) = 2an(1− 2

π)σ2 + 2(an

√2√π− 1)n

√2√πσ2 = 0

co jest równoważne

(1 + (n− 1)2

π)a =

√2√π.

Zatem a =√

2π2n−2+π .

3. (Eg 50/4) Rozpatrzmy następujący model regresji liniowej bez wyrazu wolnego:

Yi = β · xi + εi, (i = 1, 2, ..., 16),

gdzie xi > 0 są znanymi liczbami, β jest nieznanym parametrem, zaś εi są błędami losowymi.Zakładamy, że εi są niezależnymi zmiennymi losowymi o rozkładach normalnych i

E[εi] = 0 i Var[εi] = x2i , (i = 1, 2, ..., 16).

Niech β będzie estymatorem parametru β o następujących własnościach:

• β jest liniową funkcją obserwacji, tzn. jest postaci β =∑16i=1 ciYi

• β jest nieobciążony,

• β ma najmniejszą wariancję spośród estymatorów liniowych i nieobciążonych.

Wyznaczyć stałą c taką, że spełniony jest warunek

P(|β − β| < c) = 0, 95.

Odp: A-> c = 0, 49.

Rozwiązanie. Zmienne Yi są niezależne o rozkładach N (β · xi, x2i ). Z postaci gęstości (albo po

prostu ze wzoru na postać dla rozkładów wykładniczych) obliczamy statystyki dostateczne i zu-pełne

∑ni=1

Yixi,∑ni=1

Y 2i

x2i. Nietrudno zauważyć, że n−1

∑ni=1

Yixi

jest nieobciążonym estymatoremβ opartym na statystyce zupełnej i dostatecznej. Na mocy twierdzenia Rao-Blackwell’a spełnia onwszystkie postulaty wymienione w zadaniu. Obliczamy dla n = 16

P(|16∑i=1

(Yixi− β)| < 16c) = P(|

n∑i=1

εixi| < 16c).

Oczywiście∑ni=1

εixi

ma rozkład taki sam jak 4Z, gdzie Z ∼ N (0, 1). Stąd

P(|n∑i=1

εixi| < 16c) = P(|Z| < 4c)

Obliczamy z tablic 4c = 1, 96, czyli c = 0, 49.

2

Page 66: 1 Kombinatoryka

4. (Eg 51/9) Niech X1, X2, ...Xn, n > 1 będzie próbką z rozkładu Poissona z nieznanym parametremλ (parametr jest wartością oczekiwaną pojedynczej obserwacji, λ = EλXi > 0. Interesuje nasdrugi moment obserwacji, czyli wielkość m2(λ) = Eλ(X2

i ). Estymator nieobciążony o minimalnejwariancji funkcji m2(λ) jest równyOdp: E-> 1

n2 ((∑ni=1Xi)

2 + (n− 1)∑ni=1Xi).

Rozwiązanie. Ponownie poszukujemy statystyki dostatecznej i zupełnej. którą jest w tym przy-padku T =

∑ni=1Xi. Estymator ENMW dla m2(λ) jest funkcją T . Możemy go albo zwyczajnie

zgadnąć (w przypadku tego zadania zauważając, że będzie to funkcja kwadratowa) albo obliczającze wzoru E(X2

i |T ). Zachodzi

m2(λ) = λ2 + λ, ET = nλ, ET 2 = (nλ)2 + nλ.

Z tych danych znajdujemy, że właściwy estymator ma postać

m2(λ) =T 2

n2+ (n− 1)

T

n2.

5. (Eg 52/4) Zakładamy, że zależność czynnika Y od czynnika x (nielosowego) opisuje model regresjiliniowej Yi = β0+β1xi+εi. Obserwujemy 2n elementową próbkę, w której x1 = x2 = ... = xn = −1i xn+1 = xn+2 = ... = x2n = 1. Zmienne losowe Y1, Y2, ..., Y2n są niezależne i błędy mają rozkładynormalne o wartości oczekiwanej 0, przy czym Varεi = σ2, gdy i = 1, 2, ..., n i Varεi = 9σ2,gdy i = n + 1, ..., 2n. Wyznaczono estymatory β0 i β1 parametrów β0 i β1 wykorzystując ważonąmetodę najmniejszych kwadratów, to znaczy minimalizując sumę

∑2ni=1

(Yi−β0−β1xi)2

Varεi. Wyznacz

stałą z1 tak abyP(|β1 − β1|

√n < z1σ) = 0, 95.

Spośród podanych odpowiedzi wybierz odpowiedź będącą najlepszym przybliżeniem.Odp: E-> z1 = 3, 099.

Rozwiązanie. Wyznaczamy β0 i β1 ∑2ni=1

Yi−β0−β1xiVarεi

= 0∑2ni=1

xi(Yi−β0−β1xi)Varεi

= 0

Zatem

β0 =1

2n(

2n∑i=1

Yi), β1 =1

2n(−

n∑i=1

Yi +

2n∑i=n+1

Yi).

Znajdujemy rozkład (β1 − β1)/√n jako

√10σ2 Z, gdzie Z ma rozkład normalny N (0, 1). Stąd

P(|β1 − β1|√n < z1σ) = P(|Z| < 2z1√

10).

Czyli 2z1√10

= 1, 96 ' 3, 099.

6. (Eg 53/8) W pewnej populacji prawdopodobieństwo tego, że osobnik przeżyje pierwszy rok jestrówne (1 − θ2). Jeżeli osobnik przeżył pierwszy rok, to prawdopodobieństwo warunkowe tego,że przeżyje następny rok jest równe 2θ

1+θ . W próbce losowej liczącej n osobników z tej populacjizanotowano:

• n0 przypadków, kiedy osobnik nie przeżył pierwszego roku• n1 przypadków, kiedy osobnik przeżył pierwszy rok, ale nie przeżył drugiego roku,• n2 przypadków, kiedy osobnik przeżył dwa lata.

3

Page 67: 1 Kombinatoryka

Błąd średniokwadratowy estymatora największej wiarogodności parametru θ wyraża się wzorem:Odp: C-> θ(1−θ)

2n .

Rozwiązanie. Obliczamy rozkłady. Dla i = 1, ..., 10, zmiennaXi−X ma rozkładN ( (µ1−µ2)3 , 41

45σ2)

oraz N (− 2(µ1−µ2)3 , 122

45 ). Nadto X1 ma rozkład N (µ1,σ2

10 ), a X2 rozkład N (µ2,3σ2

5 ) stąd też X1−X2 ma rozkład N (µ1 − µ2,

710σ

2). Zatem

Eσ2 = 10a(1

9(µ1 − µ2)2 +

44

45σ2) + 5a(

4

9(µ1 − µ2)2 +

122

45σ2)+

+ b((µ1 − µ2)+ 9

10σ2).

Co oznacza, że b = − 103 a, nadto

703 a−

710b = 1, czyli a = 3

63 = 121 .

7. (Eg 54/5) Przeprowadzamy wśród wylosowanych osób ankietę na delikatny temat. Ankietowanaosoba rzuca kostką do gry, i w zależności od wyniku rzutu kostką (wyniku tego nie zna ankieter)podaje odpowiednio zakodowaną odpowiedź na pytanie:

’Czy zdarzyło się Panu/Pani w roku 2009 dać łapówką w klasycznej formiepieniężnej przekraczającą 100 zł’

• X = 1 jeśli odpowiedź brzmi ’TAK’,

• X = 0 jeśli odpowiedź brzmi ’NIE’,

Pierwszych 200 osób udziela odpowiedzi Z1, ..., Z200 zgodnie z regułą:

• jeśli wyniku rzutu kostką to liczba oczek równa 1, 2, 3 lub 4, to:

Zi = Xi

• jeśli wynik rzutu kostką to liczba oczek równa 5 lub 6, to:

Zi = 1−Xi

Następnych 200 osób udziela odpowiedzi Z201, ..., Z400 zgodnie z regułą:

• jeśli wyniku rzutu kostką to liczba oczek równa 1 lub 2, to:

Zi = Xi

• jeśli wynik rzutu kostką to liczba oczek równa 3, 4, 5 lub 6, to:

Zi = 1−Xi

Dla uproszczenia zakładamy, że 400 ankietowanych osób to próba prosta z (hipotetycznej) popu-lacji o nieskończonej liczebności, a podział na podpróby jest całkowicie losowy. Interesujący nasparametr tej populacji to oczywiście q = P(X = 1). Niech

Z1 =1

200

200∑i=1

Zi, Z2 =1

200

400∑i=201

Zi.

Estymator parametru q uzyskany metodą największej wiarygodności jest równyOdp: D-> 1

2 + 32 Z1 − 3

2 Z2.

4

Page 68: 1 Kombinatoryka

Rozwiązanie. Oczywiście główne zadanie to ustalić rozkład Zi dla i = 1, 2, ..., 400. Zachodzi

P(Zi = 1) = 2q3 + (1−q)

3

P(Zi = 0) = 2(1−q)3 + q

3

, dla i = 1, 2, ..., 200

orazP(Zi = 1) = q

3 + 2(1−q)3

P(Zi = 0) = (1−q)3 + 2q

3

, dla i = 201, 202, ..., 400.

Możemy obliczyć wiarygodność

L(q, k) =

((1 + q)

3

)200(1+k1−k2)(2− q

3

)200(1−k1+k2)

,

dla k1 = 1200

∑200i=1 ki, k2 = 1

200

∑400i=201 ki. Obliczamy pochodną funkcji f(q) = logL(q, k)

f ′(q) = 200(1 + k1 − k2) · 1

1 + q− 200(1− k1 + k2) · 1

2− q.

Z warunku f ′(q) = 0 odczytujemy q = 12 + 3k1

2 −3k22 stąd ENW parametru q ma postać 1

2 + 32 Z1−

32 Z2.

8. (Eg 55/10) Niech X oznacza zmienną losową równą liczbie sukcesów w n (n > 2) niezależnychpróbach Bernoulliego. Prawdopodobieństwo sukcesu θ, (θ ∈ (0, 1)) jest nieznane. Rozważamyestymator parametru θ postaci θ = aX + b, o wartościach nieujemnych, którego błąd średniokwa-dratowy jest stały niezależny od wartości parametru θ. Błąd średniokwadratowy tego estymatorajest równyOdp: D-> 1

4(√n+1)2

.

Rozwiązanie. Obliczamy

E(θ − aX − b)2 = Var(aX) + ((an− 1)θ + b)2 = na2θ(1− θ) + (an− 1)2θ2 + 2(an− 1)bθ + b2.

Zatem na2 = (1− an)2, na2 = −2(an− 1)b, czyli −√na = an− 1, a = 1

n+√n, b = 1

2(√n+1)

. Stąd

E(θ − aX − b)2 =1

4(√n+ 1)2

.

9. (Eg 56/1) Zakładamy, że X1, X2, ..., X10, X11, X12..., X15 są niezależnymi zmiennymi losowymi orozkładach normalnych, przy czym EXi = µ1 i VarXi = σ2 dla i = 1, 2, ..., 10, oraz EXi = µ2

i VarXi = 3σ2 dla i = 11, 12, ..., 15. Parametry µ1, µ2 i σ są nieznane. Niech X1 = 110

∑10i=1Xi,

X2 = 15

∑15i=11Xi, X = 1

15

∑15i=1Xi. Dobrać stałe a i b tak, aby statystyka

σ2 = a

15∑i=1

(Xi − X)2 + b(X1 − X2)2

była estymatorem nieobciążonym parametru σ2.Odp: A-> a = 1

21 , b = − 1063 .

Rozwiązanie. Estymator nieobciążony oznacza, że niezależnie od µ1 i µ2

Eσ2 = σ2.

5

Page 69: 1 Kombinatoryka

Zauważmy, że Xi = σXi+µi, i ∈ 1, 2, ..., 15. Nadto Yi = Zi dla i ∈ 1, 2, ..., 10 oraz Yi =√

3Zi,i ∈ 11, ..., 15, gdzie Zi są niezależne o rozkładzie N (0, 1). Stąd

15∑i=1

(Xi − X)2 =

15∑i=1

(σYi − σY + µi −2

3µ1 −

1

3µ2)2

co daje

E

15∑i=1

(Xi − X)2 =

15∑i=1

E(Yi − Y )2 + 10(1

3(µ1 − µ2))2 + 5(

2

3(µ1 − µ2))2

a stąd

E

15∑i=1

(Xi − X)2 = 10((14

15)2 +

24

(15)2) + 5((

14

15)2 +

12

(15)2) +

10

3(µ1 − µ2)2.

Z drugiej stronyX1 − X2 = σ(Z1 −

√3Z2)− µ1 + µ2,

czyli

E(X1 − X2)2 = σ2E(Z1 −√

3Z2)2 + (µ1 − µ2)2 =7

10σ2 + (µ1 − µ2)2.

Aby estymator σ2 był nieobciążony dostajemy równania703 a+ 7

10b = 1103 a+ b = 0

Dostajemy a = 121 , b = − 10

63 .

10. (Eg 57/10) Zakładamy, że zależność czynnika Y od czynnika x (nielosowego) opisuje model regresjiliniowej Yi = β0 + β1xi + εi, gdzie błędy εi są niezależne i mają rozkłady normalne o wartościoczekiwanej 0 i wariancji 1. Obserwujemy zmienne losowe Y1, Y2, ..., Yn przy danych wartościachx1, x2, ..., xn. Test najmocniejszy dla weryfikacji hipotezy

H0 : β0 = 0 i β1 = 1

przy alternatywieH1 : β0 = −1 i β1 = 2

na poziomie istotności 0, 05 odrzuca hipotezę H0, gdy spełniona jest nierównośćOdp: A->

∑ni=1(Yi−xi)(xi−1)√∑n

i=1(1−xi)2> 1, 645.

Rozwiązanie.Korzystamy z testu Neymana-Pearsona. Iloraz funkcji wiarygodności

L((−1, 2, y))

L((0, 1, y)= exp(

n∑i=1

yi(xi − 1)− 1

2(1− 2xi)

2 +1

2x2i ).

Zatem obszar krytyczny ma postać

K = y ∈ Rn :

n∑i=1

yi(xi − 1) > C

dla C takiego, że

P0,1(Y ∈ K) = P0,1(

n∑i=1

Yi(xi − 1) > C) = 0, 05.

6

Page 70: 1 Kombinatoryka

Łatwo zauważyć, że∑ni=1(xi−1)Yi ma rozkładN (

∑ni=1 xi(xi−1),

∑ni=1(1−xi)2). Stąd ostatecznie∑n

i=1(Yi−xi)(xi−1)√∑ni=1(1−xi)2

ma rozkład zmiennej Z o rozkładzie N (0, 1). Zatem obszar krytyczny możemy

zapisać jako

P0,1(

n∑i=1

Yi(xi − 1) > C) = P0,1(

∑ni=1(Yi − xi)(xi − 1)√∑n

i=1(1− xi)2> C) = P(Z > C) = 0, 05.

Stąd C ' 1, 645.

11. (Eg 58/9) Niech X1, X2, ..., Xn, ... będą niezależnymi zmiennymi losowymi takimi, że EX = im iVarXi = im2 dla i = 1, 2, ..., n, gdzie m > 0 jest nieznanym parametrem. W klasie estymatorówparametru m postaci m =

∑ni=1 ciXi (gdzie ci są liczbami rzeczywistymi) najmniejszy błąd śred-

niokwadratowy ma estymator, dla którego ci są równeOdp: C-> c1 = c2 = ... = cn = 2

n(n+1)+2 .

Rozwiązanie. Błąd średniokwadratowy ma postać

f(c) = E(m− m)2 = (1−n∑i=1

ici)2m2 +

n∑i=1

ic2im2.

Minimalizacja polega na policzeniu pochodnych względem ci.

∂f

∂ci= −2i(1−

n∑i=1

ici)m2 + 2im2ci.

Czyli

ci = (1−n∑i=1

ici).

Stąd c1 = c2 = ... = cn = c. Nadto c = 1− (n+1)n2 c, czyli c = 2

n(n+1)+2 .

12. (Eg 59/7) Pobieramy próbkę niezależnych realizacji zmiennych losowych o rozkładzie Poissonaz wartością oczekiwaną λ > 0. Niestety sposób obserwacji uniemożliwia odnotowanie realizacjio wartości 0. Pobieranie próbki kończymy w momencie, gdy liczebność odnotowanych realizacjiwynosi n. Tak więc, każda z naszych kolejnych odnotowanych realizacji K1,K2, ...,Kn wynosico najmniej 1 i nic nie wiemy o tym, ile w międzyczasie pojawiło się obserwacji o wartości 0.Estymujemy parametr λ za pomocą estymatora postaci

λ =1

n

∞∑i=2

iNi,

gdzie Ni jest liczbą obserwacji o wartości i. Błąd średniokwadratowy estymatora λ jest równyOdp: E-> λ2−λ+λeλ

n(eλ−1).

Rozwiązanie. Przy założeniach zadania przyjmujemy, że Ki mają rozkład

P(Ki = k) =λk

k!(eλ − 1), k = 1, 2, 3, ...

Nadto zauważmy, że1

n

∞∑i=2

iNi =1

n(

n∑i=1

Ki −N1).

7

Page 71: 1 Kombinatoryka

Dalej

E1

n

n∑i=1

Ki =λeλ

eλ − 1, E

1

nN1 =

λ

eλ − 1.

co oznacza, że

E1

n(

n∑i=1

Ki −N1) = λ.

czyli estymator λ jest nieobciążony. Zauważmy, że N1 =∑ni=1 1Ki=1 mamy

E1

n

n∑i=1

(Ki −EKi)1

n

n∑j=1

(1Kj=1 −E1Kj=1) =1

n2E

n∑i=1

(Ki −EKi)(1Ki=1 −E1Xi=1) =

=1

n(EK11K1=1 −EK1P(K1 = 1)) =

1

nP(K1 = 1)(1−EK1) =

1

n

λ

eλ − 1(1− λeλ

eλ − 1).

Obliczamy

E(λ− λ)2 = Var1

n

n∑i=1

Ki + Var1

n

n∑i=1

1Ki=1 − 2Cov(1

n

n∑i=1

Ki −EKi,1

n

n∑i=1

1K1=1 −E1K1=1) =

=1

nVarK1 +

1

nVar1K1

− 2

nP(K1 = 1)(1−EK1) =

1

n[(λ+ λ2)eλ

eλ − 1− λ2e2λ

(eλ − 1)2]+

+1

n

λ

eλ − 1(1− λ

eλ − 1)− 2

n

λ

eλ − 1(1− λeλ

eλ − 1) =

n(eλ − 1)(λ− 1 + eλ).

13. (Eg 60/3) Rozważamy model regresji liniowej postaci Yi = bxi + εi, i = 1, 2, ..., 5, gdzie b jestnieznanym parametrem rzeczywistym, x1 = x2 = 1, x3 =

√5, x4 = x5 = 3, a εi są niezależnymi

zmiennymi losowymi o tym samym rozkładzie normalnym o wartości oczekiwanej 0 i nieznanejwariancji σ2 > 0. Hipotezę H0 : b = 0 przy alternatywie H1 : b 6= 0 weryfikujemy testem o obszarzekrytycznym postaci | bσ | > c, gdzie b i σ są estymatorami największej wiarogodności parametrówb i σ, a stała c dobrana jest tak, aby test miał rozmiar 0, 05. Stała c równaOdp: E-> 0, 62.

Rozwiązanie. Należy wyznaczyć ENW b i σ2. Tradycyjnie obliczając pochodne sprawdzamy, że

b =

∑ni=1 xiYi∑ni=1 x

2i

, σ2 =1

n

n∑i=1

(Yi − xi

∑nj=1 xjYj∑nj=1 x

2j

)2.

Stąd dla b = 0 dostajemy

b =

∑ni=1 xiεi∑ni=1 x

2i

, σ2 =1

n

n∑i=1

(εi − xi

∑nj=1 xjεj∑nj=1 x

2j

)2.

Czyli dla b = 0 zachodzi b = 〈x,ε〉‖x‖2 , σ

2 = 1n

∑ni=1(εi − xi〈x,ε〉

‖x‖22). Łatwo zauważyć, że b ma postać

σ‖x‖Z, gdzie Z ma rozkład N (0, 1). Dalej z faktu braku korelacji wynika, że (εi − xi〈x,ε〉

‖x‖22) jest

niezależne od 〈x,ε〉‖x‖2 dla każdego i = 1, 2, ..., n. Stąd niezależne są zmienne 〈x,ε〉‖x‖2 oraz

n∑i=1

(εi −xi〈x, ε〉‖x‖22

)2 = ‖ε‖22 −〈x, ε〉2

‖x‖2= Y.

8

Page 72: 1 Kombinatoryka

Pozostaje zauważyć, że zmienna Y ma rozkład χ2(n − 1). Wynika z ogólnej reguły, że jeśli ‖ε‖22ma rozkład χ2(n) oraz można rozłożyć ‖ε‖22 na niezależne zmienne = ‖ε‖22 −

〈x,ε〉2‖x‖2 i 〈x,ε〉

2

‖x‖2 , gdziedruga zmienna ma rozkład Z2, Z ' N (0, 1), to pierwsza musi mieć rozkład χ2(n− 1). Stąd

Pb=0(| bσ| > c) = Pb=0(|

√n− 1Z√Y

| > c‖x‖√n− 1√n

) = 0, 05.

Zmienna√n−1Z√Y

ma rozkład t-Studenta z parametrem n − 1. Podstawiając n = 5 oraz ‖x‖ = 5

dostajemy, że 2√

5c jest kwantylem symetrycznym wartości 0, 05 dla rozkładu t-Studenta z 4stopniami swobody. Kwantyl ten wynosi 2, 776, stąd c ' 0, 62.

14. (Eg 61/3) Niech X1, X2, ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu normalnego onieznanej wartości oczekiwanej µ i nieznanej wariancji σ2. Niech T oznacza estymator nieobciążonyo minimalnej wariancji parametru µ2. Wtedy błąd średniokwadratowy tego estymatora, czyli

Eµ,σ(T − µ2)2

jest równaOdp: E-> 2σ2

n(n−1) + 4µ2σ2

n .

Rozwiązanie. Przypomnijmy regułę budowania estymatorów ENMW. Najpierw znajdujemy sta-tystyki dostateczne i zupełne w tym przypadku

µ =1

n

n∑i=1

Xi, σ2 =1

n− 1

n∑i=1

(Xi − X)2.

Obliczamy

Eµ2 = µ2 +σ2

n, Eσ2 = σ2.

To oznacza, że ENMW jest postaci µ2 − 1n σ

2, gdyż jest nieobciążonym estymatorem µ2 będącymfunkcją statystyk dostatecznych i zupełnych. Obliczamy jego wariancję pamiętając, że µ i σ2 sąniezależne oraz z faktu, że µ ma rozkład N (µ, σ

2

n ) a σ2 ma rozkład σ2χ2(n− 1)

Var(µ2 − 1

nσ2) = Var(µ2) +

1

n2Var(σ2) =

=4µ2σ2

n+

2(n− 1)σ2

n2.

15. (Eg 63/2) Niech X1, X2, X3, X4 będą niezależnymi zmiennymi losowymi, przy czym zmienna lo-sowa Xi ma rozkład o wartości oczekiwanej m i wariancji im2, i = 1, 2, 3, 4, gdzie m 6= 0 jestnieznanym parametrem. Niech m oznacza estymator parametru m minimalizujący błąd średnio-kwadratowy w klasie estymatorów postaci

a1X1 + a2X2 + a3X3 + a4X4,

gdzie współczynniki ai ∈ R, i = 1, 2, 3, 4. Wtedy E(m−m)2 jest równeOdp: E-> 12

37m2.

Rozwiązanie. Mamy do wyznaczenia minE(∑4i=1 aiXi−m)2, po ai ∈ R. Prowadzi to do równań

na zerowanie się kolejnych pochodnych cząstkowych

EXi(

4∑i=1

aiXi −m) = 0, i = 1, 2, 3, 4.

9

Page 73: 1 Kombinatoryka

Korzystając z faktu, że EXi = m przekształcamy równania

E(Xi −m)(

4∑i=1

ai(Xi −m)) = m2(1−4∑i=1

ai), i = 1, 2, 3, 4.

Z niezależności wynika zatem, że

aiVarXi = m2(1−4∑i=1

ai), i = 1, 2, 3, 4.

Ponieważ VarXi = im2 zatem ai jest postaci c/i. Stałą c wyznaczamy z równania

c = 1− c(1 +1

2+

1

3+

1

4), c =

12

37.

Stąd ai = 49i , i = 1, 2, 3, 4. Obliczamy

E(m−m)2 = E(

4∑i=1

ai(Xi −m) +12m

37)2 =

=

4∑i=1

a2iVarXi +

(12)3m2

(37)2=

(12)3m2

(37)2((1 +

1

2+

1

3+

1

4) + 1) =

=12

37m2.

10