Upload
others
View
3
Download
0
Embed Size (px)
Citation preview
VARIABILI CASUALI DI USO COMUNE VARIABILE CASUALE UNIFORME UNIFORME DISCRETA
xi pi 1 1/N 2 1/N ... ..... N 1/N 1
X~ U(N); X~ R(N)
Me = =μ 21+N
Lezione 3
2
∑=
=μN
i 12 x2
i pi = ∑=
N
i 1i2
N1 = =
6
︶12︶ ︵1︵ ++ NN
=μ−μ=σ 22
2 12
1N2 −
=γ1 0
2γ = - )1N(5)1N(6
2
2
−
+
è sempre platicurtica; per N grande è 2γ ≈ -6/5. Da X è possibile sempre derivare:
Y = a + bX
yi pi a+b1 1/N a+b2 1/N ..... ... a+bN 1/N 1
Variabili casuali di uso comune
3
Per
a = - σμ = -
1N)1N(3
−+ ; b =
σ1 =
1N122 −
è la v.c. uniforme standardizzata. Esempio La v.c.
xi 1 2 3 4 5 6
pi 16 1
6 16 1
6 16 1
6 connessa al lancio di una dado regolare. Si ottiene:
Me = 3.5; 691
2 =μ ; 3μ = 73.5 ; 4μ = 350
da cui si ottiene
12352 =σ ; CV =
215 ; 1γ = 0;
175222
2 −=γ .
Lezione 3
4
LA UNIFORME CONTINUA La v.c. uniforme continua è definita nell'intervallo (a,b)
f(x) = ⎪⎩
⎪⎨⎧ ==
−altrove0
bxaperab
1
Momento r-esimo
∫=μ
b
ar xr
ab1−
dx = )1r)(ab(
ab 1r1r
+−− ++
; r=1,2,...
in particolare
Variabili casuali di uso comune
5
)ab(2
ab 221 −
−=μ = b+a
2 ; )ab(3
ab 332 −
−=μ ;
)ab(4ab 44
3 −−
=μ ; )ab(5
ab 554 −
−=μ
da cui
2σ = 12
)ab( 2− ; 1γ = 0; 2γ = - 56
è simmetrica e platicurtica. L funzione di ripartizione F(x):
Lezione 3
6
Esempio X con funzione di densità
f(x) = ⎪⎩
⎪⎨⎧ π∈
πaltrove0
]2,0[xper21
rμ = (2π)r+12π(r+1)
Me =μ = π; 2σ = π2
3
LA VARIABILE CASUALE BINOMIALE La v.c. di Bernoulli:
xi pi 0 1-p=q 1 p 1
Variabili casuali di uso comune
7
Può essere generata estraendo una unità di rilevazione da una popolazione le cui unità assumono solo due caratteri: bianche (in proporzione pari a p) e rosse (in proporzione pari a q=1-p) Esempio La prova consiste nel lancio di una moneta ben equilibrata:
xi pi 0 1/2 1 1/2 1
è una particolare Bernoulli con p=1/ 2. Momento di ordine r
∑=
=μk
1ir xr
i pi = 0r (1-p)+ 1r p = p
μ= p; 2σ = pq; )p1(p
p211 −
−=γ ;
)p1(p1
2 −=γ - 6
La Binomiale come una generalizzazione della v.c. di Bernoulli ottenuta estrendo, con reimmissione, N palline.
X ~B(N;p) = ∑=
N
1i
Bi(1;p)
Lezione 3
8
Binomiale come somma di N v.c. di Bernoulli indipendenti.
Bi = esce pallina bianca alla i-esima estrazione Ri = esce pallina rossa alla i-esima estrazione si ha P(Bi) = p, P(Ri) = q per i=1,2,...,N: Ax = in N estrazioni (effettuate con rimessa) la pallina bianca si presenta x volte:
B1∩B2∩ ... ∩Bx∩Rx+1∩Rx+2∩ ... ∩RN
P(B1∩B2∩ ... ∩Bx∩Rx+1∩Rx+2∩ ... ∩RN) = px qN-x
Ma perché Ax sia verificata, le x palline bianche possono presentarsi non necessariamente ai primi x posti: i modi incompatibili, in cui le x palline bianche possono presentarsi, sono tanti quante sono le combinazioni di N oggetti ad
x ad x cioè ⎟⎟⎠
⎞⎜⎜⎝
⎛
x
N:
P(Ax) = ⎟⎟⎠
⎞⎜⎜⎝
⎛
x
Npx qN-x
Variabili casuali di uso comune
9
x px
0 ⎟⎟⎠
⎞⎜⎜⎝
⎛
0
Np0 qN-0
1 ⎟⎟⎠
⎞⎜⎜⎝
⎛
1
Np1 qN-1
2 ⎟⎟⎠
⎞⎜⎜⎝
⎛
2
Np2 qN-2
... ......
N ⎟⎟⎠
⎞⎜⎜⎝
⎛
N
NpN qN-N
1
Lezione 3
10
Le probabilità px di B(N; p) possono essere calcolate ricursivamente: po = (1-p)
N
px = px-1 p1p
n1xN
−+− per x=1,2, ..., N
La binomiale è simmetrica se p=q=1/2, è asimmetrica positiva per p < 1/2, è asimmetrica negativa per p>1/2.
Variabili casuali di uso comune
11
μ = E[B(N;p)] = ∑=
N
1i
p = Np
μ2 = Np + N(N-1)p2 μ3 = N(N-1)(N-2)p3 + 3N(N-1)p2 + Np μ4 = N(N-1)(N-2)(N-3)p4 + 6N(N-1)(N-2)p3 + 7N(N-1)p2 + Np σ
2 = Npq
Se Xi~B(Ni;p), i=1,2,...,k, sono k v.c. Binomiali indipendenti allora
X = ∑=
k
1i
Xi
è ancora una Binomiale X~B(N1+N2+...+Nk; p).
Lezione 3
12
Esempio
Il 10% delle piante immesse in un nuovo impianto muore. Al livello di almeno il 99% determinare il numero delle piante da immettere nel vivaio in modo che almeno 6 di queste sopravvivano. Posto: p = 0.9 (successo di sopravvivenza di una pianta)
1-p = 0.1 (insuccesso di sopravvivenza di una pianta)
X = N° piante che sopravvive
P{X ≥ 6} = ︶9.0︵
6⎟⎟⎠
⎞⎜⎜⎝
⎛∑=
xNN
x
x(0.1)
N-x ≥ 0.99
(a) per N = 9 si ha:
P(X ≥ 6) = x)9.0(x
99
6x∑
=⎟⎟⎠
⎞⎜⎜⎝
⎛ (0.1)
9-x = 0.99167
(b) per N = 8 si ha:
P(X ≥ 6) = x)9.0(x
88
6x∑
=⎟⎟⎠
⎞⎜⎜⎝
⎛(0.1)
8-x = 0.96191
Deve essere almeno N = 9 perché, con probabilità maggiore o eguale a 0.99, almeno 6 piante sopravvivano.
Variabili casuali di uso comune
13
Se X è una v.c. Binomiale B(N;p), la v. c. Binomiale frequenza è F = NX = ∑
=
N
1iN1 Bi(1;p)
x px
0 ⎟⎟⎠
⎞⎜⎜⎝
⎛
0
Np0 qN-0
1/N ⎟⎟⎠
⎞⎜⎜⎝
⎛
1
Np1 qN-1
2/N ⎟⎟⎠
⎞⎜⎜⎝
⎛
2
Np2 qN-2
... ......
1 ⎟⎟⎠
⎞⎜⎜⎝
⎛
N
NpN qN-N
1
μ = E(F) = E ⎟⎠⎞
⎜⎝⎛NX =
N1 Np = p
var(F) = var ⎟⎠⎞
⎜⎝⎛NX = 1
N2 Npq = Npq
la media di F è proprio pari a p, mentre la variabilità di F decresce al crescere di N.
Lezione 3
14
La variabile casuale di Poisson La v.c. di Poisson è una variabile casuale discreta e viene, di solito, utilizzata per analizzare fenomeni connessi a conteggi, viene anche detta degli eventi rari.
⎟⎟⎠
⎞⎜⎜⎝
⎛
=→
∞→ x
Nlim
λNp0p
Npx qN-x =
!x1
λx e-λ
, x = 0,1, 2, ...
Variabili casuali di uso comune
15
x px
0 e-λ 1 λ e-λ
2 λ2 e-λ/2 3 λ3 e-λ/6 ... ... x λx e-λ/x! ... ... 1
Le probablità di una P(λ) soddisfanno le seguenti relazioni po = e-λ
px = px-1 xλ per x=1,2,.....
Lv.c. di Poisson può essere espressa come somma di infinite Bernoulli indipendenti:
P(λ) =
λ=→
∞→
Np0p
Nlim B(N;p) = ∑
=λ=
→∞→
N
1iNp
0pNlim Bi(1;p)
X = ∑=
k
1i
Xi = P(λ1+λ2+...+λk),
Lezione 3
16
μ = E[P(λ)] = λ
μ2 = E[P2(λ)]= λ + λ2
In particolare
σ
2 = μ2 - μ2 = λ + λ2 - λ2 = λ;
γ1 = λ1
γ2 = λ1
Esempio
La probabilità di avere un parto trigemino è p = 1/8000. Calcolare la probabilità che osservando 10.000 parti a caso: (a) se ne abbiamo non più di 4 trigemini; (b) almeno 4 trigemini.
(a) P{X ≤ 4} = ∑=
4
0j
P(x=j) = 0.99088
(b) P{X ≥ 4} = 1 - P{X < 4} = 1 -∑=
3
0j
P(x=j) = 0.03826
N = 10.000 è "grande" e p = 1/8.000 è "piccolo" si può usare l'approssimazione di Poisson con λ = 10.000 8.000 = 1.25
Variabili casuali di uso comune
17
(a) P{X ≤ 4} = ∑=
4
0j
P(X=j) = 0.99006
(b) P{X ≥ 4} = 1 - P{X < 4} = 1 -∑=
3
0j
P(x=j) = 0.03891
Esempio Il numero di vendite per settimana si comporta come una di Poisson. Inoltre, è noto che in media vende 2 manufatti al giorno. Determinare lo stock di magazzino in modo che quel venditore abbia probabilità di almeno il 99% di avere merce per soddisfare la domanda di una settimana. λ = 2 × 7 = 14
beni venduti in media al giorno
giorni della settimana
Bisogna trovare n per cui
P{X ≤ N} ≥ 0.99 cioè
!je jN
0j
λλ−
=∑ = e-λ
!j
jN
0j
λ
=∑ ≥ 0.99
Per N= 23 si ha:
Lezione 3
18
P{X ≤ 23} = 0.99067
Il venditore deve tenere in magazzino almeno 23 manufatti per essere sicuro al 99% di soddisfare le richieste di una settimana. La variabile casuale Normale La v.c. Normale è nota anche come v.c. degli errori accidentali. E’ funzione di soli due parametri: la media μ e la varianza σ
2; si scrive
X~N(μ, σ
2)
La f.d. di una v.c. Normale con media μ e varianza σ
2 è
f(x) = 22
1
πσexp
⎭⎬⎫
⎩⎨⎧
μ−σ
− 22 )x(
21
risulta
f(μ - x) = f(μ + x). e quindi
μ = Me
Variabili casuali di uso comune
19
max f(x) = f(μ) = c = 22
1
πσ
Supponiamo di avere due fenomeni aleatori X ed Y che si distribuiscono entrambi come normali con uguale varianza e medie diverse:
X~N(μ1; σ2); Y~N(μ2; σ
2)
con μ1 ≤ μ2
Variabili casuali di uso comune
21
Le Normali posseggono una proprietà riproduttiva: se è X~N(μ, σ2), allora
Z = a + b X ~N(a + bμ, b
2σ
2)
In particolare, come già visto in altra occasione, se è
a = - σμ
, b = σ1
si ottiene
Z = - σμ
+ σ1
X = σ
μ−X~N(0, 1)
la v.c. Normale standardizzata:
Calcolare la probabilità che X cada nell'intervallo [a, b]:
Lezione 3
22
P{a ≤ X ≤b} = 2
b
a 2
1
πσ∫ exp⎭⎬⎫
⎩⎨⎧ μ−
σ− 2
2 )x(2
1dx
il problema si ricorre alla seguente procedura: (a) si sono tabulate le probabilità relative alla Normale standardizzata; (b) si standardizza la v.c. X ed i relativi estremi dell'intervallo [a, b]; (c) si usa la tavola delle probabilità della standardizzata per calcolare le probabilità cercate.
P{a ≤ X ≤b}= P⎭⎬⎫
⎩⎨⎧
σμ−
=σ
μ−=
σμ− bXa
= P⎭⎬⎫
⎩⎨⎧
σμ−
==σ
μ− bZa
la probabilità che X cada nell'intervallo [a, b] risulta uguale alla probabilità che Z cada nell'intervallo
⎥⎦⎤
⎢⎣⎡
σμ−
σμ− b,a
.
Da un punto di vista grafico si ha una situazione come quella qui appresso riportata
Lezione 3
24
P{2 ≤ X ≤ 5} = P⎭⎬⎫
⎩⎨⎧ −
==−
235Z
232 = P{ - 0.5 ≤ Z ≤ 1} =
= P{-∞ < Z ≤ 1} - P{-∞ < Z ≤ -0.5}
ma
P{-∞ < Z ≤ -0.5} = 1- P{-∞ < Z ≤ 0.5}
e quindi
P{2 ≤ X ≤ 5} = P{ - 0.5 ≤ Z ≤ 1} = P{-∞ < Z ≤ 1} - P{-∞ < Z ≤ -0.5}=
= P{-∞ < Z ≤ 1}- [1- P{-∞ < Z ≤ 0.5}]
Ricorrendo alle tavole
Variabili casuali di uso comune
25
P{2 ≤ X ≤ 5}= P{-∞ < Z ≤ 1}- [1- P{-∞ < Z ≤ 0.5}] =
= 0.8413 - (1 - 0.6915) = 0.5328.
I momenti della generica v.c. X~N(μ, σ2)
E(Xr) = ⎟
⎟⎠
⎞⎜⎜⎝
⎛∑= j
rr
0j
μr- j
σj E(Z
j)
da cui:
E(X2) = ⎟⎟
⎠
⎞⎜⎜⎝
⎛∑= 0
22
0j
μ2-j
σjE(Z
j) = μ2
+ σ2
E(X3) = ⎟⎟
⎠
⎞⎜⎜⎝
⎛∑= j
33
0j
μ3-j
σjE(Z
j) = μ
3 + 3μσ2
E(X4) = ⎟⎟
⎠
⎞⎜⎜⎝
⎛∑= j
44
0j
μ4-j
σjE(Z
j) = μ
4 + μ2σ
2 + 3σ4
Esempio
Lezione 3
26
Un fenomeno si distribuisce normalmente con μ=3 e σ2 = 4, calcolare: (a) P{1.5 ≤ X ≤ 4.3} (b) P{4.21 ≤ X ≤ 6.35} (a)
si ottiene
P{1.5 ≤ X ≤ 4.3}= P⎭⎬⎫
⎩⎨⎧ −
==−
233.4Z
235.1 = P{-0.75 ≤ Z ≤ 0.65} =
= P{-∞ < Z ≤ 0.65} - P{-∞ < Z ≤ -0.75} =
= P{-∞ < Z ≤ 0.65} - [1 - P{-∞ < Z ≤ 0.75}] =
= 0.7422 - (1- 0.7734) = 0.5156 (b)
Variabili casuali di uso comune
27
si ottiene
P{4.21 ≤ X ≤ 6.35} = P⎭⎬⎫
⎩⎨⎧ −
==−
2335.6Z
2321.4 = P{0.605 ≤ Z ≤ 1.675}≈
≈ P{0.60 ≤ Z ≤ 1.67} = P{-∞ < Z ≤ 1.67} - P{-∞ < Z ≤ 0.60} =
= 0.95254 - 0.7257 = 0.2268
Lezione 3
28
Richiamiamo le identità |X - b | ≤ c = -c ≤ X-b ≤ c = b-c ≤ X ≤ b+c
|X - b | ≥ c = (X-b ≥ c)∪(X-b ≤ -c) = (X ≥ b+c)∪ (X ≤ b-c)
Esempio Supposto che il fenomeno X si distribuisca come una v.c. Normale con media � e varianza �2 qualsiasi, calcolare (a) P{|X - μ | ≤ σ } (b) P{|X - μ | ≤ 2σ } (c) P{|X - μ | ≤ 3σ } (a)
P{|X - μ| ≤ σ}= P{μ−σ ≤ X ≤ μ+σ} =
= P⎭⎬⎫
⎩⎨⎧
σμ−σ+μ
==σ
μ−σ−μ Z = P{-1 ≤ Z ≤ 1} =
= 2P{-∞ < Z ≤ 1} - 1 = 2×0.8413 - 1 = 0.6826
Variabili casuali di uso comune
29
(b)
P{|X - μ| ≤ 2σ}= P{μ-2σ ≤ X ≤ μ+2σ} =
= P⎭⎬⎫
⎩⎨⎧
σμ−σ+μ
==σ
μ−σ−μ 2Z2= P{-2 ≤ Z ≤ 2} =
= 2P{-∞ < Z ≤ 2} - 1 = 2�0.97725 - 1 = 0.9545
Lezione 3
30
(c) P{|X - μ| ≤ 3σ}= P{μ-3σ ≤ X ≤ μ+3σ} =
= P⎭⎬⎫
⎩⎨⎧
σμ−σ+μ
==σ
μ−σ−μ 3Z3 = P{-3 ≤ Z ≤ 3} =
= 2P{-∞ < Z ≤ 3} - 1 = 2×0.99865 - 1 = 0.9973
Variabili casuali di uso comune
31
Vogliamo individuare la costante a di modo che, fissato, α sia
P{|X - μ| ≤ a} = α
P{|X - μ| ≤ a}= P{μ-a ≤ X ≤ μ+a} = ∫+μ
−μ
a
a
f(x)dx = α
α = P{|X - μ| ≤ a}= P{μ-a ≤ X ≤ μ+a} =
= P⎭⎬⎫
⎩⎨⎧
σμ−+μ
==σ
μ−−μ aZa= P
⎭⎬⎫
⎩⎨⎧
σ==
σ− aZa
= 2P⎭⎬⎫
⎩⎨⎧
σ==
aZ0
da cui
Lezione 3
32
P⎭⎬⎫
⎩⎨⎧
σ≤≤
aZ0 = 2α
che è equivalente a
P⎭⎬⎫
⎩⎨⎧
σ≤≤∞−
aZ = 2α
+ 0.5
Dalla tavola della standardizzata, in corrispondenza di α* = 2α
+ 0.5, si ricava il valore zα ≈ σa
e quindi a ≈ zασ.
Esempio Supponiamo che sia X~N(μ, 4) e si voglia individuare la costante a per cui risulti
P{|X - μ| ≤ a}= 0.65
In questo caso si ha α* = 0.652 + 0.5 = 0.825. Il valore più vicino ad α* riportato nella tavola della Normale
standardizzata è 0.8238 in corrispondenza del quale si ha zα= 0.93 e quindi risulta
a ≈ 2 (0.93) = 1.86.
Variabili casuali di uso comune
33
una qualsiasi combinazione lineare di Normali indipendenti si distribuisce ancora come una v.c. Normale Xi~N(μi, σ2
i ), i=1,2,...,k, indipendenti, la nuova v.c.
Y = co + c1X1 + c2X2 + ... + ckXk
è Normale con μy = co + c1μ1 + c2μ2 + ... + ckμk σ2
y = c21 σ2
1 + c22 σ2
2+ ... + c2k σ2
k cioè
Y ~N(co + c1μ1 + c2μ2 + ... + ckμk; c21 σ2
1 + c22 σ2
2+ ... + c2k σ2
k )
Lezione 3
34
LA V.C. CHI-QUADRATO
Siano date k v.c. normali standardizzate indipendenti:
Z1~N(0, 1), Z2~N(0, 1), ..., Zk~N(0, 1) Allora la nuova v.c.
Y = ∑=
k
1i
Z2i
è la v.c. Chi-quadrato con k gradi di libertà.
gradi di libertà = numero delle variabili - numero dei vincoli
La v.c. χ2k è continua in (0; +∞), la f.d. è
f(y) = )2/k(2
ye2/k
1)2/k(2/y
Γ
−−per y > 0
ove Γ(p) è detta funzione gamma
Variabili casuali di uso comune
35
Γ(p) = ∫∞
0
xp-1e-x dx , per p > 0; Γ(p+1) = p Γ(p),
se p è un numero intero si ha
Γ(p) = (p-1)!; Γ ⎟⎠⎞
⎜⎝⎛ +
21p = p
.....
2)1p2(531 −
π ;
Γ ⎟⎠⎞
⎜⎝⎛21
= π .
Lezione 3
36
Per quel che riguarda la media e la varianza della v.c. Chi-quadrato, ricordando che E(Z) =0, E(Z2) = 1, E(Z3) = 0, E(Z4) = 3, risulta
E(χ2r ) = E
⎥⎥⎦
⎤
⎢⎢⎣
⎡∑
=
2i
k
1i
Z = ∑=
k
1i
E[Z2i ] = k
var(χ2r ) = var
⎥⎥
⎦
⎤
⎢⎢
⎣
⎡
∑=
2i
k
1i
Z = ∑=
k
1i
var[Z2i ] = 2k
possiamo così calcolare il momento secondo della v.c. χ2k ottenendo
μ2 = σ2 + μ2 = 2k + k2
γ1 = k8
> 0; γ2 = k
12> 0
X~χ2
k ; Y~χ2h allora V = X + Y ~χ2
hk+
Variabili casuali di uso comune
37
T DI STUDENT Date le due v.c. Z~N(0, 1) ed Y ~χ2
k indipendenti
v.c. T di Student con k gradi di libertà è
T(k) = k/Y
Z=
k/
)1,0(N2kχ
La v.c. T di Student è funzione del solo parametro k e la sua f.d., si dimostra, è data da
f(t) = )k/t1()k
21(
)]1k(21[
k1 2+
Γ
+Γ
π-(k+1)/2 , - ∞ < t < ∞
Lezione 3
38
Quando è k=1 questa variabile casuale prende il nome di v.c. di Cauchy.
μr = E(T r) =
)21()k
21(
2/r )]rk(21[)]1r(
21[k
ΓΓ
−Γ+Γ se r è pari ed r<k.
σ2 =
2kk−
se k > 2; γ1 = 0 se k >3; γ2 = 4k
6−
>0 se k >4.
Questo vuole dire che la v.c. T di Student, oltre ad essere simmetrica, è sempre leptocurtica. Tenendo conto che
E ⎟⎠⎞
⎜⎝⎛ χ2
kk1
= 1k k =1; var ⎟⎠⎞
⎜⎝⎛ χ2
kk1
= 2k1
2k = k2
1k χ2k , al divergere di k all'infinito, assume il suo valore medio 1 con certezza. Ma allora per
T(k) = k/
)1,0(N2kχ
si ha
T(k) → N(0, 1), per ∞→k .
Variabili casuali di uso comune
39
F DI FISHER
Date le due v.c. indipendenti X~2
)h(χe Y~
2)k(χ,
la nuova v.c.
k/Yh/XF =
è la. F di Fisher con h e k gradi di libertà e si scrive F~F(h,k).
F1 ~F(k,h)
e
Lezione 3
40
P{0 ≤ F(h,k) ≤ 1/Fo} = P{Fo ≤ F(k,h) ≤ +∞} per Fo > 0 Inoltre, la v.c. F di Fisher può essere considerata una generalizzazione della v.c. T di Student dato che si verifica facilmente, dalle definizioni delle due v.c., che se è X~T(k) risulta immediatamente
2
2k
2)k(
k/
)1,0(NT⎥⎥
⎦
⎤
⎢⎢
⎣
⎡
χ= =
k/1/
2k
21
χ
χ~F(1,k)
f(F) = 2/)kh(
12/h2/h
)k/Fh1(
Fkh
k21h
21
)kh(21
+
−
+⎟⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛Γ⎟
⎠⎞
⎜⎝⎛Γ
⎥⎦⎤
⎢⎣⎡ +Γ
per 0<F<∞
Variabili casuali di uso comune
41
μr = E(Fr) = ⎟⎠⎞
⎜⎝⎛Γ⎟
⎠⎞
⎜⎝⎛Γ
⎟⎠⎞
⎜⎝⎛ −Γ⎟
⎠⎞
⎜⎝⎛ +Γ
k21h
21h
rk21rh
21k
r
r
per - 12 h < r < 12 k
da cui si ottiene:
μ = 2k
k−
per k > 2
var(F) =)4k()2k(h
)2kh(k22
2
−−
−+ per k>4
γ1 = 6k
)2kh2()2kh(h
)4k(8−
−+−+
−> 0 per k > 6
γ2 = 12[(k-2)2(k-4)+h(h+k-2)(5k-22)]h(k-6)(k-8)(h+k-2) > 0 per k > 8
F(h,k) → 2)h(h
1χ .
Lezione 3
42
V.C. LOGNORMALE La v.c. Y si distribuisce come una Lognormale con parametri (λ, δ) Più precisamente, data la v.c. X~LN(λ, δ) la nuova v.c.
Y = eX prende il nome di v.c. Lognormale con parametri (λ, δ)
f(x) = πδ 2x
1exp
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
⎟⎠⎞
⎜⎝⎛
δλ−
−2)xlog(
21
, -∞<λ<∞, δ>0
Variabili casuali di uso comune
43
μ = eλ e
δ2/2 ; σ2 = e2λ eδ2
(eδ2 - 1); γ1 = (e
δ2 + 2) 1e −2δ > 0; γ2 = e
4δ2+ 2e
3δ2 + 3e
2δ2 - 6 > 0.
La v.c. Lognormale è una v.c. sempre asimmetrica positiva e leptocurtica, si osservi che la distribuzione Lognormale è tanto più vicina alla simmetria ed alla mesocurtosi quanto più δ è piccolo.
Lezione 3
44
NORMALE DOPPIA La v.c. Normale doppia (X, Y) è definita sull'intero piano (x, y) ed è funzione dei cinque parametri:
μx, μy, σ2x , σ2
y , σxy
Di solito, per indicare che la v.c. (X, Y) si distribuisce come una Normale doppia si usa la notazione seguente:
(X, Y) ~N2(μx, μy, σ2x , σ2
y , σxy)
(X, Y) ~N2(μ; Σ ); ⎟⎟⎠
⎞⎜⎜⎝
⎛
μ
μ=μ
y
x, ⎟
⎟⎠
⎞⎜⎜⎝
⎛
σσ
σσ=Σ
yxy
xyx
f(x,y) = 2
yx 12
1
ρ−πσ σexp
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
⎥⎥
⎦
⎤
⎢⎢
⎣
⎡
σ
μ−+
σ
μ−
σμ−
−σ
μ−
ρ−− 2
y
2y
y
y
x
x2x
2x
2
)y(yxr2
)x(
)1(21
• Ogni combinazione lineare di una Normale doppia è ancora una normale; • Ciascuna marginale di una normale doppia è una normale semplice: X~N(μx, σ
2x ) Y~N(μy, σ
2y ).
Variabili casuali di uso comune
45
μx = μy =0, σ2x =1, σ2
y =2, ρ =0.5 μx = μy =0, σ2x =1, σ2
y =2, ρ = 0
μx = μy =0, σ2x = σ2
y =2, ρ =0.5
Lezione 3
46
Data la v.c. (X, Y) Normale doppia, condizione necessaria e sufficiente perché X ed Y siano indipendenti è che sia ρ = 0.
l'indipendenza è equivalente all'incorrelazione
(X|Y=y)~N⎥⎥
⎦
⎤
⎢⎢
⎣
⎡
σ
σ−σμ−
σ+
σμ 2
y
2xy2
xy2y
xyx ),y(
(Y|X=x)~N⎥⎥
⎦
⎤
⎢⎢
⎣
⎡
σ
σ−σμ−
σ+
σμ 2
x
2xy2
yx2x
xyy ),x(
La media della v.c. condizionata (Y|X=x) è una retta:
μy|x = μy + )x( x2x
xy μ−σ
σ= ⎟
⎟⎠
⎞⎜⎜⎝
⎛μ
σ
σ−μ x2
x
xyy + 2
x
xy
σ
σx = βo + β1x
μx|y = μx + )y( y2y
xy μ−σ
σ= αo + α1y
La densità della normale doppia ha un unico massimo per (x, y) = (μx, μy) ed è costante sull'ellisse con centro in
Variabili casuali di uso comune
47
(μx, μy)
⎥⎥
⎦
⎤
⎢⎢
⎣
⎡
σ
μ−+
σ
μ−
σμ−
ρ−σ
μ−2y
2y
y
y
x
x2x
2x )y(yx
2)x(
= c
ove si è supposto che fosse σxy > 0.
• X-Y ~ N(μx - μy; σ2x + σ2
y +2σxy)
• X+Y ~ N(μx + μy; σ2x + σ2
y +2σxy)
• se è μx=μy=0 si ha 2xy
2y
2x
1σ−σσ
[X2σ2
y - 2 XYσxy + Y2σ2
x ] ~ χ22
Lezione 3
48
ALCUNE LEGGI DI CONVERGENZA Data la successione di variabili casuali indipendenti
X1, X2, …, Xn,…≡ {Xn} con
μ1, μ2, ..., μn, ....
σ21 , σ2
2 , ...., σ2n , ....
e consideriamo la v.c. media
n_X = ∑
=
n
1jn1
Xj
Visto che le Xi sono indipendenti, segue
E(_Xn) = ∑
=
μ
n
1jjn
1≡ μ
(n)
Var(_Xn) = ∑
=
σn
1j
2j2n
1
Nel caso particolare in cui è
Variabili casuali di uso comune
49
μ1 = μ2 = … = μn = … = μ
σ21 = σ2
2 = … = σ2n = … = σ2
si ha
E(_Xn) = μ; Var(
_Xn) =
n
2σ
Definizione La successione di v.c. {Xn} converge in probabilità o debolmente a X
∞→nlim P{|Xn - X| < ε} = 1; per ogni ε > 0
si scrive
∞→nlim Xn = X; Xn
P→X
Lezione 3
50
Definizione La successione di v.c. {Xn} converge in media quadratica a X
∞→nlim E[(Xn - X)2] = 0
Xn .m.q
→ X La convergenza in media quadratica implica quella in probabilità. Se
∑=
∞→
n
1j2n n1lim σ
2j = 0
allora _Xn - μ(n)
P→0
Data la successione di v.c. {Xn}, nel caso particolare in cui risulti E(Xi) = μ, allora
_Xn - μ
P→0
Se g(. ) è una funzione continua e se Xn P→X allora
g(Xn) P→g(X)
Variabili casuali di uso comune
51
Definizione Convergenza in distribuzione o in legge ad X se
∞→nlim Fn(x) = F(x)
Xn L→X
in ogni punto di continuità di F(x). (a) F(x) viene detta la distribuzione asintotica della successione. (b) La convergenza in probabilità implica quella in distribuzione. In generale, non è vero il viceversa. (c) I due tipi di convergenza si equivalgono se X è una v.c. degenere:
Xn P→c ⇔ Xn
L→c
(d) Se g(. ) è una funzione continua e se Xn L→X allora
E[g(Xn)] ⎯→ E[g(X)]
Definizione La successione di v.c. {Xn} converge uniformemente in distribuzione alla v.c. X se
xnsuplim
∞→|Fn(x) - F(x)| = 0
Se {Xn} converge in distribuzione a X e se la funzione di ripartizione di X è continua allora la convergenza è uniforme.
Lezione 3
52
Altri risultati: (a) date le due successione di v.c. {Xn} ed {Yn}, se
|Xn-Yn| P→0; Yn
L→Y
allora
Xn L→Y
(b) Date le due successioni di v.c. {Xn} ed {Yn}, se
Xn L→X; Yn
P→0
allora
Xn Yn P→0
(c) Date le due successioni di v.c. {Xn} ed {Yn}, se
Xn L→X; Yn
P→c
allora
Xn + Yn L→X + c; Xn Yn
L→Xc
IL TEOREMA DEL LIMITE CENTRALE
Variabili casuali di uso comune
53
Data la successione di v.c. indipendenti:
X1, X2, ..., Xn, ...
con medie finite e varianze finite e strettamente positive. Consideriamo la standardizzata
Zn = )X...XXvar(
)X...XX(E)X...XX(
n21
n21n21+++
+++−+++=
= 2n
22
21
n21n21
...
)...()X...XX(
σ++σ+σ
μ++μ+μ−+++
si dimostra che Zn converge in distribuzione alla v.c. Normale standardizzata per n→∞:
Zn L→N(0, 1).
Per n finito ma grande si avrà
Zn ≈ Z ~N(0, 1)
Lezione 3
54
che equivale a
2n
22
21
n21n21
...
)...()X...XX(
σ++σ+σ
μ++μ+μ−+++≈ Z
da cui si ricava
(X1 + X2 + ...+ Xn) ≈ (μ1+ μ2+ ...+ μn) + 2n
22
21 ... σ++σ+σ Z
Ma al secondo membro dell'ultima espressione vi è una trasformazione lineare di una Normale standardizzata che, come sappiamo, è ancora una v.c. Normale e precisamente:
(X1 + X2 + ...+ Xn) ≈ N[(μ1+ μ2+ ...+ μn); (σ21 + σ2
2 + ...+ σ2n )]