Elementi di probabilità e statistica - Riganti

Embed Size (px)

Citation preview

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    1/329

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    2/329

    i

    PARTE PRIMA

    PROBABILITA

    CAPITOLO I - Gli assiomi della probabilita

    1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pag. 11.2 Definizione assiomatica di probabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

    1.2.1 Logica degli eventi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

    1.2.2 Campo di Borel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

    1.2.3 Assiomi della probabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

    1.3 Probabilita condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    1.4 Eventi indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    1.5 Formula di Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

    1.6 P roblemi risolti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

    CAPITOLO II - Variabili aleatorie

    2 . 1 D e fi n i z i o n i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3

    2.1.1 Funzione di dis tr ibuzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25

    2.1.2 Densita di probabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

    2.2 Momenti di var iabil i aleator ie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .30

    2.3 Distribuzioni notevoli in Probabilita e Statistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

    2.3.1 Distribuzione uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3

    2.3.2 Distribuzione normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 4

    2 . 3 . 3 D i s t r i b u z i o n e G a m m a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 6

    2.3.4 Distribuzione esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

    2.3.5 D istribuzione d i Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

    2.3.6 Dis tr ibuzione t- Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    3/329

    ii

    2.3.7 Distribuzione Chi-quadrato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

    2.3.8 Distribuzione F d i Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

    2.3.9 Distribuzione binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

    2.3.10 Dis tr ibuzione di P ois s on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

    2.3.11 Distribuzione geometrica e ipergeometrica ........................... 51

    2 . 3 . 1 2 D i s t r i b u z i o n e B e t a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 4

    2.3.13 Distribuzione di Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

    2.4 Problemi risolti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

    CAPITOLO III - Variabili aleatorie multidimensionali

    3.1 Coppie di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

    3.1.1 Momenti congiunti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

    3.1.2 Coppie di v.a. indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

    3.1.3 Coppie di v.a. discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

    3.2 Caso di n variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

    3.3 Trasformate delle densita di probabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 4

    3.3.1 Funzione caratteristica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 4

    3.3.2 Funzione generatrice dei momenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

    3.4 Problemi risolti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

    CAPITOLO IV - Trasformazioni di variabili aleatorie

    4.1 Generalita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

    4.2 Funzioni di una variabile casuale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

    4.2.1 Calcolo della funzione di distribuzione ................................96

    4.2.2 Calcolo diretto della densita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

    4.2.3 Trasformazioni invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

    4.2.4 Momenti di Y() =g[X()] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

    4.2.5 Trasformazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

    4.3 Funzioni di due o piu v a r i a b i l i c a s u a l i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 0 9

    4.4 Trasformazioni n-dimensionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

    4 . 5 P r o b l e m i r i s o l t i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 2

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    4/329

    iii

    CAPITOLO V - Processi stocastici

    5.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

    5.1.1 Momenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

    5.1.2 Processi indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

    5.1.3 Processi senza memoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

    5 . 1 . 4 P r o c e s s i s t a z i o n a r i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 9

    5 . 2 E s e m p i n o t e v o l i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 3 0

    5.3 Processi di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

    5.4 Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

    5.4.1 Matrice di transizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

    5.4.2 Classificazione degli stati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .141

    5.4.3 Probabilita invarianti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

    ***********************************************

    PARTE SECONDA

    STATISTICA

    CAPITOLO VI - Statistica descrittiva

    6.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

    6.2 Distribuzioni di frequenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

    6.3 Indici di tendenza centrale e di dispersione ................................150

    6.3.1 Medie, moda, mediana, quantili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .150

    6.3.2 Indici di dispersione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

    6.3.3 S tem-and-leaf e box-plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

    6.4 Distribuzioni congiunte di frequenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

    6.5 Regressione lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

    6.6 Regressione multipla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 68

    6 . 7 R e g r e s s i o n e n o n l i n e a r e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 6 9

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    5/329

    iv

    6 . 8 P r o b l e m i r i s o l t i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 7 1

    CAPITOLO VII - Distribuzioni campionarie

    7.1 Modelli statistici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181

    7.2 Teoria dei campioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

    7.3 Distribuzione campionaria delle medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

    7.3.1 Campionamento con ripetizione .... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .185

    7.3.2 Campionamento senza ripetizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

    7.4 Distribuzione campionaria delle varianze ..................................191

    7.4.1 Campionamento con ripetizione .... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .191

    7.4.2 Campionamento senza ripetizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

    7.5 Distribuzione campionaria delle frequenze .................................195

    7 . 6 P r o b l e m i r i s o l t i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 9 7

    CAPITOLO VIII - Stime di parametri

    8 . 1 S t i m a p u n t u a l e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 0 3

    8.1.1 Stima puntuale di medie e varianze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

    8.1.2 Stima di massima verosimiglianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206

    8 . 1 . 3 M e t o d o d e i m o m e n t i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1 0

    8.2 Stima per intervalli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

    8.2.1 Intervalli di confidenza per la media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .212

    8.2.1.1 Popolazione con varianza nota . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .212

    8.2.1.2 Popolazione con varianza sconosciuta .........................215

    8.2.2 Intervalli di confidenza per la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224

    8 . 3 P r o b l e m i r i s o l t i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 8

    CAPITOLO IX - Test parametrici di ipotesi statistiche

    9.1 Principi generali di un test statistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239

    9.2 Test parametrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 41

    9.3 Test di Neyman-Pearson tra ipotesi semplici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242

    9.4 Test parametrici con ipotesi composte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    6/329

    v

    9.4.1 Test sul valor medio per il modello normale ......................... 246

    9.4.1.1 Modello Normale-1: popolazione con varianza nota . . . . . . . . . . . 246

    9.4.1.2 Modello Normale generale: varianza sconosciuta . . . . . . . . . . . . . . 249

    9.4.1.3 Popolazione con distribuzione non Normale . . . . . . . . . . . . . . . . . . . 250

    9 . 4 . 2 T e s t s u l l a v a r i a n z a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 5 8

    9.4.3 Test di Fisher per il rapporto tra varianze . . . . . . . . . . . . . . . . . . . . . . . . . . .263

    9.4.4 Test di incorrelazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265

    9.4.5 Ipotesi H0 e H1 composte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266

    9.4.6 Test del rapporto di verosimiglianza .................................268

    9 . 5 P r o b l e m i r i s o l t i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 6 9

    CAPITOLO X - Test non parametrici

    10.1 Test sulla legge di distribuzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279

    10.1.1 Test di Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280

    10.1.2 Test Chi-quadrato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282

    10.2 Test di omogeneita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292

    10.2.1 Test dei segni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 93

    10.2.2 Test dei ranghi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295

    10.2.3 Test di Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297

    10.2.4 Test Chi-quadrato di omogeneita per piu campioni . . . . . . . . . . . . . . . . . 2 98

    1 0 . 3 T e s t d i i n d i p e n d e n z a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 0 3

    10.3.1 Test Chi-quadrato di indipendenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .303

    10.3.2 Test di Spearman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 05

    10.4 Test sulla casualita di un campione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307

    10.4.1 Test di correlazione seriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308

    10.4.2 Run test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310

    BIBLIOGRAFIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313

    APPENDICE

    Tavole delle distribuzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315

    Normale standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    7/329

    vi

    t-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317

    Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318

    Chi-quadrato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320

    F i s h e r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2 1

    Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    8/329

    vii

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    9/329

    GLI ASSIOMI DELLA

    PROBABILITA

    1.1 Introduzione

    Nel Calcolo delle Probabilita si elaborano modelli matematici per la valutazione ri-gorosa del concetto primitivo di probabilita che un esperimento casuale si concretizziin un determinato evento. Ma cose la probabilita di un evento? Ne esistono almenoquattro definizioni principali, da cui si originano altrettante teorie matematiche,elaborate dalla seconda meta del XXVII secolo fino ai giorni nostri. Esse sono:

    1) Definizione classica: la probabilita P(A) di un evento A e il rapporto tra ilnumeroNA dei casi favorevoli e il numero Ndei casi possibili:

    P(A) =NA/N.

    E questa una definizioneaprioristica, nel senso cheP(A) e definita senza far ricorsoad alcuna effettiva prova sperimentale. La sua applicabilita e limitata allo studio diquel fenomeni casuali in cui si puo assumere che il numero N dei casi possibili sia

    finito, e che questi siano tutti, a priori, egualmente probabili.

    2) Definizione frequentista, ovvero basata sul concetto, particolarmente familiareai fisici, di frequenza relativa di un evento: se un esperimento e ripetuto n volte, elevento A si presenta nA volte, allora la sua probabilita e il limite della frequenzarelativa:

    P(A) = limnnA/n

    quando il numero delle prove tende ad infinito. Questa definizione implica lipotesipreliminare che le prove ripetute si svolgano in condizioni identiche, il che, al paridella definizione classica, ne restringe lapplicabilita a una classe piuttosto ristrettadi fenomeni casuali.

    3) Definizione soggettivista, come misura di unopinione personale: la probabilitadi un evento e il grado di fiducia che si ha nel verificarsi di esso. Per esempio:

    1

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    10/329

    2 ASSIOMI DELLA PROBABILITA

    la probabilita che in un processo giudiziario limputato sia giudicato colpevole e

    una misura della nostra conoscenza dei fatti e della nostra abilita deduttiva. Taledefinizione si formalizza adottando lo schema tipico delle scommesse regolate dacondizioni diequita: la probabilita dellevento e misurata dal prezzo che un individuoritiene equo pagare per ricevere 1 se levento si realizza, e 0 se non si verifica.

    4) Definizione assiomatica, la cui formalizzazione matematica (che e quella cheseguiremo) risale ad A. N. Kolmogorov (1933). Essa consiste nellintrodurre unopportuno insieme di assiomi, verificando a posteriori il significato fisico e la validit adella teoria matematica cos precisata.

    1.2 Definizione assiomatica di probabilita

    Oggetto della teoria matematica sviluppata nel Calcolo delle Probabilita e un generi-coesperimento casuale, la cui singola esecuzione e chiamataprovadellesperimento.Il risultato (o esito) della prova si indica con . Linsieme di tutti i possibili esiticostituisce lo spazio campione associato allesperimento casuale. Un evento Arelativo al medesimo esperimento e un certo insieme di risultati , ovvero un sot-toinsieme dello spazio campione . Se un risultato A, si dice che esso realizzalevento A. Se linsiemeA e costituito da un solo elemento , allora questultimoprende il nome di evento elementare; altrimenti A e unevento composto.

    1.2.1 Logica degli eventi

    Le definizioni che seguono riguardano operazioni sugli eventi, e si possono formal-mente rappresentare come indicato nello schema riassuntivo di Fig.1.1.

    Dati due eventi A, B , si dice che A implicaB se e A B.

    I due eventi sono incompatibilise non esiste alcun risultato che realizzi siaA che B , ovvero se e A B = , dove e linsieme vuoto.

    Al contrario, se A e B nonsono incompatibili, linsieme non vuoto (A

    B) e

    costituito da tutti i risultati che realizzano sia A che B.

    Linsieme (AB) indica invece larealizzazione dellevento A, oppure delleventoB, oppure di entrambi.

    Se non si realizza un evento A, allora si realizza il suo complementare in A = \ A in , negazionedellevento A. Ne segue subito che e levento certoe e levento impossibile.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    11/329

    1.2 Definizione assiomatica di probabilita 3

    Figura 1.1

    1.2.2 Campo di Borel

    Gli eventi Ai, i = 1, 2, . . . relativi ad un determinato esperimento casuale sonosottoinsiemi dello spazio campione , sui quali effettuiamo operazioni di unione,intersezione, differenza come indicato in Fig.1. Al fine di attribuire a ciascun eventouna misura di probabilita, si richiede a tali eventi di soddisfare il seguente requisitofondamentale: qualunque operazione su di essi deve essere a sua volta un eventodefinito in.

    Questa proprieta si formalizza dicendo che gli eventi devono costituire un campo

    C,

    ovvero una classe additiva di insiemiAi , non vuota e chiusa rispetto alla negazionee allunione. Se esiste un insieme numerabile1 di infiniti eventi Ai, questi devonoformare un campo di Borel(o -algebra) cos definito:

    Definizione 1. Un campo di BorelB e la classe costituita da una infinita numerabile1Ricordiamo che un insieme di infiniti elementi e numerabile se esiste una corrispondenza uno-

    a-uno tra gli elementi dellinsieme e tutti gli interi positivi. Ad esempio: linsieme IR dei numerireali non e numerabile; linsieme {1, 2, 3, ..} e numerabile.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    12/329

    4 ASSIOMI DELLA PROBABILITA

    di insiemiAi

    , tale che:

    1) Ai B Ai= \Ai B2) Ai B

    i=1

    Ai B;i=1

    Ai B

    3) B; B.

    Dunque, un campo di Borel e caratterizzato dalla proprieta che qualsiasi operazionesugli insiemi che lo formano da luogo ad un insieme nello stesso campo, anche se gliinsiemi sono una infinita numerabile.

    Esempio 1.1: lancio di un dado

    Consideriamo come singola provadi un esperimento casuale il classico esempio dellancio di un dado, che ha come risultati (eventi) possibili luscita di un numerointero, compreso tra 1 e 6. Lo spazio campione e ={1, 2, 3, 4, 5, 6}, ovvero ecostituito da un numero finito di elementi , cui si attribuisce il significato di eventielementari. Essi formano un insieme di eventi necessari e a due a due incompati-bili, poiche{i} {j} = per ogni i= j = 1,.., 6. Ma esistono molti altri eventiin questo esperimento casuale: ad esempio, luscita di un numero pari, che e cos-tituita dallevento E ={2, 4, 6} composto dai tre eventi elementari che lo realiz-zano; oppure luscita di un numero basso definita dallevento E ={1, 2}; ecc.Inoltre: lintersezione{2, 4, 6} {1, 2}, che coincide con levento elementare{2},indica levento: uscita di un numero pari e basso. Levento: {1, 3, 5} {5, 6}indica luscita di un numero dispari, oppure di un numero maggiore di 4, oppuredi un numero dispari e maggiore di 4 (ovvero dellintersezione dei due eventi, cos-tituita dallevento elementare{5}). Il complementare dellinsieme A ={1, 2, 3, 5}composto dai numeri primi minori di 7, ovvero levento \A= {4, 6}, indica luscitadi un numero che nonsia primo (negazionedi A).

    Tutti i possibili eventi si presentano in questo esperimento come sottoinsiemi di ,ed e facile verificare che il loro numero complessivo e la somma delle combinazionidi classe k di sei elementi:

    6

    k=0

    6

    k

    = 26 = 64,

    compresi linsieme vuoto (per k = 0) e linsieme (per k = 6). Essi costituisconoun campoC, perche soddisfano tutte le condizioni di additivita sopra precisate.Se pero siamo interessati solo ad alcuni eventi relativi a questo esperimento, e preferi-bile definire una diversa classe additiva, che costituisca un campoC contenente ilminor numero possibile di eventi, compresi quelli che interessano. Si puo costruirequesto campo C con successive operazioni di unione e negazione che, a partire dagliinsiemi dati, coinvolgano tutti gli eventi che via via si aggiungono. Ad esempio, se

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    13/329

    1.2 Definizione assiomatica di probabilita 5

    siamo interessati allevento: uscita di un numero pari, il campo

    C da considerare

    e composto dai quattro insiemi:

    C : , {2, 4, 6}, {1, 3, 5},

    che costituiscono rispettivamente: la negazione {1, 3, 5} dellevento numero pari;lunione degli eventi pari e dispari, e la negazione dellevento unione . C eun campo, perche qualsiasi operazione sugli insiemi che lo compongono da luogo aun insieme anchesso contenuto inC. Al contrario, la classe:

    C : , {2, 4, 6}, {1, 3, 5}, {1, 2},

    non e un campo, perche

    {2, 4, 6

    } {1, 2

    }=

    {1, 2, 4, 6

    } C.

    Esempio 1.2: misura di una grandezza

    Il valore teorico di una generica grandezza fisica e espresso da un numero reale, e intal senso alla sua misura sperimentale associamo uno spazio campione costituitodallasse reale (o da un suo intervallo, se siamo in grado di precisarlo a priori). Perdefinire una classe additiva di eventi che sia compatibile con lesperimento della mis-urazione, suddividiamo lasse reale in intervalli di ampiezza assegnata (ad esempio:gli intervalli aperti a sinistra e chiusi a destra, di ampiezza unitaria e aventi percentro tutti i numeri interi), in modo che qualsiasi risultato della misurazione possaappartenere ad uno di tali intervalli. Quindi, con operazioni successive di unione enegazione, aggiungiamo altrettanti insiemi agli intervalli inizialmente considerati. Illimite a cui tende la classe degli eventi cos definiti e il campo di BorelB associ-ato alla misura sperimentale che effettuiamo. Si puo dimostrare che tale campo diBorel si genera anche a partire da tutti gli intervalli (, x1] conx1 reale qualsiasi;esso contiene anche tutti gli intervalli [x1, x2], (x1, x2), i punti x = x1 e linfinitanumerabile delle loro unioni e intersezioni.

    1.2.3 Assiomi della probabilita

    Siamo ora in grado di attribuire una misura di probabilita a ciascun eventoAila cuicollezione, come si e appena visto, forma nel caso piu generale un campo di Borel B.

    Definizione 2. La probabilita e un funzionaleP : B [0, 1]che verifica i seguentiassiomi:

    I. P() = 1

    II. i =j, Ai Aj = P(Ai Aj) =P(Ai) + P(Aj).La formulazione matematica del modello probabilistico e cos completa: essa consistenellinsieme (, B, P) chiamato spazio di probabilita, e permette di assegnare un

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    14/329

    6 ASSIOMI DELLA PROBABILITA

    numero reale non negativo P(Ai) che chiamiamo probabilita di Ai, agli eventi che

    formano un campo di BorelB, costituito da sottoinsiemi di uno spazio campione associato allesperimento casuale.

    Lassioma I attribuisce probabilita 1 allevento certo , senza tuttavia escludere apriori che esistano altri eventi, diversi da , con probabilit a 1. Se e teoricamentepossibile un eventoA = tale cheP(A) = 1,si dice che questo evento equasi certo.Lassioma II esprime la proprieta additivadel funzionale P tra due eventi fra loroincompatibili. Tale proprieta si generalizza subito a un insieme finito o infinito dieventi a due a due incompatibili, con una delle due relazioni seguenti:

    II) i

    =j, Ai

    Aj =

    P

    n

    i=1

    Ai =n

    i=1

    P(Ai)

    rI I) i =j, Ai Aj = P

    ni=1Ai

    =

    i=1

    P(Ai)

    lultima delle quali esprime la additivita infinita, o-additivita, dellinsieme {Ai, i=1, 2, . . .} di eventi a due a due incompatibili.Dagli assiomi I), II) della probabilita si deducono svariate proprieta di P. Le piusignificative sono le seguenti:

    C1. P(Ai) = 1 P(Ai)

    C2. P() = 0 C3. Ai Aj : P(Ai) P(Aj) C4. Ai B : 0 P(Ai) 1 C5. Ai Aj= : P(Ai Aj) =P(Ai) + P(Aj) P(Ai Aj).

    La proprieta C1 si dimostra considerando che per lassioma I si ha P() =P(Ai Ai) = 1, e poiche Aie il suo complementare sono incompatibili, si ricava per lassiomaII: P(Ai) + P(Ai) = 1.

    La C2 si deduce dalla C1 perche linsieme vuoto e il complementare di e quindiP() = 1 P() = 0.La C3 afferma cheP e un funzionale crescente di B in [0, 1], e si dimostra applicandolassioma II agli eventi (incompatibili) Ai e (Aj\Ai). Si trova: P(Aj) = P(Ai(Aj\Ai)) =P(Ai) +P(Aj\Ai) e poiche linsieme (Aj\Ai) non e vuoto per ipotesi,risultaP(Aj\Ai) 0.La C4 si prova osservando che se Ai non e vuoto, e anche = Ai e per laC3 valgono entrambe le diseguaglianze: P(Ai) P() = 0 e P(Ai) P() = 1.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    15/329

    1.2 Definizione assiomatica di probabilita 7

    AiAj

    Ai Aj Ai Aj

    Figura 1.2

    La C5 e la generalizzazione dellassioma II per eventinon incompatibili, e si dimostracome segue. Consideriamo levento Ai Aj =Ai (Ai Aj) che si puo esprimere (v.Fig. 1.2) mediante lunione dei due eventi incompatibiliAie (AiAj). Per lassiomaII si ha allora P(Ai Aj) = P(Ai) + P(Ai Aj). Ma anche Aj e esprimibile conlunione: (Ai Aj) (Ai Aj) di due eventi incompatibili, e per esso lassiomaII fornisce: P(Aj) = P(Ai Aj) + P(Ai Aj). EliminandoP(Ai Aj) dalle dueprecedenti eguaglianze, si ricava la C5.

    Esempio 1.3: eventi elementari equiprobabili

    Si e visto (Esempio 1.1) che nel lancio di un dado sei eventi elementari, a due adue incompatibili, costituiscono lo spazio campione ={1, 2, 3, 4, 5, 6}. Per gliassiomi I e II si ha subito: P() = P({1} {2} . . . {6}) =i P{i} = 1 e seammettiamo che ciascun evento elementare abbia uguale probabilita di realizzarsi(ovvero se operiamo con un dado non truccato), la probabilita di ciascuno vale:

    i= 1,.., 6 :P(i) = 1/6.

    Sempre per lassioma II, levento composto: esce un numero pari ha probabilita

    P(2, 4, 6) =P(2) + P(4) + P(6) = 1/2

    mentre luscita di un numero che non sia primo ha probabilita

    P(4, 6) =P(4) + P(6) = 2/6 = 1/3.

    Se si effettua per due volte il lancio dello stesso dado non truccato, gli eventi ele-mentari sono 62 = 36, e la probabilita che esca due volte lo stesso numero vale

    P(11, 22, 33, 44, 55, 66) =i

    P(ii) = 6/36 = 1/6.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    16/329

    8 ASSIOMI DELLA PROBABILITA

    Questo esempio esprime il seguente risultato di carattere generale:

    Se lo spazio campione consiste di un numero finitoNdi eventi elementari equi-probabili, la probabilita di un eventoAi composto daNA eventi elementari vale

    P(Ai) =NA/N (1.1)

    e coincide con la definizione classica di probabilita, citata nella Introduzione.

    Esempio 1.4

    Nel lancio di una moneta, i possibili eventi elementari sono soltanto due: T = {escetesta} e C= {esce croce}. Lo spazio campione associato ad una singola provae ={T C}; se la moneta e lanciata due volte si ha ={T T , T C , C T , C C } e pern prove ripetute e formato da 2n eventi elementari equiprobabili, con probabilita1/2n. Sulla base del risultato espresso dalla (1.1), si verifica subito che nei lanciripetuti della moneta si ha:

    P{Cnel secondo di due lanci} = 1/2P{Cnei primi due di tre lanci} = 1/4P{T in due qualsiasi di quattro lanci} = 3/8P{Tper la prima volta alln-esimo lancio} = 1/2n.

    Esempio 1.5: distribuzione uniforme in[0, T]

    Estendiamo al caso continuo il risultato dellEsempio 1.3. Supponiamo che lo spaziocampione sia lintervallo [0, T] IR e che gli eventi Ai relativi ad un esperimentocasuale siano una infinita numerabile di intervalli in [0, T]. Supponiamo inoltre chesi richieda di assegnare uguali probabilita ad eventi definiti da intervalli di ugualeampiezza. Questa ipotesi implica la definizione di una distribuzione uniforme diprobabilita in [0, T], e determina univocamente P(Ai). Infatti, se pensiamo di sud-dividere in n intervalli I di eguale ampiezza T /n e senza elementi comuni, perlassioma II la loro probabilita valeP(I) = 1/n. Un evento A definito dalla unionedi k intervalli Iha probabilita

    P(A) = k

    n=

    kT

    nT =

    L(A)

    L(),

    uguale al rapporto tra le ampiezzeL(A), L() degli intervalliAed . In particolare,se e lintervallo unitario, P(A) coincide con la misura di Lebesgue di A. E poiche lamisura di Lebesgue e una funzione continua degli intervalli, se ne deduce il seguenterisultato.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    17/329

    1.3 Probabilita condizionata 9

    In una distribuzione uniforme di probabilita nellintervallo [O, T], la probabilita

    del generico eventoAi di ampiezzaL(Ai) vale:

    P(Ai) = L(Ai)

    T .

    Ne segue, tra laltro, cheogni puntot di ha probabilita nulla: P(t) = 0, t [0, T]poiche t e un insieme di misura nulla.

    1.3 Probabilita condizionata

    Assegnato un evento Aj B

    con probabilita non nulla, la probabilita di un altroevento Ai B, condizionata daAj si indica con P(Ai| Aj) e vale:

    P(Ai| Aj) = P(Ai Aj)P(Aj)

    . (1.2)

    Essa indica la probabilita che che si realizziAisapendo cheAj si e verificato; oppure:la probabilita di Ai in una prova valida solo se si verifica ancheAj. Le probabilitacondizionate soddisfano tutte le proprieta che discendono dagli assiomi I, II. Inparticolare:

    Se Ai

    Aj, allora Ai

    Aj =Ai e quindi:

    Ai Aj = P(Ai| Aj) =P(Ai)/P(Aj)> P(Ai).

    Se Ai Aj, allora Ai Aj =Aj e quindi:Ai Aj = P(Ai| Aj) = 1.

    Se Ai e Aj sono incompatibili, allora Ai Aj = e quindi:Ai Aj = = P(Ai| Aj) = 0.

    La definizione (1.2) si puo anche scrivere:

    P(Ai Aj) =P(Aj)P(Ai| Aj) (1.3)e si estende al caso di n eventi A1, . . ,An B nella forma seguente

    P(A1 A2 ... An) =P(A1)P(A2| A1)P(A3| A1 A2) P(An| A1 A2 An1) (1.4)

    che esprime la legge delle probabilita composte, molto utile in svariate appli-cazioni, come mostra lesempio che segue.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    18/329

    10 ASSIOMI DELLA PROBABILITA

    Esempio 1.6: estrazione senza reimbussolamento

    Da unurna contenente 6 palline bianche e 4 nere si estrae una pallina per volta,senza reintrodurla nellurna. Indichiamo con Bi levento: esce una pallina biancaalla i-esima estrazione e conNi lestrazione di una pallina nera. Levento: esconodue palline bianche nelle prime due estrazioni e rappresentato dalla intersezione{B1 B2}, e la sua probabilita vale, per la (1.3):

    P(B1 B2) =P(B1)P(B2| B1).

    Ora, P(B1) vale 6/10, perche nella prima estrazione e costituito da 10 elementi:6 palline bianche e 4 nere. La probabilita condizionataP(B2| B1) vale 5/9, perchenella seconda estrazione se e verificato levento B1 lo spazio campione consiste di 5

    palline bianche e 4 nere. Si ricava pertanto: P(B1 B2) = 1/3. In modo analogo siha che

    P(N1 N2) =P(N1)P(N2| N1) = (4/10) (3/9) = 4/30.Se lesperimento consiste nellestrazione successiva di 3 palline, la probabilita chequeste siano tutte bianchevale, per la (1.4):

    P(B1 B2 B3) =P(B1)P(B2| B1)P(B3| B1 B2)

    dove la probabilitaP(B3| B1B2) si calcolasupponendo che si sia verificato leventocondizionante{B1 B2}. Lo spazio campione per questa probabilita condizionatae allora costituito da 4 palline bianche e 4 nere, per cui P(B3| B1 B2) = 1/2 equindi: P(B1 B2 B3) = (1/3) (1/2) = 1/6. La probabilita dellestrazione ditrepalline nere e invece:

    P(N1 N2 N3) =P(N1)P(N2| N1)P(N3| N1 N2) = 410

    392

    8=

    1

    30.

    1.4 Eventi indipendenti

    Due eventi Ai, Aj si dicono statisticamente indipendentise e solo se:

    P(Ai Aj) =P(Ai)P(Aj) . (1.5)

    Tale definizione esprime il concetto intuitivo di indipendenza di un evento da unaltro, nel senso che il verificarsi diAi non influisce sulla probabilita del verificarsidi Aj, ovvero non la condiziona. Infatti, per la definizione (1.2) di probabilitacondizionata, si ha che se vale la (1.5) risulta:

    P(Ai| Aj) =P(Ai)P(Aj)/P(Aj) =P(Ai).

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    19/329

    1.4 Eventi indipendenti 11

    e dunque la conoscenza del verificarsi di Aj non modifica la valutazione della prob-

    abilita dellevento Ai da esso statisticamente indipendente.

    Si noti bene che il concetto di indipendenza e del tutto differente da quello di in-compatibilita. In effetti, due eventi incompatibili (per i quali si ha Ai Aj =)sono strettamente dipendenti statisticamente, poiche il verificarsi delluno esclude ilverificarsi dellaltro. Per la proprieta C2 del1.2.3, la probabilita della loro inter-sezione e nulla: P(Ai Aj) = 0 e di conseguenza, per confronto con la (1.5), dueeventi incompatibili possono essere anche statisticamente indipendenti solo nel casobanale in cui almeno uno di essi abbia probabilita nulla, ovvero siaquasi impossibile.

    Se due eventi con probabilita non nulla sono statisticamente indipendenti, la leggedelle probabilita totali espressa dalla proprieta C5 del

    1.2.3 si modifica nella re-

    lazione seguente:

    P(Ai Aj) =P(Ai) + P(Aj) P(Ai)P(Aj).La definizione di indipendenza si estende al caso di un insieme finito o infinito dieventi Ai, i quali si dicono statisticamente indipendenti se e solo se, per qualunquesottoinsieme{A1, . . . , An} din eventi, si verifica la condizione:

    P(A1 A2 . . . An) =P(A1)P(A2) P(An). (1.6)

    Cio significa, in particolare, che tre eventi A,B, Csono statisticamente indipendenti

    se lo sono a due a due, e se inoltre:

    P(A B C) =P(A)P(B)P(C).

    Esempio 1.7

    Nel lancio di un dado non truccato, si considerino gli eventi: A= {esce un numerominore di 3} e B = {esce un numero pari}. Questi due eventi sono statisticamenteindipendenti. Infatti, le loro probabilita valgono: P(A) = P(1, 2) = 1/3; P(B) =P(2, 4, 6) = 1/2 e la probabilita della loro intersezione vale:

    P{(1, 2) (2, 4, 6)} =P(2) = 1/6 P(A)P(B).Come verifica, si puo osservare che la probabilita dellevento A condizionata da Bcoincide con la sua probabilita non condizionata:

    P{(1, 2) | (2, 4, 6)} = P{(1, 2) (2, 4, 6)}P(2, 4, 6)

    =1/6

    1/2= 1/3 P(1, 2)

    Nel lancio ripetuto di una moneta (cfr. lEsempio 1.4) in cui lo spazio campione e ={T T , T C , C T , C C }, si considerino gli eventi composti: A1 ={T T , T C }, A2 =

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    20/329

    12 ASSIOMI DELLA PROBABILITA

    {TC,CT

    }e A3 =

    {T T , C T

    }, ciascuno con probabilita 1/2. I tre eventi non sono

    statisticamente indipendenti, anche se lo sono a due a due. Infatti:

    P(A1 A2) =P{T C} = 1/4 =P(A1)P(A2)

    P(A1 A3) =P{T T} = 1/4 =P(A1)P(A3)P(A2 A3) =P{CT} = 1/4 =P(A2)P(A3),

    ma si ha anche:

    P(A1 A2 A3) =P() = 0 =P(A1)P(A2)P(A3)

    e dunque non e verificata la condizione (1.6) per n = 3. Esempio 1.8: componenti in serie e in parallelo

    Si abbia un generico sistema (ad es. una macchina, un dispositivo di controllo, uncircuito, una rete di comunicazione tra centri abitati, ecc.) costituito da n compo-nenti con funzionamento statisticamente indipendente, che sono operativi ciascunocon probabilita Pi, i = 1, . . . , n. Il collegamento e in serie se tutti i componentidevono essere operativi perche lo sia il sistema; e in parallelo se e sufficiente il fun-zionamento di un solo componente per rendere operativo il sistema.

    Indichiamo con Ai levento: e operativo li-esimo componente e con B levento:il sistema e operativo. Lintersezione degli eventiAi, i= 1, . . . , n indica levento:

    tutti i componenti sono operativi, e lintersezione delle loro negazioni Ai = \Aie levento: nessun componente e operativo.

    Poiche Ai sono indipendenti, le loro probabilita soddisfano la (1.6), per cui nelcollegamentoin seriesi ha subito:

    P(B) =P(A1 A2 .. An) =P(A1)P(A2)..P(An) =n

    i=1

    Pi.

    Nel collegamento in parallelo, P(B) e invece eguale alla probabilita che almeno uncomponente sia operativo, e percio vale

    P(B) = 1 P(A1 A2 .. An) = 1 ni=1

    (1 Pi).

    1.5 Formula di Bayes

    Si abbia una sequenza finita o numerabile di eventi Ai B con probabilita nonnulle, e soddisfacente alle seguenti ipotesi:

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    21/329

    1.5 Formula di Bayes 13

    1)i

    =j : Ai

    Aj =

    2)i=1 Ai= .La prima condizione stabilisce che gli eventi devono esserea due a due incompatibili;la seconda impone che il loro insieme sia esaustivo, ossia tale che in ogni provadellesperimento casuale si realizza uno e uno solo tra gli eventi Ai (v. Fig. 1.3).

    A

    A

    A

    A

    A

    1

    2

    3

    4

    5

    E

    Figura 1.3

    Definito un arbitrario eventoE con probabilita non nulla, e chiaro per le ipotesifatte che se si verifica E, deve anche essersi verificato almeno uno degli eventi Ai,che in tal senso si possono considerare come possibili cause dellevento E che estato registrato.

    La probabilita condizionata P(Ai| E), detta probabilita a posteriori, e quella cheattribuiamo adAi sapendo che si e verificato E, ed e legata alla probabilitaa prioriP(Ai) dalla seguente formula di Bayes:

    P(Ai| E) = P(Ai)P(E| Ai)j

    P(Aj)P(E| Aj). (1.7)

    Essa mostra che la conoscenza del verificarsi di E modifica la probabilita che apriori siamo portati ad attribuire alleventoAi.

    Per dimostrare la (1.7), si osservi che ricorrendo due volte alla definizione di proba-bilita condizionata, si ha anzitutto:

    P(Ai| E) = P(Ai E)P(E)

    = P(E Ai)

    P(E) =

    P(Ai)P(E| Ai)P(E)

    . (1.8)

    Inoltre, per lipotesi 2) e tenendo conto che E , si puo scrivere:E= E =E (

    j

    Aj) =j

    (E Aj).

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    22/329

    14 ASSIOMI DELLA PROBABILITA

    Ma per lipotesi 1) anche gli eventi (E

    Aj) ed (E

    Ak), conj

    =k, sono incompatibili

    a due a due. Quindi per lassioma II si ha:

    P(E) =P

    j

    (E Aj) =

    j

    P(E Aj) =j

    P(Aj)P(E| Aj) (1.9)

    che, sostituita nella (1.8), prova la (1.7).

    La (1.9) e detta Formula delle probabilita totali, ed e assai utile in molte ap-plicazioni perche permette di valutare la probabilita dellevento Ese e nota la suaprobabilita condizionata dalla sequenza degli eventi Ai di cui si conoscono le prob-abilita a priori.

    Esempio 1.9: Controllo statistico della qualita

    Al montaggio di 200 apparecchiature uguali contribuiscono tre tecnici con abilitadifferenti. Il primo tecnico monta 50 apparecchiature, che al collaudo risultanoperfette nel 90% dei casi; il secondo ne monta 85, perfette all80%, e il terzo nemonta 65, perfette nel 70% dei casi. Si vuole determinare la probabilita che unapparecchio di buona qualita, scelto a caso, sia stato montato del terzo tecnico.

    Indichiamo con Elevento rappresentato dalla buona qualita del montaggio, e conA1, A2, A3 il montaggio effettuato da ciascuno dei tre tecnici. I tre eventi Ai sonoesaustivi (la loro unione e lo spazio campione dei 200 apparecchi montati) ed in-compatibili (il montaggio da parte di un tecnico esclude quello di un altro). Le

    probabilita a prioridi questi tre eventi sono note:

    P(A1) = 50

    200= 0.25, P(A2) =

    85

    200= 0.425, P(A3) =

    65

    200 = 0.325.

    La probabilita dellevento Enella ipotesi che lapparecchio scelto sia stato montatodal primo tecnico, e la probabilita condizionata: P(E| A1) = 0.90 che e nota dalcollaudo; e cos pure risulta: P(E| A2) = 0.80, P(E| A3) = 0.70. La probabilitada determinare e quella relativa al montaggio effettuato dal terzo tecnico, sapendoche e stata scelta una apparecchiatura perfetta. Essa si ricava applicando la (1.7) evale:

    P(A3| E) = P(A3)P(E| A3)P(A

    1)P(E

    |A1

    ) + P(A2

    )P(E|

    A2

    ) + P(A3

    )P(E|

    A3

    )= 0.287.

    Esempio 1.10: trasmissione di un segnale binario

    In un sistema di comunicazione digitale, un segnale binario X e trasmesso nellaforma 0 oppure 1, con probabilita di trasmissione di ciascuna delle due formeche indichiamo rispettivamente con P(X0) e P(X1). La trasmissione e affetta dadisturbi aleatori (rumore), per cui esiste una probabilita non nulla che il segnalericevuto, che indichiamo con Y, sia diverso da quello emesso X (v. Fig. 1.4).

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    23/329

    1.5 Formula di Bayes 15

    Figura 1.4

    Canale simmetrico

    Supponiamo dapprima che i due eventi (esaustivi) X0 = {X= 0} e X1 = {X= 1}si realizzino con probabilitaP(X0) = 0.4 eP(X1) = 0.6; e inoltre che la probabilitadi errore nella trasmissione del segnale 0 sia uguale alla probabilita di errore nellatrasmissione del segnale 1, e valga P = 0.25. Si vuole determinare le probabilitadi ricevere 1 e di ricevere 0.

    Indichiamo conY0 ed Y1 la ricezione del segnale nelle forme 0 ed1. Se il segnaletrasmesso e 0 esso ha, per ipotesi, probabilitaP di essere distorto in 1. QuindiP(Y1 | X0) = P = 0.25. Se invece il segnale trasmesso e 1, ha probabilita(1

    P) di essere ricevuto inalterato: P(Y1

    | X1) = 0.75. Applicando la (1.9) si

    ricava pertanto

    P(Y1) =P(Y1| X0)P(X0) + P(Y1| X1)P(X1) = 0.25 0.4 + 0.75 0.6 = 0.55.La probabilia di ricezione del segnale nella forma 0 si calcola invece come segue:

    P(Y0) =P(Y0| X0)P(X0) + P(Y0| X1)P(X1) = 0.75 0.4 + 0.25 0.6 = 0.45o meglio, se gia si conosce P(Y1), come probabilita della negazione delleventoY1:

    P(Y0) =P() P(Y1) = 1 0.55.

    Canale non simmetrico

    Supponiamo ora che la probabilita di trasmissione del segnale in forma non distortavari a seconda della forma del segnale trasmesso, e precisamente:

    P(X0 non distorto) = 0.8, P(X1 non distorto) = 0.9

    essendo P(X0) = 1/3. Si vuole determinare la probabilita P(E) che il segnalericevuto sia errato. Essa si calcola applicando ancora la (1.9) e vale:

    P(E) =P(Y0| X1)P(X1) + P(Y1| X0)P(X0) = 0.1 23

    + 0.2 13

    = 0.13.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    24/329

    16 ASSIOMI DELLA PROBABILITA

    1.6 Problemi risolti

    1.1. Da un mazzo di 52 carte se ne sceglie una a caso. Quanto vale la probabilitadi estrarre una figura o una carta di fiori? E quella di estrarre una figura e un fiori?

    Soluzione. Levento{estrazione di una figura} non influisce sulla probabilita delle-vento{estrazione di un fiori}, per cui essi sono statisticamente indipendenti. Nesegue:

    P{figura fiori} = P{figura} + P{fiori} P{figura fiori}=1252

    +13

    52 3

    52=

    11

    26

    P{figura fiori} = P{figura} IP{fiori} = 12

    5213

    52 =

    3

    52 .

    1.2. Se A e C sono eventi incompatibili con B, alloraP(A B|C) =P(A|C). Veroo falso?

    Risposta: Vero , perche:

    A

    C

    B

    P(A B|C) = P[(A B) C]P(C)

    = P(A C)P(C)

    =P(A|C).

    1.3. Nel lancio ripetuto di due dadi non truccati, la somma dei risultati e un numeropari. Quanto vale la probabilita di aver totalizzato 8 ?

    Risposta: La probabilita che la somma sia 8 e

    P{8} =P{(6 + 2) (5 + 3) (4 + 4) (3 + 5) (2 + 6)} = 536

    .

    Sapendo che e uscito un numero pari, si ha invece

    P{8|pari} = P{8 pari}P{pari} =

    P{8}0.5

    = 5

    18 .

    1.4. Gli eventiA1, A2 sono incompatibili, esaustivi e con uguale probabilita. Se unterzo eventoC ha probabilita condizionateP(C|A1) = P(C|A2) = 0.5, alloraP(A1|C) = 1/4. Vero o falso?

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    25/329

    1.6 Problemi risolti 17

    Risposta: Falso , perche P(A1) = P(A2) = 0.5 e se si applica la formula di Bayes

    si ricava:

    P(A1|C) = P(A1)P(C|A1)P(A1)P(C|A1) + P(A2)P(C|A2) =

    0, 5 0.50.5(0.5 + 0.5)

    =1

    2.

    1.5. Se gli eventi A, B sono incompatibili, alloraP(A)P(B). Vero o falso?Risposta: Vero , perche se sono incompatibili allora A B = B da cui sideduce, per gli assiomi della probabilita, che P(A) P(B).

    1.6. Lurna A contiene 2 palline bianche e 3 nere; lurna B ne contiene 4 bianche e1 nera; lurna C ne contiene 3 bianche e 4 nere. Si sceglie a caso unurna, e si estrae

    una pallina bianca. Calcolare la probabilita che essa provenga dallurna C.

    Soluzione. Le probabilita di scegliere a caso una delle tre urne sono uguali: P(A) =P(B) =P(C) = 1/3. Indichiamo conE levento {estrazione di una pallina bianca}.Le probabilita che essa sia estratta dallurna A, oppure B o C sono:

    P(E|A) = 2/5; P(E|B) = 4/5; P(E|C) = 3/7e la probabilita totale di estrarre una pallina bianca da una qualsiasi delle tre urnevale

    P(E) = 1

    3

    2

    5+

    4

    5+

    3

    7

    =

    57

    105.

    La probabilita di averla estratta dallurnaC e data dalla formula di Bayes:

    P(C|E) = P(C)P(E|C)P(E)

    =(1/3)(3/7)

    57/105 =

    5

    19 .

    1.7. Due ditte forniscono il medesimo prodotto. Se esso proviene dalla ditta A, laprobabilita che si guasti prima dellistante t vale1 et; se invece proviene dalladitta B questa probabilita vale1e2t. Il prodotto puo essere acquistato con uguale

    probabilita da A o da B, e non e nota la ditta fornitrice. Tuttavia, e stato osservatoche il prodotto si guasta in un intervallo di tempo 1 t 2. Determinare la

    probabilita che esso sia stato acquistato dalla ditta A.

    Soluzione. Indichiamo con E levento:{guasto in1 t 2} e con P(A) =P(B) =0.5 le probabilita che il prodotto provenga da A o da B. La probabilita di guastodel prodotto A nellintervallo di tempo 1 t 2 vale

    P(E|A) = 1 e2 [1 e1] =e1 e2

    e quella del prodotto B nello stesso intervallo e

    P(E|B) = 1 e22 [1 e21] =e2 e4.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    26/329

    18 ASSIOMI DELLA PROBABILITA

    La probabilita a posterioriP(A

    |E) e data dalla formula di Bayes:

    P(A|E) = P(A)P(E|A)P(A)P(E|A) + P(B)P(E|B)

    = e1 e2

    e1 e2 + e2 e4 = e2(e 1)

    e3 1 0.6652 .

    1.8. Abbiamo sul tavolo 9 carte coperte: due di esse sono di cuori, tre di fiori equattro di picche. Calcolare la probabilita che, scelte simultaneamente due carte acaso, siano di seme diverso.

    Soluzione. Indichiamo con {QQ}, {F F}, {P P} gli eventi: estrazione di due cuori,oppure due fiori, o due picche. Lo spazio campione e costituito da

    92

    = 36eventi possibili (numero di combinazioni di 9 elementi a 2 a 2). Tra essi, esistono:

    2

    2

    = 1 evento {QQ};

    3

    2

    = 3 eventi {F F};

    4

    2

    = 6 eventi {P P}.

    La probabilita di estrarre due carte dello stesso seme vale:

    P[{QQ} {F F} {P P}] =P{QQ} + P{F F} + P{P P} = 136

    + 3

    36+

    6

    36 =

    5

    18.

    La probabilita di estrarre due carte di seme diverso e :

    P{seme diverso} = 1 P[{QQ} {F F} {P P}] = 1318

    .

    1.9. Una sorgente emette una sequenza di tre segnali binari equiprobabili nellaforma 0 e 1. Sapendo che almeno due segnali sono stati emessi nella forma 1,calcolare la probabilita che sia stato emesso 0 nella prima emissione.

    Soluzione. Lo spazio campione contiene 23 = 8 eventi (= numero delle disposizionicon ripetizione di 2 elementi a 3 a 3). Questi sono:

    (000) (001) (011) (100) (010) (101) (110) (111)

    e la probabilita che sia stato emesso 1 almeno due volte vale

    P(E) P( 1 per due o tre volte) = 48

    = 0.5.

    La probabilita di emissione di un primo 0 condizionata da Evale:

    P(primo 0|E) = P[(primo 0) E]P(E)

    =1/8

    0.5 = 0.25.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    27/329

    1.6 Problemi risolti 19

    1.10. In un primo turno elettorale il polo A ha avuto il 45% dei voti, e il polo B ha

    vinto con il 55% dei suffragi. Si ripetono le elezioni con i medesimi votanti, e dagliexit-poll risulta che: 1) il 10% di colori che avevano votato A hanno spostato il votosu B; 2) il 20% dei vecchi elettori di B hanno votato A. Chi ha vinto (secondo gliexit-poll) il secondo turno?

    Soluzione. Definiamo i seguenti eventi e le loro probabilita:

    A1 = {voto per A al primo turno} : P(A1) = 0.45B1 = {voto per B al primo turno} : P(B1) = 0.55E = {voto cambiato} : P(E|A1) = 0.10, P(E|B1) = 0.20.

    La probabilita che gli elettori abbiano votato A al secondo turno e

    P(A2) =P(A1)[1 P(E|A1)] + P(B1)P(E|B1) = 0.45 0.9 + 0.55 0.20 = 0.515.Poiche gli eventi A2 e B2 sono esaustivi, ha vinto A con il 51.5% controB che haavuto il 48.5% .

    1.11. Sul tavolo ci sono due mazzi di carte. Il mazzo A e completo ed ha 52 carte(ossia tredici per ognuno dei quattro semi). Dal mazzo B sono state tolte tutte lefigure. Si estrae una carta a caso da uno dei due mazzi, ed e un asso. Quale la

    probabilita che lasso sia stato estratto dal mazzo B ?

    Soluzione. Le probabilitaa prioridi scegliere uno dei due mazzi sono uguali: P(A) =P(B) = 0.5. Se E e levento estrazione di un asso, le probabilita di estrarlo da A

    o da B sono:

    P(E|A) = 452

    = 1

    13, P(E|B) = 4

    40=

    1

    10.

    La probabilita a posteriori che lasso sia stato estratto dal mazzo B vale, per laformula di Bayes:

    P(B|E) = P(B)P(E|B)P(A)P(E|A) + P(B)P(E|B) =

    0.5 0.10.5(0.1 + 1/13)

    = 13

    23 0.5652 .

    1.12. Si utilizza un prodotto fornito in percentuali uguali da due ditte A e B. Estato calcolato che, scelto a caso un esemplare difettoso, la probabilit a che esso sia

    stato fornito dalla ditta A vale IP(A|difettoso ) = 0.25. Se la produzione del prodottoda parte della ditta A ha un difetto di qualita del 5%, quale il difetto di qualitanella produzione della ditta B ?

    Soluzione. Le probabilitaa prioriche la ditta fornitrice sia A oppureB sono uguali:P(A) =P(B) = 0.5. SeDe levento: prodotto difettoso, si sa cheP(D|A) = 0.05.Inoltre e stato calcolato che

    P(A|D) = 0.5 0.050.5 0.05 + 0.5 P(D|B) = 0.25.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    28/329

    20 ASSIOMI DELLA PROBABILITA

    Dunque risolvendo rispetto alla probabilita richiesta:

    P(D|B) = 0.050.25

    0.05 = 0.15 = 15% .

    1.13. Tre macchine A, B, C producono, rispettivamente, il 60%, il 30% e il 10%del numero totale dei pezzi prodotti da una fabbrica. Le percentuali di produzionedifettosa di queste macchine sono, rispettivamente, del2%,3% e4%. Viene estrattoa caso un pezzo che risulta difettoso. Determinare la probabilita che quel pezzo siastato prodotto dalla macchina C.

    Soluzione. Le probabilita che i pezzi siano prodotti dalla macchinaA, B oppure Csono:

    P(A) = 0.6, P(B) = 0.3, P(C) = 0.1.

    Se D e levento:{pezzo difettoso}, si sa cheP(D|A) = 0.02, P(D|B) = 0.03, P(D|C) = 0.04

    e dunque la probabilita totale che il pezzo sia difettoso vale

    P(D) = 0.6 0.02 + 0.3 0.03 + 0.1 0.04 = 0.025.Per la formula di Bayes la probabilita richiesta e

    P(C|D) =P(C)P(D

    |C)

    P(D) =

    0.1

    0.04

    0.025 = 0.16 .

    1.14.Unurna contiene1 pallina nera (N) e2 palline bianche (B). Si estrae casual-mente una pallina dallurna e, dopo averne osservato il colore, la si rimette nellurnaaggiungendo altre 2 palline del colore estratto e 3 palline del colore non estratto.Calcolare la probabilita che in 4 estrazioni successive, effettuate secondo la regolasopra stabilita, si ottenga la stringa (ordinata) BNNB.

    Soluzione. Indichiamo conBi , Ni(i= 1, . . . , 4) gli eventi:{si ha una pallina Bianca(Nera) alla i-esima estrazione}. Dopo ogni estrazione cambia lo spazio campione, ese gli esiti delle prime tre estrazioni seguono la sequenza voluta: B1N2N3 il numero

    delle palline presenti nellurna quando avviene la i-esima estrazione si modifica comesegue:

    i Nere Bianche

    1 1 22 4 43 6 74 8 10

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    29/329

    1.6 Problemi risolti 21

    Allora si ha

    P(B1) =2

    3, P(N2|B1) =4

    8 =

    1

    2,

    P(N3|N2 B1) = 613

    , P(B4|N3 N2 B1) =1018

    =5

    9

    e di conseguenza la probabilita che si verifichi la sequenzaBNNB vale:

    P(B1 N2 N3 B4) = 231

    2 6

    135

    9=

    10

    117 0.08547 .

    1.15. Un segnale binarioX, emesso nella forma 1 con probabilitaP(X1) = 0, 75,

    e inviato su un canale di trasmissione non simmetrico nel quale la probabilita dierrore nella trasmissione diX1 valep = 0, 08. Il segnaleX e ricevuto nella formaY = 1 con probabilitaP(Y1) = 0, 70. Calcolare:

    a) la probabilitaP(Y1|X0) che il segnale 0 sia ricevuto nella forma 1 ;b) la probabilita totale di errore nella ricezione del segnale.

    Soluzione.

    a) La probabilita cheXsia emesso nella forma 0 eP(X0) = 1 P(X1) = 0.25, e laprobabilita di una trasmissione corretta del segnale 1 e P(Y1|X1) = 10.08 = 0.92.Per la formula delle probabilita totali, la probabilita (nota) che il segnale sia ricevuto

    nella forma 1 si puo scrivere:

    P(Y1) = 0.70 =P(X0)P(Y1|X0) + P(X1)P(Y1|X1) = 0.25P(Y1|X0) + 0.75 0.92e risolvendo rispetto a P(Y1|X0):

    P(Y1|X0) =0.70 0.75 0.920.25

    = 0.04 .

    b) La probabilita di errore nella ricezione del segnale risulta:

    P{errore} = P(X0)P(Y1|X0) + P(X1)P(Y0|X1) == 0.25

    0.04 + 0.75

    0.08 = 0.07 .

    1.16. Due urne contengono palline bianche e nere in proporzioni diverse. Sianop1 ep2 le probabilita di estrarre una pallina bianca rispettivamente dallurnaU1 edallurna U2. Luca vince se estraendo due palline almeno una e bianca. Egli puoscegliere tra due modalita di estrazione:

    A) Sceglie a caso una delle due urne, estrae una pallina, la rimette nellurna da cuie stata estratta, quindi sceglie di nuovo a caso unurna ed estrae la seconda pallina.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    30/329

    22 ASSIOMI DELLA PROBABILITA

    B) Sceglie a caso una delle due urne, estrae una pallina, la rimette nellurna da cui

    e stata estratta, e sempre dalla stessa urna estrae una seconda pallina.

    Quale tra le due procedure e piu conveniente per la vittoria di Luca?

    Soluzione. Indichiamo con Ui la scelta di una delle due urne, con Ni levento:{pallina nera alla i-esima estrazione} e con E levento{estrazione di almeno unapallina bianca}. Si ha anzitutto:

    IP(Ui) = 0.5 ; IP(E) = 1 IP(N1 N2).

    Con la procedura A le due estrazioni sono statisticamente indipendenti, con IP(N1) =IP(N2) :

    IP(N1 N2) = IP(N1)IP(N2) = {IP(U1)IP(N1|U1) + IP(U2)IP(N1|U2)} {IP(U1)IP(N2|U1) + IP(U2)IP(N2|U2)} = {0.5(1 p1) + 0.5(1 p2)}2.

    In tale ipotesi si ricava:

    IPA(E) = 1

    1 p12

    +1 p2

    2

    2=p1+p2 (p1+p2)

    2

    4 .

    Con la procedura B, la probabilita di estrarre due Nere dalla medesimaurna vale:

    i= 1, 2 : IP(N1

    N2

    |Ui) = IP(N1

    |Ui)IP(N2

    |Ui) = (1

    pi)

    2.

    Quindi:

    IP(N1 N2) = IP(U1)IP(N1 N2|U1) + IP(U2)IP(N1 N2|U2)= 0.5(1 p1)2 + 0.5(1 p2)2

    e si ottiene:

    IPB(E) = 1

    (1 p1)22

    +(1 p2)2

    2

    2=p1+p2 p

    21+p

    22

    2 .

    La differenza tra le due probabilita e

    IPA(E) IPB(E) = (p1+p2)2

    4 +

    p21+p22

    2 =

    (p1 p2)24

    >0

    e quindi IPA(E)> IPB(E) .

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    31/329

    VARIABILI ALEATORIE

    2.1 Definizioni

    Il risultato di una prova di un generico esperimento casuale non e sempre esprimibiledirettamente in termini di numeri reali (si pensi per esempio al lancio di una moneta,o allestrazione da unurna di palline con colori diversi). Tuttavia, nello sviluppo delCalcolo delle probabilita siamo interessati ad associare un numero reale x = X()a qualsiasi risultato di ogni prova dellesperimento casuale.

    Il funzionaleX : IR che cos si viene a definire e chiamato variabile aleatoriaocasuale(abbreviata nel seguito con v.a.) se soddisfa a queste due condizioni:

    1. X e una funzione a valori reali definita sullo spazio di probabilita(, B, P)emisurabile, nel senso che le immagini inverse di intervalliB

    iIR appartengono

    al campo di Borel degli eventiAi:

    X1(Bi) =Ai B.

    2. Per ogni numero realex, linsieme{: X() x} e ancora un evento inB.

    La v.a. X() e dunque una funzione che fa corrispondere a ciascun risultato dellesperimento casuale un elemento x di IR, e ad ogni evento Ai B unintervallo Bi IR come e illustrato in Fig. 2.1. Lintervallo Bi appartiene a unainfinita numerabile di insiemi che costituiscono un campo di Borel B su X() IR.In particolare, allevento impossibile

    e associato linsieme vuoto dei numeri

    reali, e allevento certo e associato lintervallo X() IR. Inoltre, poiche ilfunzionale X e definito su uno spazio di probabilita, la v.a. associa alla proba-bilitaP(Ai) =P[X

    1(Bi)], definita su , una eguale probabilitaimmagineP(Bi),definita suX(). Questultima misura la probabilita che la v.a. X() assuma valorireali x Bi, ed e tale che

    P(Bi) =P[X1(Bi)] =P(Ai).

    23

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    32/329

    24 VARIABILI ALEATORIE

    A

    X

    X

    = X( )

    B = X(A )

    PP*

    0 1

    ii

    P(A ) = P*(B )ii

    i

    x

    R

    R

    Figura 2.1

    Nel seguito indicheremo una v.a. con la lettera maiuscola (per es. X), mentre ilgenerico valore reale che essa puo assumere sara indicato con la lettera minuscolacorrispondente. La v.a. X() assume un valore x IR con una ben definita proba-bilita, che e indotta in X()IR dalla probabilita P() che si verifichi . Inconclusione, una variabile aleatoria e la trasformazione

    (, B, P) X (IR, B, P)

    che associa ad ogni elemento una coppia di numeri reali (x, P(x)) = (X(),P()) conP(x) =P()

    [0, 1].

    Esempio 2.1

    Nel lancio di una moneta per due volte, in cui = {T T , T C , C T , C C }, definiamo lav.a. X() che a ciascuno dei 4 possibili eventi elementari associa un guadagno 1se esce T, e una perdita di una unita se esce C. La v.a. X() assume allora trevalori discreti:

    x1 = X( = C C) = 2x2 = X( = T C) =X( = C T) = 0x3 = X( = T T) = 2

    e limmagine di e il sottoinsieme: X() = {2, 0, 2} IR. Poiche i quattro eventielementari sono equiprobabili con probabilita P() = 1/4, si ha che la probabilitaimmagine, indotta in X() per ciascuno dei tre valori di X, vale rispettivamente:

    P(2) =P(T T) = 1/4P(0) =P(T C CT) = 1/2P(2) =P(CC) = 1/4.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    33/329

    2.1 Definizioni 25

    2.1.1 Funzione di distribuzione

    Per la proprieta 2 di X(), linsieme{ : X x} e un evento inB, che dorain poi scriveremo piu sinteticamente con (X x). Ad esso e possibile assegnareuna probabilita P(X x) = P{X1(, x)} che al variare di x IR definisce lafunzione ordinaria di variabile reale:

    FX(x) =P(X x).Questa funzione e chiamata funzione di distribuzione (cumulata), o funzione di ri-

    partizione di X(). Dunque, FX(x) definisce la distribuzione delle probabilita dieventi in un esperimento casuale e, con riferimento alla v.a. X() che associamo atale esperimento, misura la probabilita che X() assuma valori minori o ugualial

    realex. Sulla base degli assiomi del Calcolo delle probabilita, e sempre non negativa,monotona non decrescentetra 0 e 1, tale che:

    limxFX(x) FX() = 0, limx+FX(x) FX(+) = 1

    ed e continua a destra:

    limx+

    FX() FX(x+) =FX(x).

    Se X() assume un numero finito o una infinita numerabile di valori reali xi, i =1, . . ,n,.. con probabilita Pi, allora e chiamata v.a. discreta. La sua funzione didistribuzione, illustrata in Fig. 2.2a), e una funzione costante a tratti con punti di

    discontinuita in xi:

    xi x < xi+1: FX(x) =i

    r=1

    Pr, coni

    Pi= 1.

    Al contrario, se FX(x) e continua e derivabile ovunque tranne al piu in un insiemenumerabile di punti, alloraX() e una v.a. continua, definita in un insieme continuoX() IR come illustrato in Fig. 2.2b).Se infine limmagine di attraversoX e un insieme continuo X() IR, maFX(x)ha un insieme numerabile di punti di discontinuita, allora la v.a. si definisce di tipomisto (v. Fig. 2.2c).

    La probabilita che una v.a. X() assuma valori in un intervallo (x1, x2] aperto asinistra, e data da:

    P(x1< X x2) =FX(x2) FX(x1). (2.1)Infatti si ha: (, x2] = (, x1](x1, x2] e poiche gli intervalli a secondo membrorappresentano eventi incompatibili ne segue che

    P(X x2) =FX(x2) =P(X x1) + P(x1< X x2) =FX(x1) + P(x1< X x2)

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    34/329

    26 VARIABILI ALEATORIE

    1

    11

    1 1

    0 00-2 2 x

    xx

    ( )FX

    x ( )FX

    x( )FX

    x

    .25

    .25

    .75

    .75

    a) v.a. discreta b) v.a. continua c) v.a. mista

    Figura 2.2

    da cui la (2.1). Se se pero X() e continua, la probabilita che assuma un valoreassegnato x1 e nulla, perche x1 e un insieme di misura nulla (cfr. lEsempio 1.5).Ne segue, tenuto conto della incompatibilita degli eventi (X=x1) e (x1< X x2),che per v.a. continuela (2.1) vale anche con il doppio segno di uguaglianza:

    P(x1 X x2) =P(X=x1) + P(x1< X x2) =FX(x2) FX(x1).

    Esempio 2.2

    La v.a. definita nellEsempio 2.1 a proposito del lancio ripetuto di una moneta ediscreta perche puo assumere solo i tre valori x1 =2, x2 = 0, x3 = 2. La suafunzione di distribuzione vale:

    FX(x) =P(X x) =

    0 per x < 21/4 per x [2, 0)3/4 per x [0, 2)1 per x 2

    (2.2)

    ed il suo grafico e riportato in Fig. 2.2a). Un modo piu espressivo per scriverequesta funzione costante a tratti consiste nel far uso della funzione scalino unitarioo di Heaviside, cos definita:

    U(x

    x) =

    1 per ogni x x0 per ogni x < x

    .

    (2.3)

    Con essa, la (2.2) diventa

    FX(x) = 14U(x + 2) +

    12U(x) +

    14U(x 2) (2.2)

    ed ha il vantaggio di mostrare sia i punti di discontinuita di FX(x), sia lampiezzadel gradino in ognuno di tali punti.

    Esempio 2.3

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    35/329

    2.1 Definizioni 27

    La funzione di variabile reale:

    FX(x) =

    0 perx 1

    (2.4)

    e tale che FX(0) = 0; FX(1) = 1 e la sua derivata FX(x) = 6x(1x) e non

    negativa per ogni x [0, 1]. Essa puo dunque essere riguardata come la funzione didistribuzione di una v.a. X()continuanellintervallo [0, 1], il cui grafico e riportatoin Fig. 2.2b).

    Esempio 2.4

    Lesperimento consiste nellestrazione a caso di un numero x compreso tra 0 e 1.

    Definiti i tre eventi composti:A1= { : x [0, 14 ] }, A2= {: x (14 , 34 ] }, A3 = {: x (34 , 1] }

    aventi probabilita P(A1) =P(A3) = 14 ; P(A2) =

    12 , associamo ad essi la v.a.

    X() =

    0 se A1x se A21 se A3.

    La sua funzione di distribuzione si calcola come segue:

    x

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    36/329

    28 VARIABILI ALEATORIE

    x

    f ( )xX

    xd

    f ( )xX

    xddP( ) =

    0

    xP(X )

    Figura 2.3

    dove S e il supporto di fX(x), ossia linsieme S ={x IR : fX(x) > 0}. Per ladefinizione di funzione di distribuzione cumulata, si ha x

    fX(t)dt= P(X x) =FX(x) (2.8)

    e quindi anche, se B e lintervallo elementare (x, x + dx]:

    P(x < X x + dx) =FX(x + dx) FX(x) = x+dxx

    fX(t)dt =fX(x)dx. (2.9)

    La quantita elementare dP() = dFX(x) = fX(x)dx misura pertanto, a meno diinfinitesimi di ordine superiore, laprobabilita elementareche X() assuma valori in(x, x + dx]. Da quanto esposto discende anche che

    fX(x) =dFX(x)

    dx (2.10)

    quasi ovunque inX(), ovvero: la densita di probabilita e uguale alla derivata dellafunzione di distribuzione di X(), tranne al piu in un insieme di punti di misuranulla, nei qualiFX(x)non e derivabile.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    37/329

    2.1 Definizioni 29

    00 1/4 3/4 11 xxx

    xf ( )Xx

    f ( )X

    xf ( )X

    1

    1/4

    -2 0 2

    1/4

    1/2

    a) v.a. discreta b) v.a. continua c) v.a. mista

    Figura 2.4

    Esempio 2.5

    La v.a. continua con funzione di distribuzione definita dalla (2.3) dellEsempio 2.3,ha come densita di probabilita la funzione

    fX(x) =

    0 per x 1,

    che e un arco di parabola su un supporto di ampiezza unitaria, come mostrato in

    Fig. 2.4b).

    V.a. discrete e miste. Affinche le formule precedenti continuino a valere in pre-senza di v.a. discrete o miste, e necessario utilizzare la funzione impulsivao funzionedelta di Dirac. Si tratta della funzione generalizzata cos definita:

    x =x: (x x) = 0 , (x x) e infinita per x= 0

    (x x)dx= 1 ,

    (x)(x x)dx= (x)

    dove (x) e una arbitraria funzione di x, continua per x = x. La primitiva di(x

    x) che si annulla per x

    e la funzione gradino unitario definita nella

    (2.3):

    U(x x) = x

    ( x)d.

    Per mezzo della funzione impulsiva, la densita di una v.a. discreta che assume valoriin x1, x2, . . . con probabilita pi, i= 1, 2, . . . si puo esprimere nel modo seguente:

    fX(x) =i

    pi(x xi) coni

    pi= 1 (2.11)

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    38/329

    30 VARIABILI ALEATORIE

    e si rappresenta graficamente con una successione di impulsi come indicato in Fig.

    2.4a). Essa mostra la densita di probabilita della v.a. che abbiamo associato allancio ripetuto di una moneta, che si ricava derivando la (2.2) e vale

    fX(x) = 14(x + 2) +

    12(x) +

    14(x 2). (2.12)

    La v.a. mista considerata nellEsempio 2.4 ha invece una densita che si puo esprimerecome segue:

    fX(x) =U(x 14) U(x 34) + 14(x) + 14(x 1)ed e mostrata in Fig. 2.4c). La densita (2.11) di una v.a. discreta si scrive anchespesso nella seguente forma semplificata:

    fX(xi) =pi , i= 1, 2, . . . ; fX(x) = 0, x =xiche non richiede lintroduzione della funzione impulsiva.

    2.2 Momenti di variabili aleatorie

    Si chiama momento di ordineqdi una v.a. reale X(), dotata di densita fX(x), laquantita

    E{Xq} =

    xq fX(x)dx= Xq()P()d (2.13)

    (per q intero positivo) se esiste, finito, lintegrale|x|qfX(x)dx. Se X() e una

    v.a. discreta, tenuto conto della (2.11) e della proprieta integrale della funzioneimpulsiva, i suoi momenti valgono:

    E{Xq} =i

    pi

    xq(x xi)dx=i

    pixqi . (2.14)

    I momenti sono importanti parametri indicatori di certe proprieta di X(). PoichefX(x) 0, i momenti di ordine pari, se esistono, sono sempre non negativi. I piunoti sono senza dubbio quelli per q= 1 e q= 2.

    Si chiama valor medio o valore attesoo ancora speranza matematica di X() il

    momento del primo ordine:

    E{X} =

    x fX(x)dx (2.15)

    indicato anche con la notazione mX, che per v.a. discrete vale:

    E{X} =i

    pixi, i= 1, 2, . . . . (2.15)

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    39/329

    2.2 Momenti di variabili aleatorie 31

    Il valor medio e un parametro di posizione, e si puo interpretare come il baricentro

    della distribuzione di probabilita definita dalla densitafX(x). Lintegrale (2.15) chelo definisce puo essere esteso al supportoS di fX(x), se questo e diverso da IR. In-oltre, se il supporto e limitato: S= [a, b],E{X} puo essere determinato agevolmenteanche se, invece della densita, si conosce la funzione di distribuzione FX(x). Infatti,calcolando per parti lintegrale e tenendo conto cheFX(a) = 0, FX(b) = 1, si ricava:

    E{X} = ba

    xfX(x)dx= [xFX(x)]ba

    ba

    Fx(x)dx= b ba

    FX(x)dx. (2.15)

    Osserviamo ancora che il valor medio ha proprieta di linearitaanaloghe a quelledellintegrale con cui e definito: daten v.a. X1(), . . ,Xn(), la media di una loro

    combinazione lineare e uguale alla combinazione lineare delle medie:

    E{a1X1+ . . . + anXn} =a1E{X1} + . . . . + anE{Xn}.

    Spesso i momenti di ordine superiore al primo vengono calcolati proprio rispetto alvalor medio mx di X(), operando una traslazione x

    = x mx che individua loscarto dalla media. Si definiscono cos i momenti centrali di ordineq= 2, 3,..n:

    E{(X mX)q} =

    (x mX)q fX(x)dx

    il piu importante dei quali e quello di ordine 2, chiamato varianza diX() e indicato

    con 2X :

    2X=E{(X mX)2} =

    (x mX)2 fX(x)dx. (2.16)

    Per v.a. discretela varianza e definita come la somma:

    2X=i

    pi(xi mX)2. 2.16

    Le dimensioni di 2X sono ovviamente diverse da quelle della v.a. cui si riferisce;anche per questo motivo e spesso usata la sua radice quadrata positiva X, chee chiamata scarto quadratico medio o deviazione standard, la quale conserva ledimensioni di X().

    La varianza si puo interpretare come il momento dinerzia della distribuzione diprobabilita, rispetto alla retta baricentrica x = mX e, insieme con la deviazionestandard, e un parametro che misura la dispersionedella distribuzione rispetto alsuo valor medio. Dalla sua definizione si ricava:

    2X=

    (x2 2xmX+ m2X) fX(x)dx= E{X2} 2mXmX+ m2X

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    40/329

    32 VARIABILI ALEATORIE

    ovvero:

    2X=E{X2} E2{X}dove E{X2} e il momento (non centrale!) del secondo ordine di X(). E poicheun momento di ordine pari non puo essere negativo, si ha sempre 2X 0, ovveroanche: E{X2} E2{X}.Il significato della varianza e ben illustrato dalla seguente

    Diseguaglianza di Tchebyshev. Si puo dimostrare che data una v.a. X() con vari-anza finita, per ogni reale k >0 risulta:

    IP(|X mX| k) 2X/k2.

    Questa diseguaglianza mostra che la probabilita cheX() assuma valori al di fuori diun intorno di raggio k del suo valor medio, non supera il rapporto 2x/k

    2. Quindi, aldecrescere di 2X aumenta la probabilita che tutti i valori di X() siano concentratiattorno al suo valor medio.

    Una v.a. X() puo essere priva di alcuni suoi momenti, o anche di tutti: in-fatti, perche esistano E{Xq} con q = 1, 2, . . . devono esistere finiti gli integrali|x|qfX(x)dx. Se poi esistono questi momenti, alcuni di essi possono essere nulli.Ad esempio, tutte le v.a. che hanno una densita di probabilitasimmetrica, tale cioechefX(x) e una funzione pari, hanno momenti di ordine dispari che sono nulli:

    fX(x) =fX(

    x)

    E

    {Xq

    }= 0 per q= 1, 3, 5, . . .

    perche definiti dallintegrale di una funzione dispari; e cio vale anche per le v.a.discrete, se definite da una successione simmetricadi impulsi.

    Daltra parte, accertata lesistenza dei momenti finiti di una v.a., non e assicuratoche essi individuino la sua densita di probabilita fX(x). Infatti, possono esisterevariabili aleatorie che hanno tutti i loro momenti uguali, ma differenti distribuzioni diprobabilita. Perche una successione{E{Xq}} di momenti individui univocamenteuna densita di probabilita, devono essere soddisfatte ulteriori condizioni. Una diqueste e la seguente, che citiamo senza dimostrazione.

    Condizione sufficiente per lunicita difX(x). Data una successione di momenti

    finiti di una v.a. X(), se esiste unk = 0 tale che

    E{X2q} k2q

    (2q)! 0 per q + (2.17)

    allora la successioneE{Xq}, q= 1, 2, . . . individua univocamente la densita di pro-babilita diX().

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    41/329

    2.3 Distribuzioni notevoli in Probabilita e Statistica 33

    Esempio 2.6

    La v.a. discreta definita nellEsempio 2.1, che ha densita data dalla (2.12), hamomenti di ordine dispari che sono nulli (infatti fX(x) e simmetrica), e quelli diordine pari valgono:

    E{Xq} =i

    pixqi =

    1

    4(2)q +1

    42q = 2(q1), q= 2, 4, 6, . . .

    La successione di questi momenti individua univocamente la densita (2.12), perchee soddisfatta la condizione (2.17) con k = 1/2:

    E{X2q

    } (1/2)2q

    (2q)! =

    22q(1/2)2q

    2 (2q)! = 1

    2 (2q)! 0 per q +.

    2.3 Distribuzioni notevoli in Probabilita e Statistica

    2.3.1 Distribuzione uniforme

    E la generalizzazione della legge di eventi equiprobabili gia esaminata nellEsempio1.5. Una v.a. X() uniformemente distribuita nellintervallo [a, b] ha densita

    fX

    (x) = 1

    b a per a

    x

    b; f

    X(x) = 0 altrove. (2.18)

    Si noti che fX(x) soddisfa entrambe le condizioni (2.7) richieste ad una funzionedensita di probabilita. La funzione di distribuzione cumulata e

    FX(x) =

    0 per x < a(x a)/(b a) per a x b1 per x > b

    a b x a b x

    1b-a

    f ( )xX F ( )xX

    1

    0

    Figura 2.5 - Distribuzione uniforme

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    42/329

    34 VARIABILI ALEATORIE

    ed i momenti valgono

    E{Xq} = ba

    xq

    b a dx= bq+1 aq+1(b a)(q+ 1) .

    In particolare, si ha subito che il valor medio di X() e ovviamente:

    mX= a + b

    2

    e la varianza vale:

    2X= a2 + ab + b2

    3 m2X=

    (b a)212

    .

    2.3.2 Distribuzione normale

    Una v.a. realeX() ha una distribuzionenormaleo gaussianase la sua densita vale

    fX(x) = 1

    2Xexp

    (x mX)

    2

    22X

    , x IR (2.19)

    dove i parametri mX IR e2X>0 sono rispettivamente il valor medio e la varianzadi X(). La distribuzione normale, che si indica con la notazioneN(mX, 2X), hala seguente funzione di distribuzione:

    FX(x) = 1

    2X x

    exp

    (x mX)2

    22X

    dx= 12

    + erfx mXX

    (2.20)dove erf (z) e la funzione degli errori:

    erf(z) = 1

    2

    z0

    et2

    2 dt,

    soddisfacente tra laltro le proprieta:

    erf(z) = erf(z) ; limz erf(z) = 1/2

    e nota quantitativamente attraverso i suoi valori tabulati. Ne segue che FX(x) emonotona crescente tra 0 e 1, e vale 1/2 per x = mX perche la densita (2.19) e

    simmetrica rispetto al suo valor medio (v. Fig. 2.6).La v.a. Z() che e distribuita con legge normaleN(0, 1), ovvero ha media nulla evarianza unitaria, prende il nome di normale standard. Si puo facilmente provare(con i metodi che saranno esposti nel Capitolo 4) che la sua densita si ricava dalla(2.19) mediante il cambiamento di variabile:

    z=x mX

    X, (2.21)

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    43/329

    2.3 Distribuzioni notevoli in Probabilita e Statistica 35

    0.1

    0.2

    0.3

    X X= 0.05

    X

    2 = 0.05X2

    mX

    f ( )x x

    mX

    0

    0.5

    1F ( )

    0.1 0.20.3

    Figura 2.6 - Distribuzioni normali

    il che significa che la densita e la funzione di distribuzione di Z() sono:

    fZ(z) = 1

    2e

    z2

    2 , FZ(z) = 1

    2+ erf (z). (2.22)

    Si noti che nella (2.21)X e la deviazione standard diX(), e quindiz e un numeropuro. Poiche erf (z) si ricava direttamente dalla tabella dei valori della funzionedegli errori, nel calcolo di misure di probabilita riguardanti distribuzioni normalicon media e varianza note, e spesso assai piu comodo effettuare la trasformazione

    (2.21) e operare sulla variabile standardizzata Z() che ha leggeN(0, 1). Questaprocedura e usuale nei metodi statistici che saranno esposti in un prossimo Capitolo.Ad esempio, dalla tabella di erf (z) che e riportata in Appendice si ricava subito:

    P(|X mX| X) =P(|Z| 1) =FZ(1) FZ(1) = 2 erf (1) 0.6826P(|X mX| 2.15 X) =P(|Z| 2.15) = 2 erf (2.15) 2 0.4842 = 0.9684P(|X mX| 3X) =P(|Z| 3) =FZ(3) FZ(3) = 2 erf (3) 0.9974.

    Da questo calcolo si deduce, tra laltro, che ogni v.a. normaleN(mX, 2X) assumevalori compresi tramXXemX+Xcon probabilita che e circa uguale a 0.6826, ela probabilita sale a 0.9974 (avvicinandosi a quella dellevento certo) se si considera

    lintervallo [mX 3X, mX+ 3X].La grande importanza che la legge di distribuzione normale riveste nei metodi dellaStatistica matematica e dovuta al seguente Teorema, che trovera svariate appli-cazioni nelle stime campionarie di cui ci occuperemo nei Capitoli 7,8 e 9.

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    44/329

    36 VARIABILI ALEATORIE

    Teorema Limite Centrale

    Si abbia una successione{Xi()}, i IN+ di variabili aleatorie statisticamenteindipendenti, con uguali densita di probabilitafi(xi)aventi valor medioE{Xi} = e varianza2i =

    2 finite. Allora la densita di probabilita della loro somma:

    Sn() =n

    i=1

    Xi()

    converge, pern +, alla distribuzione normaleN(n, n2).Sulla base di questo Teorema, e possibile usare la legge normale per descrivere in ter-mini probabilistici tutti quei fenomeni fisici che si possono considerare come prodottidalla sovrapposizione di un elevato numero di cause statisticamente indipendenti edaventi la medesima natura aleatoria. Nella Statistica, il teorema e indispensabileper definire le proprieta aleatorie dei valori medi di campioni estratti casualmenteda una popolazione.

    2.3.3 Distribuzione Gamma

    Una v.a. che assume valori in IR+ e distribuita con legge Gamma di parametri e >0 se ha densita di probabilita

    fX(x) =

    ()

    exx1, x

    0. (2.23)

    () e la funzione speciale cos definita:

    () =

    0

    ett1dt, (2.24)

    le cui proprieta sono definite nei testi che riportano i suoi valori tabulati. Ricordiamoin particolare che

    (12) =

    ( + 1) = () =! per IN+( + 1

    2

    ) = 1

    3

    5

    (2

    1)

    /2.

    Questa distribuzione ha valor medio e varianza che valgono:

    mX=

    , 2X=

    2,

    e se 1 ha un massimo per x = ( 1)/(v Fig. 2.7).

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    45/329

    2.3 Distribuzioni notevoli in Probabilita e Statistica 37

    0

    = 0.5

    = 1 : esponenziale

    = 2

    = 3

    = 4

    x

    f ( )xX

    4

    2

    Figura 2.7 - Distribuzioni Gamma ed esponenziale (per = 1)

    2.3.4 Distribuzione esponenziale

    Per = 1, la distribuzione Gamma si riduce a quella esponenziale definita dalladensita

    fX(x) =ex, >0; x 0. (2.25)

    La sua funzione di distribuzione cumulata e

    FX(x) = 1 ex

    , x 0 (2.26)ed ha momenti finiti di qualsiasi ordine, che valgono

    q= 1, 2, . . .: E{Xq} =0

    xqexdx= 1

    q

    0

    tqetdt= q!

    q

    poiche lultimo integrale e la funzione Gamma (q+ 1) = q! definita con la (2.34).In particolare, valor medio e varianza valgono

    mX= 1

    , 2X=E{X2} m2X=

    1

    2.

    Si noti che la successione dei momenti di X() definisce univocamente la densitaesponenziale: infatti essi soddisfano la condizione (2.17) per ogni reale k (0, ):

    E{X2q} k2q

    (2q)! =

    2q)!

    2q k

    2q

    (2q)!=

    k

    2q 0 per q 0 : 0< k < .

    La distribuzione esponenziale e assai utilizzata negli studi di affidabilita(di un di-spositivo o di un materiale) con tasso di guasto costante . Se X() e il tempo

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    46/329

    38 VARIABILI ALEATORIE

    di attesa perche si verifichi il guasto, laffidabilita del dispositivo, definita come la

    probabilita di non subire guasti nellintervallo di tempo (0, t), e data da

    R(t) = 1 FX(t) =et = 1

    fX(t).

    La distribuzione esponenziale dei tempi di attesa ha una notevole proprieta: per ognit, sIR la probabilita di attendere un evento per un tempo t+s, sapendo di avergia atteso il tempo s, e uguale alla probabilita di attendere levento per una duratadi tempot. Infatti, ricordando la definizione (1.2) di probabilita condizionata, si ha

    P(X > t + s | X > s) = P({X > t + s} {X > s})P(X > s)

    =P(X > t + s)

    P(X > s) =

    =1 FX(t + s)

    1 FX(s) =et = 1 FX(t) =P(X > t).

    Si dice percio che la legge esponenziale e senza memoria, nel senso che il tempos gia trascorso non influenza la probabilita che levento si verifichi in qualunqueistante successivo allistante s in cui e iniziata losservazione.

    2.3.5 Distribuzione di Maxwell

    Si dimostrera nel Capitolo IV che il vettore V() avente come componenti cartesiane

    ortogonali tre variabili aleatorie statisticamente indipendenti e con uguale distri-buzione normaleN(0, 2), e una v.a. con densita di probabilita

    fV(v) =

    2

    v2

    3exp

    v

    2

    22

    , v 0. (2.27)

    La densita (2.27) definisce la distribuzione di Maxwell, che ha valor medio e varianzauguali a

    E{V} = 2

    2/; 2V =2(3 8/) (2.28)

    dove 2 e, come detto, la varianza delle componenti di V(). Si osservi anche chefV(v) non e simmetrica rispetto al suo valor medio: infatti ha un massimo perv= 2=E{V}.La distribuzione di Maxwell e di grande importanza nella Meccanica statistica,perche e il modello probabilistico della velocita di agitazione termica delle molecoledi un gas in equilibrio termodinamico. Se indichiamo con m la massa molecolare,conT la sua temperatura e con k la costante di Boltzmann, allora risulta

    2 = kT

    m,

  • 7/25/2019 Elementi di probabilit e statistica - Riganti

    47/329

    2.3 Distribuzioni notevoli in Probabilita e Statistica 39

    e il valor medio dellenergia cinetica

    T della molecola del gas in equilibrio e uguale

    a E{T } = 12mE{V2}. Ma sostituendo il valore di 2 nelle (2.28) si ottiene:

    E{V2} = kTm

    3 8

    8kT

    m =

    3kT

    m ,

    da cui segue il noto risultato che nel modello maxwelliano le molecole di gas inequilibrio possiedono una energia cinetica media che vale

    E{T } =32

    kT .

    = 1

    = 3

    = 2

    0

    f ( )v

    v

    V

    Figura 2.8 - Distribuzioni di Maxwell

    Assai simile alla maxwelliana e la distribuzione di Rayleigh, riguardante le pro-prieta probabilistiche di un vettore bidimensionale

    V() =

    X21() + X22()

    le cui componenti, statisticamente indipendenti, hanno legge normaleN(0, 2). Lasua densita di probabilita e la funzione

    fV(v) = v

    2exp

    v

    2

    22

    , v 0,

    con valor me