Appunti di Statistica (Misure Fisiche 2)

Embed Size (px)

Citation preview

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    1/59

    Appunti di

    Misure Fisiche 2

    Francesco Dulio

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    2/59

    Indice

    1 Concetti fondamentali 6

    1.1 Variabile aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.1.1 Variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . 6

    1.2 Spazio campionario o dei casi . . . . . . . . . . . . . . . . . . . . . . 6

    1.3 Evento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.3.1 Eventi indipendenti. . . . . . . . . . . . . . . . . . . . . . . . 61.3.2 Eventi incompatibili . . . . . . . . . . . . . . . . . . . . . . . 7

    1.4 Spettro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.5 Prova . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.6 Misura, esperimento o campionamento . . . . . . . . . . . . . . . . . 71.7 Campione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.8 Popolazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.9 -algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.10 Spazio di probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.11 Quantile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

    1.12 Valore atteso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.13 Campione casuale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.14 Statistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.15 Probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

    1.15.1 Probabilit soggettiva . . . . . . . . . . . . . . . . . . . . . . 81.15.2 Probabilit a priori . . . . . . . . . . . . . . . . . . . . . . . . 81.15.3 Probabilit frequentista . . . . . . . . . . . . . . . . . . . . . 91.15.4 Probabilit di Kolmogorov o assiomatica. . . . . . . . . . . . 91.15.5 Probabilit composta. . . . . . . . . . . . . . . . . . . . . . . 91.15.6 Probabilit condizionata . . . . . . . . . . . . . . . . . . . . . 91.15.7 Legge ipergeometrica. . . . . . . . . . . . . . . . . . . . . . . 9

    1.16 Calcolo combinatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.16.1 Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.16.2 Permutazioni con ripetizione . . . . . . . . . . . . . . . . . . 101.16.3 Disposizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.16.4 Disposizioni con ripetizione . . . . . . . . . . . . . . . . . . . 101.16.5 Combinazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.16.6 Combinazioni con ripetizioni . . . . . . . . . . . . . . . . . . 10

    1.17 Variabile standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.18 Ellisse di concentrazione . . . . . . . . . . . . . . . . . . . . . . . . . 101.19 Momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    2

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    3/59

    1.20 Intervallo di confidenza. . . . . . . . . . . . . . . . . . . . . . . . . . 111.21 Livello di confidenza . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.22 Quantit pivotali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.23 Stimatore distorto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

    1.24 Gradi di libert di una statistica . . . . . . . . . . . . . . . . . . . . 121.25 Scienza esatta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.26 Grandezze fisiche costanti e variabili . . . . . . . . . . . . . . . . . . 121.27 Sensibilit o risoluzione di uno strumento . . . . . . . . . . . . . . . 131.28 Errore statistico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.29 Precisione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.30 Errore sistematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.31 Accuratezza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.32 Funzione dellapparato . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    2 Media, varianza, deviazione standard 152.1 Media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.2 Varianza 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.3 Deviazione standard . . . . . . . . . . . . . . . . . . . . . . . . . . 16

    3 Criteri di convergenza 17

    3.1 Limite in probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.2 Limite quasi certo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.3 Convergenza in legge o distribuzione . . . . . . . . . . . . . . . . . . 18

    4 Principali distribuzioni 19

    4.1 Densit di probabilit per variabili discrete . . . . . . . . . . . . . . 194.2 Densit di probabilit per variabili continue . . . . . . . . . . . . . . 194.3 Distribuzione binomiale . . . . . . . . . . . . . . . . . . . . . . . . . 19

    4.3.1 Distribuzione geometrica. . . . . . . . . . . . . . . . . . . . . 204.4 Distribuzione di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 20

    4.4.1 Processi poissoniani . . . . . . . . . . . . . . . . . . . . . . . 214.5 Legge esponenziale negativa dei tempi di arrivo . . . . . . . . . . . . 21

    4.5.1 Densit di Weibull . . . . . . . . . . . . . . . . . . . . . . . . 224.5.2 Densit erlanghiana di ordine k o gamma . . . . . . . . . . . 22

    4.6 Distribuzione gaussiana o normale . . . . . . . . . . . . . . . . . . . 224.6.1 Densit gaussiana bidimensionale . . . . . . . . . . . . . . . . 23

    4.7 Densit 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244.7.1 Distribuzione di Maxwell . . . . . . . . . . . . . . . . . . . . 254.7.2 Distribuzione Snedecor. . . . . . . . . . . . . . . . . . . . . . 25

    4.8 Densit tdi Student . . . . . . . . . . . . . . . . . . . . . . . . . . . 254.9 Densit uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

    4.9.1 Distribuzione triangolare. . . . . . . . . . . . . . . . . . . . . 264.10 Distribuzione di Boltzmann . . . . . . . . . . . . . . . . . . . . . . . 264.11 Riassunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

    3

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    4/59

    5 Funzioni 28

    5.1 Passaggio dallo spettro discreto a quello continuo . . . . . . . . . . . 285.2 Funzione comulativa o di ripartizione . . . . . . . . . . . . . . . . . . 285.3 Funzione degli errori . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

    6 Funzioni di variabili aleatorie 29

    6.1 Funzione di una variabile aleatoria . . . . . . . . . . . . . . . . . . . 296.2 Funzione di pi variabili aleatorie . . . . . . . . . . . . . . . . . . . . 306.3 Trasformazione di media e varianza . . . . . . . . . . . . . . . . . . . 30

    7 Stastistica di base 33

    7.1 Determinazione degli intervalli di confidenza . . . . . . . . . . . . . . 337.2 Approccio bayesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 347.3 Stima della probabilit da grandi campioni. . . . . . . . . . . . . . . 34

    7.3.1 Per grandi campioni: . . . . . . . . . . . . . . . . . . . . . . . 357.3.2 Per piccoli campioni: . . . . . . . . . . . . . . . . . . . . . . . 35

    7.4 Stima della probabilit da piccoli campioni. . . . . . . . . . . . . . . 357.5 Intervalli di stima per eventi poissoniani . . . . . . . . . . . . . . . . 367.6 Stima della media da grandi campioni . . . . . . . . . . . . . . . . . 377.7 Stima della varianza da grandi campioni . . . . . . . . . . . . . . . . 37

    7.7.1 Varianza della varianza . . . . . . . . . . . . . . . . . . . . . 387.8 Stima della media da piccoli campioni . . . . . . . . . . . . . . . . . 397.9 Stima della varianza da piccoli campioni . . . . . . . . . . . . . . . . 397.10 Riassunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407.11 Verifica di una ipotesi . . . . . . . . . . . . . . . . . . . . . . . . . . 40

    7.11.1 Confronto tra livello del test e SL. . . . . . . . . . . . . . . . 417.12 Verifica di compatibilit tra due valori . . . . . . . . . . . . . . . . . 417.13 Stima della densit di una popolazione . . . . . . . . . . . . . . . . . 427.14 Verifica di compatibilit tra campione e popolazione . . . . . . . . . 44

    8 Statistica multidimensionale 45

    8.1 Densit congiunta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458.2 Densit marginale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468.3 Indipendenza di variabili . . . . . . . . . . . . . . . . . . . . . . . . . 468.4 Densit condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . 468.5 Covarianza di due variabili. . . . . . . . . . . . . . . . . . . . . . . . 468.6 Correlazione tra variabili. . . . . . . . . . . . . . . . . . . . . . . . . 478.7 Densit normali condizionate . . . . . . . . . . . . . . . . . . . . . . 47

    9 Analisi dei dati sperimentali 48

    9.1 Misure indirette e propagazione degli errori . . . . . . . . . . . . . . 489.1.1 Metodo bootstrap . . . . . . . . . . . . . . . . . . . . . . . . 50

    9.2 Riassunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 509.3 Definizione dei tipi di misura . . . . . . . . . . . . . . . . . . . . . . 51

    9.3.1 M(0, 0, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519.3.2 M(0, , 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519.3.3 M(0, , ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 529.3.4 M(f, 0, 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

    4

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    5/59

    9.3.5 M(f,, 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 529.3.6 M(f, 0, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 539.3.7 M(f,, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

    10 Teoremi 5610.1 Teorema di additivit . . . . . . . . . . . . . . . . . . . . . . . . . . 5610.2 Teorema del prodotto . . . . . . . . . . . . . . . . . . . . . . . . . . 5610.3 Teorema di Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5610.4 Legge 3- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

    10.4.1 Disuguaglianza di Tchebychev . . . . . . . . . . . . . . . . . . 5710.5 Teorema Limite Centrale. . . . . . . . . . . . . . . . . . . . . . . . . 5710.6 Teorema dellindipendenza stocastica . . . . . . . . . . . . . . . . . . 5710.7 Teorema di Pearson. . . . . . . . . . . . . . . . . . . . . . . . . . . . 5710.8 Additivit della variabile 2 . . . . . . . . . . . . . . . . . . . . . . . 5710.9 Teorema delle variabili aleatore comulative. . . . . . . . . . . . . . . 58

    10.10Teorema di Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . 5810.11Teorema di indipendenza di variabili gaussiane . . . . . . . . . . . . 5810.12Teorema del cambiamento di variabile in funzioni densit . . . . . . 5810.13Indipendenza di M e S2 . . . . . . . . . . . . . . . . . . . . . . . . . 5810.14Varianza campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . 59

    5

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    6/59

    Capitolo 1

    Concetti fondamentali

    1.1 Variabile aleatoria

    Una variabile statistica, aleatoria o casuale il risultato dellinterazione di moltifattori, ognuno dei quali non preponderante sugli altri. Questi fattori (e le loroleggi dinamiche) non possono essere completamente individuati, fissati e comunquetenuti sotto controllo, nemmeno in linea di principio.Una variabile aleatoria X(a) una funzione avente come dominio lo spazio S, comecodominio la retta reale e tale che linsieme degli elementi a per i quali vale la relazioneX(a)x un evento perx R.Deve essere sempre definita su tutti gli elementi dello spazio campionario S.Su uno stesso spazio di probabilit si possono definire pi variabili aleatorie.

    1.1.1 Variabili aleatorie indipendenti

    Se le variabili aleatorieXi sono definite sullo stesso spazio di probabilit e glieventi{Xi Ai} sono indipendenti secondo la definizione1.15.4, per ogni sceltapossibile degli intervalliAi Rx da1.3.1si ha:

    P{X1A1, . . . X nAn}=i

    P{XiAi}.

    1.2 Spazio campionario o dei casi

    Insieme di tutti i possibili valori diversi (casi) che pu assumere una variabilealeatoria.

    1.3 Evento

    Particolare combinazione o particolare sottoinsieme di casi. {a: X(a) R0}.

    1.3.1 Eventi indipendenti

    SeP(

    iJAi) =

    iJP(Ai)

    6

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    7/59

    1.3.2 Eventi incompatibili

    Due eventi sono incompatibili o disgiunti se quando si realizza A non si realizzaB e viceversa: A B =

    1.4 Spettro

    Insieme di tutti gli elementi diversi del sottoinsieme di casi che definisce levento.Codominio reale della variabile aleatoria1.1.Se il codominio un insieme numerabile, diremo che lo spettro discreto;quando i valori possibili sono su tutto R, o su unioni di interevalli diR, diremo chelo spettro continuo.

    1.5 Prova

    Insieme delle operazioni che realizzano levento.

    1.6 Misura, esperimento o campionamento

    Insieme di prove.

    1.7 Campione

    Risultato di un esperimento.

    1.8 Popolazione

    Risultato del numero di prove, finito o infinito, tale da esaurire tutti gli eventipossibili.

    1.9 -algebra

    Ogni famigliaFdi sottoinsiemi di S aventi le propriet:

    a) linsieme vuoto appartiene adF : F;b) se una infinit di insiemiA1, A2, F, allora

    i=1 Ai F;

    c) seA F, lo stesso vale per linsieme complementare: A F.

    1.10 Spazio di probabilit

    Terna(S, F, P) formata dallo spazio campionario, da una-algebraF e daP.

    7

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    8/59

    1.11 Quantile

    Si chiama quantile di ordineil pi piccolo valorexche verifica la disuguaglianzaP{Xx}= F(x).

    1.12 Valore atteso

    Se f(X) una funzione di una variabile aleatoria X avente densit di proba-bilit p(x) (4.1, 4.2), si definisce come: f(X) E[f(X)] =kf(xk)p(xk)

    f(x)p(x)dx.

    1.13 Campione casuale

    Insieme delle N variabili Xi indipendenti ed aventi densit di probabilit p(x)(4.1,4.2).

    1.14 Statistica

    Dato un campione1.13di densit p(x) (4.1, 4.2), una funzione

    T =t(X1, . . . X N) (1.1)

    che non contiene alcun parametro incognito, una variabile aleatoria1.1 che prendeil nome di statistica.

    1.15 Probabilit

    Valutazione quantitativa della possibilit di ottenere un determinato evento.Viene fatta o su base dellesperienza, utilizzando modelli matematici, o su basepuramente soggettiva.Segue in3.

    1.15.1 Probabilit soggettiva

    Grado di convinzione (degree of belief) soffettivo circa il verificarsi di un evento.

    1.15.2 Probabilit a priori

    Se N il numero totale di casi dello spazio campionario di una variabile aleatoriaed n il numero di casi favorevoli per i quali si realizza levento A, la probabilit apriori di A data da

    P(A) = n

    N. (1.2)

    8

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    9/59

    1.15.3 Probabilit frequentista

    Se m il numero di prove in cui si verificato levento A su un totale di M prove,la probabilit di A data da

    P(A) = limM+m

    M. (1.3)

    1.15.4 Probabilit di Kolmogorov o assiomatica

    Una funzione P(A) che soddisfa aP :F [0, 1] ed alle propriet: P(A)0;P(S) = 0per ogni famiglia finita o numerabileA1, A2, . . . di insiemi diF, tra loro mutualmentedisgiunti:

    P

    i=1

    Ai=

    i=1

    P(Ai) (1.4)

    1.15.5 Probabilit composta

    Si definisceP(A B)oppureP(AB)la probabilit che si verifichino contempora-neamente gli eventi A e B.

    1.15.6 Probabilit condizionata

    Si definisceP(B|A) la probabilit che si verifichi levento B essendosi verificatolevento A. Essa espressa come:

    P(B|A) = P(A B)P(A)

    se P(A)> 0. (1.5)

    1.15.7 Legge ipergeometrica

    Permette di calcolare la probabilit che da unurna contenenteabiglie di tipo Aebbiglie di tipo B si estraggano k biglie di tipo A avendone estrattena + bsenzareintroduzione nellurna. Assumendo che tutte le biglie abbiano la stessa probabilitdi essere estratte e che le estrazioni siano indipendenti si ha:

    P{k; a,b,n}=ak b

    nka+bn

    . (1.6)

    1.16 Calcolo combinatorio

    1.16.1 Permutazioni

    Pn = n! (1.7)

    9

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    10/59

    1.16.2 Permutazioni con ripetizione

    Pk1...kr = n!

    rj=1(kj !) (1.8)

    1.16.3 Disposizioni

    Dn,k = n!

    (n k)! (1.9)

    1.16.4 Disposizioni con ripetizione

    Dn,k = nk (1.10)

    1.16.5 Combinazioni

    Cn,k = Dn,k

    Pk=

    n!

    k!(n k)! =

    n

    k

    (1.11)

    1.16.6 Combinazioni con ripetizioni

    Cn,k =

    n + k 1n 1

    (1.12)

    1.17 Variabile standard

    Variabile fondamentale in statistica che misura lo scarto di un valorexdalla suamedia in unit di deviazione standard:

    T =X

    che assume i valori t=

    x

    . (1.13)

    Ha media nulla e varianza unitaria.

    1.18 Ellisse di concentrazione

    Se si immagina di tagliare la curva gaussiana bidimensionale con piani di quotacostante, lintersezione d luogo ad una curva di equazione per variabili standard:

    u2 + 2uv+ v2 =costante (1.14)

    e per variabili normali:

    (x x)22x

    2 (x x) (y y)xy

    +(y y)2

    2y=costante. (1.15)

    Queste curve in generale rappresentano delle ellissi con centro nel punto (x, y).

    10

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    11/59

    - se= 0, lellisse ha gli assi principali paralleli agli assi di riferimento;

    - sex = y, lellisse degenera in una circonferenza;

    - se=1, le variabili sono completamente correlate e lellisse degenera in unaretta di equazione

    (xx)

    x (yy)

    y = costante .

    1.19 Momento

    n =k=1

    pk(xk )n +

    (x )np (x) dx. (1.16)

    1.20 Intervallo di confidenza

    Se il valore vero del parametro incognito ad esso corrisponde sullasse deivalori misurati lintervallo [x1, x2] e, per costruzione, si haP{x1Xx2}= C L.Dato che quando x= x1 sullasse dei parametri= 2 e quando x= x2 sullasse deiparametri = 1, per costruzionex[x1.x2] se e solo se[1, 2]. Vale allora larelazione fondamentale:

    P{x1Xx2}= P{12}= C L. (1.17)Date due statistiche1e2con1e2variabili continue e12con probabilit1, si dice cheI=[1, 2] un intervallo di confidenza per un parametro , di livellodi confidenza0 < CL

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    12/59

    1.22 Quantit pivotali

    Variabili aleatorie la cui distribuzione non dipende dal parametro che si vuolestimare.

    SeQ(X, ) una quantit pivotale, la probabilitP QA non dipende da,AR

    .

    1.23 Stimatore distorto

    Uno stimatore si dice distorto quando la media degli stimatoriTN, calcolati daun campione di dimensioneN, differisce dal limite perN dallo stimatore.

    1.24 Gradi di libert di una statistica

    Il numero dei gradi di libertdi una statisticaT =t

    X1, . . . , X N,

    dipendente

    da un insieme noto di parametri, dato dal numero Ndi variabili del campionemeno il numero k di parametri stimati dai dati:

    = N k. (1.20)

    1.25 Scienza esatta

    Una scienza si dice esatta quando sempre in grado di associare un errore alleproprie previsioni e risultati.

    1.26 Grandezze fisiche costanti e variabili

    Una grandezza costante se durante lesperimento si osservano fluttuazioni(risultati diversi ad ogni prova, pur mantenendo costanti le condizioni sperimen-tali), esse sono da attribuire alle operazioni di misura oppure al funzionamentodegli strumenti impiegati. Essa una costante fisica universale, cio unagrandezza che ha lo stesso valore in tutti i sistemi di riferimento, oppure unagrandezza che ragionevolmente si pu considerare costante e stabile rispetto alleoperazioni della misura che si sta effettuando.

    Una grandezza una variabile aleatoria se le fluttuazioni osservate conterrannoanche quelle delloggetto in misura. Questa componente delle fluttuazionicontiene informazioni fisiche sulla legge statistica della grandezza che si stamisurando. Essa presenta delle fluttuazioni e variazioni misurabili che sonointrinseghe al processo fisico che si sta studiando. Molto spesso le fluttuazionisono puramente statistiche, ed allora la grandezza una variabile aleatoria chepossiede una certa distribuzione. Scopo della misura proprio la determinazionedi questa distribuzione.

    12

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    13/59

    1.27 Sensibilit o risoluzione di uno strumento

    Se uno strumento fornisce il valore x nella misura di una grandezza, si definiscecome intervallo di sensibilit o risoluzione e si indica conx, la minima quantit

    necessaria per spostare il risultato della misura del valore x ad uno contiguo. Si dicesensibilit dello strumento il rapporto:

    S= 1

    x. (1.21)

    Se x il valore letto ex lintervallo di sensibilit, il valore vero sar compresocon legge di probabilit uniforme, nellintervallo x x2 , con unCL= 100%:

    valore vero= x x2

    . (1.22)

    1.28 Errore statistico

    quel tipo di errore, dovuto alle operazioni di misura, che fa variare i risultatisecondo una certa distribuione statistica. La media di questa distribuzione (mediavera) coincide col valore vero della grandezza fisica che si misura. La deviazionestandard della distribuzione lerrore di misura. Queste due grandezze sono stimatedalla media e dalla deviazione standard del campione sperimentale delle misure.

    1.29 Precisione

    La precisione determinata dallerrore statistico della misura, che dato dalladeviazione standard stimata dal campione delle misure effettuate. Una misura tantopi precisa quanto pi piccolo lerrore statistico.

    1.30 Errore sistematico

    quel tipo di errore che fa scostare la media dei valori misurati dal valore vero,indipendentemente dal numero di misure che si effettuano. In altre parole, gli errorisistematici provocano uno scostamento tra la media della distribuzione delle misuree il valore vero della grandezza. Sono dovuti ad operazioni errate oppure ad ipotesi

    sbagliate sul modello fisico su cui si basa la misura. Negli strumenti scientifici lerroresistematico viene indicato con: + (syst).

    1.31 Accuratezza

    Per uno strumento di sensibilit ideale, si definisce accuratezza lo scostamentotra il valore misurato dallo strumento ed il valore vero. Questo effetto non di tipocasuale ed ha origine da una taratura imperfetta dello strumento. Viene indicato con. Laccuratezza determinata dagli errori sistematici della misura. Una misura tanto pi accurata quanto pi sono piccoli gli errori sistematici.

    13

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    14/59

    1.32 Funzione dellapparato

    Si dice funzione dellapparato o funzione strumentale, e si indica in genere con(x, y), la funzione che d la probabilit(x, y)dxdydi misurare un valore in[y, y+dy]

    quando il valore della variabile in [x, x+dx]. Fa conoscere la probabilit che lostrumento risponda cony quando il valore di ingresso x.La funzione osservata dipende da due variabili (apparato Ze fisica X) e i valorimisurati Y sono legati a queste variabili secondo y = h(z, x) e z = h1(y, x) [lafunzionehrappresenta il legame traz excreato dalloperatore di misura (x + z, xz. . . )].

    14

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    15/59

    Capitolo 2

    Media, varianza, deviazione

    standard

    2.1 Media

    Se xi sono le Nrealizzazioni numeriche di una variabile aleatoria1.1, la mediacampionaria definita:

    m= 1

    N

    Ni=1

    xi. (2.1)

    Per una variabile aleatoria vale:

    =

    k=1

    xkpk

    = +

    xp(x)dx. (2.2)

    m=C

    k=1

    fkxk. (2.3)

    Propriet:X= X X+ =X +

    2.2 Varianza 2

    Se xi sono le Nrealizzazioni numeriche di una variabile aleatoria 1.1,la varianzacampionaria definita:

    s2 = 1

    N

    Ni=1

    (xi )2 (2.4)

    dove il valore della media assegnata a priori.La varianza rispetto alla media campionaria m2.1 invece:

    s2m=

    Ni=1(xi m)2

    N 1 = N

    N 1N

    i=1(xi m)2N

    . (2.5)

    15

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    16/59

    Per una variabile aleatoria vale:

    2 =

    k=1

    (xk

    )2pk

    2 =

    +

    (x

    )2p(x)dx. (2.6)

    La varianza pu essere anche espressa come:

    s2=C

    k=1

    (fkx2k) 2, (2.7)

    s2m= N

    N 1

    Ni=1 x

    2i

    N m2

    , (2.8)

    2 =

    Ck=1

    (pkx2k) 2 2 = + x2p(x)dx 2. (2.9)Propriet:

    V ar[X] =

    (X X)2

    V ar [X] =2V ar [X]

    V ar [X+ ] =V ar [X] V ar[X] =

    X2 X2

    2.3 Deviazione standard

    La deviazione standard non altro che:

    s=

    s2. (2.10)

    Per una variabile aleatoria vale:

    =

    2. (2.11)

    16

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    17/59

    Capitolo 3

    Criteri di convergenza

    Ricollegandosi alla probabilit1.15vengono definiti tre criteri di convergenza:

    3.1 Limite in probabilit

    Una successione di variabili XNconverge verso una variabile X se, prefissatoun numero >0 comunque piccolo, la probabilit che XNdifferisca da Xper unaquantit > tende a zero per N :

    limN

    P[|XN(a) X(a)| ] = 0. (3.1)

    Dire che questa probabilit tenda a zero non assicura affatto che tutti i valori|XN(a) X(a)|, per ogni elemento a dello spazio campionario, si manterranno

    minori di al di sopra di un certoN, ma solo che linsieme dei valori che superano ha una probabilit piccola, al limite nulla.Essa implica la probabilit in legge3.3.

    3.2 Limite quasi certo

    Se si vuole che per la maggior parte delle successioni si abbia |XN(a) X(a)| per ogni a, si introduce:

    P

    limN

    |XN(a) X(a)| = 1 (3.2)

    sullinsieme degli elementi a dello spazio di probabilit (S, F, P)1.10.In questo caso siamo sicuri che esista un insieme di elementi a, che per N tende a coincidere con lo spazio campionario S.Essa implica sia la probabilit in legge 3.3 sia quella in probabilit3.1.

    Un teorema fondamentale di Kolmogorov assicura la convergenza quasi certa disuccessioni di variabili aleatorie indipendenti1.1.1se vale la condizione:

    N

    Var [XN]N2

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    18/59

    3.3 Convergenza in legge o distribuzione

    Una successione di variabili XNconverge ad una variabile Xse, essendo FXN eFX le rispettive formule di ripartizione (o comulative)5.2:

    limN

    FXN(x) =FX(x) (3.4)

    per ogni punto x in cui FX(x) continua.

    18

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    19/59

    Capitolo 4

    Principali distribuzioni

    4.1 Densit di probabilit per variabili discrete

    Data una variabile X1.1discreta, la funzione

    p(xi) =P{X=xi}= F(xk) =k

    i=1

    p(xi) (4.1)

    (in corrispondenza dei valori dello spettro di X), detta densit di probabilit pervariabili discrete. normalizzata.

    4.2 Densit di probabilit per variabili continue

    Data una variabile X R 1.1continua, la funzione p(x) 0 che soddisfaxlequazione

    F(x) =

    +

    p(t)dt (4.2)

    detta densit di probabilit per variabili continue. normalizzata.Nello spettro continuo la probabilit di trovare uno specifico valore x nulla.Nei punti dove F(x) derivabile, si ottiene la relazione:

    p (x) = dF(x)

    dx . (4.3)

    4.3 Distribuzione binomiale

    Espressione della densit binomiale (teorema delle probabilit totali 10.3) :

    P{X=x successi}= b(x; n, p) = n!x!(n x)!p

    x(1 p)nx =

    n

    x

    px(1 p)nx.

    (4.4)Questa distribuzione validase e solo segli n tentativi sono indipendenti1.3.1e laprobabilit di successo in un tentativo sempre costantee pari a p.La distribuzione binomiale, quando n= 1, detta anche di Bernulli.

    19

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    20/59

    la legge di una variabile aleatoriaXche rappresenta il numero x di successi chesi possono ottenere in ntentativi indipendenti, ognuno dei quali ha una probabilitdi successo costante.

    - normalizzata;

    - La media :

    =X= npn

    x=0

    n!x!(n x)p

    x(1 p)nx =np; (4.5)

    - La varianza :

    2 =Var [X] =np [(n 1)p + 1] n2p2 =np (1 p) ; (4.6)

    4.3.1 Distribuzione geometricaLa probabilit di avere un successo alla n-esima prova data dalla densit

    geometrica:g (n) =p(1 p)n1. (4.7)

    Media:

    n= 1p

    . (4.8)

    Varianza:

    2n =1 p

    p2 . (4.9)

    normalizzata.

    4.4 Distribuzione di Poisson

    Se n1 e p1, si avranno pochi successi (x1), perci si pu approssimarela distribuzione binomiale4.3a una nuova densit discreta:

    p(x; ) =x

    x!e (4.10)

    che rappresenta la probabilit di ottenere un valore x quando la media dei valori .

    unapprosimazione accettabile della binomiale gi a partire da >

    10 ep t}= 1 F(t) =et =p0(t) . (4.16)Percentuali che arrivi prima o dopo la media:

    P

    0T 1

    = 0.63 = 63%, P

    1

    T

    = 0.37 = 37%.

    La legge esponenziale negativa lunica forma funzionale che assicura lindipen-denza temporale degli eventi.

    21

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    22/59

    4.5.1 Densit di Weibull

    Si utilizza per descrivere sistemi biologici o dispositivi dotati di memoria chetendono a invecchiare:

    w (t) =atb1eabtb (4.17)

    con t0 e a,b >0.La funzione comulativa vale F(t) =

    t0w (t) dt= 1 e

    abtb .

    La probabilit di non avere eventi fino a t + tdiminuisce se aumenta t.Sea = b = 1si ha la legge esponenziale negativa4.14. Seb >1tende ad assumere

    la forma a campana.

    4.5.2 Densit erlanghiana di ordine k o gamma

    Un caso particolare della legge esponenziale negativa la densit gamma, che lequazione4.14con p0(t)sostituito da pk1(t):

    ek(t) = k

    (k 1)! tk1et = k

    (k)tk1et (4.18)

    Media: = k

    ; varianza: 2 = k2

    . la densit della somma di kvariabili aleatorieesponenziali negative indipendenti. La funzione gamma :

    (p) =

    0

    xp1exdx (4.19)

    4.6 Distribuzione gaussiana o normale

    Se n

    1, 0 < p

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    23/59

    - La varianza :

    Var [X] = 1

    2

    +

    (x )2exp1

    2

    (x )22

    dx= 2; (4.23)

    Essendo la gaussiana simmetrica:

    E(x) =E(x). (4.24)

    Viene definita la densit gaussiana standard, cio una gaussiana con media nullae deviazione standard unitaria:

    g (x, 0, 1) = 1

    2e

    x2

    2 . (4.25)

    Viene definita anche la funzione comulativa della gaussiana standard:

    (x) = 1

    2

    x

    ex2

    2 dx. (4.26)

    Essa legata alla versione integrale della gaussiana attraverso la relazione (x) =0.5 + E(x).

    4.6.1 Densit gaussiana bidimensionale

    La densit gaussiana di due variabili gaussiane indipendenti:

    g (x, y) =gX(x) gY (y) =

    1

    2xx exp12 (x x)

    2

    2x +

    (x

    y)

    2

    2y

    . (4.27)

    La gaussiana ridotta :

    g (u, v; 0, 1) = 1

    2exp

    1

    2

    u2 + v2

    (4.28)

    avendo sostituito U= Xxx e V = Yy

    y.

    Gode delle propriet:

    a) non essere fattorizzabile in due termini dipendenti rispettivamente solo da ue

    solo da v ;b) avere distribuzioni marginali8.2gaussiane standard;

    c) soddisfare lequazionexy = ;

    d) soddisfare la condizione di normalizzazione.

    La gaussiana ridotta pu essere riscritta in termini di correlazione:

    g (u, v; 0, 1) = 1

    2

    1 2 exp

    1

    2 (1 2)

    u2 2uv+ v2 . (4.29)23

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    24/59

    La gaussiana standard invece:

    g (u, v; 0, 1) = 1

    2xy1 2

    e12(x,y) (4.30)

    con (x, y) = 112(xx)2

    2x 2 (xx)(yy)

    xy+ (yy)

    2

    2y

    .

    La conoscenza delle due distribuzioni marginali, cio delle proiezioni della gaus-siana sui due assi x e y, non basta per una conoscenza completa della densitbidimensionale, perch variabili correlate o incorrelate danno in entrambi i casiproiezioni gaussiane. La conoscenza della covarianza o del coefficiente di correlazione quindi essenziale per la determinazione completa della distribuzione statistica dellevariabili.

    sempre possibile, operando una rotazione di assi, trasformare una coppia divariabili gaussiane dipendenti in variabili gaussiane indipendenti.

    4.7 Densit 2

    Determinazione della densit di probabilit di una variabile aleatoria funzione dipi varibili aleatorie. Si vuole trovare la funzione di densit della variabile

    Q=Ni=1

    X2i (4.31)

    somma dei quadrati di n variabili standard gaussiano tra loro indipendenti.Con FQ(q) si indica la comulativa 5.2 della funzione densit 2 [essa da la

    probabilit che la variabile Q (4.31) sia compresa entro unipersfera di raggioq]:

    P

    X2iqFQ(q) =

    x2iq. . .

    1

    2

    ne x2i

    2 dx1 . . . dxn (4.32)

    La densit 2 :

    pn(q) dq= 1

    2n2

    n2

    e 12 qq12 (n2)dq (4.33)con(p)la funzione gamma4.19e individua la distribuzione statistica del moduloquadro di un vettore di n componenti gaussiane indipendenti.

    Se si opera la sostituzione n (con gradi di libert) e si intende 2

    siala distribuzione di densit pn(q) dqsia i valori numerici di Q(sostituendo quindiq2) ottenuti in prove specifiche, si ha: Q ()2 ()che assume valori 2. Ladensit diventa quindi:

    p

    2

    d2 p 2; d2 = 122

    2

    e22 221d. (4.34)La media :

    Q= 122

    2

    0

    x (x)21e

    x2 dx= . (4.35)

    24

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    25/59

    La varianza :

    Var [Q] = 1

    22

    2

    0

    (x )2 (x)21e

    x2 dx= 2. (4.36)

    Si usa spesso la distribuzione 2

    ridotto:

    QR() = Q ()

    (4.37)

    con mediaQR()= 1e varianza Var [QR()] = 2. La versione del 2 ridotto :

    P

    QR()2R()

    =

    2R()

    2

    22

    2

    x 21e x2 dx. (4.38)4.7.1 Distribuzione di Maxwell

    La densit di Maxwell la generalizzazioni in tre dimensioni della densit 2 4.7.

    La sua equazione :

    m (r) dr=

    2

    1

    3r2e

    r222 dr (4.39)

    Media: R2

    = 32. (4.40)

    Varianza:Var

    R2

    = 64. (4.41)

    4.7.2 Distribuzione Snedecor

    Avendo definito la variabile di Snedecor F come F = QR()QR(

    )

    , si definisce la densit

    di Snedecor come rapporto tra due variabili indipendenti 2 ridotto:

    p(F) =cD12 (2)(F+ )

    12(+) (4.42)

    con c=2

    2

    (+2 )(2 )(

    2 )

    .

    4.8 Densit t di Student

    Per variabili formate dal rapporto di una variabile gaussiana standard e la radicedi una variabile QR di densit 2 ridotto con gradi di libert viene introdotta la

    densit di Student.Avendo posto Z= XY

    = XY

    si ottiene:

    pZ(z) =

    +12

    2

    1

    z2

    + 1

    +12. (4.43)

    Viene riscritta nella variabile t, ponendo

    = (12):

    s(t) =

    +12

    2

    12

    1

    t2

    + 1

    +12. (4.44)

    25

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    26/59

    4.9 Densit uniforme

    Una variabile aleatoria X1.1continua, che assume valori nellintervallo finito[a, b], si dice uniforme in [a, b]e si denota con X

    U(a, b)quando ha una densit di

    probabilit costante data da:

    u(x) =

    1ba per axb0 per x < a, x > b

    . (4.45)

    normalizzata, con media = 1baba

    x dx= b+a2 e varianza 2 = 1ba

    ba

    x b+a2

    2dx= (ba)

    2

    12 .

    Per una variabile aleatoria aXb, avente densit uniforme, la probabilit dilocalizzazione in(x1, x2) proporzionale allampiezza dellintervallo

    P{x1Xx2}= 1b a

    x2x1

    dx=x2 x1

    b a ;

    viceversa, se una variabile aleatoria continua soddisfa a P{x1Xx2}= 1bax2x1

    dx= x2x1ba ,

    essa distribuita in modo uniforme.

    4.9.1 Distribuzione triangolare

    Una particolare densit uniforme quella triangolare:

    pZ(z) =

    z per 0z12 z per 1 < z20 altrimenti

    . (4.46)

    normalizzata, compresa tra 0 e 2, di forma triangolare e con massimo in z = 1.

    4.10 Distribuzione di Boltzmann

    La densit di Boltzmann :

    m (E) dE= 2

    1

    KT

    E

    KTe

    EKTdE, (4.47)

    avendo posto m2 =K Te quindi =

    KTm .

    26

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    27/59

    4.11 Riassunto

    Nome Densit Media Deviazionestandard

    Commenti

    binomiale n!x!(nx)!px(1 p)nx np np (1 p) successi inprove indi-pendenticon pro-babilitcostante

    poissoniana x

    x!e

    conteggi

    gaussiana 12

    e 12

    (x)2

    2 combinazionelineare divariabili in-

    dipendentiesponenziale et 1

    1

    tempi travariabilipoissonia-ne

    gamma k

    (k)tk1et k

    k somma di

    k variabi-li esponen-ziali negati-ve

    2 1

    2

    2(

    2 )

    e2

    2 221

    d

    2 modulo di

    un vettoregaussiano

    uniforme 1 (0x) 2 12 variabilicomulative

    student ( +12 )

    ( 2 )(12)

    1

    t2

    + 1

    +120

    2 per variabi-

    li formatedal rappor-to di unavariabilegaussiana

    standard ela radice diuna varia-bile QR didensit 2

    ridotto

    27

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    28/59

    Capitolo 5

    Funzioni

    5.1 Passaggio dallo spettro discreto a quello continuo

    k

    p(xk)

    p(x)dx, p(xk)p(xk)dx (5.1)

    5.2 Funzione comulativa o di ripartizione

    Se X una variabile aleatoria1.1,continua o discreta, la funzione comulativa :

    F(x) =P{Xx} (5.2)

    e rappresenta la probabilit che Xassuma un valore non superiore ad un valore

    assegnatox.xnon deve necessariamente far parte dello spettro di X.Se gli eventi sono incompatibili e la probabilit, data da 1.4, P{Xx2} =P{Xx1} + P{x1 < Xx2}e quindi si ha limportante relazione:

    P{x1< Xx2}= F(x2) F(x1) . (5.3)

    La relazione5.3pu essere riscritta in termini di densit:

    P{X=x1}= P{xk1 < Xxk}= F(xk) F(xk1) =p (xk) . (5.4)

    5.3 Funzione degli erroriAvendo definito la variabile standard1.17:

    Erf(x)2 12

    20

    exp

    t

    2

    2

    dt2E

    2x

    (5.5)

    28

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    29/59

    Capitolo 6

    Funzioni di variabili aleatorie

    Considerando pi variabili aleatore X, Y , . . . , esse si possono combinare in unafunzioneZ=f(X , Y , . . . )e questo porta ad avere una nuova variabile aleatoria Z.

    Nel caso di due variabili X, Y , la densit della variabile Z definita da Z=f(X, Y) X, Y pX,Y(x, y) =Z pz(x). Zresta definita in funzione dei risultati ae bdelle prove che realizzano Xe Y: Z=Z(a, b) =f(X(a), Y(b)).La probabilit che Zappartenga ad un certo insieme numerico RZ :

    P{Z RZ}=

    [x,y;f(x,y)RZ]P(AB) =

    [x,y;f(x,y)RZ]

    P{X RX; Y RY}. (6.1)

    6.1 Funzione di una variabile aleatoria

    Sia Z legata ad X, variabile aleatoria continua di densit pX(x), attraverso

    Z=f(X). Per determinare la densit pZ(x)si utilizzano le relazioni5.4 e 4.3 e siottiene:

    pZ(z) = 1

    |a|pX

    z ba

    , (6.2)

    che riscritta in termini della variabile funzionale Z= f(X) =aX2 diventa:

    pZ(z) = 1

    2

    az

    pX

    z

    a

    +pX

    z

    a

    ; (6.3)

    infine se la densit di partenza pX(x) gaussiana:

    pZ(z) = 1

    |a| 2 expz (a + b)2

    2a22

    (6.4)(nel caso che la gaussiana abbia una media nulla si ritrova la densit gamma 4.19dimediaz =a2 e varianza 2z = 2a

    24).La media :

    z =a + b (6.5)

    e la varianza:2z =a

    22. (6.6)

    29

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    30/59

    La sua funzione comulativa :

    P{Zz0} FZ(z) =i

    i

    pX(x) dx. (6.7)

    6.2 Funzione di pi variabili aleatorie

    Funzione comulativa:

    P{Zz0} FZ(z) =

    . . .

    (XD)

    pX(x1, . . . xn) dx1, . . . , dxn. (6.8)

    Pu essere riscritta, utilizzando il teorema10.12come:

    pZ(z) =

    pX(x1, x2)

    f11z

    dx2=

    pX

    f11 (z, x2) , x2

    f11z

    dx2. (6.9)

    Se le variabiliX1e X2sono indipendenti allora la densitpXsi fattorizza secondola8.4e utilizzando la6.9 si ottiene:

    pZ(z) =

    pX1

    f11 (z, x2) , x2

    pX2(x2)

    f11z

    dx2. (6.10)

    Quando la variabile Z data dalla somma Z=X1+ X2, la funzione inversa f1

    e la sua derivata da inserire nella6.9sono date da X1 = f11 (Z, X2) = Z X2 e

    f11z

    = 1e la densit quindi:

    pZ(z) = pX(z x2) dx2. (6.11)

    Se le due variabili sono indipendenti la densit di probabilit di partenza si fattorizzanella8.4e si ottiene lintegrale chiamato di convoluzione:

    pZ(z) =

    +

    pX1(z x2)pX2(x2) dx2. (6.12)

    6.3 Trasformazione di media e varianza

    - Variabile Zfunzione di una sola variabile aleatoria Xdi densit nota pX(x),cio Z=f(X):

    Z= f(x)pX(x) dx. (6.13)In molti casi si ricorre ad una formula apporssimata, ottenuta sviluppando alsecondo ordine in serie di Taylor la funzione f(x)nellintorno del varl medio della variabile di partenza X:

    Z f() +12

    f () 2. (6.14)

    La media della funzione f pari alla funzione della media pi un terminecorrettivo che dipende dalla concavit della funzione nellintorno della media edella varianza di X;

    30

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    31/59

    - Z=aX+ b:Z= f(X) ; (6.15)

    Var [Z] = [f(x) f(X)]2pX(x) dx. (6.16)

    Anche in questo caso la varianza pu essere approssimata:

    Var [Z] f ()22 +14

    f ()

    2 4 4

    + f () f () 3 (6.17)

    dove i sono i momenti definiti da1.16. Conoscendo lordine di grandezza deimomenti, si pu fare una stima accettabile della varianza di Z:

    Densit Xsimmetrica intorno alla media:3= 0; (6.18)

    Densit gaussiana (3= 0e 4= 34

    ):Var [Z] f ()22 +1

    2

    f ()

    24; (6.19)

    Densit simmetrica ma non gaussiana:

    Var [Z] f ()22 +12

    f ()

    24. (6.20)

    Quando 2 4:Var[Z][f()]22. (6.21)

    - Z=aX2 con Xche segue la densit gaussiana:

    Z f() +12

    f () 2; (6.22)

    Var [Z] f ()22 +12

    f ()

    24. (6.23)

    - Zfunzione di n variabili Xi: Z=f(X1, . . . , X n). Si utilizza lapporssimazionelineare:

    Z= f(X) ; (6.24)

    Var[Z][f()]22. (6.25) Per due variabili:

    Z=

    f(x1, x2)pX(x1, x2) dx1 dx2= f(1, 2); (6.26)

    Var [Z] =

    [f(x1, x2) f(1, 2)]2pX(x1, x2) dx1 dx2. (6.27)Il risultato contiene delle novit:

    2z

    f

    x1

    221+

    f

    x2

    222+ 2

    f

    x1

    f

    x2

    1,2. (6.28)

    31

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    32/59

    Variabili indipendenti 1,2 = 0:

    2z =

    f

    x1

    221+

    f

    x2

    222; (6.29)

    Z= X1+ X2:z =1+ 2; (6.30)

    2z =21+

    22; (6.31)

    Z= X1X2, Z= X1X2 , Z= X2X1 :

    V ar [Z]

    Z2 =V ar [X1]

    X12 +

    V ar [X2]

    X22 . (6.32)

    32

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    33/59

    Capitolo 7

    Stastistica di base

    Lo spazio di probabilit1.10cambia leggermente la notazione e diventa ()(S,

    F, P)dove P una probabilit dipendente da un parametro , che fornisce una

    legge

    P{XA}=A

    p (x; ) dx (7.1)

    per il campione casuale (X1, . . . , X N).

    7.1 Determinazione degli intervalli di confidenza

    Avendo ottenuto un valore x di una variabile Xcontinua e conoscendo la densitp (x; )della probabiliP{XA}= Ap (x; ) dx, se un parametro di posizionecome la media, i valori [1, 2], relativi ad una realizzazione dellintervallo aleatorio[1, 2]secondo il CLassegnato, possono essere trovati con le relazioni:

    +x

    p (z; 1) dz = c1, x

    p (z; 2) dz= c2 (7.2)

    dove CL= 1 c1 c2. Nel caso Xsia una variabile discreta, agli integrali vannosostituite le somme sui componenti.

    Considerando il caso in cui il parametro sia la media di una curva normale: . La forma di p(x; ) invariante per traslazioni e le funzioni 1(x) e 2(x)sono due rette parallele. Risulta quindi:

    +tt

    p (x; ) dx=

    +tt

    p (; x) d

    che si pu scrivere:

    P{ tX + t}= P{tX t}= P{X tX+ t} .(7.3)

    I livelli di probabilit dellintervallo centrato su coincidono con i livelli diconfidenza dellintervallo aleatorio centrato su X.

    33

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    34/59

    7.2 Approccio bayesiano

    Nellapproccio bayesiano il parametro da stimare viene considerato come unavariabile aleatoria e lintervallo di confidenza1.20rappresenta la conoscenza ottenuta,

    dopo la misura, sul valore del parametro.

    7.3 Stima della probabilit da grandi campioni

    Prova di ntentativi bernoulliani, ottenendo xsuccessi con quindi una frequenzaf= x

    n. Si definisce una variabile standard1.17 T = Fp

    [F] che assume i valori

    t= fp

    p(1p)n

    . (7.4)

    Se si esegue una prova, f noto e p incognito; utilizzando lapproccio statistico,si pu allora determinare i valori di p per i quali il valore assunto dalla variabilestandard risulta minore di un certo limite t assegnato:

    |fp|p(1p)

    n

    |t| . (7.5)

    Elimando i valori assoluti elevando al quadrato ambo i membri e risolvendorispetto allincognitap, si ottiene, in forma compatta la formula di Wilson per piccolicampionamenti:

    p f+ t

    2

    2n

    t2n

    + 1 t t

    2

    4n2+ f(1f)

    n

    t2n

    + 1 . (7.6)

    Il parametro tsta ad indicare un qualunque valore della variabile standard T; porret= 1corrisponde a considerare ununit di errore statistico.

    Lintervallo centrato nel punto f+ t

    2

    2nt2

    n+1

    , funzione di f e del numero di tentativi

    effettuati. Ci dovuto allassimetria della binomiale per un numero di proveabbastanza esiguo.

    Per un numero di prove n1vale lapprossimazione gaussiana e la7.6diventa:

    p

    f

    t12

    s= f

    t12f(1 f)

    n

    , (7.7)

    dovet

    2

    =t12 sono i valori quantili della gaussiana standard che definiscono gliestremi dellintervallo che sottende unarea pari a C L= 1 . La dimensione delcampione necessaria per mantenere lerrore statistico al di sotto di un valore assolutoprefissato a priori :

    2max= 1

    4n (7.8)

    Ricavato dalla varianza:

    2 = p (1 p)

    n (7.9)

    34

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    35/59

    Il numero di tentativi necessari per mantenere lintervallo di stimat12 max aldisotto di un certo valore prefissato quindi:

    n=t212

    4

    t212 max2 . (7.10)

    Con lintervallo 1e quindi t12 = 1da7.7 si ha lintervallo di Wald:

    pf s= f

    f(1 f)n

    . (7.11)

    Moltiplicando per il numero di tentativi la7.11pu essere espressa in funzionedel numero di successi x:

    f

    x

    1 xn

    . (7.12)

    Lintervallo centrato sul valore misurato, la variabile T pivotale perchT N(0, 1);lerrore statistico ha la stessa espressione della deviazione standard della distribuzionebinomiale (con la probabilt p sostituita dalla frequenza misurata f) e i livelli diconfidenzaCLsono gaussiani.

    7.3.1 Per grandi campioni:

    la densit binomiale assume una forma gaussiana; lintervallo di confidenza simmetrico; il valore misuratofdefinisce due code che valgono entrambe 1CL2 in modo da

    avere le due aree tra f e p1 e tra f e p2 uguali ognuna a CL2 ;

    se valida la condizione nf,n(1 f) 1, i livelli di confidenza associatiallintervallo 7.11sono quelli della legge 3gaussiana (10.4).

    7.3.2 Per piccoli campioni:

    la variabile T non pivotale e non pi possibile assegnare in modo generale ilivelli di confidenza;

    lintervallo di confidenza asimmetrico; le due code di area 1CL2 assumono forma diversa

    7.4 Stima della probabilit da piccoli campioni

    Per un numero di campioni esiguo, in cui x = nf

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    36/59

    Nel caso simmetrico c1= c2= 1CL2 = 2 .

    In alternativa si pu applicare la 7.6 applicando la correzioni di continuitf = x0.5n alla frequenzaf=

    xn

    ; con lapprossimazione alla gaussiana si ottiene:

    p f+t222n

    t22n

    + 1

    t

    2

    t224n2 f(1f)nt22n

    + 1

    . (7.14)

    Nei casi x= 0e x= n le equazioni di Clopper-Pearson7.13con c1= c2= 1CLpresentano due casi limite:

    x= n pn1 = 1 CL,x= 0 (1 p2)n = 1 CL.

    Ci utile per definire il limite inferiore di una probabilit quando tutti itentativi hanno avuto successo:

    p1= n

    1 CL= e 1n ln(1CL) = 10 1n log(1CL) (7.15)e il limite superiore quando non si registrato alcun successo:

    p2= 1 n

    1 CL= 1 e 1n ln(1CL) = 1 10 1n log(1CL). (7.16)

    Quando n grande e non si sono registrati successi, p2 piccola e si ottieneapprossimando al secondo ordine:

    p2 1n

    ln(1 CL)

    che corrisponde allequazione:

    enp2 = (1 CL) =. (7.17)

    7.5 Intervalli di stima per eventi poissoniani

    Il caso binomiale pu essere esteso a quello poissoniano. Per stimare correttamentesi usano equazioni analoghe a quelle 7.13:

    n

    k=xk1k!

    e1 =c1,x

    k=0k2k!

    e2 =c2. (7.18)

    Nel caso simmetrico si ha sempre c1= c2= 1CL2 .Con lapprossimazione gaussiana (2 =) lintervallo di confidenza per il valore

    atteso:|x |

    t2

    . (7.19)Introducendo la correzione di continuit x = x 0.5se x= 0si ottiene:

    x+t22

    2

    t2

    x+

    t22

    4 . (7.20)

    36

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    37/59

    Perx = 0:e = 1 CL; (7.21)

    per x = 1:e

    + e

    = 1 CL; (7.22) per x = 2:

    e + e +2

    2e = 1 CL, (7.23)

    quando x >100:x

    t2

    x. (7.24)7.6 Stima della media da grandi campioni

    La media di un campione, o media campionaria, una variabile aleatoria. Se siproduce un campione casuale di dimensione Nda una distribuzione, e se ne si fa lamediam = 1N

    Ni=1 xi e si ripete il procedimento, ogni volta si ottiene un risultato

    diverso.La media campionaria uno stimatore:

    M= 1

    N

    Ni=1

    Xi. (7.25)

    La varianza alla variabile M :

    Var [M] =Var1

    N

    Ni=1

    Xi

    = 1

    N2

    Ni=1

    Var [Xi] = 1

    N2

    Ni=1

    2 = 2

    N. (7.26)

    Poich 2 non nota solitamente, si pu approssimare con la varianza s2 calcolatadal campione e si ottiene:

    m N

    m sN

    . (7.27)

    Il teorema del limite centrale10.5afferma che la densit della media campionariasar gaussiana per N 1, cio per N > 10. Nel caso gaussiano 7.3 i livellidi confidenza cercati sono dati dai livelli di probabilit rispetto alla media della

    corrispondente densit gaussiana.Nella 7.27 la varianza vera pu essere sostituita da quella osservata s seN 1 N, cio per valorei di N > 20, 30 con livelli di confidenza gaussiani perN >10.

    7.7 Stima della varianza da grandi campioni

    La varianza campionaria per variabili Xqualsiasi tende alla densit gaussiana,ma solo per campioni N >10.Se le variabili del campione sono gaussiane allora la distribuzione campionaria della

    37

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    38/59

    varianza riconducibile alla densit 2 la quale converge a quella gaussiana un popi velocemente allincirca per N >30.La variabile aleatoria varianza campionaria tende a diventare una variabile gaussianamolto pi lentamente della corrispondente media campionaria che lo gi perN >10.

    Si possono avere due tipi di varianza: varianza rispetto la media vera:

    S2= 1

    N

    Ni=1

    (Xi )2; (7.28)

    La7.28 uno stimatore distorto1.23infatti

    1N

    Ni=1(Xi )2

    = N1

    N 2,

    con 1N

    come fattore di distorsione;

    varianza rispetto la media campionaria:

    S2 = 1

    N 1Ni=1

    (Xi M)2. (7.29)

    La7.29 uno stimatore non distorto in quanto gode della propriet

    S2

    = 2.

    Esse tendono alla varianza vera 2 per N .

    7.7.1 Varianza della varianza

    La varianza della varianza fatta sul valore vero :

    Var

    S2

    = 1N2i

    Var

    (Xi )2= 1N2 N4 N 4= 1N 4 4 (7.30)e sostituendo ai valori veri 4 e 4 i valori stimati D4 = 1N

    i(Xi )2 e s4 si

    ottiene:

    Var

    S2 D4 s4

    N . (7.31)

    Lintervallo di confidenza della varianza con media nota :

    2 s2 S2

    = s2

    D4 s4N

    . (7.32)

    Lintervallo di confidenza della varianza con media ignota :

    2 s2 S2= s2

    D4 s4N 1 . (7.33)

    Lintervallo di confidenza della deviazione standard :

    s

    D4 s44 (N 1) s2 . (7.34)

    38

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    39/59

    Se le variabili che compongono il campione sono gaussiane, valendo la relazione4= 3

    4 e le formule di prima diventano:

    2

    s2

    2 2

    N 1, (7.35)

    s 2 (N 1) . (7.36)

    PerC L= 1 :s2

    1 + t12

    2N1

    2 s2

    1 t12

    2N1

    , (7.37)

    s

    1 + t12 1

    2(N1)

    s

    1 t12 1

    2(N1)

    . (7.38)

    7.8 Stima della media da piccoli campioni

    La media campionaria M, se la somma di Nvariabili gaussiane, anchessagaussiana per qualunque N, e quindi anche la variabile M

    N una variabile

    standard gaussiana per qualunque N, cio una quantit pivotale.Lintervallo di confidenza della media si ricava attraverso

    T =M

    N

    1QR

    = M

    S

    N (7.39)

    che distribuita come la densit di Student4.44conN1gradi di libert. Luso dellavariabile di Student permette di eliminare dallintervallo di confidenza la varianzavera (incognita) 2 e di definire una quantit pivotale per la stima di .

    7.9 Stima della varianza da piccoli campioni

    Il teorema della varianza campionaria10.14fornisce la quantit pivotale S2

    2

    2R(N 1). Lintervallo di probabilit 2R(2 ) S2

    2 2

    R(12 ) con 2

    R(2 ) e

    2R(12 )

    presi come valori dei quantili della variabile QR corrispondenti al livello di

    confidenzaC Lprefissato; perci lintervallo di stima della varianza in corrsipondenzadi un valore misurato s2 :

    s2

    2R(12 )

    2 s2

    2R(2 )

    . (7.40)

    Lintervallo di confidenza per la deviazione standard invece:

    s2R(12 )

    s2R(2 )

    . (7.41)

    39

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    40/59

    7.10 Riassunto

    Variabili gaussiane Variabili qualunque

    Intervallo CL Intervallo CL

    Probabilitnf 10 - - eq. 7.14 GaussFrequenzax 10 - - eq. 7.19 GaussMediaN 30 m sN

    Gauss m sN

    Gauss

    VarianzaN 100 eq. 7.37 Gauss s2

    D4s4N1 Gauss

    Dev. standardN 100 eq. 7.38 Gauss s

    D4s44s2(N1) Gauss

    7.11 Verifica di una ipotesi

    Considerando la densit di probabilitp (x; ) della variabile Xdefinita come

    7.1dipendente dal parametro e si supponga venga assunta lipotesi = 0. Selesperimento fornisce un evento{X=x}, occorre decidere se accettare o meno ilmodello corrispondente allipotesi.

    Si stabilisce a priori un livello di significativit , chiamato anche livello del testo dimensione dellerrore del I tipo, che determina i valori dei quantili x

    2e x1

    2.

    Si rifiuta lipotesi se il livello di significativit osservato 0 < . Si accetta lipotesi se il livello di significativit osservato 0> .

    Osservato levento occorre calcolare la probabilit, chiamato livello di significativito p-value:

    P{X < x}= 0: test a una coda a sinistra; P{X > x}= 0: test a una coda a destra; P{|X |>|x |}= 0: test a due code.

    Se si scarta lipotesi, la probabilit di sbagliare non supera mai : errore del I tipo.La verifica dipotesi pu essere anche fatta con statistiche T =t (X1, . . . , X N)che

    stimano il valore di , cio con degli stimatori. In questo caso alla densit p (x; 0)attribuita al campione va sostituita la densit della distribuzione campionaria dellostimatore e tutto procede come prima. Se lo stimatore non distorto: TN(X)= 0.Il livello di significativit ora:

    40

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    41/59

    P{T < t0}= SL < 0: test a una coda a sinistra; P{T > t0}= SL < 0: test a una coda a destra;

    P

    {|T

    0

    |>

    |t0

    0

    |}= SL < 0: test a due code.

    7.11.1 Confronto tra livello del test e SL

    Per una variabile aleatoria discreta, i livelli SL di due valori contigui possonostare a cavallo del valore deciso per il test.

    Nel caso del test a due code, ad un livello possono corrispondere limitifiduciari diversi, cio intervalli di estremi diversi ma con lo stesso livello diconfidenzaCL= 1 . Generalmente in questo caso si scelgono i due estremi,a destra e sinistra, che sottendono code aventi la stessa area 2 .

    7.12 Verifica di compatibilit tra due valori

    Se, fatti due campionamenti differenti, si volesse verificare che i risultati x1 e x2siano in accordo tra loro, bisogna procedere in ambito statistico.Si definisce una nuova variabile aleatoria differenza:

    D= X1 X2, (7.42)

    la quale ha valore atteso nullo nellipotesi che i due valori provengano dalla stessapopolazione1.8. Si pu scrivere la varianza di tale variabile:

    V ar [D]

    s21+ s

    22. (7.43)

    Si pu infine definire il valore standard da cui calcolare il livello di significativit:

    |tD|= |x1 x2|s21+ s

    22

    . (7.44)

    In questo casi si approssima a grandi campioni e perci ad una gaussiana.Generalmente la7.44viene utilizzata per confrontare due frequenze o due medie

    campionarie:

    Due frequenze f1 e f2, in termini di probabilit:

    tf = |f1 f2|f1(1f1)

    N1+ f2(1f2)

    N2

    ; (7.45)

    se N1 = N2 = N il confronto pu essere fatto in termini di numero disuccessix1 e x2:

    tx = |x1 x2|

    x1

    1 x1N

    + x2

    1 x2

    N

    ; (7.46) se N1=N2 pi utile il confronto con la frequenza.

    41

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    42/59

    Due medie m1 e m2:tm=

    |m1 m2|s21N1

    + s22N2

    ; (7.47)

    se i due campioni sono piccoli e la distribuzione campionaria gaussianasi utilizza la densit di Student:

    tD = m1 m2

    21N1

    + 22N2

    = m1 m2

    1N1

    + 1N2

    . (7.48)

    Per utilizzarla con valori campionati e non veri bisogna apporre la corre-

    zione di continuit s1,2=

    (N11)s21+(N21)s22N1+N22 e il risultato :

    tD = m1 m2

    s1,2 1N1 + 1N2(7.49)

    7.13 Stima della densit di una popolazione

    Sep (x) la densit della popolazione del campione, definendo le variabili aleatorieIe Fassociate agli eventi{Ii = ni}e

    Fi =

    niN

    , dalla4.2segue:

    Ii= i = N piN p (x0) x, (7.50)

    Fi= pip (x0) x (7.51)

    dove x la larghezza del canale dellistogramma e x0 un punto interno ad esso.Il numero di eventi Iicaduti in un generico canale segue la distribuzione binomiale4.3:

    se il fenomeno stocastico stazionario nel tempo, la probabilitpi di caderenel canale resta costante;

    la probabilit di cadere nel canale non dipende dagli eventi che sono caduti oche cadranno negli altri canali.

    La probabilit perci:

    P{Ii = ni}= b (ni; N, pi) = N!

    ni! (N ni)!pnii (1 pi)

    N

    ni

    . (7.52)

    La deviazione standard:i =

    N pi(1 pi). (7.53)

    Questa quantit pu essere stimata attraverso lincertezza sis (ni): Se il canale ha pi di 5, 10 elementi:

    si =

    ni

    1 ni

    N

    (7.54)

    42

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    43/59

    Se listogramma normalizzato:

    s

    ni

    N=

    fi(1 fi)

    N (7.55)

    Se listogramma non ottenuto con numero totale Ndi eventi costante ma raccolto controllando altri parametri: il numeroNsi trasforma da costantea variabile statistica N poissoniana e le fluttuazioni del contenuto dei canalivanno calcolate in modo diverso.In base alla legge delle probabilit composte10.3la probabilit di osservare Neventi sar data dal prodotto della probabilit poissoniana 4.4 di ottenere untotale{N= N}di eventi quando la media e dalla probabilit binomiale4.3di avere ni eventi nel canale in esame, su un totale di N, quando la probabilitvera pi:

    P{Ii = ni, N= N}= N!ni! (N ni)!pni

    i (1 pi)Nni e

    N

    N! .

    Definendomi = N ni:

    p {ni, mi}= epi(pi)ni

    ni!

    e(1pi)[ (1 pi)]mimi!

    ,

    prodotto di due poissoniane di media pi e (1 pi)rispettivamente. Si haquindi la varianza:

    sni

    N= fi

    N. (7.56)

    La stima del numero di eventi veri i (valori attesi) nel canale i-esimo datodalla7.50e lintervallo di confidenza :

    Per istogrammi raccolti con numero di eventi Ndeterminato:

    ini

    ni

    1 ni

    N

    .. (7.57)

    Per istogrammi normalizzati:

    pififi(1 fi)N , fi niN. (7.58) Per istogrammi in cui il numero totale di eventi N una variabile poissoniana

    ini ni. (7.59)

    Per istogrammi normalizzati:

    pifi

    fi

    N. (7.60)

    43

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    44/59

    7.14 Verifica di compatibilit tra campione e popolazio-

    ne

    Oltre a poter valutare ad occhio si pu utilizzare il test 2. Bisogna conoscere

    (o assumere come ipotesi nulla) le probabilit vere pi di ogni canale ed eseguire sututti i Kcanali:

    2 =Ki=1

    (ni i)2i

    =Ki=1

    (ni N pi)2N pi

    . (7.61)

    Se il numero totale N di eventi variabile e si somma sui canali con pi di 5,10 eventi: la7.61risulta essere approssimativamente la somma del quadrato diKvariabili gaussiane standard indipendenti e pertanto in base al teorema diPearson10.7, essa si distribuisce approssimativamente come la densit 2 4.7con Kgradi di libert.

    Se il numero totale Ndi eventi costante: le variabili della7.61sono correlatema hanno una densit 2 4.7con (K 1)gradi di libert.

    Occorre sempre sommare il quadrato delle differenze tra le frequenze osservate equelle vere e dividere per le frequenze vere, avendo cura di ricordarsi che i gradi dilibert sono pari al numero di canali se N una variabile poissoniana, mentre vannodiminiuti di ununit se N costante.

    La densit 2 asimmetrica.

    Test a una coda (coda destra): livello di significarivit:

    SL = PQR()2R() (7.62)

    Test a due code: livelli di significativit

    SL = 2P

    QR()> 2R()

    se P

    QR()>

    2R()

    < 0.5 (7.63)

    SL = 2P

    QR()< 2R()

    se P

    QR()>

    2R()

    > 0.5 (7.64)

    Quando PQR()> 2R() < 0.01 il valore di 2 ridotto trovato si situanella coda a destra e risulta troppo alto: altamente probabile che la densitdella popolazione assunta come modello non sia quella vera.

    Quando PQR()> 2R() > 0.99 il valore di 2 ridotto trovato troppoalto.

    Spesso il 2 di un istogramma viene calcolato dividendo le frequenze misurateinvece che per quelle vere:

    2 =Ki=1

    (ni N pi)2ni

    . (7.65)

    44

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    45/59

    Capitolo 8

    Statistica multidimensionale

    8.1 Densit congiunta

    Definendo la probabilit composta P(AB)P{x1Xx2, y1Xy2}, seesiste una funzione p(x, y)0 tale che:

    P{x1Xx2, y1Yy2}= x2x1

    y2y1

    p (x, y) dxdy

    si dice che essa la densit congiunta di probabilit per due variabili.Se p(x, y)soddisfa questequazione, la probabilit che (X, Y)A data da:

    P

    {(X, Y)

    A

    }=

    A

    p (x, y) dxdy (8.1)

    analogo del livello di probabilit P{aXb}= ba

    p (x) dx. normalizzata; hamedia:

    X= x Y= y (8.2)

    e varianza:

    Var [X] =2x Var [Y] =2y . (8.3)

    Se X e Y sono stocasticamente indipendenti, si definisce la densit congiuntacome:

    p (x, y) =pX(x)pY (y) . (8.4)

    Media e varianza di combinazioni di variabili:

    XY= xy Var [XY] =

    (xy xy)2p(x, y)dxdy (8.5)

    X+ Y= x+y Var [X+ Y] =

    (x + y x+y)2p(x, y)dxdy (8.6)

    45

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    46/59

    8.2 Densit marginale

    Se X e Ysono due variabili aleatorie con densit p(x, y) ed A un intervallodellasse reale, la densit marginale pX(x) definita dalla relazione:

    P{XA}=A

    pX(x)dx=

    A

    dx

    +

    p(x, y)dy (8.7)

    da cui:

    pX(x) =

    +

    p(x, y)dy. (8.8)

    La densit marginale pY(y)si ottiente dallequazione8.8, scambiando xcon y.Sono normalizzate.

    8.3 Indipendenza di variabili

    Due variabili aleatorie (X, Y)di densit congiunta p(x, y), sono stocasticamenteindipendenti se e solo se esistono due funzioni g(x)e h(x)tali che per ogni x, y R,si abbia:

    p (x, y) =g (x) h (y) . (8.9)

    8.4 Densit condizionata

    Se Xe Ysono due variabili aleatorie con densit p(x, y), la densit condizionatap (y|x0)di yper ogni x = x0 fissato e tale che pX(x0)> 0, data da:

    p (y|x0) = p (x0, y)pX(x0)

    = p (x0, y)+ p (x0, y) dy

    . (8.10)

    normalizzata.

    8.5 Covarianza di due variabili

    La covarianza di due variabili Xe Y definita come:

    Cov [X, Y] =

    (x x) (y y)p (x, y) dxdyxy. (8.11)

    Quando la covarianza calcolata attraverso la funzione di densit, la sommatoria doppia e va fatto sulle probabilit delle coppie dei valori possibili delle due variabili;quando la covarianza calcolata da un insieme sperimentale di dati, la somma singola e va fatta su tutte le coppie ottenute nel campionamento.

    Esiste uninteressante relazione:

    Cov [X, Y] =(X x) (Y y)=XY xy.

    La covarianza di due variabili gode della propriet di annullarsi quando le variabilisono indipendenti1.3.1.

    46

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    47/59

    8.6 Correlazione tra variabili

    Viene definito come coefficiente di correlazione il rapporto tra la covarianza e levarianze delle variabili aleatorie a cui si riferisce la covarianza:

    xy [X, Y] = Cov [X, Y] [X] [Y]

    (8.12)

    Gode della propriet:1xy1.Due variabile aleatorie si dicono incorrelate quando il loro coefficiente di correlazio-

    ne nullo, si docono correlato in caso contrario. Se due variabili sono statisticamenteindipendenti, allora sono anche incorrelate.

    - Condizione sufficiente perch vi sia dipendenza statistica la presenza dicorrelazione;

    - condizione necessaria per lindipendenza statistica la mancanza di correlazione

    (xy = 0).

    8.7 Densit normali condizionate

    Rielaborando la4.30, notando che del tipo della 4.20si ottiene:

    g (y|x) = 1y

    2 (1 2) exp

    y y yx (x x)

    222y(1 2)

    . (8.13)

    Ha media:(Y|x) =x+ y

    x(x x)

    e varianza:V ar [Y|x] =2x

    1 2 .

    La media di Ycondizionata ad x si dispone, nel piano (x, y)ed al variare di x, lungouna retta, detta di regressione. Tra le medie condizionate della gaussiana bivariataesiste un legame di regressione lineare. La varianza di Ysi mantiene costante edipende dax solo attraverso il coefficiente di correlazione.

    La varianza condizionata misura la dispersione dei dati intorno alla retta diregressione ed sempredi quella proiettata 2y .

    47

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    48/59

    Capitolo 9

    Analisi dei dati sperimentali

    9.1 Misure indirette e propagazione degli errori

    Una grandezza si dice misurata in modo indiretto quando una funzione z =f(x , y , w , . . . )di una o pi grandezze misurate direttamente e affette da incertezza.La determinazione dellincertezza su z a partire da quella delle grandezze misurate sichiama propagazione degli errori.

    Errori statistici e misure indipendenti: la propagazione degli errori segue la6.28o la generalizzazione a n variabili2z T V Tcon Vla matrice simmetricadelle covarianze e Tla matrice delle derivate (indica la trasposta), sostituendoalle deviazioni standard, gli errori di misura sx e sy:

    s2f = dfdx

    2

    s2x+ dfdy

    2

    s2y; (9.1)

    conn misure si ha la legge di propagazione degli errori di misura, valida soloin approssimazione lineare:

    s2f =n

    i=1

    dfdxi

    2s2 (xi). (9.2)

    La stima della deviazione standard risultante definisce un intervallo di confi-denza gaussiano solo se tutte le variabili sono gaussiane.

    La propagazione lineare viene utilizzata anche per prodotti o rapporti

    dando luogo alla propagazione lineare degli errori percentuali. Si sommanole varianze percentuali o relative:

    Z=X1X2, Z= X1

    X2, Z=

    X2

    X1= s

    2z

    z2 =

    s21x21

    +s22x22

    . (9.3)

    Incertezze strumentali (errore sistematico) e misure correlate: si attribuiscespesso la densit uniforme4.9. La legge di propagazione degli errori di misura:

    f =

    f

    x

    x+

    f

    y

    y, (9.4)

    48

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    49/59

    che per n misure vale:

    f =n

    i=1

    f

    xi

    i. (9.5)

    Queste formule rappresentano la larghezza totale della deviazione standardquando la composizione delle misure lineare. Viene usato per una stima dellimite superiore dellerrore.

    Misure non correlate: bisogna applicare la propagazione dellerrore stati-stico9.1 al caso della densit uniforme9.4 la cui varianza vale

    2

    12. Perdue variabili vale:

    s2f = 1

    12

    f

    x

    22x+

    f

    y

    22y

    (9.6)

    e per n variabili:

    s2f = 1

    12

    ni=1

    f

    xi

    2

    2i . (9.7)

    Queste varianze non vanno mai associate alla densit gaussiana.

    Somma di due errori sistematici uguali: seguono la densit triangolare in[0, ]:

    p(x) =

    42

    x per 0x 242

    ( x) per 2 < x

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    50/59

    Riscrivendo e ricordando che E(x) =E(x)e che (x) = 0.5 + E(x)siha:

    p (t) =

    E

    t +

    2

    E

    t

    2

    . (9.11)

    Essa ha una deviazion standard:

    m =

    2 +

    2

    12. (9.12)

    9.1.1 Metodo bootstrap

    Si assumono come valori centrali e deviazioni standard i valori misurati ed i loroerrori.Si estraggono a cao delle variabili aleatorie, che vengono combinate come prescritto

    dalla misura per ottenere listogramma simulato delle grandezze finali (o istogrammi,nel caso di misure complesse)La forma dellistogramma fornisce unidea della densit di probabilit della grandezzamisurata.Gli errori di misura vengono ricavati direttamente come limite delle aree corrispon-denti, sullistogramma, ai livelli di confidenza assegnati.I valori centrali in genere coincidono o sono molto vicini, entro lerrore statistico, aivalori misurati e quindi non forniscono nuove informazioni.Per i valori centrali (le medie) risultanti dalla simulazione, va notato che se gliistogrammi provengono da densit asimmetriche, il valor medio simulato differisce dalvalore misurato. Bisogna ugualmente riferirisi al valore misurato e calcolare lerrore

    di misura centrandosi sempre su di esso.

    9.2 Riassunto

    Errori statistici: stimare le deviazioni standard dei campioni sperimentali edapplicare la 9.1. Se tutti gli errori di partenza sono gaussiani, il risultatofornisce la deviazione standard della densit gaussiana risultante e vale la legge3.

    Errori sistematici: la deviazione standard risultante quasi sempre definiscelivelli di confidenza approssimativamente gaussiani. Si applica la9.6.La9.4 definisce un errore massimo che non va combinato con altre grandezzeche rappresentano stime di deviazioni standard.

    Combinazione lineare di errori statistici e sistematici: si fa sempre in quadraturaattraverso la9.1,dove la varianza degli effetti strumentali va calcolata con la9.6. Non segue la legge 3. Spesso per in pratica si assumono livelli gaussiani.

    Errori grandi correlati o da combinarsi non linearmente: si ricorre al metodobootstrap9.1.1.

    50

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    51/59

    9.3 Definizione dei tipi di misura

    La notazione per il tipo di misura : M(grandezza, errori statistici, errori sistematici).

    M

    (0, ,

    0): misura di una grandezza costante con errori statistici. M(0, 0, ): misura di una grandezza costante con errori sistematici.

    M(f,, ): misura di una grandezza variabile con errori statistici e sistematici.

    9.3.1 M(0, 0,)

    Grandezza costante, errori sistematici. La misura non presenta fluttuazioni,misure ripetute forniscono tutte le stesso valore.Il risultato della misura va presentato nella forma x (x)2 con un CL = 100%:errore massimo.Agli errori sistematici si attribuisce una densit uniforme.Varianza:

    s2(x) =2(x)

    12 , (9.13)

    deviazione standard:

    s(x) =(x)

    2

    3. (9.14)

    9.3.2 M(0, , 0)

    Grandezza costante, errori statistici. Misure ripetute danno valori diversi (gene-ralmente si distribuiscono come una gaussiana).Il risultato della misura va presentato nella forma x = m s

    N con un C L= 68%se

    N >10: viene presentato cos quando sN . s

    Nrappresenta la precisione della

    misura globale.

    Se due misure hanno errori diverso si pu avere la stessa precisione finale se N1N2

    = s21s22

    .

    Se le xi misure provengono da esperimenti diversi, esse avranno precisioni sidifferenti e perci bisogna usare la media pesata

    ki=1 xipiki=1pi

    1ki=1pi

    (9.15)

    con pi = ni2i

    e ni = 1. Si considera quindi una funzione di verosimiglianza

    prodotto di Nmisure gaussiane.Con lapprossimazione sii si ha la probabilit di ottenere il risultato osser-vato secondo la verosimiglianza L (, x)=

    ni=1

    1

    i()2

    exp (xii())2

    22i()

    :

    L (, x) =n

    i=1

    1

    si

    2exp

    (xi )

    2

    2s2i

    . (9.16)

    51

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    52/59

    9.3.3 M(0, ,)

    Grandezza costante, errori statistici, errori sistematici. Misure ripetute fornisconovalori diversi, campione dei dati presentato in forma di istogramma. Non ha sensoscegliere il passo dellistogramma inferiore allerrore sistematico . In questa classerientrano le misure9.3.2quando i dati sono riportato in un istogramma di passo .Dopo aver calcolato m ed sdi un campione di Nmisure, si calcola la varianza delcampione osservato, dovuta agli errori statistici e agli errori sistematici:

    s2 =s2 (stat) +2 (syst)

    12 . (9.17)

    Da questo si ricava la correzione di Sheppard:

    s2 (stat) =s2 2 (syst)

    12 . (9.18)

    D buoni risultati nel caso di misure9.3.2istogrammate con passo .Il risultato della misura va presentato nella forma x = m sN(stat) 2 (syst).Per lintervallo di confidenza si utilizza:

    Errore massimo globale:

    x= m

    3 s

    N+

    2

    (9.19)

    Densit uniforme:x= m

    s2

    N +

    2

    12. (9.20)

    9.3.4 M(f, 0, 0)

    Grandezza variabile. Scopo della misura quello di determinare la distribuzioneche determina il fenomeno. A questa classe appartengono tutti i fenomeni stocastici,gli esperimenti di conteggio e i metodi per determinare medie, varianze e formefunzionali.Nel conteggio di Ns+b(s: sorgente, b: fondo) eventi da una sorgente entro un tempots si deve prima trovare lerrore poissoniano dei conteggi originali e poi si devemoltiplicare per la costante ts

    tb. Il rapporto segnale/fondo :

    n =Ns+b Nb tstb

    Ns+b+ Nbt2st2b

    . (9.21)

    Con n3 si parla di forte evidenza; con n >5 si ritiene avvenuta la scoperta.

    9.3.5 M(f,, 0)

    Grandezza variabile, errori statistici, errori sistematici. Le fluttuazioni dei valoriassunti dalloggetto fisico si combinano con le fluttuazioni dovute alla misura.Bisogna prima di tutto misurare la risposta dellapparato, cio la funzione dellappa-rato1.32.

    52

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    53/59

    Se pZ(z)f(x)e pX(x)f(x), Ze Xsono indipendenti e quindi vale:

    g (y) =

    pZ

    h1 (y, x)

    f(x)

    h1

    y dx (9.22)

    e quindi la funzione dellapparato :

    pZ

    h1 (y, x)

    f(x) h1

    y (y, x) . (9.23)

    In base alle leggi della probabilit composte e totali, le tre funzioni f(x)(fisica),g(y)(osservazione) e (y, x)(apparato) sono legate dalla relazione chiamata integraledi folding:

    g (y) =

    f(x) (x) dxf+ . (9.24)

    La probabilit di osservare un valore y data dalla probabilit che la variabile fisicaassuma un valore x, per la probabilit che lo strumento, in presenza di un valore x,fornisca un valore y. Queste probabilit vanno integrate su tutti i valori veri x dellospettro che possono avere y come valore osservato.

    Se la risposta dellapparato lineare y = z + x, z = y x, h1y = 1:

    g (y) =

    f(x) (y x) dx (9.25)

    Si ha:s2 (x) =s2 (y) s2 (d) ; (9.26)

    m (x) =m (y)

    m (d) ; (9.27)

    = m(x) s (x)N

    ; (9.28)

    s (x) s (x)2N

    . (9.29)

    9.3.6 M(f, 0,)

    Grandezza variabile, errori statistici, errori sistematici. Le fluttuazioni dei valoriassunti dalloggetto fisico si combinano con le incertezze dovute alla misura.

    Bisogna prima di tutto misurare la risposta dellapparato, cio la funzione dellappa-rato1.32.

    Se pZ(z)f(x)e pX(x)f(x), Ze Xsono indipendenti e quindi vale:

    g (y) =

    pZ

    h1 (y, x)

    f(x)

    h1

    y dx

    e quindi la funzione dellapparato :

    pZ

    h1 (y, x)

    f(x) h1

    y (y, x) .

    53

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    54/59

    In base alle leggi della probabilit composte e totali, le tre funzioni f(x)(fisica),g(y)(osservazione) e (y, x)(apparato) sono legate dalla relazione chiamata integraledi folding:

    g (y) = f(x) (x) dxf+ .

    La probabilit di osservare un valore y data dalla probabilit che la variabile fisicaassuma un valore x, per la probabilit che lo strumento, in presenza di un valore x,fornisca un valore y . Queste probabilit vanno integrate su tutti i valori veri xdellospettro che possono avere ycome valore osservato.

    Se la risposta dellapparato lineare y = z + x, z= y x, h1y = 1:

    g (y) =

    f(x) (y x) dx

    Si ha:

    s2 (x) =s2 (y) 2

    12; (9.30)

    m (x) =m (y) m (d) ; (9.31)

    = m (x) s (x)N

    2

    ; (9.32)

    s (x) s (x)2N

    . (9.33)

    9.3.7 M(f,,)

    Grandezza variabile, errori statistici, errori sistematici. Le fluttuazioni dei valoriassunti dalloggetto fisico si combinano con le fluttuazioni e le incertezze dovute allamisura.Bisogna prima di tutto misurare la risposta dellapparato, cio la funzione dellappa-rato1.32.

    Se pZ(z)f(x)e pX(x)f(x), Ze Xsono indipendenti e quindi vale:

    g (y) = pZh1 (y, x) f(x)

    h1

    y dx

    e quindi la funzione dellapparato :

    pZ

    h1 (y, x)

    f(x)h1

    y (y, x) .

    In base alle leggi della probabilit composte e totali, le tre funzioni f(x)(fisica),g(y)(osservazione) e (y, x)(apparato) sono legate dalla relazione chiamata integraledi folding:

    g (y) =

    f(x) (x) dxf+ .

    54

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    55/59

    La probabilit di osservare un valore y data dalla probabilit che la variabile fisicaassuma un valore x, per la probabilit che lo strumento, in presenza di un valore x,fornisca un valore y. Queste probabilit vanno integrate su tutti i valori veri x dellospettro che possono avere y come valore osservato.

    Se la risposta dellapparato lineare y = z + x, z = y x, h1y

    = 1:

    g (y) =

    f(x) (y x) dx

    Si ha:

    s2 (x) =s2 (y) s2 (d) 2

    12; (9.34)

    m (x) =m (y) m (d) ; (9.35)

    = m (x) s (x)N

    2

    ; (9.36)

    s (x) s (x)2N

    . (9.37)

    55

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    56/59

    Capitolo 10

    Teoremi

    10.1 Teorema di additivit

    La probabilit dellevento dato dal verificarsi degli eventi elementari A oppure B,nel caso generale in cui A B= data da:

    P(A B) =P(A) + P(B) P(A B). (10.1)

    10.2 Teorema del prodotto

    Per le probabilit classica e frequentista, la probabilit che si verifichi leventocostituito dalla realizzazione degli eventi elementari A e B data da:

    P(A B) =P(A|B)P(B) =P(B|A)P(A). (10.2)

    10.3 Teorema di Bayes

    Se gli elementi soddisfano an

    i=1 Bi = S, Bi Bk =peri, k, la probabilitcondizionataP(Bk|A)si pu scrivere come:

    P(Bk|A) = P(A|Bk)P(Bk)

    ni=1 P(A|Bi)P(Bi)

    P(A)> 0. (10.3)

    Formula delle probabilit totali

    P(A) =n

    i=1

    P(A|Bi)P(Bi). (10.4)

    10.4 Legge 3-

    Se X una variabile gaussiana di mediaX = e di deviazione standard [X]= , la probabilit di ottenere un valore x compreso in un intervallo centrato

    56

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    57/59

    sulla media e di ampiezza di circa il 68%, con2 di circa il 95%, con3 di circa il 99%:

    P

    {|X

    | +k

    } 1

    2 +k

    kexp

    1

    2x

    2

    dx= 0.682, per k=1

    0.954, per k=2

    0.997, per k=3

    .

    (10.5)

    10.4.1 Disuguaglianza di Tchebychev

    Negli intervalli centrati sulla media e ampi 2e 3sono compresi rispettivamentealmeno il 75%e il 90%della probabilit totale:

    P{|X | +K} +KK

    p(x)dx1 1K2

    =

    0, per K=1

    0.75, per K=2

    0.89, per K=3

    . (10.6)

    Questa legge una legge 3-generalizzata.

    10.5 Teorema Limite Centrale

    Sia Y una variabile aleatoria 1.1 lineare di N variabili aleatorie Xi: YN =Ni=1 aiXi dove gli ai somo coefficienti costanti. Se:

    a) le variabili Xi sono tra loro indipendenti (1.1.1);

    b) le variabili Xi hanno varianza2.2 finita;

    c) le varianze (o deviazioni standard) sono tutte dello stesso ordine di grandezza;

    allora, per N , la variabile aleatoria YNconverge in legge, secondo la3.3,versola distribuzione gaussiana.

    10.6 Teorema dellindipendenza stocastica

    Condizione necessaria e sufficiente perch un processo sia stazionario di Poisson che gli intertempi siano indipendenti (tempi tra gli arrivi: variabili aleatorieindipendenti1.3.1) ed abbiano legge esponenziale negativa4.5, con equazione4.14.

    10.7 Teorema di Pearson

    La somma dei quadrati di variabili gaussiane indipendenti1.3.1 una variabilealeatoria che ha densit 2 4.34con gradi di libert, detta 2().

    10.8 Additivit della variabile 2

    Siano Q1 e Q2 due variabili aleatorie indipendenti1.3.1. Se esse hanno densit2 con 1 e 2 gradi di libert rispettivamente, la variabile Q = Q1+ Q2 ha unadensit2()con = 1+ 2 gradi di libert: Q2 (1+ 2).Inoltre, se Q2 ()e Q12 (1), allora Q22 ( 1).

    57

  • 7/27/2019 Appunti di Statistica (Misure Fisiche 2)

    58/59

    10.9 Teorema delle variabili aleatore comulative

    Se X una variabile aleatoria 1.1 avente densit p(x) continua, la variabilealeatoria comulativa C:

    C(X) = Xp (x) dx (10.7)

    uniforme in [0, 1], cio CU(0, 1).

    10.10 Teorema di Cauchy-Schwarz

    Se le variabili X e Yhanno varianze finite, vale la disuguaglianza:

    |Cov [X, Y]| [X] [Y] . (10.8)

    10.11 Teorema di indipendenza di variabili gaussianeCondizione necessaria e sufficiente affinch due variabili aleatorie congiuntamente

    gaussiane (normali) siano indipendenti, che il loro coefficiente di correlazione8.12lineare sia nullo.

    Lesistenza di una covarianza nulla (che implica = 0) tra variabili gaussianeassicura la indipendenza statistica e quindi lassenza di un legame causa-effetto tradi esse.

    10.12 Teorema del cambiamento di variabile in funzioni

    densit

    Siano X(X1, . . . , X n) n variabili casuali con densit congiunta pX{x}e sianoZ(Z1, . . . , Z n nvariabili legate alle Xdalle nrelazioni fondamentaliZ1= f1(X) . . . Z n = fn(X), le quali siano tutte invertibili e derivabil