of 118 /118
1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione aleatoria DICCA Università di Genova Versione: 1.12 04.10.2013 Luigi Carassale

DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

Embed Size (px)

Text of DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria...

1

Dispense del corso

DINAMICA DELLE STRUTTURE II

Teoria della probabilit e dei processi aleatori

Dinamica delle strutture con eccitazione aleatoria

DICCA Universit di Genova

Versione: 1.12

04.10.2013 Luigi Carassale

2

Sommario 1 Introduzione ................................................................................................................................. 6

2 Teoria della Probabilit ................................................................................................................ 7

2.1 Eventi e spazio campionario .................................................................................................. 7

2.2 Probabilit ............................................................................................................................. 8

2.2.1 Definizione classica (eventi equiprobabili, Laplace, 1812) ........................................... 8

2.2.2 Definizione empirica (frequentista, Von Mises 1920) ................................................... 9

2.2.3 Definizione assiomatica (Kolmogorov 1933) .............................................................. 10

2.3 Teoremi classici della probabilit........................................................................................ 11

2.3.1 Teorema dellevento complementare ........................................................................... 11

2.3.2 Teorema dellevento totale ........................................................................................... 12

2.4 Probabilit condizionata e composta ................................................................................... 13

3 Variabili Aleatorie...................................................................................................................... 16

3.1 Definizione .......................................................................................................................... 16

3.2 Distribuzione di probabilit ................................................................................................. 16

3.3 Funzione di probabilit (di una variabile aleatoria discreta) ............................................... 18

3.4 Densit di probabilit (di una variabile aleatoria continua) ................................................ 20

3.5 Valore atteso ........................................................................................................................ 24

3.6 Momenti statistici di una variabile aleatoria ....................................................................... 25

3.7 Funzione caratteristica di una variabile aleatoria continua* ................................................ 28

3.8 Cumulanti* ........................................................................................................................... 28

3.9 Entropia* .............................................................................................................................. 29

3.10 Trasformazioni lineari di variabili aleatorie .................................................................... 30

3.11 Trasformazioni non-lineari di variabili aleatorie* ............................................................ 31

3.12 Modelli di variabili aleatorie ........................................................................................... 32

3.12.1 Distribuzione normale (o Gaussiana) ........................................................................... 33

3.12.2 Distribuzione uniforme ................................................................................................ 34

3.12.3 Modello log-normale.................................................................................................... 34

3.12.4 Modello di Rayleigh..................................................................................................... 35

3.12.5 Modello di Gumbel ...................................................................................................... 36

3

3.12.6 Modello di binomiale ................................................................................................... 37

3.12.7 Modello di Poisson....................................................................................................... 39

3.13 Rappresentazioni approssimate della densit di probabilit* ........................................... 40

3.13.1 Espansione in serie di funzioni ortogonali* .................................................................. 40

3.13.2 Principio di massima entropia* .................................................................................... 42

3.13.3 Trasformazione non-lineare di variabili Gaussiane* .................................................... 43

3.14 Rappresentazione della relazione probabilistica fra due grandezze ................................ 46

3.14.1 Distribuzione congiunta di probabilit ......................................................................... 46

3.14.2 Densit congiunta di probabilit .................................................................................. 46

3.14.3 Variabili aleatorie statisticamente indipendenti ........................................................... 48

3.14.4 Valore atteso di funzioni di due variabili aleatorie ...................................................... 49

3.14.5 Somma di variabili aleatorie ........................................................................................ 49

3.14.6 Correlazione e covarianza ............................................................................................ 50

3.14.7 Modello normale bi-variato ......................................................................................... 52

3.14.8 Distribuzione condizionata di probabilit di una variabile aleatoria* .......................... 52

3.15 Propriet delle variabili aleatorie Gaussiane ................................................................... 54

3.15.1 Indipendenza statistica di variabili non-correlate ........................................................ 54

3.15.2 Linearit dello spazio delle variabili Gaussiane .......................................................... 54

3.15.3 Teorema del limite centrale* ........................................................................................ 55

3.15.4 Simmetria polare delle variabili Gaussiane* ................................................................ 56

3.15.5 Variabili Gaussiane e cumulanti* ................................................................................. 57

3.15.6 Variabili Gaussiane e massima entropia* ..................................................................... 57

3.16 Variabili aleatorie a valori complessi .............................................................................. 58

4 Affidabilit di strutture descritte da una singola variabile aleatoria .......................................... 60

4.1 Asta soggetta a carico aleatorio ........................................................................................... 60

4.2 Risposta dinamica di una struttura aleatoria soggetta a forzante armonica ........................ 60

5 Vettori Aleatori .......................................................................................................................... 63

5.1 Definizione .......................................................................................................................... 63

5.2 Momenti statistici ................................................................................................................ 64

5.3 Modello normale (Gaussiano) ............................................................................................. 64

4

5.4 Grandezze statistiche di ordine superiore al secondo* ........................................................ 65

5.5 Entropia ed informazione mutua* ........................................................................................ 66

5.6 Rappresentazione di vettori aleatori .................................................................................... 66

5.6.1 Analisi a componenti principali (PCA) ........................................................................ 66

5.7 Simulazione di vettori Gaussiani ......................................................................................... 68

6 Processi aleatori ......................................................................................................................... 69

6.1 Definizioni ........................................................................................................................... 69

6.1.1 Medie statistiche del primo ordine ............................................................................... 70

6.1.2 Medie statistiche del secondo ordine ........................................................................... 70

6.2 Processi aleatori stazionari .................................................................................................. 71

6.2.1 Medie temporali di una funzione campione ................................................................. 74

6.2.2 Processi aleatori ergodici ............................................................................................. 75

6.2.3 Rappresentazione nel dominio della frequenza di processi stazionari ......................... 75

6.3 Rappresentazione congiunta di una coppia di processi aleatori .......................................... 79

6.3.1 Medie statistiche congiunte del secondo ordine .......................................................... 79

6.3.2 Densit di Potenza spettrale incrociata ........................................................................ 80

6.3.3 Funzione di coerenza ................................................................................................... 81

6.4 Trasformazioni lineari di processi stazionari ...................................................................... 81

6.4.1 Derivazione di processi stazionari ............................................................................... 84

6.5 Momenti spettrali ................................................................................................................ 85

6.6 Modelli di processi stazionari .............................................................................................. 87

6.6.1 Processo armonico ....................................................................................................... 87

6.6.2 Processo a banda stretta ............................................................................................... 88

6.6.3 Processo a banda estesa................................................................................................ 89

6.6.4 Rumore bianco ............................................................................................................. 90

6.7 Analisi statistica di processi aleatori stazionari ................................................................... 91

6.7.1 Stima della funzione densit di potenza spettrale di un processo stazionario ............. 93

6.8 Simulazione di processi aleatori .......................................................................................... 95

6.8.1 Metodo della rappresentazione spettrale ...................................................................... 95

7 Risposta stazionaria di strutture lineari a un grado di libert ..................................................... 98

5

7.1 Modelli di azioni ambientali stazionarie ........................................................................... 102

7.1.1 Velocit del vento ...................................................................................................... 102

7.1.2 Accelerazione sismica ................................................................................................ 103

7.1.3 Onde marine ............................................................................................................... 104

7.2 Soluzioni analitiche per la risposta stazionaria di un oscillatore semplice* ...................... 105

7.2.1 Rumore bianco filtrato* .............................................................................................. 105

7.2.2 Processo a banda stretta ideale* ................................................................................. 106

7.2.3 Rumore bianco ideale* ............................................................................................... 107

7.2.4 Densit di potenza spettrale regolare e struttura debolmente smorzata* .................... 107

7.2.5 Densit di potenza spettrale decrescente e struttura debolmente smorzata* .............. 108

7.3 Analisi della risposta massima di una struttura lineare soggetta a forzante stazionaria.... 108

7.3.1 Attraversamento di una soglia deterministica di un processo stazionario ................. 109

7.3.2 Distribuzione di probabilit del massimo (superamenti di soglia indipendenti) ....... 112

8 Processi aleatori multi-variati .................................................................................................. 114

8.1 Rappresentazione congiunta di una coppia di processi aleatori multi-variati ................... 116

8.2 Trasformazioni lineari di processi stazionari multi-variati ............................................... 118

Equation Chapter (Next) Section 1

6

1 Introduzione La teoria della probabilit un formidabile strumento matematico adatto allo studio qualitativo e

quantitativo di innumerevoli problemi ingegneristici. Essa coinvolge la rappresentazione rigorosa e

la manipolazione razionale dellaleatoriet, la quale un ingrediente essenziale del mondo fisico

che osserviamo, cos come delle sue idealizzazioni matematiche. Seguendo un approccio di tipo

realista che predilige lelaborazione di descrizioni capaci di rappresentare parti specificate del

mondo fisico rispetto alla ricerca di supposte leggi di natura, il concetto di aleatoriet esteso oltre

il suo naturale alveo degli eventi a esito puramente casuale includendo, in modo pragmatico, le

incertezze determinate da una parziale conoscenza della realt o dalla parziale adeguatezza delle

leggi impiegate per descriverla. Procedendo lungo questa generalizzazione, il formalismo della

teoria della probabilit impiegato per trattare razionalmente opinioni soggettive o per analizzare la

sensibilit di sistemi puramente deterministici rispetto ai parametri di modello.

Le presenti dispense si prefiggono lobiettivo di fornire gli strumenti matematici necessari per lo

studio qualitativo e quantitativo del comportamento di sistemi dinamici eccitati da forzanti di natura

aleatoria. Gli argomenti trattati comprendono lo studio delle variabili aleatorie a valori scalari e

vettoriali e i processi aleatori mono-variati e multi-variati. Particolare enfasi rivolta al caso dei

processi aleatori stazionari, alle loro trasformazioni lineari e propriet di estremo. Tutti gli

argomenti sono trattati in modo sostanzialmente generale, ma gli esempi richiamano applicazioni

tipiche dellingegneria civile, con particolare attenzione per i concetti e gli strumenti utilizzati in

ingegneria del vento.

Tutte le grandezze matematiche trattate sono sistematicamente presentate attraverso tre passi

concettuali: (1) definizione, prima qualitativa e poi matematica/formale; (2) stima a partire da una

popolazione di dati disponibili; (3) simulazione di dati compatibili con una grandezza assegnata.

Alcuni argomenti specialistici legati essenzialmente alla rappresentazione e analisi delle propriet

non-Gaussiane di variabili aleatorie sono stati introdotti in occasione del corso di dottorato Analisi

qualitativa di fenomeni aleatori svolto nel 2011. Questi sono identificati mediante un asterisco alla

fine del titolo e la loro lettura raccomandata come approfondimento per gli studenti interessati.

La trattazione qui esposta si basa largamente sullimpostazione che il Corso di Dinamica delle

strutture svolto allUniversit di Genova ha ricevuto alla fine degli anni 90 per mano del prof.

Giovanni Solari. Una parte significativa dei contenuti qui riportati sono tratti dagli appunti dei suoi

corsi. Malgrado questa impostazione consolidata queste dispense rimangono scritte di getto e non

pretendono di sostituire gli ottimi libri di testo disponibili. Il loro obiettivo viceversa

complementare, nel fornire una guida allo studente per affrontare lesplorazione di una materia

eccezionalmente vasta con la visione pragmatica dellingegnere.

Lunico aspetto deterministico inerente questo testo la presenza di errori (ma il loro numero e

localizzazione sono aleatori). Sar grato a chi vorr segnalarmi errori o suggerirmi miglioramenti.

La revisione di ampie parti di testo e la realizzazione di numerose figure dovuta a Michela Marr

Brunenghi. Per questo prezioso (e faticoso) lavoro le sono molto grato.

Equation Chapter (Next) Section 1

7

2 Teoria della Probabilit Il concetto di probabilit, utilizzato a partire dal '600, diventato con il passare del tempo la base di

diverse discipline scientifiche. I primi studi che portarono successivamente a concetti legati alla

probabilit possono essere trovati a met del XVI secolo in Liber de ludo ale di Girolamo Cardano

(scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi

di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spieg il motivo per cui, lanciando

tre dadi, il 10 sia pi probabile del 9 nonostante che entrambi i risultati si ottengano da un uguale

numero di combinazioni.1

La nascita del concetto moderno di probabilit viene attribuita a Blaise Pascal (1623-1662) e Pierre

de Fermat (1601-1665).2 Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de

ratiociniis in ludo ale, il primo trattato sul calcolo delle probabilit, nel quale introduceva il

concetto di valore atteso. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli,

dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri.

Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre

Simon Laplace (1749-1827), del Teorema del limite centrale. La teoria della probabilit raggiunse

cos basi matematicamente solide e, con esse, il rango di nuova disciplina.

2.1 Eventi e spazio campionario In teoria della probabilit si considera un fenomeno osservabile esclusivamente dal punto di vista

della possibilit o meno del suo verificarsi, prescindendo dalla sua natura. Un ruolo centrale in

questo contesto svolto dal concetto di evento.

Si consideri una singola osservazione o misura di un fenomeno (es. la tensione di snervamento in un

provino metallico soggetto alla prova di trazione, il numero di studenti in un aula, la velocit del

vento in un determinato luogo e in un dato istante). Se il fenomeno in esame deterministico, il

risultato dellosservazione (o dellesperimento) pu essere predetto con esattezza. Se il fenomeno

aleatorio, il risultato dellosservazione non noto a priori; tuttavia possibile identificare un

insieme , che contiene tutti i possibili risultati dellesperimento. Linsieme chiamato spazio

campionario; gli elementi di sono detti punti campionari.

Si definisce evento, E, un insieme di punti campionari (e quindi di risultati possibili

dellosservazione). Lo spazio campionario contiene tutti i possibili punti campionari, quindi gli

eventi sono sottoinsiemi dello spazio campionario. Si definisce evento elementare levento che

contiene un solo punto campionario; evento certo, quello che contiene tutti i punti campionari (cio

coincide con lo spazio campionario); evento impossibile, quello che non contiene punti campionari.

Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con

AB la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con AB la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B. Se AB = i due eventi A e B vengono detti mutuamente esclusivi o incompatibili

1 Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni

(1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4). Tuttavia, mentre una combinazione di tre numeri uguali pu presentarsi

in un solo modo, una con due numeri uguali pu presentarsi in tre modi diversi, una con tre numeri diversi in sei modi

diversi. Si pu quindi ottenere il 10 in 27 modi (6+6+3+6+3+3), il 9 in 25 modi (6+6+3+3+6+1).

2 Il Cavalier de Mr (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4

lanci di un dado era equivalente ad ottenere almeno un doppio 6 in 24 lanci. Tuttavia, visto che giocando secondo tale

convinzione invece di vincere perdeva, scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza

empirica. Da ci scatur una corrispondenza tra Pascal e Fermat in cui inizi a delinearsi il concetto di probabilit

nell'accezione frequentista.

8

(non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a , \A, detto

negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).

Esempio 2.1. Eventi.

Nel lancio di un dado, i possibili risultati sono i numeri 1, 2, 6. Ognuno un punto

campionario dello spazio campionario = {1, 2, 3, 4, 5, 6}. Si considerino i seguenti

eventi:

A = occorrenza di un numero pari = 2,4, 6;

B = occorrenza di un numero dispari = 1, 3, 5;

C = occorrenza del numero 2 = 2;

D = occorrenza del numero 7 = ;

E = AB = ; A e B sono eventi incompatibili;

C un evento elementare, D un evento impossibile, E levento certo.

2.2 Probabilit Esistono diverse definizioni di probabilit. Nel seguito si forniranno 3 definizioni che hanno rilievo

per la loro importanza storica o utilit pratica.

2.2.1 Definizione classica (eventi equiprobabili, Laplace, 1812) Secondo la prima definizione di probabilit, per questo detta classica, la probabilit P(A) di

occorrenza dellevento A definita come:

AN

P AN

(2.1)

dove N il numero di risultati possibili (assumendo che siano equiprobabili) e NA il numero di

risultati favorevoli allevento A.

Esempio 2.2. Definizione classica di probabilit

Lancio di una moneta = {T, C}; sia A:=T, allora P(A) = 1/2;

Lancio di un dado = {1, 2,,6}; sia A = {1, 2}, allora P(A) = 2/6 = 1/3;

Estrazione numero roulette: = {0, 1,,90}; sia A = estrazione numero dispari = {1,

3,,89}, allora P(A) = 45/91.

La definizione classica consente di calcolare effettivamente la probabilit in molte situazioni.

Inoltre, una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia

diversi aspetti negativi non irrilevanti:

si applica soltanto a fenomeni con risultati equiprobabili;

presuppone un numero finito di risultati possibili;

la definizione circolare perch utilizza la nozione di probabilit (eventi equiprobabili) per

definire la probabilit stessa.

9

2.2.2 Definizione empirica (frequentista, Von Mises 1920) Per superare tali difficolt, Richard von Mises (1883-1953) propose di definire la probabilit di un

evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli

esperimenti. Si consideri un esperimento che possa essere ripetuto un numero infinito di volte e si

assuma che un evento E si sia verificato un numero nE di volte durante lesecuzione di n

esperimenti. La probabilit di occorrenza dellevento E si definisce come il limite per n che tende a

infinito della sua frequenza relative nE/n:

lim En

nP E

n (2.2)

Esempio 2.3. Definizione frequentista di probabilit: convergenza alla definizione classica

Si simuli il lancio di un dado e si verifichi mediante la definizione (2.2) che levento A =

{1, 2} ha probabilit 1/3.

Il codice Matlab riportato in Figura 2-1 genera una successione di numeri casuali, x,

mediante il comando rand. I valori di x cos generati sono compresi nellintervallo chiuso

[2-53

, 1-2-53

]. A partire da x, il codice genera numeri interi, y, casuali equiprobabili compresi

fra 1 e 6.

La Figura 2-2 mostra i primi 10 risultati di una sequenza casuale. La Figura 2-3 mostra la

convergenza della probabilit calcolata mediante la definizione frequentista al valore

ottenuto dalla definizione classica (1/3). Si osserva che per avere una buona corrispondenza

fra i due valori sono necessari circa 104 esperimenti.

% Convergenza definizione frequentista probabilit

% Esempio: lancio di un dado

% n = numero esperimenti

% A = evento

% y = risultati esperimenti

% fA = elenco eventi favorevoli (1) e sfavorevoli (0)

% PA = probabilit di occorrenza evento A

n = 1e6;

x = rand(n,1);

y = round(6 * x + 0.5);

A = [1 2];

fA = zeros(n,1);

for k=1:n

fA(k) = sum(A==y(k));

end

PA = cumsum(fA) ./ (1:n)';

figure(1)

plot(1:10,y(1:10),'xr')

ylim([0 7])

grid on

xlabel('j')

ylabel('y_j')

figure(2)

semilogx(1:n,PA, 1:n, ones(n,1)*length(A)/6,'r--')

xlabel('n')

ylabel('n_E/n')

grid on

set(gca,'xMinorGrid','off')

Figura 2-1. Codice Matlab per verifica convergenza definizione frequentista di probabilit.

10

Figura 2-2. Lancio di un dado: punti campionari corrispondenti a 10 esperimenti.

Figura 2-3. Convergenza della frequenza relativa al valore della probabilit definita mediante

la (2.1).

La definizione frequentista, come quella classica, operativa, cio consente di calcolare

praticamente la probabilit di eventi in molte circostanze; inoltre, coerente con quanto fornito

dalla definizione classica nel caso di eventi equiprobabili. Tuttavia necessario osservare:

il "limite" delle frequenze relative non corrisponde all'analogo concetto matematico; ad esempio, data una successione {an}, si dice che a il suo limite se per ogni > 0 esiste un

numero naturale N tale che |an - a| < per ogni n > N, e, comunque dato , sempre

possibile calcolare N; nella definizione frequentista, invece, N non sempre calcolabile;

non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilit che vi sia vita su Marte o che tra 50 anni il tasso di natalit in Africa diventi la

met di quello attuale, ma in casi simili non possibile immaginare esperimenti ripetibili

all'infinito.

2.2.3 Definizione assiomatica (Kolmogorov 1933) L'impostazione assiomatica della probabilit venne proposta da Andrey Nikolaevich Kolmogorov

nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo

delle probabilit). Va notato che la definizione assiomatica non una definizione operativa e non

fornisce indicazioni su come calcolare la probabilit. Il nome deriva dal procedimento per

"assiomatizzazione" basato sull'individuare di concetti primitivi, da cui individuare i postulati e, per

via deduttiva, i teoremi.

1 2 3 4 5 6 7 8 9 100

1

2

3

4

5

6

7

j

yj

100

101

102

103

104

105

106

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

n

nE/n

11

L'impostazione assiomatica muove dal concetto di -algebra, o classe additiva. Dato un qualsiasi

esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto ,

detto spazio campionario, e ciascun evento un sottoinsieme di . La probabilit viene vista, in

prima approssimazione, come una misura, cio come una funzione che associa a ciascun

sottoinsieme di un numero reale non negativo tale che la somma delle probabilit di tutti gli

eventi sia pari a 1.

Si assuma che ogni evento nello spazio campionario sia associato a un numero reale P(E),

chiamato probabilit di E. Questo numero soddisfa le tre seguenti condizioni:

1. La probabilit un numero non-negativo: P(E) 0;

2. La probabilit dellevento certo unitaria: P() = 1;

3. Dati due eventi A e B definiti come mutuamente esclusivi, allora P(AB) = P(A) + P(B).

Si osservi che, come conseguenza degli assiomi precedenti, necessariamente, P(E) 1.

I tre assiomi introdotti da Kolmogorov sono coerenti con la definizione empirica fornita da Von

Mises e con la definizione classica enunciata da Laplace.

2.3 Teoremi classici della probabilit Dagli assiomi precedenti si ricavano i teoremi di seguito riportati.

2.3.1 Teorema dellevento complementare Si definisce evento complementare E

c = \E dellevento E, levento che comprende tutti i punti

campionari di non compresi in E (Figura 2-4).

Figura 2-4. Evento complementare.

Un evento E e il suo complementare Ec sono mutuamente esclusivi, cio la loro intersezione

fornisce levento vuoto, mentre la loro unione genera levento certo

0c

c

E E

E E

(2.3)

Applicando alla (2.3) lAssioma 3 si deduce:

1cP E P E (2.4)

In particolare, essendo c = , lapplicazione della (2.4) dimostra che levento vuoto ha probabilit

di occorrenza zero (P(0) = 0). La (2.4) e lassioma 1 dimostrano che P(E) 1.

E

Ec

12

Esempio 2.4. Probabilit dellevento complementare

Sia P = 10-6

la probabilit di collasso di una struttura in un anno. La probabilit che tale

struttura non collassi in un anno 1 P = 1 10-6

.

2.3.2 Teorema dellevento totale Il teorema della probabilit totale consente di calcolare la probabilit dell'unione di due, ovvero la

probabilit che si verifichi almeno uno di essi. Essa la somma delle probabilit dei singoli eventi

se sono mutuamente esclusivi; in caso contrario, alla somma va sottratta la probabilit

dellintersezione. Si consideri due eventi E1 e E2 in (Figura 2-5):

Figura 2-5. Evento totale.

Lunione degli eventi E1 e E2 pu essere scritta come:

1 2 1 2 2 1 1 2E E E E E E E E (2.5)

dove (E1 E2) contiene i punti campionari presenti in E1, ma non in E2 (E2 E1 definito

analogamente). I tre eventi rappresentati dagli insiemi del termine di destra della (2.5) sono

mutuamente esclusivi, quindi per lAssioma 3 risulta:

1 2 1 2 2 1 1 2P E E P E E P E E P E E (2.6)

Da Figura 2-5 risulta inoltre che 1 1 2 1 2E E E E E . La probabilit di occorrenza dellevento E1 E2 risulta pertanto:

1 2 1 1 2P E E P E P E E (2.7)

Sostituendo la (2.7) (e unespressione analoga per E2 E1) nella (2.6), la probabilit di occorrenza

dellevento totale E1 E2 risulta:

1 2 1 2 1 2P E E P E P E P E E (2.8)

Dalla (2.8) e dallassioma di positivit discende la condizione:

1 2 1 2P E E P E P E (2.9)

E1

E1E2

E2

13

Esempio 2.5. Probabilit dellevento totale.

Si consideri il lancio di un dado e si considerino i seguenti eventi:

1 21,2,3 ; 3,4 ; 1, ,6E E

Applicando la definizione (2.1) risulta:

1 2 1 21 2 1 3; 1 6P E P E P E E

Applicando il teorema dellevento totale risulta:

1 2 1 2 1 2 2 3P E E P E P E P E E

2.4 Probabilit condizionata e composta Si dice probabilit condizionata di A dato B, e si scrive P(A|B), la probabilit che l'evento A ha di

verificarsi quando si sappia che B si verificato.

| 0

P A BP A B P B

P B

(2.10)

La definizione di probabilit condizionata pu essere facilmente spiegata considerando il caso di

uno spazio campionario contenente N punti campionari equiprobabili . Sia NB il numero di

risultati favorevoli per levento B e NAB il numero di risultati favorevoli contemporaneamente per

gli eventi A e B (e quindi per levento A B). Sostituendo nella (2.10) la definizione classica di

probabilit (Eq. (2.1)):

| AB ABB B

N NNP A B

N N N (2.11)

La probabilit condizionata P(A|B) pu essere dunque interpretata come la probabilit di occorrenza

di A nello spazio campionario ridotto determinato da B (Figura 2-6).

Figura 2-6. Probabilit condizionata.

Esempio 2.6. Probabilit condizionata.

Si consideri il lancio simultaneo di due dadi. Si voglia determinare la probabilit di

occorrenza del numero 7 (evento A), dato che uno dei due dadi ha fornito il numero 1

(evento B). Lo spazio campionario contiene i 36 punti campionari equiprobabili:

(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6),

(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6),

(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6),

(4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6),

(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6),

(6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6).

A

B

14

Il numero di risultati favorevoli a A NA = 6, quindi P(A) = 1/6; il numero di risultati

favorevoli a B NB=11, quindi P(B) = 11/36; il numero di risultati favorevoli

simultaneamente ad A e B NAB = 2, quindi P(AB) = 1/18; il numero di risultati

favorevoli a A, dato che si verificato B sono 2 su 11 possibilit, quindi P(A|B)=2/11.

Attraverso il concetto di probabilit condizionata si perviene al teorema della probabilit composta,

che consente di calcolare la probabilit dell'intersezione di due o pi eventi, ovvero la probabilit

che essi si verifichino entrambi. Nel caso di due eventi, si ha

| |P A B P A B P B P B A P A (2.12)

Nel caso che la probabilit di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti

stocasticamente (o probabilisticamente, o statisticamente) indipendenti e dalla stessa definizione

segue una diversa formulazione della probabilit composta, caso particolare del precedente:

P A B P A P B (2.13)

Esempio 2.7. Eventi statisticamente indipendenti.

Si consideri i seguenti eventi legati al lancio di un dado:

1,2,3,4,5,6 ; 1,2 ; 1,3,5 ; 2,4,6A B C

2/6; 3/6; 3/6P A P B P C ;

1 , 1/6A B P A B P A P B A, B indipendenti;

, 0B C P B C P B P C B, C dipendenti. Si osserva che gli eventi A e B sono indipendenti, ma non mutuamente esclusivi, mentre gli

eventi B e C sono mutuamente esclusivi, ma non indipendenti. Si potrebbe osservare, in

proposito, che due eventi mutuamente esclusivi non possono essere statisticamente

indipendenti, in quanto la realizzazione di uno comporta la non-realizzazione dellaltro.

Il codice Matlab riportato in Figura 2-7 valuta, applicando la definizione frequentista, la

probabilit di occorrenza dellevento A = {1, 2} e la probabilit di occorrenza di A

condizionata alloccorrenza di B = {2, 4, 5}. La Figura 2-8 mostra che, allaumentare del

numero di esperimenti n, le probabilit P(A) e P(A|B) tendono al medesimo valore. Ci

indica che gli eventi A e B sono statisticamente indipendenti.

15

% Esempio: lancio di un dado

% verifica che gli eventi A = [1 2] e B = [2 4 5] sono statisticamente

% indipendenti.

%

% n = numero di esperimenti

% y = risultati esperimenti (lanci dado)

% fA = elenco eventi favorevoli (1) e sfavorevoli (0) per A

% fB = elenco eventi favorevoli (1) e sfavorevoli (0) per B

% fAB = elenco eventi favorevoli (1) e sfavorevoli (0) per A e B

% contemporaneamente

% PA = probabilit di occorrenza evento A

% PAcB = probabilit di occorrenza di A dato B

n = 1e5;

x = rand(n,1);

y = round(6 * x + 0.5);

A = [1 2];

B = [2 4 5];

fB = zeros(n,1);

fAB = zeros(n,1);

for k=1:n

fA(k) = sum(A==y(k));

fB(k) = sum(B==y(k));

fAB(k) = sum(A==y(k)) & sum(B==y(k));

end

PA = cumsum(fA) ./ (1:n)';

PAcB = cumsum(fAB) ./ cumsum(fB);

Figura 2-7. Codice Matlab per verifica indipendenza statistica mediante definizione

frequentista di probabilit.

Figura 2-8. Probabilit di A (linea blu), e probabilit di A dato B (linea rossa).

Equation Chapter (Next) Section 1

100

101

102

103

104

105

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

n

P(A

),

P(A

|B)

16

3 Variabili Aleatorie In teoria della probabilit, una variabile casuale (o variabile aleatoria o variabile stocastica o

random variable) pu essere pensata come il risultato numerico di un esperimento quando questo

non prevedibile con certezza (ossia non deterministico). Ad esempio, il risultato del lancio di un

dado pu essere matematicamente modellato come una variabile casuale che pu assumere uno dei

sei possibili valori 1, 2, 3, 4, 5, 6. Bruno de Finetti definiva numero aleatorio (termine suggerito

dallo stesso per denotare la variabile casuale) un numero ben determinato ma non noto per carenza

di informazioni.

3.1 Definizione Dato uno spazio campionario su cui definita una misura di probabilit, una variabile aleatoria

una funzione (misurabile) dallo spazio campionario a uno spazio misurabile (es. linsieme dei numeri naturali, linsieme dei numeri reali, ecc.; Figura 3-1).

In questo capitolo, si considerano variabili aleatorie a valori scalari (dette mono-variate). Variabili

aleatorie a valori vettoriali sono definite nei capitoli successivi.

Una variabile aleatoria definita continua se ha valori in intervalli continui di . Una variabile detta discreta si ha valori in un insieme di numeri finito o numerabile (es. ). Una variabile aleatoria detta mista se assume valori in un insieme continuo, ma possiede un numero discreto di

valori aventi probabilit di occorrenza finita.

Nel seguito, le variabili aleatorie verranno indicate con lettere maiuscole (es. X), mentre le

corrispondenti lettere minuscole (es. x) verranno utilizzare per identificare generici valori assunti da

X, detti realizzazioni. La realizzazione x pu essere interpretata come limmagine del punto

campionario attraverso X (Figura 3-1).

Figura 3-1. Variabile aleatoria X.

3.2 Distribuzione di probabilit La distribuzione di probabilit (o distribuzione cumulativa, o cumulative distribution function,

CDF) una funzione che definisce la probabilit che la variabile aleatoria X assuma valori minori o

uguali ad un parametro in .

XF P X (3.1)

La distribuzione di probabilit definite per qualsiasi valore dellargomento in e possiede le seguenti propriet (facilmente deducibili dalla (3.1) e dagli assiomi della teoria della probabilit):

0XF P X P (3.2)

x

x = X()

17

1XF P X P (3.3)

1 2 2 1 1 2X XP X F F (3.4)

Dalla (3.4) discende (per lassioma di positivit) che la distribuzione di probabilit una funzione

non-decrescente i cui valori appartengono allintervallo chiuso [0, 1]. Sarebbe possibile dimostrare

anche limplicazione inversa: una funzione non-decrescente che soddisfa le condizioni (3.2) e (3.3)

rappresenta la distribuzione di probabilit di una qualche variabile aleatoria.

Esempio 3.1. Stima distribuzione di probabilit di una variabile aleatoria discrete

La Figura 3-2 mostra il codice Matlab per la stima della distribuzione di probabilit di una

variabile aleatoria discreta X, rappresentativa dei risultati del lancio di un dado. La Figura

3-3 mostra la distribuzione di probabilit stimata. Si osserva la struttura discontinua della

funzione, tipica delle variabili aleatorie discrete. I salti nella funzione rappresentano

probabilit finite di avere risultati in corrispondenza dei valori 1, 2,,6.

% stima distribuzione di probabilit di v.a. discreta

n = 1e5;

X = round(6*rand(n,1) + 0.5); % lancio di un dado

xi = linspace(-2, 10, 3001);

FX = zeros(size(xi));

for k=1:length(xi)

FX(k) = sum(X

18

mediante la definizione frequentista. La Figura 3-5 mostra la distribuzione di probabilit

stimata.

% stima CDF della variabile aleatoria X

n = 1e5; % numero esperimenti

u = randn(n,1);

X = u + 0.1*u.^2 + 0.05*u.^3; % generazione spazio campionario per X

xi = linspace(-10, 10, 300); % definizione ascissa discretizzata

FX = zeros(size(xi));

for k=1:length(xi)

FX(k) = sum(X

19

dove j- indica un numero reale minore, ma arbitrariamente vicino a j. La Figura 3-6 mostra la

funzione di probabilit e la corrispondente distribuzione di probabilit di una variabile aleatoria

discreta.

Figura 3-6. Funzione di probabilit e distribuzione di probabilit di una variabile discrete.

Esempio 3.3. Stima della funzione di probabilit

Si consideri un esperimento realizzando lanciando due dadi. Sia X ottenuto come somma

dei risultati forniti dai due dati. La Figura 3-7 riporta il codice per simulare il lancio di due

dadi; la funzione di probabilit valutata attraverso la funzione riportata in Figura 3-7

realizzata introducendo la definizione frequentista di probabilit nella (3.5).

La Figura 3-9 mostra la funzione di probabilit (a) e la distribuzione di probabilit (b)

stimata sulla base di 105 lanci di dadi simulati.

% esempio lancio di due dadi

n = 1e5;

X1 = round(6*rand(n,1) + 0.5); % lancio di un dado 1

X2 = round(6*rand(n,1) + 0.5); % lancio di un dado 2

X = X1 + X2;

[PX, xi] = pf1(X);

figure(1)

for k=1:length(xi)

plot(xi(k)*[1 1],PX(k)*[0 1],'b',xi(k),P(k),'.b')

hold on

end

hold off

xlim([0 14])

grid on

xlabel('\xi')

ylabel('P_X(\xi)')

Figura 3-7. Codice Matlab per simulazione del lancio di due dadi.

1 2 3 40

0.2

0.4

0.6

0.8

1

FX(

)

1 2 3 40

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

PX(

)

20

function [P, xi] = pf1(x)

% stima funzione di probabilit per v.a. discreta X di cui sono disponibili

% n realizzazioni contenute nel vettore x

% P = funxione di probabilit

% xi = ascissa P

xi = min(x):max(x); % ascissa funz di probabilit

P = zeros(length(xi),1);

z = x - min(x) + 1;

for k=1:length(x)

P(z(k)) = P(z(k)) + 1;

end

P = P / length(x);

end

Figura 3-8. Codice Matlab per stima dai dati della funzione di probabilit di una variabile

aleatoria discreta.

(a) (b)

Figura 3-9. Funzione di probabilit (a) e distribuzione di probabilit (b).

3.4 Densit di probabilit (di una variabile aleatoria continua) La distribuzione di probabilit, FX, di una variabile aleatoria continua, X, una funzione continua in

, ma non necessariamente derivabile. Si assuma che i punti in cui FX non derivabile formino un insieme numerabile. Ove FX derivabile, si definisce la densit di probabilit pX() (o probability

density function, o pdf) come derivata di FX rispetto allargomento :

d

d

X

X

Fp

(3.8)

In virt delle propriet di FX si deducono le seguenti propriet della densit di probabilit:

0Xp (3.9)

dX XF p

(3.10)

1Xp d

(3.11)

2

11 2 2 1 1 2dX X XP X F F p

(3.12)

In cui si supposto che, nei punti dove pX non definita (FX non derivabile), essa assuma un

qualsiasi valore positivo finito.

0 2 4 6 8 10 12 140

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

PX(

)

0 2 4 6 8 10 12 140

0.2

0.4

0.6

0.8

1

FX(

)

21

La Figura 3-10 descrive la relazione fra pX e FX definita dalla (3.10): lordinata FX() equivale

allarea sottesa da pX a sinistra dellascissa .

La Figura 3-11 mostra che loccorrenza di un punto * in cui FX non derivabile si riflette in una

discontinuit in pX.

Figura 3-10. Relazione fra densit e distribuzione di probabilit.

Figura 3-11. Punti singolari nella densit di probabilit.

La (3.12) afferma che larea sottesa dalla densit di probabilit, compresa fra due valori di ascissa,

1 e 2, rappresenta la probabilit che la variabile aleatoria assuma un valore compreso in tale

intervallo (Figura 3-12). Ponendo 1 = e 2 = + , la (3.12) pu essere riscritta nella forma:

dX XP X p p

(3.13)

Nella quale, lapplicazione del teorema della media impone di assumere che pX sia continua in .

pX()

x

FX(x)

FX()

x

FX(x)

1

pX()

x

FX(x)

*

FX()

x

FX(x)

1

*

22

Figura 3-12. Significato probabilistico di densit e distribuzione di probabilit.

Lapplicazione della definizione empirica di probabilit alla (3.13) fornisce uno strumento per

stimare la densit di probabilit attraverso la relazione:

limXn

np

n

(3.14)

dove n() il numero di volte in cui il valore di X compreso nellintervallo (, + ] in n

esperimenti. La densit cos ottenuta rappresentata da un istogramma (Figura 3-13) che, se

sufficientemente piccolo pu essere interpretato come la discretizzazione di una funzione di

variabile continua.

Figura 3-13. Stima della densit di probabilit.

Esempio 3.4. Stima della densit di probabilit.

Si consideri la variabile aleatoria del precedente Esempio 3.2 e si stimi la densit di

probabilit utilizzando la definizione frequentista.

pX()

x1

FX()

x1

FX(x1)

1

x2 x2

FX(x2)

P(x1 X x2)

pX()

x

n(x)/n

x+

23

% stima pdf della variabile aleatoria X

n = 1e6; % numero esperimenti

u = randn(n,1);

X = u + 0.1*u.^2 + 0.05*u.^3; % generazione spazio campionario per X

xi = linspace(-10, 10, 300); % definizione ascissa discretizzata

pX = zeros(size(xi));

Dx = xi(2) - xi(1);

for k=1:length(xi)

pX(k) = sum(X > xi(k)-Dx/2 & X

24

3.5 Valore atteso Il valore atteso (o media, o expectation) di una variabile aleatoria X, un numero E[X] che

formalizza l'idea euristica di valore medio di un fenomeno aleatorio.

In generale il valore atteso di una variabile aleatoria discreta dato dalla somma dei possibili valori

di tale variabile, ciascuno moltiplicato per la probabilit di essere assunto (ossia di verificarsi), cio

la media ponderata dei possibili risultati. Se la variabile aleatoria X pu assumere i valori j (j =

1,2,), il valore atteso definito dalla relazione:

1

E j X jj

X P

(3.15)

Per una variabile aleatoria continua il valore atteso essere definito mediante un integrale.

E d dX XX F p

(3.16)

Si osservi che la definizione di valore atteso ottenuta attraverso lintegrale di Stieltjes nella (3.16)

pu essere applicata anche nei casi in cui la funzione densit di probabilit non definita, come per

le variabili aleatorie discrete e miste.

Il valore atteso un operatore lineare che dallo spazio delle variabili aleatorie conduce nello spazio

dei numeri reali. Esso gode quindi delle propriet:

E E EaX bY a X b Y (3.17)

dove X e Y sono variabili aleatorie, mentre a e b sono costanti reali.

Il valore atteso ha la propriet di monotonia, cio se una variabile aleatoria X appartiene

allintervallo [a, b], allora anche il suo valore atteso E[X] appartiene ad [a, b].

Il valore atteso di una variabile aleatoria di cui disponibile un insieme di realizzazioni pu essere

stimato attraverso la media statistica. Ci pu essere dimostrato facilmente nel caso di variabili

aleatorie discrete (il concetto altrettanto valido per le variabili continue) sostituendo la definizione

frequentista di probabilit nella (3.15)

1

Ej

j

j

nX

n

(3.18)

dove nj rappresenta il numero di volte che si realizzato il valore j nel corso di n esperimenti, con

n grande a sufficienza. La (3.18) contiene la somma dei risultati possibili j moltiplicati per il

numero di volte che questi si sono realizzati nj. Questa somma corrisponde alla somma dei valori xk

realizzati dalla variabile aleatoria negli n esperimenti (ammesso che n sia grande a sufficienza a fin

che linsieme dei risultati xk contenga tutti i risultati j aventi una probabilit di occorrenza

significativa). La (3.18) pu dunque essere riscritta nella forma:

1

1E

n

k

k

X xn (3.19)

25

Il concetto di valore atteso pu essere esteso al caso di una variabile aleatoria Y legata, attraverso

una funzione deterministica, ad una variabile aleatoria X di cui nota la densit di probabilit (cio,

Y = f(X), con f funzione deterministica). Il valore atteso di Y fornito dalle espressioni:

1

E E j X jj

Y f X f P

(3.20)

E E dXY f X f p

(3.21)

per i casi di variabili aleatorie discrete e continue, rispettivamente.

3.6 Momenti statistici di una variabile aleatoria Si definisce momento statistico di ordine k (k 1) di una variabile aleatoria X il valore atteso della

potenza di ordine k di X:

m E 1,2,kk X X k (3.22)

Sostituendo la (3.22) nelle (3.20) e (3.21), ponendo f(X) = Xk, si ottengono le espressioni:

1

m 1,2,kk j X jj

X P k

(3.23)

m d 1,2,kk XX p k

(3.24)

Il momento statistico di ordine 1, X = m1[X], detto valore medio (o media); il momento statistico

di ordine 2, X2 = m2[X], detto valore quadratico medio (o media quadratica).

Si definisce momento statistico centrale di ordine k (k 2) di una variabile aleatoria X la quantit:

E 2,3,k

k XX X k (3.25)

Il momento statistico centrale di ordine 2, X2 = 2[X] detto varianza, mentre la sua radice

quadrata, X, detta deviazione standard.

I momenti statistici centrali sono legati ai momenti statistici da relazioni ricorsive. Arrestandosi

allordine 4, risultano:

2

2 2 1

3

3 3 2 1 1

2 4

4 4 3 1 2 1 1

m m

m 3m m 2m

m 4m m 6m m 3m

(3.26)

Nel caso in cui X una variabile aleatoria continua, la media X = m1[X] rappresenta, da un punto di

vista grafico, la posizione (ascissa) del baricentro dellarea sottesa dalla densit di probabilit;

pertanto, la media misura la posizione della funzione di densit di probabilit rispetto allasse reale.

La media ha la medesima dimensione (unit di misura) delle realizzazioni della variabile aleatoria.

26

La varianza X2 = 2[X] rappresenta il momento dinerzia dellarea sottesa dalla densit di

probabilit rispetto allasse baricentrico; pertanto, la varianza rappresenta una misura di dispersione,

intono al valore medio, delle realizzazioni di una variabile aleatoria. La deviazione standard ha la

medesima dimensione delle realizzazioni della variabile aleatoria.

In accordo con le (3.26), media, varianza e media quadratica sono legate dalla relazione:

2 2 2

X X X (3.27)

Il rapporto fra deviazione standard e media detto coefficiente di variazione:

XXX

I

(3.28)

Il momento centrale di ordine 3, adimensionalizzato con la deviazione standard detto skewness (o

coefficiente di asimmetria). Il momento centrale di ordine 4 adimensionalizzato con la deviazione

standard detto kurtosis (o coefficiente di piattezza).

3 4

3 4skw ; kurt

X X

X XX X

(3.29)

Lo skewness generalmente indicato con il simbolo 3. Frequentemente, al valore del kurtosis

definito dalla (3.29) si sottrae 3; in questo caso modo si ottiene un valore detto coefficiente di

eccesso (o eccesso di kurtosis), generalmente indicato con il simbolo 4.

3 4

3 43 4; 3

X X

X XX X

(3.30)

La Figura 3-17 mostra leffetto della media e della deviazione standard sulla forma della densit di

probabilit. La media determina una traslazione della curva lungo lasse delle ascisse, mentre la

deviazione standard controlla lampiezza della curva (alla quale corrisponde un abbassamento per

conservare larea unitaria).

La Figura 3-18 mostra leffetto di skewness e coefficiente di eccesso sulla forma della densit di

probabilit. La condizione 3 = 0 corrisponde ad una funzione simmetrica rispetto alla media; la

condizione 3 > 0 rappresenta la situazione in cui la densit di probabilit ha la coda di destra pi

alta della coda di sinistra. Una variabile aleatoria avente 4 > 0 detta supergaussiana e ha densit di

probabilit alta sulla moda (ascissa corrispondente al picco) e sulle code; una variabile aleatoria

avente 4 < 0 detta subgaussiana e ha densit di probabilit bassa sulla moda e sulle code; il caso

4=0 corrisponde alla distribuzione Gaussiana che verr descritta nel seguito. Per lo studio delle

code della distribuzione generalmente conveniente diagrammare le funzioni di densit di

probabilit con ordinata in scala logaritmica, come mostrato in Figura 3-19 per i casi gi discussi in

Figura 3-18.

possibile dimostrare che il coefficiente di eccesso inferiormente limitato a 4 = -2; tale valore

attinto da variabili aleatorie con densit del tipo:

1

1 12

Xp (3.31)

27

Una variabile aleatoria detta standardizzata se centrata rispetto alla sua media e scalata in modo

da avere varianza unitaria:

X

X

XX

(3.32)

da cui ovviamente risulta 0X e 1X .

(a) (b)

Figura 3-17. Densit di probabilit: influenza della media (a) e deviazione standard (b).

(a) (b)

Figura 3-18. Densit di probabilit: influenza skewness (a) e coefficiente di eccesso (b).

(a) (b)

Figura 3-19. Densit di probabilit (scala logaritmica): influenza skewness (a) e coefficiente di eccesso (b).

-4 -3 -2 -1 0 1 2 3 410

-3

10-2

10-1

100

, ,

pX(

),

p Y(

),

p Z(

)

-4 -3 -2 -1 0 1 2 3 410

-3

10-2

10-1

100

, ,

pX(

),

p Y(

),

p Z(

)

-4 -3 -2 -1 0 1 2 3 40

0.1

0.2

0.3

0.4

0.5

0.6

0.7

, ,

pX(

),

p Y(

),

p Z(

)

3 = 0

4 = -0.5

3 = 0

4 = 5

3 = 0

4 = 0

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

, ,

pX(

),

p Y(

),

p Z(

)

3 = -0.5

4 = 0

3 = 0.5

4 = 0

3 = 0

4 = 0

-6 -4 -2 0 2 4 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

,

pX(

),

p Y(

)

X = 0

X = 1

Y = 0

Y = 2

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

,

pX(

),

p Y(

)

X = 0

X = 1

Y = 1

Y = 1

28

I momenti statistici della variabile aleatoria X possono essere stimati a partire da un insieme di sue

realizzazioni xj (j = 1,,n) attraverso unespressione analoga alla (3.19)

1

1m E

nk k

k j

j

X X xn

(3.33)

3.7 Funzione caratteristica di una variabile aleatoria continua* Si definisce funzione caratteristica (o funzione generatrice dei momenti) della variabile aleatoria X,

la funzione a valori complessi:

iE exp i e dX XX p

(3.34)

dove largomento definito in . In base alla (3.34), la funzione caratteristica la trasformata di Fourier della densit di probabilit, pertanto essa determina completamente la struttura

probabilistica di X.

La funzione caratteristica pu essere rappresentata attraverso la serie di McLaurin:

1 0

d10

! d

kkX

X X kk k

(3.35)

Operando per derivazione sulla (3.34), i termini della (3.35) risultano nella forma:

0

0 1

di E i m 1,2,

d

X

kk k k

kkX X k

(3.36)

che, sostituendo nella (3.35), forniscono unespressione della funzione caratteristica in termini di

momenti statistici.

1

i1 m

!

kk

X k

k

Xk

(3.37)

La (3.37) dimostra che, conoscendo i momenti statistici fino allordine infinito, possibile

rappresentare la funzione caratteristica e quindi la densit di probabilit. In questo senso, la

conoscenza dei momenti statistici equivalente alla conoscenza della distribuzione di probabilit,

quindi determina completamente la struttura probabilistica della variabile aleatoria.

3.8 Cumulanti* Si definisce log-funzione caratteristica X() della variabile aleatoria X il logaritmo naturale della

funzione caratteristica X(); tale funzione pu essere espansa attraverso la serie di McLaurin come

segue:

1 0

1

d1log

! d

i

!

jjX

X X jj

j

j

j

j

Xj

(3.38)

29

i cui coefficienti j[X] sono detti cumulanti. I cumulanti sono legati ai momenti statistici ed ai

momenti centrali attraverso le relazioni ricorsive riportate in appendice A; tali relazioni, fino

all'ordine 4, hanno la forma:

1 1

2

2 2 1 2

2

3 3 2 1 1 3

2 2 4 2

4 4 2 3 1 2 1 1 4 2

m

m m

m 3m m 2m

m 3m 4m m 12m m 6m 3

(3.39)

Si osserva che il quarto cumulante adimensionalizzato rispetto alla deviazione standard corrisponde

al coefficiente di eccesso definito in (3.30).

3.9 Entropia* Sia X una variabile aleatoria discreta con funzione di probabilit PX(j). Si definisce entropia (di

Shannon) la quantit:

logX j X jj

H X P P (3.40)

dove la sommatoria estesa a tutti i valori j che X pu assumere. Considerando la funzione

logf p p p diagrammata in Figura 3-20, l'entropia pu essere generalizzata nella forma:

X jj

H X f P (3.41)

Figura 3-20. Funzione f(p) nell'intervallo [0,1]

Dalla (3.41) si osserva che H un numero non negativo ed nullo nel caso in cui X sia

deterministica (un particolare j ha probabilit uno e tutti gli altri hanno probabilit zero). In

generale H piccola se un valore j ha una probabilit di occorrenza dominante, mentre H grande

se molti valori j hanno probabilit di occorrenza comparabile.

In termini qualitativi, l'entropia misura il grado di "aleatoriet" di una variabile aleatoria o, in

termini pi corretti, specifica quanto una variabile aleatoria strutturata.

In teoria dell'informazione l'entropia utilizzata per quantificare il contenuto di informazione di un

canale digitale.

0 0.2 0.4 0.6 0.8 1

p

f(

p)

30

Sia ora X una v.a. continua; si definisce entropia (differenziale) la quantit:

logX XH X p p d (3.42)

dove l'integrazione estesa all'intero dominio di definizione di pX. A differenza dell'entropia di

Shannon, l'entropia integrale pu assumere valori negativi (dato che la funzione densit di

probabilit pu essere maggiore di uno); da un punto di vista qualitativo possiede il medesimo

significato.

3.10 Trasformazioni lineari di variabili aleatorie Sia X una variabile aleatoria continua e Y una sua trasformazione lineare tale che Y = aX + b con

,a b . Le rispettive distribuzioni di probabilit sono legate dalla relazione

Y Xb b

F P Y P aX b P X Fa a

(3.43)

Segue che le densit di probabilit sono legate dalla relazione

1 1Y X

Y Xb

a

dF dF bp p

d a d a a

(3.44)

Le funzioni caratteristiche di X e Y ed i loro logaritmi sono legate dalle relazioni

E exp i E exp i

E exp i exp i exp i

Y

X

Y aX b

aX b a b

(3.45)

logY Y X a i b (3.46)

Dalla (3.46) segue che i cumulanti delle due variabili aleatorie X e Y sono legati nel seguente modo

1 1

2jj j

Y a X b

Y a X j

(3.47)

Nel caso particolare in cui b = 0 la (3.47) vale anche per i momenti e assume la forma

jj jm aX a m X (3.48)

La (3.48) dimostra che momenti e cumulanti di ordine j sono operatori omogenei di grado j.

Infine l'entropia di X e Y si relazionano nel seguente modo

31

log

1 1 log

1 log

log

Y Y

X X

X X

H Y p p d

X b X bp p d

a a a a

p p da

H X a

(3.49)

da cui si deduce che l'entropia aumenta con la scala a ed invariante rispetto alla posizione. In altri

termini, fissata la forma della distribuzione di probabilit, l'entropia cresce all'aumentare della

varianza ed invariante rispetto al valor medio.

3.11 Trasformazioni non-lineari di variabili aleatorie* Sia X una variabile aleatoria continua e Y = g(X) con g funzione monotona crescente. La funzione di

distribuzione FY pu essere relazionata a FX imponendo che P Y sia pari a 1P X g dove g

-1 la funzione inversa di g (Figura 3-21).

Figura 3-21. Trasformazione monotona crescente.

Da questa uguaglianza discende la relazione:

1Y XF F g (3.50)

che in termini di densit di probabilit risulta:

1

1 11Y X

Y X

g

dF dF dg dgp p g

d d d d

(3.51)

Se la funzione g monotona decrescente la relazione che lega FX e FY pu essere ricavata

eguagliando P Y e 1P X g (Figura 3-22).

32

Figura 3-22. Trasformazione monotona decrescente.

Da questa uguaglianza discendono le relazioni

1

1

1

1Y X

Y X

F F g

dgp p g

d

(3.52)

Le (3.52) possono essere unificate per comprendere sia il caso di funzione crescente che

decrescente attraverso la relazione:

11

Y X

dgp p g

d

(3.53)

Le entropie di X e Y sono legate dalla relazione

1 1

1 1

1

log

log

log

log

Y Y

X X

X X

g

X

H Y p p d

dg dgp g p g d

d d

dgp p d

d

dgH X p d

d

(3.54)

L'integranda nella (3.54) fornisce un contributo positivo all'entropia per i valori di per cui

1dg d , mentre fornisce un contributo negativo quando 1dg d . Questo effetto pesato

dalla densit di probabilit pX.

3.12 Modelli di variabili aleatorie Nel presente capitolo si introducono alcuni modelli probabilistici rilevanti per lo studio della

meccanica delle vibrazioni e dellaffidabilit strutturale. Il modello normale (o Gaussiano)

descritto con maggiore enfasi in virt delle sue caratteristiche probabilistiche e della sua importanza

applicativa.

33

3.12.1 Distribuzione normale (o Gaussiana) Una variabile aleatoria X ha distribuzione normale (o Gaussiana) se la sua densit di probabilit

nella forma:

2

1 1exp

22

XX

XX

p

(3.55)

Una variabile aleatoria X, con distribuzione normale X e varianza X2 formalmente definita

attraverso lespressione X = N(X, X2). La Figura 3-23 mostra la densit di probabilit di una

variabile aleatoria normale standardizzata; nel piano semilogaritmico la curva costituita da una

parabola.

(a) (b)

Figura 3-23. Densit di probabilit normale: ordinata in scala decimale (a) e logaritmica (b).

La distribuzione di probabilit data dallespressione:

2

1 1exp d

22

XX

XX

F

(3.56)

che pu essere scritta in forma analitica attraverso la funzione di errore

1

1 erf2

XX

X

F

(3.57)

Per ispezione della (3.55) immediato verificare che se Y = aX + b, con a e b costanti

deterministiche e X = N(X, X2), allora Y = N(aX + b, a

2X

2).

La funzione caratteristica di una variabile Gaussiana pu essere ottenuta calcolando la trasformata

di Fourier della (3.55) e risulta:

2 21

exp i2

X X X

(3.58)

Se X una variabile aleatoria Gaussiana standardizzata, X = N(0,1), allora densit di probabilit e

distribuzione di probabilit risultano:

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

pX(

)

-4 -3 -2 -1 0 1 2 3 410

-4

10-3

10-2

10-1

100

pX(

)

34

21 1

exp22

Xp

(3.59)

21 1

exp d 1 erf2 22

XF

(3.60)

21

exp2

X

(3.61)

Si osserva che la funzione caratteristica di una variabile Gaussiana standardizzata formalmente

identica alla corrispondente funzione densit di probabilit.

3.12.2 Distribuzione uniforme Una variabile aleatoria continua ha distribuzione uniforme se la sua densit di probabilit espresso

nella forma:

per1/

altrove0X

a bb ap a b

(3.62)

Il modello uniforme utilizzato quando una variabile aleatoria pu assumere valori equiprobabili in

un intervallo chiuso [a, b]. La funzione di distribuzione pu essere ottenuta dalla (3.62) per

integrazione e risulta:

0 per

/ per

1 per

X

a

F a b a a b

b

(3.63)

La media e la varianza di una variabile aleatoria uniforme risultano:

/ 2X a b (3.64)

22 /12

Xb a (3.65)

Figura 3-24. Densit e distribuzione di probabilit di una variabile aleatoria uniforme.

3.12.3 Modello log-normale Una variabile aleatoria X della log-normale se Y = log(X) ha distribuzione normale. La densit di

probabilit di una variabile log-normale espressa nella forma:

0 a b0

1/(b-a)

pX(

)

0 a b0

1

FX(

)

35

2

2

log1exp

22X

mp

ss

(3.66)

dove m e s sono i parametri della distribuzione (e rappresentano, rispettivamente, la media e la

deviazione standard di Y). La media e la varianza di X risultano:

2

2 2 2

exp2

exp 2 exp 1

X

X

sm

m s s

(3.67)

Le equazioni (3.67) possono essere invertite nella forma:

2

2 2

22

2

log

log 1

X

X X

X

X

m

s

(3.68)

Figura 3-25. Densit e distribuzione di probabilit di una variabile aleatoria log-normale (m = 1, s = 1).

3.12.4 Modello di Rayleigh

Una variabile aleatoria X detta di Rayleigh se ha densit di probabilit nella forma:

2

2 2exp

2Xp

b b

(3.69)

dove b il parametro della distribuzione. A partire dalla (3.69) possibile dimostrare le seguenti

propriet delle variabili aleatorie di Rayleigh:

2

21 exp

2XF

b

(3.70)

22 12

k

k

k

km X b

(3.71)

0 2 4 6 8 10 12 14 16 18 200

0.05

0.1

0.15

0.2

0.25

pX(

)

0 2 4 6 8 10 12 14 16 18 200

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

FX(

)

36

2

X b

(3.72)

2 24

2x b

(3.73)

3 3

2

2 3

4

X

(3.74)

2

4 2

6 24 16

4X

(3.75)

1 ln22

bH

(3.76)

dove () la funzione Gamma e 0.577 la costante di Eulero-Mascheroni.

Figura 3-26. Densit e distribuzione di probabilit di una variabile aleatoria di Rayleigh (b = 1).

3.12.5 Modello di Gumbel Una variabile aleatoria X detta di Gumbel se ha densit di probabilit nella forma:

1

exp expXp

(3.77)

dove e (>0) sono i parametri della distribuzione. Sulla base della (3.77) possibile dimostrare le

seguenti propriet:

exp expXF

(3.78)

X (3.79)

2

2 2

6X

(3.80)

ln 1H (3.81)

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 50

0.1

0.2

0.3

0.4

0.5

0.6

0.7

pX(

)

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 50

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

FX(

)

37

3.12.6 Modello di binomiale Si consideri una successione di variabili aleatorie discrete, Xk (k = 1,2,), aventi spazio

campionario = {0, 1}. Si assuma che gli eventi legati a ogni possibile coppia di variabili aleatorie

Xh e Xk (h,k = 1,2,; hk) siano statisticamente indipendenti; sia inoltre P(Xk = 1) = p.

La successione Xk detta sequenza di Bernoulli. La funzione di probabilit di una variabile aleatoria

di Bernoulli risulta dunque:

0 0 1

1 1

k

k

X k

X k

P P X p

P P X p

(3.82)

Sia Ym una variabile aleatoria discreta definita come la somma dei primi m termini di una sequenza

di Bernoulli (Figura 3-27):

1

m

m k

k

Y X

(3.83)

Figura 3-27. Sequenza di Bernoulli (blu) e corrispondente sequenza binomiale (rosso).

La funzione di probabilit di Ym pu essere ottenuta operando in modo ricorsivo. Per m=1, la

funzione di probabilit di Ym = Y1 risulta:

1

1

1 1

1 1

0 0 0 1

1 1 1

Y

Y

P P Y P X p

P P Y P X p

(3.84)

Analogamente, per m=2, la funzione di probabilit di Ym = Y2 risulta (per il teorema dellevento

totale e per lipotesi di indipendenza statistica fra le variabili di Bernoulli):

2

2

2

2

2 1 2

2 1 2 1 2

2

2 1 2

0 0 0 0 1

1 1 1 0 0 1 2 1

2 2 1 1

Y

Y

Y

P P Y P X X p

P P Y P X X X X p p

P P Y P X X p

(3.85)

Le (3.84) e (3.85) possono essere generalizzate, per un m qualsiasi in , attraverso lespressione:

0 5 10 15 20 25 300

1

2

3

4

5

6

7

8

9

k

Xk,

Y

k

38

1m

m

Y m

mP P Y p p

(3.86)

dove il binomio di Newton espresso nella forma:

!

! !

m m

m

(3.87)

Sostituendo la (3.86) nellespressione di media e varianza risulta:

2 1

m

m

Y

Y

mp

mp p

(3.88)

da cui si evince che la media e la varianza di una variabile binomiale sono lineari in m.

Esempio 3.5. Sequenze di Bernoulli e variabili binomiali

Il codice riportato in Figura 3-28 simula una serie di sequenze di Bernoulli di lunghezza n e

la variabile Binomiale Ym ottenuta per m = n. La stima di media (Figura 3-29a), varianza

(Figura 3-29b) e funzione di probabilit (Figura 3-30) effettuata applicando la definizione

frequentista di probabilit. I risultati della stima sono confrontati con quanto previsto dal

modello binomiale.

Nseq = 10000; % numero realizzazioni

n = 30; % numero esperimenti di Bernoulli

p = 0.2; % prob. di successo esperimenti di Bernoulli

X = rand(n,Nseq) >= (1-p); % sequenza di Bernoulli

Y = cumsum(X); % sequenza binomiale

m = n; % considero m = n esperimenti

% stima funzione di probabilit dai dati

[PY_data, eta_data] = pf1(Y(m,:));

% modello binomiale

eta = 0:m; % ascissa per PY

PY_bi = factorial(m)./factorial(eta)./factorial(m-eta) .* (p.^eta) .* ((1-

p).^(m-eta));

figure(1)

plot(1:n,mean(Y,2),'--.b', 1:n,(1:n)*p,'-r')

xlabel('m')

ylabel('\mu_{Y_m}')

figure(2)

plot(1:n,var(Y,[],2),'--.b', 1:n,(1:n)*(1-p)*p,'-r')

xlabel('m')

ylabel('\sigma^2_{Y_m}')

figure(3)

bar(eta_data,PY_data)

hold on

plot(eta, PY_bi,'-*r')

hold off

xlabel('\eta')

ylabel('p_{Y_m(\eta)}')

xlim([0 20])

Figura 3-28. Codice Matlab per simulazione di sequenze di Bernoulli e binomiali; stima di

media, varianza e funzione di probabilit della variabile binomiale.

39

(a) (b)

Figura 3-29. Media (a) e varianza (b) della variabile binomiale simulata nel codice di Figura

3-28: stima dai dati (blu), modello (rosso).

Figura 3-30. Funzione di probabilit della variabile binomiale simulata nel codice di Figura

3-28: stima dai dati (blu), modello (rosso).

3.12.7 Modello di Poisson Una variabile aleatoria discrete Y ha distribuzione di Poisson se la sua funzione di probabilit

nella forma:

exp 0,1,!

YP

(3.89)

Dalla (3.89) risulta, evidentemente, che PY(0) = e-

; inoltre Y = Y2 = . Al variare del parametro ,

la funzione di probabilit assume le forme mostrate in Figura 3-31.

0 5 10 15 20 25 300

1

2

3

4

5

6

m

Y

m

0 5 10 15 20 25 300

0.5

1

1.5

2

2.5

3

3.5

4

4.5

5

m

2 Y

m

0 2 4 6 8 10 12 14 16 18 200

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

0.2

pY

m(

)

40

Figura 3-31. Funzione di probabilit di una variabile di Poisson al variare del parametro .

Una variabile aleatoria di Poisson, Y, pu essere interpretata come il limite, per m , di una

sequenza binomiale Ym derivata da una sequenza di Bernoulli Xk avente probabilit di successo

p0. In tal caso la variabile Y definita dal parametro = mp.

La Figura 3-31 mostra la funzione di probabilit di tre variabili aleatorie binomiali definite,

rispettivamente, dai parametri m = 10, 20 e 100 e p = 0.50, 0.25, 0.05 (blu) e di una variabile

aleatoria di Poisson definita dal parametro = 5.

Figura 3-32. Convergenza di variabili binomiali (blu) a una variabile di Poisson (rosso).

3.13 Rappresentazioni approssimate della densit di probabilit* Si affronta il problema di definire un'approssimazione della densit di probabilit di una variabile

aleatoria sulla base di limitate informazioni sintetiche, come ad esempio un numero finito di

momenti statistici e cumulanti.

3.13.1 Espansione in serie di funzioni ortogonali* Sia X una variabile aleatoria continua e X la sua versione standardizzata; Xp e Xp sono le rispettive densit di probabilit. Sia inoltre Gp la densit di probabilit di una variabile Gaussiana standardizzata, ovvero

2

21

2Gp e

(3.90)

0 2 4 6 8 10 120

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

PY

( )

= 0.7

= 2.5

= 5.0

0 1 2 3 4 5 6 7 8 9 100

0.05

0.1

0.15

0.2

0.25

PY

m(

),

PY

( )

m = 20

m = 100

m = 10

41

Se X

p ha le code sufficientemente basse ( sufficiente che 2

GXp p L ), allora la seguente

serie di funzioni ortogonali uniformemente convergente in :

0

Xj j

jG

pa

p

(3.91)

dove j son un insieme di funzioni ortogonali in che pu essere definito come segue:

1

!j j GH p

j (3.92)

in cui Hj() sono polinomi di Hermite (Appendice B).

Le funzioni definite in (3.92) sono ortonormali in , cio:

j k jkd

(3.93)

Sfruttando la (3.93), i coefficienti aj della serie (3.91) possono essere valutati attraverso la

relazione:

1

!

1 !

Xj j X j

G

j

pa d p H d

jp

E H Xj

(3.94)

I coefficienti della serie (3.91) sono proporzionali al valore atteso dei polinomi di Hermite in X .

Sostituendo la (3.92) e la (3.94) nella (3.91), X

p assume la forma:

1

1

!G j jX

j

p p b Hj

(3.95)

dove i coefficienti

! j j jb j a E H X (3.96)

sono detti momenti di Hermite o quasi-momenti.

I primi momenti di Hermite hanno la forma:

42

0

1

2

2

3

3 3 3

4 2

4 4 4

1

0

1 0

3

6 3

b

b E X

b E X

b E X X X X

b E X X X X

(3.97)

In generale i momenti di Hermite sono legati ai cumulanti dalla relazione ricorsiva:

3

3

1 !

! 1 !

j

j j j r r

r

jb k k b

r j r

(3.98)

Nota la densit di probabilit della variabile standardizzata X , pX() pu essere calcolata attraverso

la (3.44)

1

1

!

G

X j j

j

p

p b Hj

(3.99)

dove e sono la media e la deviazione standard di X. La (3.99) chiamata serie di Gram-Charlier

tipo A.

3.13.2 Principio di massima entropia*

Si suppongo di conoscere la variabile aleatoria X attraverso le grandezze

d E 1,...,j X j jc p F F X j n (3.100)

dove Fj sono funzioni arbitrarie tali da far convergere l'integrale nella (3.100). La conoscenza di un

numero finito di cj non permette di stimare il valore esatto di Xp . Tuttavia se p0() la densit di probabilit compatibile con il vincolo (3.100) che massimizza l'entropia di X, allora p0

rappresenta la v.a. compatibile con i vincoli meno strutturata possibile. In altre parole, il principio di

massima entropia fornisce una densit di probabilit, compatibile con i dati, facendo meno

assunzioni possibili sulla sua struttura. La densit di probabilit che soddisfa il principio di massima

entropia nella forma:

00

expn

j j

j

p A a F

(3.101)

dove A e aj sono costanti determinate imponendo le (3.100) e la condizione di normalizzazione.

Se si sceglie Fj() = Hj(), la (3.101) riscritta per la variabile standardizzata X , chiamata serie di Gram-Charler tipo C e assume la forma

0

expn

j jXj

p A H

(3.102)

dove j sono costanti da determinare. A tale scopo, si considera una funzione f() che cresce per

|| pi lentamente di un'esponenziale. Sotto questa ipotesi sussiste la relazione

43

0X Xf dp p df

(3.103)

che pu essere facilmente dimostrata attraverso la formula di integrazione per parti. Scegliendo

1if H , sostituendo la (3.102) nella (3.103) e sfruttando le propriet dei polinomi di Hermite (Appendice B) risulta:

1 1 21

1 0n

j i j iX Xj

j H H p d i H p d

(3.104)

possibile dimostrare che il prodotto di polinomi di Hermite nel primo integrale pu essere

espresso nella forma:

2

1 1 1, 1,

0

1

!

i j

i j i j k k

k

H H A Hk

(3.105)

dove

, ,, ,

1 se pari e , ,

1

0 altrimenti

p q kp q k

p q k p q kA

(3.106)

in cui 2p q k .

Sostituendo la (3.105) nella (3.104) si ottengono le relazioni:

2

1, 1, 2

1 0

11 0 1,2,...,

!

i jn

j i j k k i

j k

j A b i b i nk

(3.107)

dove bj sono i momenti di Hermite di X . La (3.107) rappresenta un sistema di n equazioni lineari nei coefficienti j (j = 1,,n) la cui valutazione richiede la conoscenza dei momenti di Hermite fino

all'ordine 2n-2. Una volta calcolati i coefficienti j (j = 1,,n) risolvendo le (3.107) la densit di

probabilit di X ottenuta nella forma:

0

1

expn

X j j

j

ep H

(3.108)

dove 0 ottenuto imponendo la condizione di normalizzazione.

3.13.3 Trasformazione non-lineare di variabili Gaussiane* Sia X una variabile aleatoria continua di cui sono noti i momenti di Hermite fino all'ordine n+1. La

corrispondente v.a. standardizzata X approssimata attraverso l'espressione:

0

n

j j

j

X a H U

(3.109)

dove U una variabile Gaussiana standard.

44

I coefficienti della sommatoria sono calcolati imponendo l'uguaglianza dei momenti di Hermite dei

due membri della (3.109) fino all'ordine n+1

0

1,..., 1n

k k j j

j

E H X E H a H U n n

(3.110)

Svolgendo i prodotti impliciti nel membro di destra della (3.110) si ottengono polinomi in U fino al

grado nk nella forma:

0

20

! 1,..., 1

2 !2

nkjk

k j jj

nkk

jijj dispari

m Ub

E U

jk n

j

(3.111)

In cui si impiegata la formula che fornisce i momenti statistici di prodotti di variabili aleatorie

Gaussiane (Appendice E). I coefficienti j(k)

sono legati ai coefficienti aj da relazioni polinomiali

piuttosto complesse.

Nel caso particolare n = 3 le (3.111) assumono la forma esplicita:

1 0

2 2 2

2 1 2 3

2 2 2

3 3 2 1 1 3 2 3

4 3 2 2 2 2 2

4 4 1 1 3 1 2 1 3 1

2 3 4 2 2

1 2 3 1 3 2 2 3

2 4

2 3

0

0 2 6 1

2 3 18 4 54

3 24 60 252 6

576 1296 60 2232

12 3348 3

b a

b a a a

b X a a a a a a

b X a a a a a a a a

a a a a a a a a

a a

236 3a

(3.112)

I coefficienti a0 - a3 possono essere calcolati attraverso le (3.112) dati skewness e coefficiente di

eccesso.

La densit di probabilit di X ottenuta applicando la (3.53):

121

1 1exp

22X

dgp g

d

(3.113)

Nel caso n = 3, la funzione g-1

e la sua derivata prima possono essere ottenute in forma chiusa:

45

1 1

3 32 21

21

32

21

2

32

2

12

1

H H H

HH

H

H

H

g c c a

dg bc

d a c

cc

(3.114)

dove

2

3

1

3

32

3

3

1

H

H

H H H

aa

a

ab

a

c b a

(3.115)

La densit di probabilit della variabile X ottenuta a partire dalla (3.113) nella forma:

12

11 1exp22

X

XXX

XX

dg

p gd

(3.116)

Il modello di densit di probabilit fornito dalle (3.114)-(3.116) chiamato Moment-Based Hermite

Transformation (MBHT).

La Figura 3-33 mostra la densit di probabilit di una variabile aleatoria stimata a partire dai primi

quattro momenti di Hermite mediante i tre metodi sopra discussi. La densit Gaussiana aggiunta

per confronto.

Figura 3-33. Densit di probabilit stimata mediante serie di Gram-Charlier A e C e mediante MBHT.

-3 -2 -1 0 1 2 30

0.1

0.2

0.3

0.4

0.5

pX(

)

Dati

Gram-Charlier A

Gram-Charlier C

MBHT

Gaussiana

-10 -8 -6 -4 -2 0 2 4 6 8 1010

-6

10-5

10-4

10-3

10-2

10-1

100

pX(

)

Dati

Gram-Charlier A

Gram-Charlier C

MBHT

Gaussiana

46

3.14 Rappresentazione della relazione probabilistica fra due grandezze Nei paragrafi precedenti si discusso su come rappresentare, probabilisticamente, variabili aleatorie

continue e discrete. In molte applicazioni necessario rappresentare contemporaneamente pi

variabili aleatorie e definirne le mutue relazioni statistiche che le governano. Ad esempio, ha senso

chiedersi quale sia la relazione statistica che intercorre tra il modulo elastico di un provino di

acciaio e la sua tensione si snervamento, oppure fra la velocit del vento (in un determinato luogo,

ad un certo istante) e la sua direzione.

Al fine di sviluppare strumenti per rappresentare la mutua relazione probabilistica fra diverse

grandezze, si considerino due variabili aleatorie, X e Y, con valori in . Per semplicit si assuma che X e Y siano variabili aleatorie continue.

3.14.1 Distribuzione congiunta di probabilit La distribuzione congiunta di probabilit, FXY(,), delle variabili aleatorie X e Y , per definizione,

la probabilit che si verifichi levento X Y per la generica coppia di valori e in :

,XYF P X Y (3.117)

In questo contesto, le distribuzioni di probabilit FX() e FY() delle variabili aleatorie X e Y

(considerate separatamente) sono chiamate distribuzioni marginali di probabilit. In generale, la

conoscenza delle distribuzioni marginali non sufficiente a definire la distribuzione congiunta;

viceversa, nota la distribuzione congiunta, le marginali risultano:

,

,

X XY

Y XY

F P X Y F

F P X Y F

(3.118)

La distribuzione congiunta di probabilit gode delle seguenti propriet (dimostrabili facilmente

attraverso la definizione (3.117) e gli assiomi della teoria della probabilit):

, 0

, 0

, 0

, 1

XY

XY

XY

XY

F P X Y P

F P X Y P

F P X Y P

F P X Y P

(3.119)

Inoltre, con semplici passaggi possibile dimostrare che FXY(,) una funzione non-decrescente

di , :

2 1 2 1

2 1 2 1

, ,

, ,

XY XY

XY XY

F F

F F

(3.120)

cio la distribuzione congiunta di probabilit