60
1 Appunti del Corso DINAMICA DELLE STRUTTURE DICAT – Università di Genova Versione: 1.3 25.03.2010 Luigi Carassale

Dispense Probabilità (1.3)

Embed Size (px)

DESCRIPTION

Dispense teoria probabilità per il corso di Dinamica delle Strutture,

Citation preview

Page 1: Dispense Probabilità (1.3)

1

Appunti del Corso

DINAMICA DELLE STRUTTURE

DICAT – Università di Genova

Versione: 1.3

25.03.2010 Luigi Carassale

Page 2: Dispense Probabilità (1.3)

2

Sommario 1 Teoria della Probabilità ................................................................................................................ 4

1.1 Eventi e spazio campionario .................................................................................................. 4

1.2 Probabilità ............................................................................................................................. 5

1.2.1 Definizione classica (eventi equiprobabili, Laplace, 1812) ........................................... 5

1.2.2 Definizione empirica (frequentista, Von Mises 1920) ................................................... 6

1.2.3 Definizione assiomatica (Kolmogorov 1933) ................................................................ 7

1.3 Teoremi classici della probabilità.......................................................................................... 8

1.3.1 Teorema dell’evento complementare ............................................................................. 8

1.3.2 Teorema dell’evento totale ............................................................................................. 9

1.4 Probabilità condizionata e composita .................................................................................. 10

1.5 Variabili Aleatorie ............................................................................................................... 13

1.5.1 Definizione ................................................................................................................... 13

1.5.2 Distribuzione di probabilità ......................................................................................... 13

1.5.3 Funzione di probabilità (di una variabile aleatoria discreta) ........................................ 15

1.5.4 Densità di probabilità (di una variabile aleatoria continua) ......................................... 17

1.5.5 Valore atteso ................................................................................................................ 20

1.5.6 Momenti statistici di una variabile aleatoria ................................................................ 22

1.5.7 Funzione caratteristica di una variabile aleatoria continua .......................................... 25

1.6 Modelli di variabili aleatorie ............................................................................................... 25

1.6.1 Distribuzione normale (o Gaussiana) ........................................................................... 25

1.6.2 Distribuzione uniforme ................................................................................................ 27

1.6.3 Modello log-normale.................................................................................................... 27

1.6.4 Modello di Rayleigh..................................................................................................... 28

1.6.5 Modello di binomiale ................................................................................................... 28

1.6.6 Modello di Poisson (distribuzione esponenziale) ........................................................ 31

1.7 Rappresentazione della relazione probabilistica fra due grandezze .................................... 33

1.7.1 Distribuzione congiunta di probabilità ......................................................................... 33

1.7.2 Densità congiunta di probabilità .................................................................................. 33

1.7.3 Variabili aleatorie statisticamente indipendenti ........................................................... 35

Page 3: Dispense Probabilità (1.3)

3

1.7.4 Valore attesso ............................................................................................................... 35

1.7.5 Correlazione e covarianza ............................................................................................ 36

1.7.6 Modello normale bi-variato ......................................................................................... 37

2 Processi aleatori ......................................................................................................................... 38

2.1 Definizioni ........................................................................................................................... 38

2.1.1 Medie statistiche del primo ordine ............................................................................... 39

2.1.2 Medie statistiche del secondo ordine ........................................................................... 40

2.2 Processi aleatori stazionari .................................................................................................. 40

2.2.1 Medie temporali di una funzione campione ................................................................. 43

2.2.2 Processi aleatori ergodici ............................................................................................. 44

2.2.3 Rappresentazione nel dominio della frequenza di processi stazionari ......................... 44

2.3 Rappresentazione congiunta di una coppia di processi aleatori .......................................... 48

2.3.1 Medie statistiche congiunte del secondo ordine .......................................................... 48

2.3.2 Densità di Potenza spettrale incrociata ........................................................................ 49

2.3.3 Funzione di coerenza ................................................................................................... 50

2.4 Trasformazioni lineari di processi stazionari ...................................................................... 50

2.4.1 Risposta nel dominio del tempo di operatori lineari con eccitazione stazionaria ........ 53

2.4.2 Derivazione di processi stazionari ............................................................................... 53

2.5 Momenti spettrali ................................................................................................................ 53

2.6 Modelli di processi stazionari .............................................................................................. 55

2.6.1 Processo armonico ....................................................................................................... 55

2.6.2 Processo a banda stretta ............................................................................................... 56

2.6.3 Processo a banda estesa................................................................................................ 58

2.6.4 White random process .................................................................................................. 59

Page 4: Dispense Probabilità (1.3)

4

1 Teoria della Probabilità Il concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di diverse discipline scientifiche. I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà del XVI secolo in Liber de ludo aleæ di Girolamo Cardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegò il motivo per cui, lanciando tre dadi, il 10 sia più probabile del 9 nonostante che entrambi i risultati si ottengano da un uguale numero di combinazioni.1

La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1665).2 Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo aleæ, il primo trattato sul calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema del limite centrale. La teoria della probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina.

1.1 Eventi e spazio campionario In teoria della probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno del suo verificarsi, prescindendo dalla sua natura. Un ruolo centrale in questo contesto è svolto dal concetto di evento.

Si consideri una singola osservazione o misura di un fenomeno (es. la tensione di snervamento in un provino metallico soggetto alla prova di trazione, il numero di studenti in un aula, la velocità del vento in un determinato luogo e in un dato istante). Se il fenomeno in esame è deterministico, il risultato dell’osservazione (o dell’esperimento) può essere predetto con esattezza. Se il fenomeno è aleatorio, il risultato dell’osservazione non è noto a priori; tuttavia è possibile identificare un insieme Ω, che contiene tutti i possibili risultati dell’esperimento. L’insieme Ω è chiamato spazio campionario; gli elementi ω di Ω sono detti punti campionari.

Si definisce evento, E, un insieme di punti campionari (e quindi di risultati possibili dell’osservazione). Lo spazio campionario Ω contiene tutti i possibili punti campionari, quindi gli eventi sono sottoinsiemi dello spazio campionario. Si definisce evento elementare l’evento che contiene un solo punto campionario; evento certo, quello che contiene tutti i punti campionari (cioè coincide con lo spazio campionario); evento impossibile, quello che non contiene punti campionari.

Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con A∪B la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con A∩B la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che

1 Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4). Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 in 27 modi (6+6+3+6+3+3), il 9 in 25 modi (6+6+3+3+6+1). 2 Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado era equivalente ad ottenere almeno un doppio 6 in 24 lanci. Tuttavia, visto che giocando secondo tale convinzione invece di vincere perdeva, scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica. Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista.

Page 5: Dispense Probabilità (1.3)

5

dell'evento B. Se A∩B = ∅ i due eventi A e B vengono detti mutuamente esclusivi o incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a Ω, Ω\A, è detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).

Esempio 1.1. Eventi.

Nel lancio di un dado, i possibili risultati sono i numeri 1, 2, … 6. Ognuno è un punto campionario ω dello spazio campionario Ω = 1, 2, 3, 4, 5, 6. Si considerino i seguenti eventi: A = “occorrenza di un numero pari” = 2,4, 6; B = “occorrenza di un numero dispari” = 1, 3, 5; C = “occorrenza del numero 2” = 2; D = “occorrenza del numero 7” = ∅; E = A∪B = Ω; A e B sono eventi incompatibili; C è un evento elementare, D è un evento impossibile, E è l’evento certo.

1.2 Probabilità Esistono diverse definizioni di probabilità. Nel seguito si forniranno 3 definizioni che hanno rilievo per la loro importanza storica o utilità pratica.

1.2.1 Definizione classica (eventi equiprobabili, Laplace, 1812) Secondo la prima definizione di probabilità, per questo detta classica, la probabilità P(A) di occorrenza dell’evento A è definita come:

( ) ANP AN

= (1.1)

dove N è il numero di risultati possibili (assumendo che siano equiprobabili) e NA è il numero di risultati favorevoli all’evento A.

Esempio 1.2. Definizione classica di probabilità

Lancio di una moneta Ω = T, C; sia A:=T, allora P(A) = 1/2; Lancio di un dado Ω = 1, 2,…,6; sia A = 1, 2, allora P(A) = 2/6 = 1/3; Estrazione numero roulette: Ω = 0, 1,…,90; sia A = “estrazione numero dispari” = 1, 3,…,89, allora P(A) = 45/91.

La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non irrilevanti:

• si applica soltanto a fenomeni con risultati equiprobabili;

• presuppone un numero finito di risultati possibili;

• la definizione è circolare perché utilizza la nozione di probabilità (eventi equiprobabili) per definire la probabilità stessa.

Page 6: Dispense Probabilità (1.3)

6

1.2.2 Definizione empirica (frequentista, Von Mises 1920) Per superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti. Si consideri un esperimento che possa essere ripetuto un numero infinito di volte e si assuma che un evento E si sia verificato un numero nE di volte durante l’esecuzione di n esperimenti. La probabilità di occorrenza dell’evento E si definisce come il limite per n che tende a infinito della sua frequenza relative nE/n:

( ) lim En

nP En→∞

= (1.2)

Esempio 1.3. Definizione frequentista di probabilità: convergenza alla definizione classica

Si simuli il lancio di un dado e si verifichi mediante la definizione (1.2) che l’evento A = 1, 2 ha probabilità 1/3. Il codice Matlab riportato in Figura 1.1 genera una successione di numeri casuali, x, mediante il comando rand. I valori di x così generati sono compresi nell’intervallo chiuso [2-53, 1-2-53]. A partire da x, il codice genera numeri interi, y, casuali equiprobabili compresi fra 1 e 6. La Figura 1.2 mostra i primi 10 risultati di una sequenza casuale. La Figura 1.3 mostra la convergenza della probabilità calcolata mediante la definizione frequentista al valore ottenuto dalla definizione classica (1/3). Si osserva che per avere una buona corrispondenza fra i due valori sono necessari circa 104 esperimenti. % Convergenza definizione frequentista probabilità % Esempio: lancio di un dado % n = numero esperimenti % A = evento % y = risultati esperimenti % fA = elenco eventi favorevoli (1) e sfavorevoli (0) % PA = probabilità di occorrenza evento A n = 1e6; x = rand(n,1); y = round(6 * x + 0.5); A = [1 2]; fA = zeros(n,1); for k=1:n fA(k) = sum(A==y(k)); end PA = cumsum(fA) ./ (1:n)'; figure(1) plot(1:10,y(1:10),'xr') ylim([0 7]) grid on xlabel('j') ylabel('y_j') figure(2) semilogx(1:n,PA, 1:n, ones(n,1)*length(A)/6,'r--') xlabel('n') ylabel('n_E/n') grid on set(gca,'xMinorGrid','off')

Figura 1.1. Codice Matlab per verifica convergenza definizione frequentista di probabilità.

Page 7: Dispense Probabilità (1.3)

7

Figura 1.2. Lancio di un dado: punti campionari corrispondenti a 10 esperimenti.

Figura 1.3. Convergenza della frequenza relative al valore della probabilità definita mediante la (1.1).

La definizione frequentista, come quella classica, è operativa, cioè consente di calcolare praticamente la probabilità di eventi in molte circostanze; inoltre, è coerente con quanto fornito dalla definizione classica nel caso di eventi equiprobabili. Tuttavia è necessario osservare:

• il "limite" delle frequenze relative non corrisponde all'analogo concetto matematico; ad esempio, data una successione an, si dice che a è il suo limite se per ogni ε > 0 esiste un numero naturale N tale che |an - a| < ε per ogni n > N, e, comunque dato ε, è sempre possibile calcolare N; nella definizione frequentista, invece, N non è sempre calcolabile;

• non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilità che vi sia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la metà di quello attuale, ma in casi simili non è possibile immaginare esperimenti ripetibili all'infinito.

1.2.3 Definizione assiomatica (Kolmogorov 1933) L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità). Va notato che la definizione assiomatica non è una definizione operativa e non fornisce indicazioni su come calcolare la probabilità. Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare i postulati da cui poi si passava a definire i teoremi.

1 2 3 4 5 6 7 8 9 100

1

2

3

4

5

6

7

j

y j

100

101

102

103

104

105

106

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

n

n E/n

Page 8: Dispense Probabilità (1.3)

8

L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω, detto spazio campionario, e ciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in prima approssimazione, come una misura, cioè come una funzione che associa a ciascun sottoinsieme di Ω un numero reale non negativo tale che la somma delle probabilità di tutti gli eventi sia pari a 1.

Si assuma che ogni evento nello spazio campionari Ω sia associato a un numero reale P(E), chiamato probabilità di E. Questo numero soddisfa le tre seguenti condizioni:

1. La probabilità è un numero non-negativo: P(E) ≥ 0;

2. La probabilità dell’evento certo è unitaria: P(Ω) = 1;

3. Dati due eventi A e B definiti come mutuamente esclusivi, allora P(A∪B) = P(A) + P(B).

Si osservi che, come conseguenza degli assiomi precedenti, necessariamente, P(E) ≤ 1.

I tre assiomi introdotti da Kolmogorov sono coerenti con la definizione empirica fornita da Von Mises e con la definizione classica enunciata da Laplace.

1.3 Teoremi classici della probabilità Dagli assiomi precedenti si ricavano i teoremi di seguito riportati.

1.3.1 Teorema dell’evento complementare Si definisce evento complementare Ec = Ω\E dell’evento E, l’evento che comprende tutti i punti campionari di Ω non compresi in E (Figura 1.4).

Figura 1.4. Evento complementare.

Un evento E e il suo complementare Ec sono mutuamente esclusivi, cioè la loro intersezione fornisce l’evento vuoto, mentre la loro unione genera l’evento certo

0c

c

E EE E∩ =

∪ =Ω (1.3)

Applicando alla (1.3) l’Assioma 3 si deduce:

( ) ( )1cP E P E= − (1.4)

In particolare, essendo Ωc = ∅, l’applicazione della (1.4) dimostra che l’evento vuoto ha probabilità di occorrenza zero (P(0) = 0). La (1.4) e l’assioma 1 dimostrano che P(E) ≤ 1.

Page 9: Dispense Probabilità (1.3)

9

Esempio 1.4. Probabilità dell’evento complementare

Sia P = 10-6 la probabilità di collasso di una struttura in un anno. La probabilità che tale struttura non collassi in un anno è 1 – P = 1 – 10-6.

1.3.2 Teorema dell’evento totale Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due, ovvero la probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi se sono mutuamente esclusivi; in caso contrario, alla somma va sottratta la probabilità dell’intersezione. Si consideri due eventi E1 e E2 in Ω (Figura 1.5):

Figura 1.5. Evento totale.

L’unione degli eventi E1 e E2 può essere scritta come:

( ) ( ) ( )1 2 1 2 2 1 1 2E E E E E E E E∪ = − ∪ − ∪ ∩ (1.5)

dove (E1 – E2) contiene i punti campionari presenti in E1, ma non in E2 (E2 – E1 è definito analogamente). I tre eventi rappresentati dagli insiemi del termine di destra della (1.5) sono mutuamente esclusivi, quindi per l’Assioma 3 risulta:

( ) ( ) ( ) ( )1 2 1 2 2 1 1 2P E E P E E P E E P E E∪ = − + − + ∩ (1.6)

Da Figura 1.5 risulta inoltre che ( ) ( )1 1 2 1 2E E E E E= − ∪ ∩ . La probabilità di occorrenza dell’evento E1 – E2 risulta pertanto:

( ) ( ) ( )1 2 1 1 2P E E P E P E E− = − ∩ (1.7)

Sostituendo la (1.7) (e un’espressione analoga per E2 – E1) nella (1.6), la probabilità di occorrenza dell’evento totale E1 ∪ E2 risulta:

( ) ( ) ( ) ( )1 2 1 2 1 2P E E P E P E P E E∪ = + − ∩ (1.8)

Dalla (1.8) e dall’assioma di positività discende la condizione:

( ) ( ) ( )1 2 1 2P E E P E P E∪ ≤ + (1.9)

Page 10: Dispense Probabilità (1.3)

10

Esempio 1.5. Probabilità dell’evento totale.

Si consideri il lancio di un dado e si considerino i seguenti eventi: 1 21,2,3 ; 3,4 ; 1, ,6E E= = Ω = …

Applicando la definizione (1.1) risulta: [ ] [ ] [ ]1 2 1 21 2 1 3; 1 6P E P E P E E= = ∩ =

Applicando il teorema dell’evento totale risulta: [ ] [ ] [ ] [ ]1 2 1 2 1 2 2 3P E E P E P E P E E∪ = + − ∩ =

1.4 Probabilità condizionata e composita Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di verificarsi quando si sappia che B si è verificato.

( ) ( )( ) ( )( )| 0

P A BP A B P B

P B∩

= > (1.10)

La definizione di probabilità condizionata può essere facilmente spiegata considerando il caso di uno spazio campionario Ω contenente N punti campionari equiprobabili ω. Sia NB il numero di risultati favorevoli per l’evento B e NAB il numero di risultati favorevoli contemporaneamente per gli eventi A e B (e quindi per l’evento A ∩ B). Sostituendo nella (1.10) la definizione classica di probabilità (Eq. (1.1)):

( )| AB AB

B B

N NNP A BN N N

= = (1.11)

La probabilità condizionata P(A|B) può essere dunque interpretata come la probabilità di occorrenza di A nello spazio campionario ridotto determinato da B (Figura 1.6).

Figura 1.6. Probabilità condizionata.

Esempio 1.6. Probabilità condizionata.

Si consideri il lancio simultaneo di due dadi. Si voglia determinare la probabilità di occorrenza del numero 7 (evento A), dato che uno dei due dadi ha fornito il numero 1 (evento B). Lo spazio campionario Ω contiene i 36 punti campionari equiprobabili:

Page 11: Dispense Probabilità (1.3)

11

(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6), (3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6), (5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6).

Il numero di risultati favorevoli a A è NA = 6, quindi P(A) = 1/6; il numero di risultati favorevoli a B è NB=11, quindi P(B) = 11/36; il numero di risultati favorevoli simultaneamente ad A e B è NA∩B = 2, quindi P(A∩B) = 1/18; il numero di risultati favorevoli a A, dato che si è verificato B sono 2 su 11 possibilità, quindi P(A|B)=2/11.

Attraverso il concetto di probabilità condizionata si perviene al teorema della probabilità composta, che consente di calcolare la probabilità dell'intersezione di due o più eventi, ovvero la probabilità che essi si verifichino tutti. Nel caso di due eventi, si ha

( ) ( ) ( ) ( ) ( )| |P A B P A B P B P B A P A∩ = = (1.12)

Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti stocasticamente (o probabilisticamente, o statisticamente) indipendenti e dalla stessa definizione segue una diversa formulazione della probabilità composta, caso particolare del precedente:

( ) ( ) ( )P A B P A P B∩ = (1.13)

Esempio 1.7. Eventi statisticamente indipendenti.

Si consideri i seguenti eventi legati al lancio di un dado: 1,2,3,4,5,6 ; 1,2 ; 1,3,5 ; 2,4,6A B CΩ = = =

( ) ( ) ( )2 / 6; 3/ 6; 3/ 6P A P B P C= = = ; ( ) ( ) ( )1 , 1/ 6A B P A B P A P B∩ = ∩ = = ⇒ A, B indipendenti;

( ) ( ) ( ), 0B C P B C P B P C∩ = ∅ ∩ = ≠ ⇒ B, C dipendenti. Si osserva che gli eventi A e B sono indipendenti, ma non mutuamente esclusivi, mentre gli eventi B e C sono mutuamente esclusivi, ma non indipendenti. Si potrebbe osservare, in proposito, che due eventi mutuamente esclusivi non possono essere statisticamente indipendenti, in quanto la realizzazione di uno comporta la non-realizzazione dell’altro. Il codice Matlab riportato in Figura 1.7 valuta, applicando la definizione frequentista, la probabilità di occorrenza dell’evento A = 1, 2 e la probabilità di occorrenza di A condizionata all’occorrenza di B = 2, 4, 5. La Figura 1.8 mostra che, all’aumentare del numero di esperimenti n, le probabilità P(A) e P(A|B) tendono al medesimo valore. Ciò indica che gli eventi A e B sono statisticamente indipendenti.

Page 12: Dispense Probabilità (1.3)

12

% Esempio: lancio di un dado % verifica che gli eventi A = [1 2] e B = [2 4 5] sono statisticamente % indipendenti. % % n = numero di esperimenti % y = risultati esperimenti (lanci dado) % fA = elenco eventi favorevoli (1) e sfavorevoli (0) per A % fB = elenco eventi favorevoli (1) e sfavorevoli (0) per B % fAB = elenco eventi favorevoli (1) e sfavorevoli (0) per A e B % contemporaneamente % PA = probabilità di occorrenza evento A % PAcB = probabilità di occorrenza di A dato B n = 1e5; x = rand(n,1); y = round(6 * x + 0.5); A = [1 2]; B = [2 4 5]; fB = zeros(n,1); fAB = zeros(n,1); for k=1:n fA(k) = sum(A==y(k)); fB(k) = sum(B==y(k)); fAB(k) = sum(A==y(k)) & sum(B==y(k)); end PA = cumsum(fA) ./ (1:n)'; PAcB = cumsum(fAB) ./ cumsum(fB);

Figura 1.7. Codice Matlab per verifica indipendenza statistica mediante definizione frequentista di probabilità.

Figura 1.8. Probabilità di A (linea blu), e probabilità di A dato B (linea rossa).

100 101 102 103 104 1050

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

n

P(A

), P

(A|B

)

Page 13: Dispense Probabilità (1.3)

13

1.5 Variabili Aleatorie In teoria della probabilità, una variabile casuale (o variabile aleatoria o variabile stocastica o random variable) può essere pensata come il risultato numerico di un esperimento quando questo non è prevedibile con certezza (ossia non è deterministico). Ad esempio, il risultato del lancio di un dado può essere matematicamente modellato come una variabile casuale che può assumere uno dei sei possibili valori 1, 2, 3, 4, 5, 6. Bruno de Finetti definiva numero aleatorio (termine suggerito dallo stesso per denotare la variabile casuale) un numero ben determinato ma non noto per carenza di informazioni.

1.5.1 Definizione Dato uno spazio campionario Ω su cui è definita una misura di probabilità, una variabile aleatoria è una funzione (misurabile) dallo spazio campionario a uno spazio misurabile (es. l’insieme dei numeri naturali, l’insieme dei numeri reali, ecc.; Figura 1.9).

In questo capitolo, si considerano variabili aleatorie a valori scalari (dette mono-variate). Variabili aleatorie a valori vettoriali sono definite nei capitoli successivi.

Una variabile aleatoria è definita continua se ha valori in intervalli continui di . Una variabile è detta discreta si ha valori in un insieme di numeri finito o numerabile (es. ). Una variabile aleatoria è detta mista se assume valori in un insieme continuo, ma possiede un numero discreto di valori aventi probabilità di occorrenza finita.

Nel seguito, le variabili aleatorie verranno indicate con lettere maiuscole (es. X), mentre le corrispondenti lettere minuscole (es. x) verranno utilizzare per identificare generici valori assunti da X, detti realizzazioni. La realizzazione x può essere interpretata come l’immagine del punto campionario ω attraverso X (Figura 1.9).

Figura 1.9. Variabile aleatoria X.

1.5.2 Distribuzione di probabilità La distribuzione di probabilità (o distribuzione cumulative, o cumulative distribution function, CDF) è una funzione che definisce la probabilità che la variabile aleatoria X assuma valori minori o uguali ad un parametro ξ in .

( ) ( )XF P Xξ = ≤ ξ (1.14)

La distribuzione di probabilità è definite per qualsiasi valore dell’argomento ξ in e possiede le seguenti proprietà (facilmente deducibili dalla (1.14) e dagli assiomi della teoria della probabilità):

( ) ( ) ( ) 0XF P X P−∞ = ≤ −∞ = ∅ = (1.15) ( ) ( ) ( ) 1XF P X P+∞ = ≤ +∞ = Ω = (1.16)

ω

x

Ω

x = X(ω)

Page 14: Dispense Probabilità (1.3)

14

( ) ( ) ( ) ( )1 2 2 1 1 2X XP X F Fξ < ≤ ξ = ξ − ξ ξ < ξ (1.17)

Dalla (1.17) discende (per l’assioma di positività) che la distribuzione di probabilità è una funzione non-decrescente i cui valori appartengono all’intervallo chiuso [0, 1]. Sarebbe possibile dimostrare anche l’implicazione inversa: una funzione non-decrescente che soddisfa le condizioni (1.15) e (1.16) rappresenta la distribuzione di probabilità di una qualche variabile aleatoria.

Esempio 1.8. Stima distribuzione di probabilità di una variabile aleatoria discrete

La Figura 1.10 mostra il codice Matlab per la stima della distribuzione di probabilità di una variabile aleatoria discreta X, rappresentativa dei risultati del lancio di un dado. La Figura 1.11 mostra la distribuzione di probabilità stimata. Si osserva la struttura discontinua della funzione, tipica delle variabili aleatorie discrete. I salti nella funzione rappresentano probabilità finite di avere risultati in corrispondenza dei valori 1, 2,…,6. % stima distribuzione di probabilità di v.a. discreta n = 1e5; X = round(6*rand(n,1) + 0.5); % lancio di un dado xi = linspace(-2, 10, 3001); FX = zeros(size(xi)); for k=1:length(xi) FX(k) = sum(X<=xi(k))/n; end plot(xi,FX,'.') xlabel('\xi') ylabel('F_X(\xi)') grid on ylim([0 1.1])

Figura 1.10. Codice Matlab per stima distribuzione di probabilità: esempio variabile aleatoria discreta

Figura 1.11. Distribuzione di probabilità dei risultati del lancio di un dado stimata mediante il codice di Figura 1.10.

Esempio 1.9. Stima distribuzione di probabilità di una variabile aleatoria continua

Il codice riportato in Figura 1.12 stima la distribuzione di probabilità della variabile aleatoria continua X, il cui spazio campionario è generato attraverso una trasformazione non-lineare di numeri casuali Gaussiani u. Per ogni valore ξ(k) dell’ascissa discretizzata, la distribuzione di probabilità è ottenuta valutando la probabilità dell’evento X ≤ ξ(k) mediante la definizione frequentista. La Figura 1.13 mostra la distribuzione di probabilità stimata.

-2 0 2 4 6 8 100

0.2

0.4

0.6

0.8

1

ξ

F X( ξ)

Page 15: Dispense Probabilità (1.3)

15

% stima CDF della variabile aleatoria X n = 1e5; % numero esperimenti u = randn(n,1); X = u + 0.1*u.^2 + 0.05*u.^3; % generazione spazio campionario per X xi = linspace(-10, 10, 300); % definizione ascissa discretizzata FX = zeros(size(xi)); for k=1:length(xi) FX(k) = sum(X<=xi(k))/n; end plot(xi,FX) xlabel('\xi') ylabel('F_X(\xi)') grid on ylim([0 1.1])

Figura 1.12. Codice Matlab per stima distribuzione di probabilità

Figura 1.13. Distibuzione di probabilità di una variabile aleatoria continua stimata mediante il codice di Figura 1.12.

1.5.3 Funzione di probabilità (di una variabile aleatoria discreta) Si consideri una variabile aleatoria discrete X che può assumere gli n valori discreti ξj (j = 1,…,n). Si definisce funzione di probabilità di X la funzione:

( ) ( )X j jP P Xξ = = ξ (1.18)

che definisce, la probabilità di realizzazione di ogni possibile valore ξj. La funzione di probabilità e la distribuzione di probabilità sono legate dalla relazione:

( ) ( ) ( )X j X j X jP F F −ξ = ξ − ξ (1.19)

( ) ( )j

X X jF Pξ ≤ ξ

ξ = ξ∑ (1.20)

dove ξj- indica un numero reale minore, ma arbitrariamente vicino a ξj. La Figura 1.14 mostra la

funzione di probabilità e la corrispondente distribuzione di probabilità di una variabile aleatoria discreta.

-10 -8 -6 -4 -2 0 2 4 6 8 100

0.2

0.4

0.6

0.8

1

ξ

F X( ξ)

Page 16: Dispense Probabilità (1.3)

16

Figura 1.14. Funzione di probabilità e distribuzione di probabilità di una variabile discrete.

Esempio 1.10. Stima della funzione di probabilità

Si consideri un esperimento realizzando lanciando due dadi. Sia X ottenuto come somma dei risultati forniti dai due dati. La Figura 1.15 riporta il codice per simulare il lancio di due dadi; la funzione di probabilità è valutata attraverso la funzione riportata in Figura 1.15 realizzata introducendo la definizione frequentista di probabilità nella (1.18). La Figura 1.17 mostra la funzione di probabilità (a) e la distribuzione di probabilità (b) stimata sulla base di 105 lanci di dadi simulati. % esempio lancio di due dadi n = 1e5; X1 = round(6*rand(n,1) + 0.5); % lancio di un dado 1 X2 = round(6*rand(n,1) + 0.5); % lancio di un dado 2 X = X1 + X2; [PX, xi] = pf1(X); figure(1) for k=1:length(xi) plot(xi(k)*[1 1],PX(k)*[0 1],'b',xi(k),P(k),'.b') hold on end hold off xlim([0 14]) grid on xlabel('\xi') ylabel('P_X(\xi)')

Figura 1.15. Codice Matlab per simulazione del lancio di due dadi.

function [P, xi] = pf1(x) % stima funzione di probabilità per v.a. discreta X di cui sono disponibili % n realizzazioni contenute nel vettore x % P = funxione di probabilità % xi = ascissa P xi = min(x):max(x); % ascissa funz di probabilità P = zeros(length(xi),1); z = x - min(x) + 1; for k=1:length(x) P(z(k)) = P(z(k)) + 1; end P = P / length(x); end

Figura 1.16. Codice Matlab per stima dai dati della funzione di probabilità di una variabile aleatoria discreta.

ξ ξ

Page 17: Dispense Probabilità (1.3)

17

(a) (b)

Figura 1.17. Funzione di probabilità (a) e distribuzione di probabilità (b).

1.5.4 Densità di probabilità (di una variabile aleatoria continua) La distribuzione di probabilità, FX, di una variabile aleatoria continua, X, è una funzione continua in

, ma non necessariamente derivabile. Si assuma che i punti in cui FX non è derivabile formino un insieme numerabile. Ove FX è derivabile, si definisce la densità di probabilità pX(ξ) (o probability density function, o pdf) come derivata di FX rispetto all’argomento ξ:

( ) ( )ddX

X

Fp

ξξ =

ξ (1.21)

In virtù delle proprietà di FX si deducono le seguenti proprietà della densità di probabilità:

( ) 0Xp ξ ≥ (1.22)

( ) ( ) dX XF pξ

−∞ξ = α α∫ (1.23)

( ) 1Xp d∞

−∞ξ ξ =∫ (1.24)

( ) ( ) ( ) ( ) ( )2

11 2 2 1 1 2dX X XP X F F p

ξ

ξξ < ≤ ξ = ξ − ξ = α α ξ < ξ∫ (1.25)

In cui si è supposto che, nei punti dove pX non è definita (FX non derivabile), essa assuma un qualsiasi valore positivo finito.

La Figura 1.18 descrive la relazione fra pX e FX definita dalla (1.23): l’ordinata FX(ξ) equivale all’area sottesa da pX a sinistra dell’ascissa ξ.

La Figura 1.19 mostra che l’occorrenza di un punto ξ* in cui FX non è derivabile si riflette in una discontinuità in pX.

0 2 4 6 8 10 12 140

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

ξ

PX( ξ

)

0 2 4 6 8 10 12 140

0.2

0.4

0.6

0.8

1

ξ

F X( ξ)

Page 18: Dispense Probabilità (1.3)

18

(a) (b)

Figura 1.18. Relazione fra densità (a) e distribuzione (b) di probabilità.

Figura 1.19. Punti singolari nella densità di probabilità.

La (1.25) afferma che l’area sottesa dalla densità di probabilità, compresa fra due valori di ascissa, ξ1 e ξ2, rappresenta la probabilità che la variabile aleatoria assuma un valore compreso in tale intervallo (Figura 1.20). Ponendo ξ1 = ξ e ξ2 = ξ + Δξ, la (1.25) può essere riscritta nella forma:

( ) ( ) ( )dX XP X p pξ+Δξ

ξ

ξ < ≤ ξ + Δξ = α α Δξ ξ∫ (1.26)

Nella quale, l’applicazione del teorema della media impone di assumere che pX sia continua in ξ.

Figura 1.20. Significato probabilistico di densità e distribuzione di probabilità.

Page 19: Dispense Probabilità (1.3)

19

L’applicazione della definizione empirica di probabilità alla (1.26) fornisce uno strumento per stimare la densità di probabilità attraverso la relazione:

( ) ( )limX n

np

n→∞

Δ ξξ ≅

Δξ (1.27)

dove Δn(ξ) è il numero di volte in cui il valore di X è compreso nell’intervallo (ξ,ξ + Δξ] in n esperimenti. La densità così ottenuta è rappresentata da un istogramma (Figura 1.21) che, se Δξ è sufficientemente piccolo può essere interpretato come la discretizzazione di una funzione di variabile continua.

Figura 1.21. Stima della densità di probabilità.

Esempio 1.11. Stima della densità di probabilità.

Si consideri la variabile aleatoria del precedente Esempio 1.9 e si stimi la densità di probabilità utilizzando la definizione frequentista. % stima pdf della variabile aleatoria X n = 1e6; % numero esperimenti u = randn(n,1); X = u + 0.1*u.^2 + 0.05*u.^3; % generazione spazio campionario per X xi = linspace(-10, 10, 300); % definizione ascissa discretizzata pX = zeros(size(xi)); Dx = xi(2) - xi(1); for k=1:length(xi) pX(k) = sum(X > xi(k)-Dx/2 & X <= xi(k)+Dx/2)/n/Dx; end plot(xi,pX) xlabel('\xi') ylabel('p_X(\xi)') grid on xlim([-6 6])

Figura 1.22. Codice Matlab per stima densità di probabilità.

Page 20: Dispense Probabilità (1.3)

20

Figura 1.23. Densità di probabilità stimata mediante il codice riportato in Figura 1.22.

Il codice riportato in Figura 1.22 è molto semplice perché implementa brutalmente l’estimatore definito dalla (1.27). Sfortunatamente, tale algoritmo è piuttosto inefficiente, avendo una complessità computazionale pari a n2. In alternativa, la densità di probabilità può essere stimata mediante la funzione riportata in Figura 1.24, che ha complessità computazionale pari a n. function [p, xi] = pdf1(x,Nx) % stima pdf per v.a. continua X di cui sono disponibili le realizzazioni % raccolte nel vettore x % p = pdf % xi = ascissa pdf % Nx = numero punti ascizza pdf xi = linspace(min(x),max(x),Nx)'; % ascissa discretizzata pdf Dx = (max(x)-min(x)) / Nx; % ampiezza intervalli p = zeros(Nx,1); z = (x - min(x)) / (max(x) - min(x)); % x è mappato in [0 1] z1 = round((Nx-1) * z)+1; % numero d'ordine intervallo ascissa for k=1:length(x) p(z1(k)) = p(z1(k)) + 1; end p = p / length(x) / Dx; % normalizzazione end

Figura 1.24. Codice Matlab per stima distribuzione di probabilità.

1.5.5 Valore atteso Il valore atteso (o media, o expectation) di una variabile aleatoria X, è un numero E[X] che formalizza l'idea euristica di valore medio di un fenomeno aleatorio.

In generale il valore atteso di una variabile aleatoria discreta è dato dalla somma dei possibili valori di tale variabile, ciascuno moltiplicato per la probabilità di essere assunto (ossia di verificarsi), cioè è la media ponderata dei possibili risultati. Se la variabile aleatoria X può assumere i valori ξj (j = 1,2,…), il valore atteso è definito dalla relazione:

[ ] ( )1

E j X jj

X P∞

=

= ξ ξ∑ (1.28)

-6 -4 -2 0 2 4 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

ξ

p X( ξ)

Page 21: Dispense Probabilità (1.3)

21

Per una variabile aleatoria continua il valore atteso è essere definito mediante un integrale.

[ ] ( ) ( )E d dX XX F p∞ ∞

−∞ −∞

= ξ ξ = ξ ξ ξ∫ ∫ (1.29)

Si osservi che la definizione di valore atteso ottenuta attraverso l’integrale di Stieltjes nella (1.29) può essere applicata anche nei casi in cui la funzione densità di probabilità non è definita, come per le variabili aleatorie discrete e miste.

Il valore atteso è un operatore lineare che dallo spazio delle variabili aleatorie conduce nello spazio dei numeri reali. Esso gode quindi delle proprietà:

[ ] [ ] [ ]E E EaX bY a X b Y+ = + (1.30)

dove X e Y sono variabili aleatorie, mentre a e b sono costanti reali.

Il valore atteso ha la proprietà di monotonia, cioè se una variabile aleatoria X appartiene all’intervallo [a, b], allora anche il suo valore atteso E[X] appartiene ad [a, b].

Il valore atteso di una variabile aleatoria di cui è disponibile un insieme di realizzazioni può essere stimato attraverso la media statistica. Ciò può essere dimostrato facilmente nel caso di variabili aleatorie discrete (il concetto è altrettanto valido per le variabili continue) sostituendo la definizione frequentista di probabilità nella (1.28)

[ ]1

E jj

j

nX

n

=

ξ∑ (1.31)

dove nj rappresenta il numero di volte che si è realizzato il valore ξj nel corso di n esperimenti, con n grande a sufficienza. La (1.31) contiene la somma dei risultati possibili ξj moltiplicati per il numero di volte che questi si sono realizzati nj. Questa somma corrisponde alla somma dei valori xk realizzati dalla variabile aleatoria negli n esperimenti (ammesso che n sia grande a sufficienza a fin che l’insieme dei risultati xk contenga tutti i risultati ξj aventi una probabilità di occorrenza significativa). La (1.31) può dunque essere riscritta nella forma:

[ ]1

1En

kk

X xn =∑ (1.32)

Il concetto di valore atteso può essere esteso al caso di una variabile aleatoria Y legata, attraverso una funzione deterministica, ad una variabile aleatoria X di cui è nota la densità di probabilità (cioè, Y = f(X), con f funzione deterministica). Il valore atteso di Y è fornito dalle espressioni:

[ ] ( ) ( ) ( )1

E E j X jj

Y f X f P∞

=

= = ξ ξ⎡ ⎤⎣ ⎦ ∑ (1.33)

[ ] ( ) ( ) ( )E E dXY f X f p∞

−∞

= = ξ ξ ξ⎡ ⎤⎣ ⎦ ∫ (1.34)

per i casi di variabili aleatorie discrete e continue, rispettivamente.

Page 22: Dispense Probabilità (1.3)

22

1.5.6 Momenti statistici di una variabile aleatoria Si definisce momento statistico di ordine k (k ≥ 1) di una variabile aleatoria X il valore atteso della potenza di ordine k di X:

[ ] ( )m E 1,2,kk X X k⎡ ⎤= =⎣ ⎦ … (1.35)

Sostituendo la (1.35) nelle (1.33) e (1.34), ponendo f(X) = Xk, si ottengono le espressioni:

[ ] ( ) ( )1

m 1, 2,kk j X j

j

X P k∞

=

= ξ ξ =∑ … (1.36)

[ ] ( ) ( )m d 1, 2,kk XX p k

−∞

= ξ ξ ξ =∫ … (1.37)

Il momento statistico di ordine 1, μX = m1[X], è detto valore medio (o media); il momento statistico di ordine 2, ϕX

2 = m2[X], è detto valore quadratico medio (o media quadratica).

Si definisce momento statistico centrale di ordine k (k ≥ 2) di una variabile aleatoria X la quantità:

[ ] ( ) ( )E 2,3,kk XX X k⎡ ⎤μ = −μ =⎣ ⎦ … (1.38)

Il momento statistico centrale di ordine 2, σX2 = μ2[X] è detto varianza, mentre la sua radice

quadrata, σX, è detta deviazione standard.

I momenti statistici centrali sono legati ai momenti statistici da relazioni ricorsive. Arrestandosi all’ordine 4, risultano:

22 2 1

33 3 2 1 1

2 44 4 3 1 2 1 1

m m

m 3m m 2 m

m 4 m m 6m m 3m

μ = −

μ = − +

μ = − + −

(1.39)

Nel caso in cui X è una variabile aleatoria continua, la media μX = m1[X] rappresenta, da un punto di vista grafico, la posizione (ascissa) del baricentro dell’area sottesa dalla densità di probabilità; pertanto, la media misura la posizione della funzione di densità di probabilità rispetto all’asse reale. La media ha la medesima dimensione (unità di misura) delle realizzazioni della variabile aleatoria.

La varianza σX2 = μ2[X] rappresenta il momento d’inerzia dell’area sottesa dalla densità di

probabilità rispetto all’asse baricentrico; pertanto, la varianza rappresenta una misura di dispersione, intono al valore medio, delle realizzazioni di una variabile aleatoria. La deviazione standard ha la medesima dimensione delle realizzazioni della variabile aleatoria.

In accordo con le (1.39), media, varianza e media quadratica sono legate dalla relazione:

2 2 2X X Xσ = ϕ −μ (1.40)

Il rapporto fra deviazione standard e media è detto coefficiente di variazione:

XX

X

I σ=μ

(1.41)

Page 23: Dispense Probabilità (1.3)

23

Il momento centrale di ordine 3, adimensionalizzato con la deviazione standard è detto skewness (o coefficiente di asimmetria). Il momento centrale di ordine 4 adimensionalizzato con la deviazione standard è detto kurtosis (o coefficiente di piattezza).

[ ] [ ] [ ] [ ]3 43 4skw ; kurtX X

X XX X

μ μ= =

σ σ (1.42)

Lo skewness è generalmente indicato con il simbolo γ3. Frequentemente, al valore del kurtosis definito dalla (1.42) si sottrae 3; in questo caso modo si ottiene un valore detto coefficiente di eccesso (o eccesso di kurtosis), generalmente indicato con il simbolo γ4.

[ ] [ ] [ ] [ ]3 43 43 4; 3

X X

X XX X

μ μγ = γ = −

σ σ (1.43)

La Figura 1.25 mostra l’effetto della media e della deviazione standard sulla forma della densità di probabilità. La media determina una traslazione della curva lungo l’asse delle ascisse, mentre la deviazione standard controlla l’ampiezza della curva (alla quale corrisponde un abbassamento per conservare l’area unitaria).

La Figura 1.26 mostra l’effetto di skewness e coefficiente di eccesso sulla forma della densità di probabilità. La condizione γ3 = 0 corrisponde ad una funzione simmetrica rispetto alla media; la condizione γ3 > 0 rappresenta la situazione in cui la densità di probabilità ha la coda di destra più alta della coda di sinistra. Una variabile aleatoria avente γ4 > 0 è detta super-kurtica e ha densità di probabilità alta sulla moda (ascissa corrispondente al picco) e sulle code; una variabile aleatoria avente γ4 < 0 è detta sub-kurtica e ha densità di probabilità bassa sulla moda e sulle code; il caso γ4=0 corrisponde alla distribuzione Gaussiana che verrà descritta nel seguito. Per lo studio delle code della distribuzione è generalmente conveniente diagrammare le funzioni di densità di probabilità con ordinata in scala logaritmica, come mostrato in Figura 1.27 per i casi già discussi in Figura 1.26.

Una variabile aleatoria è detta standardizzata se è centrata rispetto alla sua media e scalata in modo da avere varianza unitaria:

ˆ X

X

XX −μ=

σ (1.44)

da cui ovviamente risulta ˆ 0Xμ = e ˆ 1Xσ = .

Page 24: Dispense Probabilità (1.3)

24

(a) (b)

Figura 1.25. Densità di probabilità: influenza della media (a) e deviazione standard (b).

(a) (b)

Figura 1.26. Densità di probabilità: influenza skewness (a) e coefficiente di eccesso (b).

(a) (b)

Figura 1.27. Densità di probabilità (scala logaritmica): influenza skewness (a) e coefficiente di eccesso (b).

I momenti statistici della variabile aleatoria X possono essere stimati a partire da un insieme di sue realizzazioni xj (j = 1,…,n) attraverso un’espressione analoga alla (1.32)

[ ]1

1m En

k kk j

jX X x

n =

⎡ ⎤= ⎣ ⎦ ∑ (1.45)

-4 -3 -2 -1 0 1 2 3 410-3

10-2

10-1

100

ξ , η, ζ

p X( ξ

), p

Y( η

), p

Z( ζ)

-4 -3 -2 -1 0 1 2 3 410-3

10-2

10-1

100

ξ, η, ζ

p X( ξ

), p

Y( η

), p

Z( ζ)

-4 -3 -2 -1 0 1 2 3 40

0.1

0.2

0.3

0.4

0.5

0.6

0.7

ξ , η, ζ

p X( ξ

), p

Y( η

), p

Z( ζ)

γ3 = 0 γ4 = -0.5

γ3 = 0 γ4 = 5

γ3 = 0 γ4 = 0

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

ξ , η, ζ

p X( ξ

), p

Y( η

), p

Z( ζ)

γ3 = -0.5 γ4 = 0

γ3 = 0.5 γ4 = 0

γ3 = 0 γ4 = 0

-6 -4 -2 0 2 4 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

ξ, η

p X( ξ

), p

Y( η

)

μX = 0 σX = 1

μY = 0 σY = 2

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

ξ, η

p X( ξ

), p

Y( η

)

μX = 0 σX = 1

μY = 1 σY = 1

Page 25: Dispense Probabilità (1.3)

25

1.5.7 Funzione caratteristica di una variabile aleatoria continua Si definisce funzione caratteristica (o funzione generatrice dei momenti) della variabile aleatoria X, la funzione a valori complessi:

( ) ( ) ( )iE exp i e dXX XX p x x

∞ θ

−∞Φ θ = θ =⎡ ⎤⎣ ⎦ ∫ (1.46)

dove l’argomento θ è definito in . In base alla (1.46), la funzione caratteristica è la trasformata di Fourier della densità di probabilità, pertanto essa determina completamente la struttura probabilistica di X.

La funzione caratteristica può essere rappresentata attraverso la serie di McLaurin:

( ) ( )1 0

1 d0! d

kk

X X kk k

= θ=

ΦΦ θ = Φ + θ

θ∑ (1.47)

Operando per derivazione sulla (1.46), i termini della (1.47) risultano nella forma:

( )

[ ] ( )0

0 1

d i E i m 1,2,d

X

kk k k

kk X X kθ=

Φ =

Φ ⎡ ⎤= = =⎣ ⎦θ…

(1.48)

che, sostituendo nella (1.47), forniscono un’espressione della funzione caratteristica in termini di momenti statistici.

( ) [ ]1

i1 m!

kk

X kk

Xk

=

Φ θ = + θ∑ (1.49)

La (1.49) dimostra che, conoscendo i momenti statistici fino all’ordine infinito, è possibile rappresentare la funzione caratteristica e quindi la densità di probabilità. In questo senso, la conoscenza dei momenti statistici è equivalente alla conoscenza della distribuzione di probabilità, quindi determina completamente la struttura probabilistica della variabile aleatoria.

1.6 Modelli di variabili aleatorie Nel presente capitolo si introducono alcuni modelli probabilistici rilevanti per lo studio della meccanica delle vibrazioni e dell’affidabilità strutturale. Il modello normale (o Gaussiano) è descritto con maggiore enfasi in virtù delle sue caratteristiche probabilistiche e della sua importanza applicativa.

1.6.1 Distribuzione normale (o Gaussiana) Una variabile aleatoria X ha distribuzione normale (o Gaussaina) se la sua densità di probabilità è nella forma:

( )2

1 1exp22

XX

XX

p⎧ ⎫⎛ ⎞ξ −μ⎪ ⎪ξ = −⎨ ⎬⎜ ⎟σπσ ⎝ ⎠⎪ ⎪⎩ ⎭

(1.50)

Una variabile aleatoria X, con distribuzione normale μX e varianza σX2 è formalmente definita

attraverso l’espressione X = N(μX, σX2). La Figura 1.28 mostra la densità di probabilità di una

Page 26: Dispense Probabilità (1.3)

26

variabile aleatoria normale standardizzata; nel piano semilogaritmico la curva è costituita da una parabola.

(a) (b)

Figura 1.28. Densità di probabilità normale: ordinata in scala decimale (a) e logaritmica (b).

La distribuzione di probabilità è data dall’espressione:

( )2

1 1exp d22

XX

XX

−∞

⎧ ⎫⎛ ⎞α −μ⎪ ⎪ξ = − α⎨ ⎬⎜ ⎟σπσ ⎝ ⎠⎪ ⎪⎩ ⎭∫ (1.51)

che può essere scritta in forma analitica attraverso la funzione di errore

( ) 1 1 erf2

XX

X

F⎡ ⎤⎛ ⎞ξ−μ

ξ = +⎢ ⎥⎜ ⎟σ⎝ ⎠⎣ ⎦ (1.52)

Per ispezione della (1.50) è immediato verificare che se Y = aX + b, con a e b costanti deterministiche e X = N(μX, σX

2), allora Y = N(aμX + b, a2σX2).

La funzione caratteristica di una variabile Gaussiana può essere ottenuta calcolando la trasformata di Fourier della (1.50) e risulta:

( ) 2 21exp i2X X X

⎛ ⎞Φ θ = − μ θ− σ θ⎜ ⎟⎝ ⎠

(1.53)

Se X è una variabile aleatoria Gaussiana standardizzata, X = N(0,1), allora densità di probabilità e distribuzione di probabilità risultano:

( ) 21 1exp22Xp ⎛ ⎞ξ = − ξ⎜ ⎟π ⎝ ⎠

(1.54)

( ) ( )21 1exp d 1 erf

2 22XFξ

−∞

⎛ ⎞αξ = − α = + ξ⎡ ⎤⎜ ⎟ ⎣ ⎦π ⎝ ⎠

∫ (1.55)

( ) 21exp2X

⎛ ⎞Φ θ = − θ⎜ ⎟⎝ ⎠

(1.56)

Si osserva che la funzione caratteristica di una variabile Gaussiana standardizzata è formalmente identica alla corrispondente funzione densità di probabilità.

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

ξ

p X( ξ)

-4 -3 -2 -1 0 1 2 3 410-4

10-3

10-2

10-1

100

ξ

p X( ξ)

Page 27: Dispense Probabilità (1.3)

27

1.6.2 Distribuzione uniforme Una variabile aleatoria continua ha distribuzione uniforme se la sua densità di probabilità è espresso nella forma:

( ) ( ) ( )per1 /altrove0X

a bb ap a b

ξ⎧ −ξ = <⎨

< < (1.57)

Il modello uniforme è utilizzato quando una variabile aleatoria può assumere valori equiprobabili in un intervallo chiuso [a, b]. La funzione di distribuzione può essere ottenuta dalla (1.57) per integrazione e risulta:

( ) ( ) ( )0 per

/ per 1 per

X

aF a b a a b

b

ξ⎧⎪ξ = ξ − − ≤ ξ ≤⎨⎪ ξ⎩

<

>

(1.58)

La media e la varianza di una variabile aleatoria uniforme risultano:

( ) / 2X a bμ = + (1.59)

( )22 /12X

b aσ = − (1.60)

Figura 1.29. Densità e distribuzione di probabilità di una variabile aleatoria uniforme.

1.6.3 Modello log-normale Una variabile aleatoria X è della log-normale se Y = log(X) ha distribuzione normale. La densità di probabilità di una variabile log-normale è espressa nella forma:

( ) ( )2

2

log1 exp22X

mp

ss

⎛ ⎞ξ −ξ = −⎜ ⎟

⎜ ⎟ξ π ⎝ ⎠ (1.61)

dove m e s sono i parametri della distribuzione (e rappresentano, rispettivamente, la media e la deviazione standard di Y). La media e la varianza di X risultano:

( ) ( )

2

2 2 2

exp2

exp 2 exp 1

X

X

sm

m s s

⎛ ⎞μ = +⎜ ⎟

⎝ ⎠

σ = + −

(1.62)

Page 28: Dispense Probabilità (1.3)

28

1.6.4 Modello di Rayleigh Una variabile aleatoria X è detta di Rayleigh se ha densità di probabilità nella forma:

( )2

2 2exp2Xp

b b⎛ ⎞ξ ξ

ξ = −⎜ ⎟⎝ ⎠

(1.63)

dove b è il parametro della distribuzione.

1.6.5 Modello di binomiale Si consideri una successione di variabili aleatorie discrete, Xk (k = 1,2,…), aventi spazio campionario Ω = 0, 1. Si assuma che gli eventi legati a ogni possibile coppia di variabili aleatorie Xh e Xk (h,k = 1,2,…; h≠k) siano statisticamente indipendenti; sia inoltre P(Xk = 1) = p. La successione Xk è detta sequenza di Bernoulli. La funzione di probabilità di una variabile aleatoria di Bernoulli risulta dunque:

( ) ( )( ) ( )0 0 1

1 1k

k

X k

X k

P P X p

P P X p

= = = −

= = = (1.64)

Sia Ym una variabile aleatoria discreta definita come la somma dei primi m termini di una sequenza di Bernoulli (Figura 1.30):

1

m

m kk

Y X=

= ∑ (1.65)

Figura 1.30. Sequenza di Bernoulli (blu) e corrispondente sequenza binomiale (rosso).

La funzione di probabilità di Ym può essere ottenuta operando in modo ricorsivo. Per m=1, la funzione di probabilità di Ym = Y1 risulta:

( ) ( ) ( )( ) ( ) ( )

1

1

1 1

1 1

0 0 0 1

1 1 1Y

Y

P P Y P X p

P P Y P X p

= = = = = −

= = = = = (1.66)

Analogamente, per m=2, la funzione di probabilità di Ym = Y2 risulta (per il teorema dell’evento totale e per l’ipotesi di indipendenza statistica fra le variabili di Bernoulli):

0 5 10 15 20 25 300

1

2

3

4

5

6

7

8

9

k

X k, Y

k

Page 29: Dispense Probabilità (1.3)

29

( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) ( )( ) ( ) ( )

2

2

2

22 1 2

2 1 2 1 2

22 1 2

0 0 0 0 1

1 1 1 0 0 1 2 1

2 2 1 1

Y

Y

Y

P P Y P X X p

P P Y P X X X X p p

P P Y P X X p

= = = = ∩ = = −

= = = = ∩ = ∪ = ∩ = = −

= = = = ∩ = =

(1.67)

Le (1.66) e (1.67) possono essere generalizzate, per un m qualsiasi in , attraverso l’espressione:

( ) ( ) ( )1m

mY m

mP P Y p p −ηη⎛ ⎞

η = = η = −⎜ ⎟η⎝ ⎠ (1.68)

dove il binomio di Newton è espresso nella forma:

( )

!! !

m mm

⎛ ⎞=⎜ ⎟η η −η⎝ ⎠

(1.69)

Sostituendo la (1.68) nell’espressione di media e varianza risulta:

( )2 1

m

m

Y

Y

mp

mp p

μ =

σ = − (1.70)

da cui si evince che la media e la varianza di una variabile binomiale sono lineari in m.

Esempio 1.12. Squenze di Bernoulli e variabili binomiali

Il codice riportato in Figura 1.31 simula una serie di sequenze di Bernoulli di lunghezza n e la variabile Binomiale Ym ottenuta per m = n. La stima di media (Figura 1.32a), varianza (Figura 1.32b) e funzione di probabilità (Figura 1.33) è effettuata applicando la definizione frequentista di probabilità. I risultati della stima sono confrontati con quanto previsto dal modello binomiale.

Page 30: Dispense Probabilità (1.3)

30

Nseq = 10000; % numero realizzazioni n = 30; % numero esperimenti di Bernoulli p = 0.2; % prob. di successo esperimenti di Bernoulli X = rand(n,Nseq) >= (1-p); % sequenza di Bernoulli Y = cumsum(X); % sequenza binomiale m = n; % considero m = n esperimenti % stima funzione di probabilità dai dati [PY_data, eta_data] = pf1(Y(m,:)); % modello binomiale eta = 0:m; % ascissa per PY PY_bi = factorial(m)./factorial(eta)./factorial(m-eta) .* (p.^eta) .* ((1-p).^(m-eta)); figure(1) plot(1:n,mean(Y,2),'--.b', 1:n,(1:n)*p,'-r') xlabel('m') ylabel('\mu_Y_m') figure(2) plot(1:n,var(Y,[],2),'--.b', 1:n,(1:n)*(1-p)*p,'-r') xlabel('m') ylabel('\sigma^2_Y_m') figure(3) bar(eta_data,PY_data) hold on plot(eta, PY_bi,'-*r') hold off xlabel('\eta') ylabel('p_Y_m(\eta)') xlim([0 20])

Figura 1.31. Codice Matlab per simulazione di sequenze di Bernoulli e binomiali; stima di media, varianza e funzione di probabilità della variabile binomiale.

(a) (b)

Figura 1.32. Media (a) e varianza (b) della variabile binomiale simulata nel codice di Figura 1.31: stima dai dati (blu), modello (rosso).

0 5 10 15 20 25 300

1

2

3

4

5

6

m

μ Ym

0 5 10 15 20 25 300

0.5

1

1.5

2

2.5

3

3.5

4

4.5

5

m

σ2 Y

m

Page 31: Dispense Probabilità (1.3)

31

Figura 1.33. Funzione di probabilità della variabile binomiale simulata nel codice di Figura 1.31: stima dai dati (blu), modello (rosso).

1.6.6 Modello di Poisson (distribuzione esponenziale) Una variabile aleatoria discrete Y ha distribuzione di Poisson se la sua funzione di probabilità è nella forma:

( ) ( ) ( )exp 0,1,!YPηλ

η = −λ η=η

… (1.71)

Dalla (1.71) risulta, evidentemente, che PY(0) = e-λ; inoltre μY = σY2 = λ. Al variare del parametro λ,

la funzione di probabilità assume le forme mostrate in Figura 1.34.

Figura 1.34. Funzione di probabilità di una variabile di Poisson al variare del parametro λ.

Una variabile aleatoria di Poisson, Y, può essere interpretata come il limite, per m → ∞, di una sequenza binomiale Ym derivata da una sequenza di Bernoulli Xk avente probabilità di successo p→0. In tal caso la variabile Y è definita dal parametro λ = mp.

0 2 4 6 8 10 12 14 16 18 200

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

0.2

η

p Ym( η

)

0 2 4 6 8 10 120

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

η

PY

( η)

λ = 0.7

λ = 2.5

λ = 5.0

Page 32: Dispense Probabilità (1.3)

32

La Figura 1.34 mostra la funzione di probabilità di tre variabili aleatorie binomiali definite, rispettivamente, dai parametri m = 10, 20 e 100 e p = 0.50, 0.25, 0.05 (blu) e di una variabile aleatoria di Poisson definita dal parametro λ = 5.

Esempio 1.13. Convergenza di variabili binomiali (blu) a una variabile di Poisson (rosso)

0 1 2 3 4 5 6 7 8 9 100

0.05

0.1

0.15

0.2

0.25

η

PYm

( η),

PY

( η)

m = 20

m = 100

m = 10

Page 33: Dispense Probabilità (1.3)

33

1.7 Rappresentazione della relazione probabilistica fra due grandezze Nei paragrafi precedenti si è discusso su come rappresentare, probabilisticamente, variabili aleatorie continue e discrete. In molte applicazioni è necessario rappresentare contemporaneamente più variabili aleatorie e definirne le mutue relazioni statistiche che le governano. Ad esempio, ha senso chiedersi quale sia la relazione statistica che intercorre il modulo elastico di un provino di acciaio e la sua tensione si snervamento, oppure fra la velocità del vento (in un determinato luogo, ad un certo istante) e la sua direzione.

Al fine di sviluppare strumenti per rappresentare la mutua relazione probabilistica fra diverse grandezze, si considerino due variabili aleatorie, X e Y, con valori in . Per semplicità si assuma che X e Y siano variabili aleatorie continue.

1.7.1 Distribuzione congiunta di probabilità La distribuzione congiunta di probabilità, FXY(ξ,η), delle variabili aleatorie X e Y è, per definizione, la probabilità che si verifichi l’evento X ≤ ξ ∩ Y ≤ η per la generica coppia di valori ξ e η in :

( ) ( ),XYF P X Yξ η = ≤ ξ∩ ≤ η (1.72)

In questo contesto, le distribuzioni di probabilità FX(ξ) e FY(η) delle variabili aleatorie X e Y (considerate separatamente) sono chiamate distribuzioni marginali di probabilità. In generale, la conoscenza delle distribuzioni marginali non è sufficiente a definire la distribuzione congiunta; viceversa, nota la distribuzione congiunta, le marginali risultano:

( ) ( ) ( )( ) ( ) ( )

,

,X XY

Y XY

F P X Y F

F P X Y F

ξ = ≤ ξ∩ ≤ ∞ = ξ +∞

η = ≤ +∞∩ ≤ η = +∞ η

+ (1.73)

La distribuzione congiunta di probabilità gode delle seguenti proprietà (dimostrabili facilmente attraverso la definizione (1.72) e gli assiomi della teoria della probabilità):

( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )

, 0

, 0

, 0

, 1

XY

XY

XY

XY

F P X Y P

F P X Y P

F P X Y P

F P X Y P

−∞ η = ≤ −∞∩ ≤ η = ∅ =

ξ −∞ = ≤ ξ∩ ≤ −∞ = ∅ =

−∞ −∞ = ≤ −∞∩ ≤ −∞ = ∅ =

+∞ +∞ = ≤ +∞∩ ≤ +∞ = Ω =

(1.74)

Inoltre, con semplici passaggi è possible dimostrare che FXY(ξ,η) è una funzione non-decrescente di ξ, η:

( ) ( ) ( )( ) ( ) ( )

2 1 2 1

2 1 2 1

, ,

, ,XY XY

XY XY

F F

F F

ξ η ≥ ξ η ξ > ξ

ξ η ≥ ξ η η > η (1.75)

cioè la distribuzione congiunta di probabilità è una funzione non-decrescente di ξ e η.

1.7.2 Densità congiunta di probabilità Si consideri le variabili aleatorie X e Y definite dalla distribuzione congiunta di probabilità FXY(ξ,η), supposta derivabile per ogni ξ e η in , salvo che, al più, in insiemi di misura nulla (punti o linee). Si definisce densità di probabilità congiunta:

Page 34: Dispense Probabilità (1.3)

34

( ) ( )2 ,, XY

XY

Fp

∂ ξ ηξ η =

∂ξ∂η (1.76)

Per la (1.75), la densità di probabilità risulta non-negativa. La (1.76) può essere invertita applicando il teorema fondamentale del calcolo integrale (in forma bi-dimensionale)

( ) ( ), , d dXY XYF pξ η

−∞ −∞ξ η = α β α β∫ ∫ (1.77)

per la quale il valore della distribuzione congiunta nel punto (ξ, η) corrisponde al volume sotteso dalla densità congiunta nel dominio definito dai punti (α, β) con α ≤ ξ e β ≤ η.

(a) (b)

Figura 1.35. Distribuzione congiunta (a) e densità congiunta (b) di probabilità di due variabili aleatorie continue.

Applicando il teorema dell’evento totale, è possibile dimostrare le relazioni (Figura 1.36):

( ) ( ) ( )( ) ( )

( ) ( ) ( ) ( )

( )2 2

1 1

1 2 1 2 2 2 1 2

2 1 1 1

2 2 1 2 2 1 1 1, , , ,

, d d

XY XY XY XY

XY

P X Y P X Y P X Y

P X Y P X Y

F F F F

pξ η

ξ η

ξ ≤ ≤ ξ ∩η ≤ ≤ η = ≤ ξ ∩ ≤ η − ≤ ξ ∩ ≤ η +

− ≤ ξ ∩ ≤ η + ≤ ξ ∩ ≤ η =

= ξ η − ξ η − ξ η + ξ η =

= α β α β∫ ∫

(1.78)

Figura 1.36. Rappresentazione grafica dell’equazione (1.78).

-10-5

05

10

-10

0

100

0.2

0.4

0.6

0.8

1

ξη

F XY

( ξ, η

)

-10-5

05

10

-10

0

100

0.005

0.01

0.015

ξη

p XY

( ξ, η

)

ξ

η

η1

η2

ξ1 ξ2

Page 35: Dispense Probabilità (1.3)

35

Da cui discenda, per l’assioma di normalizzazione della probabilità:

( ), d d 1XYp+∞ +∞

−∞ −∞ξ η ξ η =∫ ∫ (1.79)

Riscrivendo la (1.78) per η1 = -∞ e η2 = +∞, si ottiene, per definizione, la distribuzione marginale di probabilità della variabile X

( ) ( ) ( )

( )1 2 1 2

, d d

X

XY

P X Y P X F x

pξ +∞

−∞ −∞

ξ ≤ ≤ ξ ∩−∞ ≤ ≤ ∞ = ξ ≤ ≤ ξ =

= α β α β∫ ∫ (1.80)

la quale, derivata rispetto a ξ fornisce la densità marginale di probabilità:

( ) ( ), dX XYp p+∞

−∞ξ = ξ β β∫ (1.81)

Operando analogamente rispetto alla variabile η, si ottiene la densità marginale di probabilità della variabile aleatoria Y:

( ) ( ), dY XYp p+∞

−∞η = α η α∫ (1.82)

1.7.3 Variabili aleatorie statisticamente indipendenti Due eventi A e B sono definititi statisticamente indipendenti se la probabilità composta della loro occorrenza è pari al prodotto della probabilità di occorrenza dei due eventi considerati singolarmente (P(A∩B) = P(A)P(B)). Due variabile aleatorie X e Y si definiscono statisticamente indipendenti se gli eventi X ≤ ξ e Y ≤ η sono statisticamente indipendenti. Da questa definizione segue immediatamente che, se X e Y sono statisticamente indipendenti, allora la distribuzione (densità) congiunta di probabilità è pari al prodotto delle distribuzioni (densità) marginali:

( ) ( ) ( )( ) ( ) ( )

,

,XY X Y

XY X Y

F F F

p p p

ξ η = ξ η

ξ η = ξ η (1.83)

1.7.4 Valore attesso Nel paragrafo 1.5.5 si introduce il concetto di valore atteso, definito come la media di tutti i possibili valori realizzabili da una variabile aleatoria X, pesati attraverso la loro probabilità di occorrenza. Attraverso l’equazione (1.34) il concetto di valore atteso è esteso ad una variabile aleatoria Y = f(X) definita, a partire dalla variabile aleatoria X, attraverso la funzione deterministica f.

In questo paragrafo si considera una variabile aleatoria Z definita attraverso una funzione deterministica f(X,Y) sulla base di due variabili aleatorie X e Y. Il valore atteso della variabile aleatoria Z è definito come la media dei possibili valori ζ = f(ξ,η) assunti da Z, pesati attraverso la loro probabilità di occorrenza pXY(ξ,η)dξdη:

[ ] ( ) ( ) ( )E E , , , d dXYZ f X Y f p∞ ∞

−∞ −∞

= = ξ η ξ η ξ η⎡ ⎤⎣ ⎦ ∫ ∫ (1.84)

Page 36: Dispense Probabilità (1.3)

36

1.7.5 Correlazione e covarianza Date due variabili aleatorie X e Y, si definisce correlazione il valore atteso del loro prodotto:

[ ] ( )E , d dXY XYR XY p∞ ∞

−∞ −∞

= = ξη ξ η ξ η∫ ∫ (1.85)

Dalla definizione si evince che la correlazione di X rispetto a X stessa coincide con la media quadratica (RXX = ϕX

2).

Si definisce covarianza il valore atteso del prodotto delle variabili X e Y centrate rispetto alla loro media:

( )( ) ( )( ) ( )E , d dXY X Y X Y XYC X Y p∞ ∞

−∞ −∞

= −μ −μ = ξ −μ η−μ ξ η ξ η⎡ ⎤⎣ ⎦ ∫ ∫ (1.86)

La covarianza della variabile aleatoria X rispetto a se stessa coincide con la varianza (CXX = σX2).

Correlazione e covarianza sono legate dalla relazione:

XY XY X YR C= +μ μ (1.87)

Si definisce covarianza normalizzata (o coefficiente di correlazione) il rapporto:

ˆ ˆEXYXY

X Y

C XY⎡ ⎤ρ = = ⎣ ⎦σ σ (1.88)

dove X e Y sono le versioni standardizzate di X e Y.

Le variabili aleatorie X e Y sono dette non-correlate se le loro covarianza CXY è nulla. Se X e Y sono statisticamente indipendenti, allora sono anche non-correlate. Questa affermazione può essere facilmente verificata ricordando che se X e Y sono statisticamente indipendenti, allora la loro densità di probabilità congiunta può essere fattorizzata nella forma: pXY(ξ,η) = pX(ξ)pY(η). Sostituendo nella (1.86) si dimostra immediatamente che CXY=0.

L’implicazione opposta non è, in generale, vera: due variabili aleatorie non-correlate non sono, in generale, statisticamente indipendenti.

La covarianza e la covarianza normalizzata sono limitate dalle relazioni:

1

XY X Y

XY

C ≤ σ σ

ρ ≤ (1.89)

Nelle quali l’uguaglianza si verifica nel caso X è Y sono legate da una relazione lineare del tipo Y=aX + b. La (1.89) può essere dimostrata notando che la seguente disuguaglianza è valida per ogni a in

( ) ( )( )2E 0X Ya X Y a⎡ ⎤−μ + −μ ≥ ∀ ∈⎣ ⎦

(1.90)

Espandendo l’espressione contenuta nel valore atteso e utilizzando le definizioni di varianza e covarianza, si ottiene la disequazione di secondo grado:

Page 37: Dispense Probabilità (1.3)

37

2 2 22 0X XY Ya C a aσ + + σ ≥ ∀ ∈ (1.91)

La quale è soddisfatta a condizione che il discriminante sia minore o usiale a zero; dunque:

2 2 2 0XY X YC −σ σ ≤ (1.92)

da cui discendono banalmente le (1.89).

1.7.6 Modello normale bi-variato Due variabili aleatorie X e Y sono dette congiuntamente normali se la loro densità di probabilità congiunta è fornita dalla relazione:

( ) ( )( ) ( ) ( )( )2 2

2 222

21 1, exp2 12 1

X Y XY X YXY

X Y X YXYX Y XY

p⎛ ⎞⎛ ⎞ξ −μ η−μ ρ ξ−μ η−μ⎜ ⎟ξ η = − + −⎜ ⎟

⎜ ⎟⎜ ⎟σ σ σ σ−ρπσ σ −ρ ⎝ ⎠⎝ ⎠(1.93)

Page 38: Dispense Probabilità (1.3)

38

2 Processi aleatori Un processo stocastico (o aleatorio) è una legge che associa, ad ogni punto ω dello spazio campionario Ω una funzione x(t) dipendente da un parametro t (nelle applicazioni trattate nel seguito rappresenterà sempre il tempo). In questo senso, un processo aleatorio può essere interpretato come la generalizzazione del concetto si variabile aleatoria, ammettendo che questa assuma valori nello spazio delle funzioni, anziché in .

2.1 Definizioni Si consideri un esperimento il cui risultato è una funzione del tempo (l’accelerazione sismica del suolo, la velocità del vento, la risposta di un sistema dinamico). Ogni storia temporale x(t) derivante da un esperimento è interpretata come una possibile realizzazione di un processo aleatorio X(t). Le realizzazioni sono dette funzioni campione (Figura 2.1).

Figura 2.1. Funzioni campione.

Un processo aleatorio X(t) può essere interpretato come un contenitore per le funzioni x(j)(t) (j=1,2,…) ottenute in corrispondenza del risultato ωj di un qualche esperimento (o osservazione). In questo senso, fissando il parametro t = t1, il processo aleatorio si reduce ad una variabile aleatoria X1=X(t1), mentre fissando l’indice j, il processo aleatorio si riduce ad una funzione deterministica (Figura 2.2).

Figura 2.2. Variabile aleatoria estratta da un processo aleatorio.

Page 39: Dispense Probabilità (1.3)

39

Si considerino un insieme di variabili aleatorie X1,...,Xn estratte dal processo X(t) in corrispondenza degli istanti t = t1,...,tn (Figura 2.3). La loro completa descrizione probabilistica è fornita dalla densità di probabilità congiunta:

( ) ( ) ( ) ( ) ( )1 2 1 21 2 1 2, , , , , ,

n nX X X n nX t X t X tp pξ ξ ξ = ξ ξ ξ… …… … (2.1)

È chiaro che la (2.1) descrive il processo aleatorio X(t) tanto più accuratamente quanto più grande è l’ordine della distribuzione congiunta considerata. Si deve osservare, tuttavia che anche se si arrivasse idealmente a considerare una distribuzione congiunta di ordine infinito, estraendo un numero infinito di variabili aleatorie dal processo X(t), si tratterebbe comunque di una rappresentazione parziale3 del processo aleatorio, perché esso è formato da un’infinità non-numerabile di variabili aleatorie. Questo tipo di rappresentazione è comunque sufficiente per gli scopi della presente trattazione.

Figura 2.3. Insieme di variabili aleatorie estratte da un processo aleatorio.

2.1.1 Medie statistiche del primo ordine Si consideri la variabile aleatoria X1 estratta dal processo X(t) per t = t1. Essa è completamente descritta dalla densità di probabilità pX(t1)(ξ). Le medie statistiche del primo ordine includono i momenti statistici della variabile aleatoria X1 = X(t1). In particolare, la media, la media quadratica e la varianza del processo aleatorio X(t) sono definite attraverso le relazioni:

( ) ( ) ( )( )11 1 1 1 1dX X tt E X t p

−∞μ = = ξ ξ ξ⎡ ⎤⎣ ⎦ ∫ (2.2)

( ) ( ) ( )( )1

22 21 1 1 1 1dX X tt E X t p

−∞⎡ ⎤ϕ = = ξ ξ ξ⎣ ⎦ ∫ (2.3)

( ) ( ) ( )( ) ( )( ) ( )( )1

2221 1 1 1 1 1 1dX X X X tt E X t t t p

−∞⎡ ⎤σ = −μ = ξ −μ ξ ξ⎣ ⎦ ∫ (2.4)

e sono dunque funzioni (deterministiche) del tempo. La varianza e la media quadratica sono legate dalla relazione:

3 Una rappresentazione completa di un processo aleatorio può essere ottenuta attraverso il funzionale caratteristico (generalizzazione della funzione caratteristica definita per le variabili aleatorie).

Page 40: Dispense Probabilità (1.3)

40

( ) ( )2 2 21 1 1( )

X XXt t tσ = ϕ −μ (2.5)

2.1.2 Medie statistiche del secondo ordine Si considerino due variabili aleatorie X1 e X2 estratte dal processo X(t) nei due istanti t = t1 e t = t2. Le medie statistiche del secondo ordine coinvolgono la rappresentazione congiunta delle variabili X1 e X2, estratte dal processo per ogni possibile coppia di istanti t1 e t2. Ciò avviene, in generale, attraverso la funzione di densità di probabilità congiunta pX(t1)X(t2)(ξ1, ξ2), oppure attraverso momenti statistici congiunti quali correlazione e covarianza. Si definiscono auto-correlazione e auto-covarianza le due seguenti grandezze:

( ) ( ) ( ) ( ) ( )( )1 21 2 1 2 1 2 1 2 1 2, E , d dXX X t X tR t t X t X t p

∞ ∞

−∞ −∞

= = ξ ξ ξ ξ ξ ξ⎡ ⎤⎣ ⎦ ∫ ∫ (2.6)

( ) ( ) ( )( ) ( ) ( )( )

( )( ) ( )( ) ( ) ( )( )1 2

1 2 1 1 2 2

1 1 2 2 1 2 1 2

, E

, d d

XX X X

X X X t X t

C t t X t t X t t

t t p∞ ∞

−∞ −∞

⎡ ⎤= −μ −μ =⎣ ⎦

= ξ −μ ξ −μ ξ ξ ξ ξ∫ ∫ (2.7)

da cui si evince che l’auto-correlazione e l’auto-covarianza sono funzioni deterministiche in 2 e sono legate dalla relazione:

( ) ( ) ( ) ( )1 2 1 2 1 2, ,XX XX X XC t t R t t t t= −μ μ (2.8)

L’auto-covarianza normalizzata è definita dal rapporto:

( ) ( )( ) ( )

1 21 2

1 2

,, XX

XXX X

C t tt t

t tρ =

σ σ (2.9)

Dalle (2.6), (2.7) e (2.9) discendono immediatamente le seguenti proprietà:

( ) ( )( ) ( )( ) ( )( )( ) ( )( )

1 2 2 1

1 2 2 1

1 2 2 1

21 1 1

21 1 1

1 1

, ,

, ,

, ,

, ( )

,

, 1X

XX XX

XX XX

XX XX

XX X

XX

XX

R t t R t t

C t t C t t

t t t t

R t t t

C t t t

t t

=

=

ρ = ρ

= ϕ

= σ

ρ =

(2.10)

2.2 Processi aleatori stazionari Un processo aleatorio è definito stazionario se la sua densità di probabilità congiunta di ordine n è indipendente da una traslazione τ dell’origine dell’asse del tempo.

Page 41: Dispense Probabilità (1.3)

41

( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( )

1 1

1 2 1 2

1 1

1 1

1 2 1 2

1 1

, ,

, , , ,n n

X t X t

X t X t X t X t

n nX t X t X t X t

p p

p p

p p

+τ +τ

+τ +τ

ξ = ξ

ξ ξ = ξ ξ

ξ ξ = ξ ξ… …… … (2.11)

Ponendo τ = -t1, si verifica immediatamente che la (2.11) implica le seguenti proprietà:

1. La densità di probabilità del primo ordine è indipendente dal tempo t1; 2. La densità di probabilità congiunta di ordine 2 dipende soltanto dalla distanza t2 – t1 dei due

istanti considerati; 3. La densità di probabilità congiunta di ordine n dipende dalle n – 1 distanze t2 – t1, t3 – t2, …,

tn – tn-1 fra gli n istanti considerati per l’estrazione delle variabili aleatorie.

Un processo aleatorio X(t) è detto debolmente stazionario se le condizioni (2.11) sono verificate per n ≤ 2.

Dalle (2.11) è immediate dimostrare che le medie statistiche del primo ordine di un processo (debolmente) stazionario sono indipendenti dal tempo:

( ) ( ) ( )

( ) ( ) ( )

( )( ) ( ) ( ) ( )

22 2

2 22

E d

E d

E d

X X t

X X t

X X X X t

X t p

X t p

X t p

−∞

−∞

−∞

μ = = ξ ξ ξ⎡ ⎤⎣ ⎦

⎡ ⎤ϕ = = ξ ξ ξ⎣ ⎦

⎡ ⎤σ = −μ = ξ−μ ξ ξ⎣ ⎦

(2.12)

Analogamente, le medie statistiche del secondo ordine di un processo (debolmente) stazionario dipendono dalla distanza τ = t2 – t1 fra i due istanti considerati per estrarre le variabili aleatorie. Tale distanza è detta tempo di ritardo (o time lag):

( ) ( ) ( ) ( ) ( ) ( )

( ) ( )( ) ( )( )

( )( ) ( ) ( ) ( )

( ) ( )2

E , ; d d

E

, ; d d

XX X t X t

XX X X

X X X t X t

XXXX

X

R X t X t p

C X t X t

p

C

∞ ∞

+τ−∞ −∞

∞ ∞

+τ−∞ −∞

τ = + τ = ξη ξ η τ ξ η⎡ ⎤⎣ ⎦

⎡ ⎤τ = −μ + τ −μ =⎣ ⎦

= ξ −μ η−μ ξ η τ ξ η

τρ τ =

σ

∫ ∫

∫ ∫ (2.13)

È immediato verificare che le funzioni definite dalle (2.13) soddisfano le seguenti proprietà:

Page 42: Dispense Probabilità (1.3)

42

( ) ( )( ) ( )( ) ( )( )( )( )

2

2

0

0

0 1

XX XX

XX XX

XX XX

XX X

XX X

XX

R R

C C

R

C

−τ = τ

−τ = τ

ρ −τ = ρ τ

= ϕ

= σ

ρ =

(2.14)

Inoltre, per la (1.89) risulta:

( )( )

2

1XX X

XX

C τ ≤ σ

ρ τ = (2.15)

Un’ulteriore proprietà dell’auto-covarianza può essere dedotta da considerazioni di natura fisica. Quando le due variabili aleatorie X(t1) e X(t2) utilizzate per valutare la covarianza sono estratte in istanti molto distanti tra loro (|τ|→∞), queste variabili aleatorie tendono ad essere statisticamente indipendenti e quindi non-correlate. Da ciò risulta la proprietà:

( )lim 0XXCτ→∞

τ = (2.16)

Mentre le proprietà (2.14) e (2.15) hanno origine matematica e sono sempre rigorosamente soddisfatte, la (2.16) ha un’origine di natura fisica e, in alcuni casi, può cadere in difetto. I processi aleatori per i quali la (2.16) è valida sono detti a memoria finita.

La Figura 2.4 mostra una tipica funzione di auto-covarianza di un processo stazionario.

Figura 2.4. Funzioni di auto-covarianza di un processo stazionario.

It is worth noting that a necessary condition to define a process as rigorously stationary is that the process has no beginning and no end; in other words, each sample function of the process shall be defined for any time belonging to .

In the reality the hypothesis of stationarity is widely and reasonably applied when the nonstationary effects associated with the beginning of the process have a short duration in comparison with the length of the process itself. Based on this remark, the probabilistic concepts of stationarity and non-stationarity are clearly linked with the deterministic concepts of transient and quasi-steady regime.

Page 43: Dispense Probabilità (1.3)

43

It is also worth noting that in structural dynamics the hypothesis of stationarity is frequently used when the fundamental period of oscillation is much shorter than the duration T of the exciting force. It follows that the stationarity hypothesis is normally used to study wind actions (T ~ 600 – 3600 s). The same hypothesis is much questionable (and even more often unreliable) for seismic actions (T = 15 – 30s).

2.2.1 Medie temporali di una funzione campione All the quantities and the functions defined above have been deduced through statistical averages carried out on the whole of the sample functions of the process; this operation involves the knowledge of the density functions of the process.

Analogous quantities may be defined with reference to each sample function x(t) of the process, calculating suitable averages in the time domain. These averages are called temporal averages.

The following treatment deals with stationary processes and their sample functions. It also presumes that the sample functions x(t) are defined on an unlimited temporal interval T ( )+∞<<∞− t .

The (temporal) mean of a sample function is defined as:

( )/2

/2

1lim dT

TTx x t t

T −→∞= ∫ (2.17)

The mean square value of a sample function is defined as:

( )/22 2

/2

1lim dT

TTx x t t

T −→∞= ∫ (2.18)

The variance of a sample function is defined as:

( )/2 22 2 2 2

/2

1lim dT

TTx x x t x t x x

T −→∞− = − = −⎡ ⎤⎣ ⎦∫ (2.19)

The auto-correlation function of a sample function is defined as:

( ) ( ) ( )/2

/2

1limT

xx TTr x t x t dt

T −→∞τ = + τ∫ (2.20)

The auto-covariance function of a sample function is defined as:

( ) ( ) ( ) ( )/2 2

/2

1limT

xx xxTTc x t x x t x dt r x

T −→∞τ = − + τ − = τ −⎡ ⎤ ⎡ ⎤⎣ ⎦ ⎣ ⎦∫ (2.21)

The functions rXX(τ) and cXX(τ) have analogous properties to the functions RXX(τ) and CXX(τ).

Le medie temporali del primo ordine di una funzione campione possono essere interpretate come realizzazioni di variabili aleatorie che, in generale, assumono un valore diverso per ogni realizzazione del processo aleatorio. In altri termini, le medie temporali di una funzione campione sono realizzazioni di variabili aleatorie generate del medesimo punto campionario ω che ha generato la funzione campione.

Page 44: Dispense Probabilità (1.3)

44

Analogamente, le medie temporali del secondo ordine di una funzione campione di un processo stazionario possono essere interpretate come realizzazioni di processi aleatori (funzioni aleatorie del tempo di ritardo τ).

È semplice verificare che, se X(t) è un processo stazionario, allora i valori attesi delle sue medie temporali coincidono con le corrispondenti medie statistiche (per la dimostrazione è sufficiente applicare l’operatore di valore atteso alle (2.17) - (2.21)). Risulta dunque:

( ) ( )( ) ( )

2 2

2 2 2

E

E

E

E

E

X

X

X

XX XX

XX XX

X

X

X X

R

C

⎡ ⎤μ = ⎣ ⎦⎡ ⎤ϕ = ⎣ ⎦⎡ ⎤σ = −⎣ ⎦

τ = τ⎡ ⎤⎣ ⎦τ = τ⎡ ⎤⎣ ⎦

R

C

(2.22)

dove le lettere maiuscole sopralineate rappresentano le variabili aleatorie le cui realizzazioni sono definite dai simboli minuscoli corrispondenti, mentre RXX(τ) e CXX(τ) sono i processi aleatori aventi rXX e cXX come (generiche) funzioni campione.

2.2.2 Processi aleatori ergodici Un processo aleatorio stazionario è detto ergodico se le medie temporali di ogni sua realizzazione sono coincidenti, cioè se le medie temporali delle sue realizzazioni sono deterministiche. In questo caso, le medie statistiche coincidono con le medie temporali calcolate a partire da una qualsiasi funzione campione, purché sufficientemente lunga (a rigore di lunghezza infinita):

( ) ( )( ) ( )

2 2

2 2 2

X

X

X

XX XX

XX XX

X

X

X XR

C

μ =

ϕ =

σ = −

τ = τ

τ = τ

R

C

(2.23)

2.2.3 Rappresentazione nel dominio della frequenza di processi stazionari L’analisi dei sistemi dinamici (deterministici) lineari è svolta in modo conveniente operando nel dominio della frequenza. In questo modo, la trasformata di Fourier della risposta dinamica a regime è ottenuta moltiplicando la trasformata di Fourier dell’eccitazione per la funzione di risposta in frequenza del sistema dinamico. Allo scopo di estendere questi concetti all’analisi di sistemi lineari con eccitazione aleatoria, è necessario introdurre una rappresentazione nel dominio della frequenza di processi aleatori.

Nel caso di processi stazionari l’introduzione del concetto di trasformata di Fourier è piuttosto complicato. Ciò è dovuto al fatto che la trasformata di Fourier di una funzione deterministica esiste se e solo se questa è assolutamente integrabile (l’integrale del suo valore assoluto è finito). Per contro, le funzioni campione di un processo stazionario non sono assolutamente integrabili, perché non si estinguono per |t|→∞. Da un punto di vista matematico, questo problema può essere risolto in molti modi. Di seguito viene descritto quello matematicamente più semplice, che fa uso del concetto di limite.

Page 45: Dispense Probabilità (1.3)

45

Sia x(t) una realizzazione del processo stazionario X(t) (per semplicità supposto a media nulla) e sia xT(t) la funzione ottenuta “finestrando” x(t) in t∈(-T/2 T/2).

( ) ( ) per ,2 2

0 altrimentiT

T Tx t tx t

⎧ ⎛ ⎞∈ −⎪ ⎜ ⎟= ⎝ ⎠⎨⎪⎩

(2.24)

Si supponga che xT(t) sia assolutamente integrabile per ogni T finito. La trasformata di Fourier di xT è fornita dalla relazione:

( ) ( ) ( )/2i i

/2e d e d

Tt tT T T

x x t t x t t∞ − ω − ω

−∞ −ω = =∫ ∫ (2.25)

Ed esiste per ogni T finto, Mentre la xT(t) può essere espressa nella forma:

( ) ( )i1 e d2

tT Tx t x

∞ω

−∞

= ω ωπ ∫ (2.26)

Si definisce energia della funzione xT(t) la grandezza scalare:

( ) ( ) ( )/22 2

/2Enrg

T

T

T Tx t x t dt x t dt

−∞ −= =⎡ ⎤⎣ ⎦ ∫ ∫ (2.27)

Essendo xT(t) una realizzazione di un processo aleatorio XT(t), l’energia può essere interpretata come una variabile aleatoria. Il nome energia associato alla grandezza definita dalla (2.27) è dovuto al fatto che essa corrisponde (a meno di una costante) all’energia cinetica nel caso in cui x(t) rappresenta una velocità o all’energia potenziale, nel caso in cui x(t) rappresenti lo spostamento di un sistema elastico. Il limite per T→∞ dell’energia diverge quando x(t) è una realizzazione di un processo stazionario. Si definisce potenza della funzione xT(t) la grandezza scalare:

( ) ( ) ( )/22 2

/2

1 1PwrT

T

T Tx t x t dt x t dt

T T∞

−∞ −= =⎡ ⎤⎣ ⎦ ∫ ∫ (2.28)

Confrontando la (2.28) con la (2.18) si osserva che il limite per T→∞ della potenza coincide con la media quadratica temporale di x(t):

( ) ( )2 21lim Pwr lim dT TT Tx x t x t t

T

→∞ →∞−∞

= =⎡ ⎤⎣ ⎦ ∫ (2.29)

La varianza del processo X(t) corrisponde con il valore atteso della media quadratica temporale (X è a media nulla per ipotesi), quindi risulta:

( )2 2 21E E lim dX TTX X t t

T

→∞−∞

⎡ ⎤⎡ ⎤σ = = ⎢ ⎥⎣ ⎦ ⎣ ⎦∫ (2.30)

dove, l’integrale del processo XT(t) può essere interpretato come una variabile aleatorie le cui realizzazioni sono ottenute integrando le funzioni campione xT(t) di XT(t). L’integrale nella (2.29) può essere riscritto applicando il teorema di Parseval nella forma:

Page 46: Dispense Probabilità (1.3)

46

( ) ( ) 22 1d d2T Tx t t x

∞ ∞

−∞ −∞

= ω ωπ∫ ∫ (2.31)

La (2.31) è valida per ogni realizzazione xT(t), quindi può essere applicata per riscrivere la (2.30) nella forma:

( )2 dX XXS∞

−∞

σ = ω ω∫ (2.32)

dove

( )( )

2

1 lim2

TXX T

XS

T→∞

ωω =

π (2.33)

In qui ( )TX ω è il processo aleatorio (funzione della frequenza) le cui realizzazioni sono le trasformate di Fourier ( )Tx ω ; la funzione SXX(ω) è detta densità di potenza spettrale (Power Spectral Density, PSD). Dalla (2.33) si deduce che la densità di potenza spettrale è una funzione reale non-negativa.

L’auto-covarianza del processo X(t) può essere scritta come valore atteso dell’auto-covarianza temporale:

( ) ( ) ( )

( ) ( )

2

2

1E lim d

1E lim d

T

XX TT

T TT

C X t X t tT

X t X t tT

→∞−

→∞−∞

⎡ ⎤τ = + τ⎢ ⎥

⎢ ⎥⎣ ⎦⎡ ⎤

= + τ⎢ ⎥⎣ ⎦

∫ (2.34)

dove, ancora, gli integrali sono interpretati come agenti su ogni realizzazione del processo X(t). Sostituendo la (2.26) nella (2.34) si ottiene:

( ) ( ) ( ) ( )

( ) ( ) ( )

( ) ( ) ( )

ii2

ii *2

ii *2

1E lim e d e d d4

1E lim e d e d d4

1E lim e e d d d4

ttXX T TT

ttT TT

tT TT

C X X tT

X X tT

X X tT

∞ ∞ ∞′ω +τω

→∞−∞ −∞ −∞

∞ ∞ ∞′− ω +τω

→∞−∞ −∞ −∞

∞ ∞′ω−ω− ωτ

→∞−∞ −∞

⎡ ⎤⎛ ⎞⎛ ⎞′ ′τ = ω ω ω ω⎢ ⎥⎜ ⎟⎜ ⎟π⎢ ⎥⎝ ⎠⎝ ⎠⎣ ⎦

⎡ ⎤⎛ ⎞⎛ ⎞′ ′= ω ω ω ω⎢ ⎥⎜ ⎟⎜ ⎟π⎢ ⎥⎝ ⎠⎝ ⎠⎣ ⎦

′ ′= ω ω ω ωπ

∫ ∫ ∫

∫ ∫ ∫

∫ ∫∞

−∞

⎡ ⎤⎢ ⎥⎣ ⎦

(2.35)

L’integrale in dt all’interno della (2.35) risulta:

( ) ( )ie d 2t t∞

′ω−ω

−∞

′= πδ ω−ω∫ (2.36)

che sostituito nella (2.35) fornisce la relazione:

Page 47: Dispense Probabilità (1.3)

47

( ) ( )

( )

2i

i

1E lim e d2

e d

XX TT

XX

C XT

S

∞− ωτ

→∞−∞

∞− ωτ

−∞

⎡ ⎤τ = ω ω⎢ ⎥π⎣ ⎦

= ω ω

∫ (2.37)

da cui si dimostra che la densità di potenza spettrale è, a meno di un fattore 2π, la trasformata di Fourier della funzione di auto-covarianza. La densità di Potenza spettrale può essere espressa invertendo la (2.37) e risulta:

( ) ( )i1 e d2XX XXS C

∞ωτ

−∞

ω = τ τπ ∫ (2.38)

Le equazioni (2.37) e (2.38) sono chiamate equazioni di Wiener-Khintchine.

Applicando la formula di Eulero alla (2.38) è possible espandere l’esponenziale nella forma:

( ) ( ) ( ) ( ) ( )1 icos d sin d2 2XX XX XXS C C

∞ ∞

−∞ −∞

ω = ωτ τ τ+ ωτ τ τπ π∫ ∫ (2.39)

Ricordando che la funzione di auto-covarianza è pari rispetto a τ, il secondo integrale nella (2.39) si annulla, pertanto la densità di potenza spettrale rimane espressa attraverso la relazione:

( ) ( ) ( )1 cos d2XX XXS C

−∞

ω = ωτ τ τπ ∫ (2.40)

che è pari rispetto a ω

( ) ( )XX XXS S−ω = ω (2.41)

La (2.32) indica che l’area sottesa dalla densità di Potenza spettrale rappresenta la varianza del processo. Inoltre, l’area elementare 2SXX(ω)dω rappresenta il contributo alla varianza σX2 delle armoniche del processo di pulsazione comprese nell’intervallo (ω, ω+dω) (Figura 2.5). Per questa ragione, la densità di Potenza spettrale descrive il contenuto armonico del processo aleatorio, così come lo spettro di Fourier descrive il contributo armonico di un segnale deterministico.

Figura 2.5. Densità di Potenza spettrale.

Page 48: Dispense Probabilità (1.3)

48

2.3 Rappresentazione congiunta di una coppia di processi aleatori Let us consider an experiment whose result is represented by a couple of random processes X(t) and Y(t) (for example the components of the seismic motion at the base of 2 piers of a viaduct, the wind velocities registered by 2 anemometers, the dynamic response of a 2-DOF system). The couple of the processes X(t) and Y(t) is also called a 2-variate random process.

Si consideri il valore del processo X(t) all’istante t = t1 e il valore del processo Y(t) per t = t2. Essi possono essere interpretati come una coppia di variabili aleatorie e, come tali, possono essere rappresentati attraverso la densità di probabilità congiunta pX(t1)Y(t2)(ξ, η; t1, t2).

Da questa, le densità marginali dei processi X e Y possono essere ottenute immediatamente nella forma:

( )( ) ( ) ( )( )

( )( ) ( ) ( )( )

1 1 2

2 1 2

1 1 2

2 1 2

; , ; , d

; , ; , d

X t X t Y t

Y t X t Y t

p t p t t

p t p t t

−∞

−∞

ξ = ξ η η

η = ξ η ξ

∫ (2.42)

2.3.1 Medie statistiche congiunte del secondo ordine Si definisce cross-correlazione dei processi X(t) e Y(t) la correlazione delle variabili aleatorie X(t1) e Y(t2) estratte da X e Y agli istanti t1 e t2, rispettivamente.

( ) ( ) ( ) ( ) ( )( )1 21 2 1 2 1 2, E , ; , d dXY X t Y tR t t X t Y t p t t

∞ ∞

−∞ −∞

= = ξη ξ η ξ η⎡ ⎤⎣ ⎦ ∫ ∫ (2.43)

Analogamente, si definisce cross-covarianza di X e Y la funzione:

( ) ( ) ( )( ) ( ) ( )( )

( )( ) ( )( ) ( ) ( )( )1 2

1 2 1 1 2 2

1 2 1 2

, E

, ; , d d

XY X Y

X Y X t Y t

C t t X t t Y t t

t t p t t∞ ∞

−∞ −∞

⎡ ⎤= −μ −μ =⎣ ⎦

= ξ −μ η−μ ξ η ξ η∫ ∫ (2.44)

La cross-covarianza norimalizzata è definita dalla relazione:

( ) ( )( ) ( )

1 21 2

1 2

,, XY

XYX Y

C t tt t

t tρ =

σ σ (2.45)

Il prefisso “cross” indica che la variabili aleatorie X(t1) e Y(t2) sono estratte da due processi differenti, X e Y (sebbene associati al medesimo esperimento).

Dalle definizioni (2.43) - (2.45) risultano le proprietà:

( ) ( )( ) ( )( ) ( )

1 2 2 1

1 2 2 1

1 2 2 1

, ,

, ,

, ,

XY YX

XY YX

XY YX

R t t R t t

C t t C t t

t t t t

=

=

ρ = ρ

(2.46)

I analogia a quanto definito per le variabili aleatorie, due processi aleatori X(t) e Y(t) sono detti non-correlati se la loro cross-covarianza CXY(t1,t2) è nulla per ogni t1 e t2 in .

Page 49: Dispense Probabilità (1.3)

49

Se X e Y sono processi stazionari, allora le loro medie statistiche del secondo ordine non dipendono da t1 e t2 separatamente, ma soltanto dal tempo di ritardo τ = t2 – t1.

( ) ( ) ( ) ( ) ( ) ( )

( ) ( )( ) ( )( )

( )( ) ( ) ( ) ( )

( ) ( )

E , ; d d

E

, ; d d

XY X t Y t

XY X Y

X Y X t Y t

XYXY

X Y

R X t Y t p

C X t Y t

p

C

∞ ∞

+τ−∞ −∞

∞ ∞

+τ−∞ −∞

τ = + τ = ξη ξ η τ ξ η⎡ ⎤⎣ ⎦

⎡ ⎤τ = −μ + τ −μ =⎣ ⎦

= ξ −μ η−μ ξ η τ ξ η

τρ τ =

σ σ

∫ ∫

∫ ∫ (2.47)

Dalle definite (2.47) è immediato verificare le le seguenti proprietà:

( ) ( )( ) ( )( ) ( )

XY YX

XY YX

XY YX

R R

C C

−τ = τ

−τ = τ

ρ −τ = ρ τ

(2.48)

Inoltre, per la (1.89) risulta:

( )( ) 1

XY X Y

XY

C τ ≤ σ σ

ρ τ = (2.49)

Per le medesime ragioni fisiche esposte per l’auto-covarianza, anche la cross-covarianza (generalmente) tende a zero per |τ|→∞. La Figura 2.6 mostra una tipica funzione di cross-covarianza di due processi stazionari.

Figura 2.6. Cross-covarianza.

2.3.2 Densità di Potenza spettrale incrociata Let us consider a couple of stationary random processes with zero mean; in this case the cross-correlation function RXY(τ) coincides with the cross-covariance function CXY(τ). The cross-power spectral density, or more simply the cross-power spectrum, SXY(ω) of X(t) and Y(t), is defined as:

( ) ( ) ( )*1 lim2

T TXY T

X YS

T→∞

ω ωω =

π (2.50)

Page 50: Dispense Probabilità (1.3)

50

Dove TX e TY sono i processi aleatori che contengono le Trasformate di Fourier delle realizzazioni di X e Y finestrate secondo la (2.24). Operando in maniera analoga a quanto fatto per la densità di potenza spettrale, è possibile dimostrare le relazioni:

( ) ( )ie dXY XYC S∞

− ωτ

−∞

τ = ω ω∫ (2.51)

( ) ( )i1 e d2XY XYS C

∞ωτ

−∞

ω = τ τπ ∫ (2.52)

La densità di Potenza spettrale incrociata e la cross-covarianza costituiscono una coppia di Fourier.

La cross-covarianza è, in generale, non simmetrica, quindi la densità di Potenza spettrale incrociata è, in generale, una funzione a valori complessi. La particolare simmetria della cross-covarianza espressa dalla (2.48) si riflette sulle proprietà:

( ) ( ) ( )*YX XY XYS S Sω = ω = −ω (2.53)

2.3.3 Funzione di coerenza La funzione di coerenza di due processi stazionari è definite dalla relazione:

( ) ( )( ) ( )XY

XYXX YY

S

S S

ωγ ω =

ω ω (2.54)

La coerenza è, in generale, una funzione a valori complessi. Frequentemente, la sua parte reale è chiamata co-coerenza, mentre la sua parte immaginaria è definita quad-coerenza. Alcuni testi chiamano coerenza il modulo della (2.54), altri il suo modulo quadrato.

Una volta introdotta la funzione di coerenza, la densità di Potenza spettrale incrociata può essere espresso nella forma:

( ) ( ) ( ) ( )XY XX YY XYS S Sω = ω ω γ ω (2.55)

La funzione di coerenza può essere interpretata come la controparte nel dominio della frequenza della cross-covarianza normalizzata. Questa analogia si riflette nella proprietà:

( ) 1XYγ ω ≤ (2.56)

Due processi aleatori che hanno coerenza unitaria sono detti coerenti. Se due processi aleatori hanno coerenza nulla, allora sono non-correlati.

2.4 Trasformazioni lineari di processi stazionari Si considerino due processi stazionari X(t) e Y(t) definiti in modo che le loro funzioni campione x(t) e y(t) siano legate deterministicamente attraverso la trasformazione lineare:

( ) ( )y t x t= ⎡ ⎤⎣ ⎦H (2.57)

dove ℋ è un operatore lineare, tempo-invariante, causale e asintoticamente stabile. La funzione x(t) è della ingresso (o input, o eccitazione); la funzione y(t) è detta uscita (o output, o risposta).

Page 51: Dispense Probabilità (1.3)

51

L’operatore ℋ è lineare se, per ogni coppia di funzioni x(t) e y(t) e per ogni coppia di costanti a e b in ℝ, vale la relazione: ( ) ( ) ( ) ( )a x t b y t a x t b y t+ = +⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎣ ⎦ ⎣ ⎦ ⎣ ⎦H H H (2.58)

L’operatore ℋ è tempo-invariante se, per ogni τ in , vale la relazione:

( ) ( )y t x t+ τ = + τ⎡ ⎤⎣ ⎦H (2.59)

L’operatore ℋ è detto causale se la risposta y(t) dipende soltanto dal passato dell’eccitazione x(τ) con τ ≤ t.

L’ operatore ℋ è detto (asintoticamente) stabile se, per ogni ingresso limitato x(t) fornisce un’uscita limitata y(t).

La risposta a regime (lontano dalle condizioni iniziali) dell’operatore (2.57) può essere espressa attraverso l’integrale di convoluzione:

( ) ( ) ( )0

dt

y t h t x= − τ τ τ∫ (2.60)

dove h è detta funzione di risposta a impulso e pesa l’eccitazione applicata al tempo τ in funzione del tempo trascorso (t - τ). L’operatore ℋ è tempo-invariante se h non dipende esplicitamente da t, ma soltanto dalla differenza t - τ; ℋ è causale su h(t - τ) = 0 per τ > t (assegna peso nullo alle eccitazioni future); ℋ è asintoticamente stabile se è assolutamente integrabile in . Ipotizzando che l’istante iniziale di applicazione dell’eccitazione sia t = -∞, e sfruttando l’ipotesi di causalità, la (2.60) può essere riscritta nella forma: ( ) ( ) ( ) ( ) ( )d dy t h t x h x t

∞ ∞

−∞ −∞

= − τ τ τ = τ − τ τ∫ ∫ (2.61)

Applicando la trasformata di Fourier ad entrambi i membri della (2.61), si ottiene l’espressione nel dominio della frequenza della trasformazione lineare:

( ) ( ) ( )y H xω = ω ω (2.62)

dove x e y sono le trasformate di Fourier di x e y (che si suppone esistano) e H è la funzione di risposta in frequenza (FRF) dell’operatore lineare ℋ. La funzione di risposta in frequenza è la trasformata di Fourier della funzione di risposta a impulso.

Se x(t) e y(t) sono funzioni campione di due processi aleatori stazionari X(t) e Y(t), allora la (2.57) può essere formalmente interpretata come una trasformazione lineare di processi stazionari

( ) ( )Y t X t= ⎡ ⎤⎣ ⎦H (2.63)

In questo caso ha senso chiedersi se, conoscendo la rappresentazione probabilistica di X è possibile valutare la rappresentazione probabilistica di Y. Come passo preliminare, il problema è affrontato nell’Esempio 2.1 per il caso particolare dell’amplificatore ideale.

Page 52: Dispense Probabilità (1.3)

52

Esempio 2.1. Amplificatore ideale.

Sia X(t) un processo aleatorio stazionario a media nulla (μX = 0) e sia Y(t) l’uscita dell’amplificatore ideale ℋ.

( ) ( )Y t aX t= (2.64)

dove la costante a rappresenta il guadagno dell’amplificatore. Applicando le definizioni di auto- e cross-covarianza, è immediato dimostrare le seguenti relazioni:

( ) ( )( ) ( )( ) ( ) ( )

2

YX XX

YY XX

YY YX XX

C aC

C a C

τ = τ

τ = τ

ρ τ = ρ τ = ρ τ

(2.65)

Inoltre, sfruttando le equazioni di Wiener-Kinchine:

( ) ( )( ) ( )( )

2

1

YX XX

YX XX

XY

S aS

S a S

ω = ω

ω = ω

γ ω =

(2.66)

In generale, quando un processo aleatorio X(t) a media nulla è applicato un operatore lineare ℋ la situazione può essere idealizzata come mostrato nello schema di Figura 2.7. Dal processo X(t) si estrae una realizzazione x(t) che viene finestrata sul periodo T, ottenendo xT, quindi trasformata nel dominio della frequenza ottenendo Tx . Applicando la (2.62) si perviene alla risposta Ty che antitrasformata produce yT e quindi y, passando al linite per T→∞; quest’ultima è interpretata come una realizzazione di Y. Analogamente Tx e Ty sono interpretate come realizzazioni dei processi aleatori TX e TY che sono dunque legati dalla relazione formale: ( ) ( ) ( )T TY H Xω = ω ω (2.67)

Sostituendo la (2.67) nelle definizioni di densità di potenza spettrale e densità di potenza spettrale incrociata si dimostra:

( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )

*

2

YX XX

XY XX

YY XX

S H S

S H S

S H S

ω = ω ω

ω = ω ω

ω = ω ω

(2.68)

Dalla definizione di coerenza di dimostra inoltre che:

( ) ( )( )XY

HH

ωγ ω =

ω (2.69)

da cui emerge che la coerenza fra l’eccitazione e la risposta di un operatore lineare ha necessariamente modulo unitario.

Page 53: Dispense Probabilità (1.3)

53

( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( )

d

T T T

T

T T T

X t x t x t x X

h t x H x

Y t y t y t y Y

−∞

→ → → ω ↔ ω↓ ↓

− τ τ τ ω ω

↓ ↓← ← ← ω ↔ ω

Figura 2.7.

Se l’ingresso X(t) è a media nulla, allora anche l’uscita ha media nulla.

( ) ( ) ( ) ( ) ( )E E d E d 0Y t h t X h t X∞ ∞

−∞ −∞

⎡ ⎤= − τ τ τ = − τ τ τ =⎡ ⎤ ⎡ ⎤⎢ ⎥⎣ ⎦ ⎣ ⎦

⎣ ⎦∫ ∫ (2.70)

2.4.1 Risposta nel dominio del tempo di operatori lineari con eccitazione stazionaria …

2.4.2 Derivazione di processi stazionari (Da aggiornare)

L’introduzione del concetto di derivate di un processo aleatorio (così come per il concetto di inegrale) richieserebbe la definizione del limite di un processo aleatorio (o del limite di una successione di variabili aleatorie). In termini matematicamente “approssimativi”, è possible concepire la derivata ( )X t di un processo aleatorio ( )X t come il processo aleatorio le cui funzioni campione ( )x t sono le derivate delle funzioni campione di X(t).

Se X(t) è un processo stazionario, allora anche ( )X t è stazionario e le seguenti relazioni possono essere dimostrate:

2

2

( ) ( ) ( )

( ) ( ) ( )

XX XX XX

XX XX XX

d C C Cdd C C Cd

τ = τ = − ττ

τ = τ = − ττ

(2.71)

Inoltre, applicando la definizione di densità di Potenza spettrale incrociata:

2

( ) ( )

( ) ( )XXXX

XXXX

S i S

S S

ω = ω ω

ω = ω ω (2.72)

Che, può essere generalizzata nella forma:

( ) ( ) ( ) ( )2n nX X

nXXS Sω = ω ω (2.73)

2.5 Momenti spettrali The unilateral power spectral density (or the unilateral power spectrum) ( )XXG ω is the following function (Figura 2.8):

Page 54: Dispense Probabilità (1.3)

54

( ) ( )( )

2 per 0

0 per 0XX XX

XX

G S

G

ω = ω ω≥

ω = ω < (2.74)

It is a real non negative function, defined for ω ≥ 0, which has the following property:

2

0( )X XXG d

∞σ = ω ω∫ (2.75)

Figura 2.8

Let us define as spectral moments (or Vanmarcke moments) the following quantities:

, 0( ) 0,1, 2,...i

X i XXG d i∞

λ = ω ω ω =∫ (2.76)

In particular, the first three spectral moments have the form:

2,0 0

,1 0

2 2 2,2 0

( ) ( )

( ) ( ) 0

( ) ( )

X XX XX X

X XX XX

X XX XX X

G d S d

G d S d

G d S d

∞ ∞

−∞

∞ ∞

−∞

∞ ∞

−∞

λ = ω ω = ω ω =σ

λ = ω ω ω ≠ ω ω ω=

λ = ω ω ω = ω ω ω =σ

∫ ∫∫ ∫∫ ∫

(2.77)

The position ωX,1 of the barycentre of the area under GXX(ω) is given by the relationship (Figura 2.9):

,10,1

,00

( )

( )

XX XX

XXX

G d

G d

ω ω ω λω = =

λω ω

∫∫

(2.78)

The radius of gyration of the area under GXX(ω) is given by:

( )( )

1/22

,20,2

,00

d

d

XX X XX

X XXX

G

G

⎛ ⎞ω ω ω λ σ⎜ ⎟ω = = =⎜ ⎟ λ σ⎜ ⎟ω ω⎝ ⎠

∫∫

(2.79)

It will be shown later that the quantity X X,2 XX/ 2 ( / ) / 2ν = ω π = σ σ π , called the expected frequency of the process X(t), has a fundamental role in random dynamics.

Page 55: Dispense Probabilità (1.3)

55

Figura 2.9

The radius of gyration of the area under GXX(ω) with respect to its barycentre, X,2ω , provides a measure of the dispersion of the area around the barycentre (Fig. 13). Thus it offers an estimate of the amplitude of the spectral bandwidth containing the harmonic or power content of the process. It is defined as:

2

,1,2 ,2 ,2

,0 ,0

1 XX X X X

X X

q⎛ ⎞λ

ω = λ − = ω⎜ ⎟⎜ ⎟λ λ⎝ ⎠ (2.80)

where:

2

,1

,0 ,2

1 XX

X X

= −λ λ

(2.81)

is a non-dimensional quantity between 0 and 1, called the spectral bandwidth parameter. A small value of qX is typical of a process with a harmonic content in a small frequency band. A large value of qX is typical of a process with a harmonic content distributed over a large frequency band. The two limit cases qX = 0 and qX = 1 correspond, respectively, to GXX(ω) = λX,0δ(ω-ωX,1) and to GXX(ω) = G0 = 2S0 = constant.

2.6 Modelli di processi stazionari Four random processes characterised by particular properties are considered below: the sinusoidal process, the narrow band process, the broad band process, and the white process. They are characterised by increasingly wide spectral bandwidth.

2.6.1 Processo armonico A zero mean stationary random process is defined as sinusoidal (Figura 2.10) if any sample function is given by the relationship:

( ) ( )0sinx t A t y= ω + (2.82)

where the phase angle y is the occurrence of a random variable Y uniformly distributed over the interval [0, 2π]:

( ) ( )Y1p 0 2

2η = ≤ η ≤ π

π (2.83)

Page 56: Dispense Probabilità (1.3)

56

Figura 2.10. Processo armonico.

The auto-covariance function coincides with the auto-correlation function and is given by:

( ) ( ) ( ) ( ) ( )( ) ( )

( ) ( )( )

( )

20 0

22

0 00

2

0

E sin sin d

sin sin d2

cos2

XX YC X t X t A t t p

A t t

A

−∞

π

τ = + τ = ω +η ω + τ +η η η =⎡ ⎤⎣ ⎦

= ω +η ω + τ +η η =π

= ω τ

∫ (2.84)

Thus, the power spectral density results:

( ) ( ) ( )

( ) ( )( )

2i i

0

2

0 0

1 e d e cos d2 4

4

XX XXAS C

A

∞ ∞ωτ ωτ

−∞ −∞

ω = τ τ = ω τ τπ π

= δ ω−ω + δ ω+ωπ

∫ ∫ (2.85)

It follows that 2 2X A / 2σ = . Moreover, i 2

X,i 0A / 2λ = ω . Finally, Xq 0= .

2.6.2 Processo a banda stretta A stationary random process is defined as narrow band if its power spectral density is different from zero only within a limited frequency range with amplitude B = 2 1ω −ω , where B/ 0ω ≈ 0, 0ω being the mean value of the band B: ( )0 1 2 / 2ω = ± ω +ω .

A narrow band process is defined as ideal (Fig. 15) if its power spectral density is given by:

Page 57: Dispense Probabilità (1.3)

57

XX 0 1 2S ( ) S forω = ω ≤ ω ≤ ω (97a)

XXS ( ) 0 elsewhereω = (97b) Thus: 2

X 0 2 12S ( )σ = ω −ω .

Fig. 15

The auto-covariance function is given by:

( ) ( ) iXX XX 0C S e d 2 S cos( ) d

∞ ∞ωτ

−∞ −∞τ = ω ω = ωτ ω⇒∫ ∫

( ) ( ) ( ) ( )0XX 2 1 0 0

Bsin2S 2C sin sin 2S B cosB

2

⎧ ⎫⎛ ⎞τ⎜ ⎟⎪ ⎪⎪ ⎪⎝ ⎠τ = ω τ − ω τ = ω τ⎡ ⎤ ⎨ ⎬⎣ ⎦τ ⎪ ⎪τ⎪ ⎪⎩ ⎭

(98)

Moreover:

X,0 02S Bλ = ; X,1 0 02S Bλ = ω ; 2

2X,2 0 0

B2S B12

⎛ ⎞λ = ω +⎜ ⎟

⎝ ⎠ ; X 2 2

00

B Bq1212 B

= ≅ωω +

The sample functions of the narrow band random process are characterised by a harmonic content concentrated around the central circular frequency of the harmonic band. For B tending to 0 the narrow band process tends to the sinusoidal process.

Page 58: Dispense Probabilità (1.3)

58

2.6.3 Processo a banda estesa A random stationary process is defined as a broad band process if the power spectral density is different from zero in a wide frequency band.

A broad band process is defined as ideal (Fig. 16) if its power spectral density is given by the relationship:

XX 0S ( ) S for Bω = ω ≤ (99a)

XXS ( ) 0 elsewhereω = (99b) Thus: 2

X 02S Bσ = .

Fig. 16

The auto-covariance function is given by:

( ) ( )Bi

XX XX 00C S e d 2 S cos( ) d

∞ ωτ

−∞τ = ω ω = ωτ ω⇒∫ ∫

( ) ( )XX 0

sin BC 2S B

Bτ⎧ ⎫

τ = ⎨ ⎬τ⎩ ⎭ (100)

Moreover:

X,0 02S Bλ = ; 2X,1 0S Bλ = ;

30

X,22S B

3λ = ; X

1q2

=

Page 59: Dispense Probabilità (1.3)

59

The sample functions of the process are characterised by an irregular shape due to the width of the harmonic content.

2.6.4 White random process A stationary random process is defined as a white (noise) process (Fig. 17) if its power spectral density is constant over the whole frequency range. It is generally indicated by the symbol W(t):

XX 0S ( ) S forω = ∀ω (101)

Thus 2

Xσ = ∞ ; therefore the white process is physically not realizable. However, its importance in structural dynamics is fundamental. Some of its properties will be discussed in the next sections.

Fig. 17

The auto-covariance function is given by:

( ) ( ) i iXX XX 0C S e d S e d

∞ ∞ωτ ωτ

−∞ −∞τ = ω ω = ω⇒∫ ∫

( )XX 0C 2 S ( )τ = π δ τ (102)

Thanks to this expression the white process is also referred to as the delta-correlated process.

It is immediate to demonstrate that: X,i for iλ = ∞ ∀ , Xq 1= .

Page 60: Dispense Probabilità (1.3)

60

The sample functions of the white process are characterised by maximum irregularity due to the infinite amplitude of the spectral band.