44
CAPITOLO 3 I Processi Stocastici 3.1. Definizione di Processi Stocastici Una distinzione importante tra i segnali è quella che si fa tra segnali predicibili, di cui si può conoscere a priori l’evoluzione nel tempo (come ad esempio un’onda quadra) e segnali non predicibili, di cui si possono al più supporre alcune caratter- istiche principali (ad esempio le escursioni massime, la velocità di variazione e così via). Si supponga di registrare l’evoluzione della pressione atmosferica in un certo lu- ogo della Terra durante l’anno. Questa grandezza fisica non è predicibile a priori,e l’unico modo per conoscerla è quello di osservarla a posteriori. Dopo l’acquisizione si potranno fare alcune osservazioni, come ad esempio il fatto che essa difficilmente supera i 1030 mB e altrettanto difficilmente va al di sotto di 950 mB. Una cosa impor- tante a proposito di questo segnale è che non solo non si può prevedere, ma che esso cambia a seconda del periodo in cui è stato registrato (cioè la sua osservazione nel mese di marzo è sicuramente diversa da quella nel mese di agosto) ed inoltre cambia a seconda del luogo della Terra in cui viene registrato, anche se la registrazione è fatta nello stesso periodo (vedi in figura 3.1.1 tre differenti misurazioni). 100 0 50 100 150 200 250 0 10 20 30 40 50 60 70 80 90 -50 F IGURA 3.1.1. Rappresentazione delle pressioni atmosferiche in vari luoghi della Terra. La variabilità del processo è quindi di due tipi: una variabilità tra i vari segnali ed una variabilità dell’evoluzione temporale del singolo segnale. Il modellamento di un segnale aleatorio viene fatto attraverso la teoria dei processi stocastici. 67

I Processi Stocastici - dei.poliba.itdei.poliba.it/guccioneweb/downloads/thsegnali/Processi aleatori.pdf · CAPITOLO 3 I Processi Stocastici 3.1. Definizione di Processi Stocastici

Embed Size (px)

Citation preview

CAPITOLO 3

I Processi Stocastici

3.1. Definizione di Processi Stocastici

Una distinzione importante tra i segnali è quella che si fa tra segnali predicibili,di cui si può conoscere a priori l’evoluzione nel tempo (come ad esempio un’ondaquadra) e segnali non predicibili, di cui si possono al più supporre alcune caratter-istiche principali (ad esempio le escursioni massime, la velocità di variazione e cosìvia).

Si supponga di registrare l’evoluzione della pressione atmosferica in un certo lu-ogo della Terra durante l’anno. Questa grandezza fisica non è predicibile a priori, el’unico modo per conoscerla è quello di osservarla a posteriori. Dopo l’acquisizionesi potranno fare alcune osservazioni, come ad esempio il fatto che essa difficilmentesupera i 1030mB e altrettanto difficilmente va al di sotto di 950mB. Una cosa impor-tante a proposito di questo segnale è che non solo non si può prevedere, ma che essocambia a seconda del periodo in cui è stato registrato (cioè la sua osservazione nelmese di marzo è sicuramente diversa da quella nel mese di agosto) ed inoltre cambiaa seconda del luogo della Terra in cui viene registrato, anche se la registrazione è fattanello stesso periodo (vedi in figura 3.1.1 tre differenti misurazioni).

100

0

50

100

150

200

250

0 10 20 30 40 50 60 70 80 90−50

FIGURA 3.1.1. Rappresentazione delle pressioni atmosferiche in variluoghi della Terra.

La variabilità del processo è quindi di due tipi: una variabilità tra i vari segnali eduna variabilità dell’evoluzione temporale del singolo segnale. Il modellamento di unsegnale aleatorio viene fatto attraverso la teoria dei processi stocastici.

67

3.1. DEFINIZIONE DI PROCESSI STOCASTICI 68

Come nella teoria delle probabilità, dovremmo, per un segnale aleatorio, individ-uare lo spazio delle probabilità, cioè l’insieme di tutti i possibili segnali che costitu-iscono il processo (ammesso che questo si possa fare): Ω = ωi. Quindi riferendosial processo si può pensare una corrispondenza che associ ad ogni campione ωi di Ωun dato segnale. Questa corrispondenza costituisce il processo aleatorio. Una datamisurazione della pressione atmosferica in un punto della Terra costituisce un risultatodello spazio campione e viene chiamato realizzazione del processo xi(t) = X(t, ωi).

Il processo stocastico è comunemente indicato con X(t), omettendo la relazionedi dipendenza dallo spazio campione con cui è associato Ω.

Una volta fissato quale tra i vari segnali del processo va estratto, si ha una funzionedel tempo che rappresenta la realizzazione. Una realizzazione del processo stocasticonon è più aleatoria, a posteriori, nel senso che dopo l’osservazione essa è una funzionedeterministica del tempo. Viceversa, si può fissare un arbitrario istante di tempo edosservare il valore che tutte le realizzazioni del processo assumono a quell’istante:X(to) (vedi in figura 3.1.2)

ot

−50

100

150

200

250

300

350

400

0 10 20 30 40 50 60 70 80 90 100

0

50

FIGURA 3.1.2. Estrazione di una variabile aleatoria dal processo stocastico.

I valori che sono assunti sulle varie realizzazioni del processo non sono predicibilia priori e quindi rappresentano i risultati di una variabile aleatoria.

3.1.1. Processi parametrici. Un primo esempio di processi stocastici è dato daiprocessi parametrici, cioè processi in cui per le funzioni del tempo esiste una formachiusa che permetta di rappresentarle, sebbene uno o più parametri di queste funzionisiano variabili aleatorie.

Si supponga di considerare il seguente processo:

(3.1.1) X(t;ω) = e−A(ω)tu(t)

3.1. DEFINIZIONE DI PROCESSI STOCASTICI 69

dove A(ω) rappresenta una variabile aleatoria con distribuzione uniforme nell’inter-vallo [0, 1/T ]. Se omettiamo la dipendenza dal risultato ω, si può scrivere: X(t) =e−Atu(t). In questo processo parametrico è quindi definita una classe di funzioni il cuiandamento dipende dal valore estratto di una v.a.

Un altro esempio notevole (che avremo modo di riprendere più avanti) è quellodell’oscillazione sinusoidale prodotta da un oscillatore reale. In un oscillatore reale,mentre si possono controllare abbastanza bene l’ampiezza e la frequenza dell’oscil-lazione, è molte volte difficile determinare la fase iniziale. Ne consegue che accen-dendo in tempi differenti l’oscillatore la funzione sinusoidale che viene generata puòessere modellata come un processo stocastico parametrico:

(3.1.2) X(t) = A · sin(2πfot+ Θ)

dove Θ è una variabile aleatoria uniforme nell’intervallo [0, 2π[.

3.1.2. Caratterizzazione di un processo stocastico. Al contrario di quanto si puòfare per un segnale deterministico, per un processo stocastico non è possibile una suacaratterizzazione in termini di andamento temporale. Si devono quindi introdurre glistrumenti della teoria delle probabilità per poter caratterizzare il processo in modostatistico.

Si cominci ad osservare che, se si considera un istante di tempo ben determinatoto, il valore che tutte le realizzazioni assumono in quell’istante rappresenta una v.a.Quindi è possibile, per quella v.a. definire una funzione di distribuzione di probabilità(dipendente da to):

(3.1.3) F (x; to) = P (X(to) ≤ x)

La funzione di distribuzione cambierà al variare di to, dato che al variare dell’istantedi osservazione la v.a. è differente. Questo modellamento non è tuttavia sufficiente acaratterizzare il processo. Se così fosse dovremmo essere in grado di prevedere l’an-damento della singola realizzazione a partire da tutte le funzioni di distribuzione diprobabilità estratte ad ogni istante, e così non è. Si pensi ad esempio alla possibil-ità che abbiamo di prevedere l’andamento di un titolo in borsa nel tempo. Si vuolecioè cercare di determinare quando il valore del titolo supera il valore attuale. Perfare questo la caratterizzazione del primo ordine che abbiamo dato non è sufficiente.E’ necessaria una caratterizzazione che permetta di correlare, congiuntamente, le duevariabili aleatorie nei due istanti differenti to e t1 nei quali conduciamo l’osservazione.

3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 70

E’ necessaria quindi una caratterizzazione del secondo ordine. Questa relazione è de-scritta dalla funzione di distribuzione di probabilità congiunta per una coppia di v.a.:

(3.1.4) F (x1, x2; t1, t2) = P (X(t1) ≤ x1;X(t2) ≤ t2)

La conoscenza completa della statistica del secondo ordine richiede che queste fun-zioni di distribuzione siano note per ogni coppia possibile di istanti di tempo.

Iterando questo ragionamento, si capisce che la caratterizzazione di un processostocastico si può considerare completa solo quando, fissati n istanti di tempo (con narbitrariamente grande), si è in grado di determinare la funzione di distribuzione con-giunta di ordine n per le n variabili aleatorie che si hanno estraendo i valori dallerealizzazioni agli istanti t1, t2, ..., tn:

(3.1.5)F (x1, x2, ..., xn; t1, t2, ..., tn) = P (X(t1) ≤ x1, X(t2) ≤ x2, ..., X(tn) ≤ xn)

Da questa si può ricavare la funzione densità di probabilità di ordine n:

(3.1.6) f(x1, x2, ..., xn; t1, t2, ..., tn) =∂nF (x1, x2, ..., xn; t1, t2, ..., tn)

∂x1∂x2...∂xn

La conoscenza della classe di funzioni f(x1, x2, ..., xn; t1, t2, ..., tn) per qualunque val-ore n e qualunque n − pla di istanti di tempo caratterizza completamente il processoaleatorio.

Si capisce bene che la conoscenza completa di un processo aleatorio è impresaquali sempre impossibile. Nella maggior parte dei casi si cerca di determinare la dis-tribuzione (e densità) del primo o al più secondo ordine. Altre volte ci si accontenta dideterminare alcuni parametri statistici.

3.2. Parametri Statistici del 1o e 2o Ordine

3.2.1. Valor medio, potenza e varianza. Alcuni parametri statistici permettonodi determinare le caratteristiche principali di un processo statistico, pur senza la conoscen-za completa di esso.

Tra questi parametri particolarmente significativa è la funzione valor medio: µX(t).Per definizione questa funzione è il valor medio della v.a. che si ottiene estraendo i

3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 71

valori delle realizzazioni all’istante assegnato:

(3.2.1) µ(t) = E[X(t)] =

∫ +∞

−∞xfX(x, t)dx

al variare di t si generano una serie di valori medi che costituiscono la funzione. Lafunzione valor medio rappresenta una statistica del primo ordine, dato che per il suocalcolo è sufficiente la conoscenza della statistica di primo ordine del processo. Lafunzione valor medio rappresenta una specie di compendio di tutte le realizzazioni delprocesso stocastico, ma non rappresenta necessariamente essa stessa una realizzazionedel processo.

EXAMPLE 3.2.1. Si supponga di considerare il processo aleatorio parametricoX(t) = a cos(2πfot + Θ), dove Θ è una v.a. con densità di probabilità uniformenell’intervallo [0, π[. La funzione valor medio si può determinare osservando che, perogni istante t fissato, il processo X(t) si può pensare come la trasformazione della v.a.Θ in un’altra v.a. X = X(Θ). Il suo valor medio quindi si può determinare con ilteorema del valor medio: µ(t) = E[X(t)] = E[a cos(2πfot+ Θ)]:

(3.2.2)

µ(t) =

∫ +∞

−∞a cos(2πfot+ θ)fθ(θ)dθ =

a

π

∫ π

0

cos(2πfot+ θ)dθ = −2a

πsin(2πfot)

Analogamente si potrebbe ricavare la funzione valor medio nel caso visto nella eq.3.1.2, in cui cioè: X(t) = a sin(2πfot+ Θ), con Θ = U(0, 2π).

Un’altra grandezza statistica del primo ordine utile per caratterizzare il processo, èla potenza media statistica istantanea (brevemente detta potenza media):

(3.2.3) Px(t) = E[X2(t)] =

∫ +∞

−∞x2 · fX(x, t)dx

analoga alla potenza istantanea per i segnali deterministici.Si può inoltre definire la funzione varianza del processo:

(3.2.4) σ2x(t) = E[(X(t)− µ(t))2] =

∫ +∞

−∞(x− µ(t))2 · fX(x, t)dx

3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 72

Si ricava, abbastanza facilmente:

(3.2.5) σ2x(t) = Px(t)− µ2(t)

la relazione che esprime la dipendenza tra varianza, funzione valor medio e potenzaistantanea.

3.2.2. Autocorrelazione e autocovarianza. Due parametri statistici del secondoordine, fondamentali per lo studio dei processi stocastici, sono la funzione di autocor-relazione e la funzione di autocovarianza. Il loro significato è rimandato più avanti,quando si introdurranno i processi stazionari.

Si supponga di considerare due istanti di tempo arbitrari, t1 e t2. Dato il processostocastico, è possibile estrarre le due v.a. Y = X(t1) e Z = X(t2). Ha senso allora ef-fettuare il calcolo della correlazione tra Y e Z. Generalmente questa correlazione saràfunzione dei due istanti di tempo, e quindi si può ritenere una funzione di due variabili:

(3.2.6)

Rx(t1, t2) = E[X(t1)X(t2)] =

∫ +∞

x1=−∞

∫ +∞

x2=−∞x1x2fx(x1, x2; t1, t2)dx1dx2

La funzione che così si ottiene è detta funzione di autocorrelazione, poichè le duevariabili aleatorie sono state ottenute estraendole dallo stesso processo.

In modo del tutto analogo è possibile determinare la funzione di autocovarianza:

Cx(t1, t2) = E[(X(t1)− µ(t1)) · (X(t2)− µ(t2))] =

(3.2.7) =

∫ +∞

x1=−∞

∫ +∞

x2=−∞(x1 − µ(t1)) · (x2 − µ(t2)) · fx(x1, x2; t1, t2)dx1dx2

Dalla definizione è facile ricavare che: Cx(t1, t2) = Rx(t1, t2)− µ(t1)µ(t2).

EXAMPLE 3.2.2. Si calcoli la funzione di autocorrelazione del processo X(t) =a · cos(2πfot + Θ), con Θ = U [0, π[. Estraendo il processo negli istanti t1 e t2 siottengono le v.a.: X(t1) = a · cos(2πfot1 + Θ) e X(t2) = a · cos(2πfot2 + Θ), che si

3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 73

possono ritenere entrambe trasformazioni della stessa v.a.. Quindi, mediante il teore-ma del valor medio si ottiene:

Rx(t1, t2) = E[X(t1)X(t2)] = E[a · cos(2πfot1 + θ) · a · cos(2πfot2 + θ)] =

(3.2.8) = a2 ·∫ π

0

1

πcos(2πfot1 + θ) cos(2πfot2 + θ)dθ =

a2

2cos(2πfo(t1 − t2))

In questo esempio la funzione di autocorrelazione è sinusoidale, come i segnali checostituiscono le singole realizzazioni del processo, inoltre dipende dalle due vari-abili attraverso la loro differenza. La funzione di autocorrelazione è quindi, in realtà,funzione di una sola variabile.

Si supponga ora di avere lo stesso processo precedente: X(t) = a ·cos(2πfot+Θ),ma con Θ = U [0, 2π[. Si voglia calcolare la funzione valor medio, la funzione diautocorrelazione e la funzione di autocovarianza.

Si osservi che, se per la funzione valor medio si ha:

(3.2.9) µ(t) = E[X(t)] =

∫ 2π

0

1

2π· a · cos(2πfot+ θ)dθ = 0

allora: Cx(t1, t2) = Rx(t1, t2). Entrambe valgono:

Rx(t1, t2) = E[X(t1)X(t2)] =

(3.2.10) =

∫ 2π

0

1

2π·a·cos(2πfot1+θ)·a·cos(2πfot2+θ)dθ =

a2

2cos(2πfo(t1−t2))

pari al risultato ottenuto precedentemente (vedi 3.2.8).Vediamo infine il caso in cui nel processo X(t) = A · cos(2πfot) a variare sia

l’ampiezza dell’oscillazione sinusoidale. Tale ampiezza vari come una v.a. uniformenell’intervallo [0, 1]. La funzione valor medio si ottiene fissando un dato istante ditempo t:

(3.2.11) µ(t) = E[X(t)] = E[A · cos(2πfot)] = E[A] · cos(2πfot) =1

2· cos(2πfot)

3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 74

La funzione di autocorrelazione vale:

Rx(t1, t2) = E[A ·cos(2πfot1) ·A ·cos(2πfot2)] = cos(2πfot1) ·cos(2πfot2) ·E[A2] =

(3.2.12) =1

3cos(2πfot1) · cos(2πfot2)

e in questo caso non si può esprimere come funzione di una sola variabile. La funzionedi autocovarianza vale infine:

Cx(t1, t2) =1

3cos(2πfot1) · cos(2πfot2)− 1

2· cos(2πfot1) · 1

2· cos(2πfot2) =

(3.2.13) =1

12cos(2πfot1) · cos(2πfot2)

Un altro esempio notevole è il seguente:

EXAMPLE 3.2.3. Processo di Bernoulli e processi derivati.Si consideri il seguente processo tempo discreto: In = 0, 1 che può assumere

valori solo in istanti discreti indicati con indici interi n ∈ N. I valori assunti dallesingole realizzazioni possono essere soltanto 0 o 1. In particolare il valore 0 è assuntocon probabilità p, il valore 1 con probabilità 1− p:

(3.2.14) In =

0 p1 1− p

Le singole realizzazioni, come pure le estrazioni in una singola realizzazione sonoindipendenti tra loro (vedi figura 3.2.1).La funzione valor medio vale:

(3.2.15) mI(n) = p · 0 + (1− p) · 1 = 1− p

3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 75

0 1 1 1 0 0 1 .....

i i+1 i+2 i+3 ............

1 1 0 1 0 1 1 .....

i i+1 i+2 i+3 ...............

FIGURA 3.2.1. Rappresentazione grafica del processo di Bernoulli.

ed è indipendente dal tempo (cioè l’indice n). La varianza vale:

(3.2.16) σ2I = E[I2

n]− E2[In] = p · 02 + (1− p) · 12 − (1− p)2 = p(1− p)

Infine la funzione di autocorrelazione vale:

(3.2.17) RI(n,m) = E[InIm] = E[In]E[Im]

essendo le estrazioni indipendenti. Quindi si ha: RI(n,m) = (1− p)2.Un processo derivato da quello di Bernoulli è il seguente:

(3.2.18) Dn = 2In − 1 =

−1 p1 1− p

Il suo valor medio vale:

(3.2.19) mD(n) = E[2In − 1] = 2(1− p)− 1 = 1− 2p

la sua varianza vale

(3.2.20) σ2D = E[D2

n]− E2[Dn] = E[4I2n − 4In + 1

]− (1− 2p)2 = 4p(1− p)

Infine la funzione di autocorrelazione vale:

3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 76

RD(n,m) = E[DnDm] = E[4InIm − 2In − 2Im + 1] =

(3.2.21) = 4(1− p)2 − 4(1− p) + 1 = (1− 2p)2

che è lo stesso risultato che avremmo ottenuto semplicemente osservando che: E[DnDm] =E[Dn]E[Dm].

L’ultima applicazione del processo di Bernoulli è la passeggiata a caso unidimen-sionale, cioè il processo:

(3.2.22) Sn = D1 +D2 + ...+Dn

Il suo valor medio vale:

(3.2.23) E[Sn] = E[D1 +D2 + ...+Dn] = E[D1]+E[D2]+ ...+E[Dn] = n(1−2p)

e questa volta è una quantità dipendente da n. Inoltre, essendo i processi indipendentitra loro la varianza è somma delle varianze

(3.2.24) σ2Sn

=n∑k=1

σ2D = 4np(1− p)

La sua funzione di autocorrelazione vale:

(3.2.25)

RS(n.m) = E[SnSm] = E

[n∑k=1

Dk ·m∑l=1

Dl

]=

n∑k=1

m∑l=1

E [Dk ·Dl] = n·m·(1−2p)2

Il range di valori che può assumere questo processo è variabile con n. Per un certon fissato, Sn può assumere tutti i valori compresi tra [−n, n]. La probabilità che tra iD1, D2, ..., Dn vi siano k valori pari ad 1 ed n−k valori pari a−1 (quindi la probabilitàche Sn valga: k − (n− k) = 2k − n) è:

(3.2.26) P (Sn = 2k − n) = (nk

)(1− p)kpn−k

Una variazione sul tema dei processi stocastici di Bernoulli è il segnale telegraficocasuale. Il processo consiste di realizzazioni che possono assumere solo valori discreti

3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 77

pari a −1 od a 1. Le funzioni sono continue nel tempo:

(3.2.27) X(t) =

−11

Per ipotesi si suppone inoltre che

(3.2.28) P (X(0) = 1) = P (X(0) = −1) = 1/2

Le realizzazioni del processo assumono valori differenti cambiando di “stato” nellostesso modo con cui arrivano gli eventi negli esperimenti aleatori alla Poisson. Unapossibile realizzazione è riportata in figura (3.2.2).

FIGURA 3.2.2. Realizzazione di un processo telegrafico casuale

Sia α l’intensità della legge di Poisson che governa il processo. Ogni singola real-izzazione, x(t), permane ad un dato valore sino a che non c’è un arrivo che gli facambiare stato. Il numero di arrivi nell’unità di tempo è regolato da una v.a. discretadi Poisson con intensità α. Calcoliamo la probabilità che ad un dato istante t la singolarealizzazione abbia uno dei due valori:

P (X(t) = 1) = P (X(t) = 1/X(0) = 1) · P (X(0) = 1)

(3.2.29) +P (X(t) = 1/X(0) = −1) · P (X(0) = −1)

la prima delle due somme a secondo membro ha il termine P (X(t) = 1/X(0) = 1)che si può verficare solo se il numero di cambiamenti (eventi di Poisson) verificatosi èpari, per il secondo termine il numero di cambiamenti da verificarsi è dispari:

3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 78

(3.2.30) P(Ncamb = pari) =∞∑j=0

(αt)2j

(2j)!e−αt = e−αt · 1

2(eαt + e−αt) =

1

2(1 + e−2αt)

(3.2.31)

P (Ncamb = dispari) =∞∑j=0

(αt)2j+1

(2j + 1)!e−αt = e−αt · 1

2(eαt − e−αt) =

1

2(1− e−2αt)

Da cui si ha in conclusione:

(3.2.32) P (X(t) = 1) =1

2[1

2(1 + e−2αt) +

1

2(1− e−2αt)] =

1

2

ed analogamente: P (X(t) = −1) = 12.

Calcoliamo la funzione valor medio e la funzione varianza del processo:

(3.2.33) mX(t) = E[X(t)] =1

2· (−1) +

1

2· (+1) = 0

(3.2.34) σ2X(t) = Px(t) = E[X(t)2] =

1

2· (−1)2 +

1

2· (+1)2 = 1

Calcoliamo infine la funzione di autocorrelazione e la funzione di autocovarianza:Rx(t1, t2) = Cx(t1, t2).

(3.2.35) Rx(t1, t2) = E[X(t1)X(t2)]

tuttavia il prodotto di X(t1)X(t2) può essere solo o −1 oppure +1. In particolare èpari a −1 quando il numero di cambiamenti (eventi di Poisson) avvenuti tra t1 e t2 èdispari, altrimenti il prodotto X(t1)X(t2) è pari a +1. Quindi:

P (X(t1)X(t2) = 1) = P (Ncamb = pari) = P (N(t2 − t1) = pari) =

3.3. PROCESSI STAZIONARI 79

(3.2.36) =1

2(1 + e−2α(t2−t1))

Analogamente per un numero dispari di arrivi:

P (X(t1)X(t2) = −1) = P (Ncamb = dispari) = P (N(t2 − t1) = dispari) =

(3.2.37) =1

2(1− e−2α(t2−t1))

Si ha in conclusione:

E[X(t1)X(t2)] = (+1) · 1

2(1 + e−2α(t2−t1)) + (−1) · 1

2(1− e−2α(t2−t1)) =

(3.2.38) = e−2α|t2−t1|

ed, ancora una volta, abbiamo trovato un processo la cui funzione di autocorrelazione(e di autocovarianza) dipende solo dalla differenza dei due istanti generici, e nonseparatamente dai due.

3.3. Processi Stazionari

Una notevole proprietà dei processi stocastici è la stazionarietà. Si è visto chei parametri statistici del primo e secondo ordine dipendono dalla scelta degli istantidi tempo. Anche la funzione densità di probabilità congiunta di ordine n dipendegeneralmente dalla scelta degli istanti di tempo in corrispondenza dei quali si valuta ilprocesso.

Si supponga ora di considerare n istanti di tempo t1, t2, ..., tn, in corrispondenzadei quali si ottiene la funzione di densità di probabilità congiunta:fx(x1, x2, ..., xn; t1, t2, ..., tn).

Se si spostano rigidamente tutti gli istanti di tempo di una stessa quantità ∆t, gen-eralmente otterremo una differente funzione di densità di probabilità congiunta:

(3.3.1) fx(x1, x2, ..., xn; t1 + ∆t, t2 + ∆t, ..., tn + ∆t)

3.3. PROCESSI STAZIONARI 80

.

PROPOSITION 3.3.1. Un processo si dice stazionario in senso stretto, se risultache, per ogni scelta di n, t1, t2, ..., tn e di ∆t:

(3.3.2) fx(x1, x2, ..., xn; t1, t2, ..., tn) = fx(x1, x2, ..., xn; t1+∆t, t2+∆t, ..., tn+∆t)

La stazionarietà forte (in senso stretto) richiede l’uguaglianza della funzione didensità di probabilità congiunta per qualunque ordine, scelta degli istanti di tempo edi traslazione. Cioè richiede che rispetto a tutte queste variabili la funzione fx siainvariante. I processi X(t) e X(t + ∆t) devono quindi avere le stesse statistiche.Questo non significa che le due variabili aleatorie che estrarremo nei due istanti ditempo sono identiche (poichè questo non può mai accadere per il significato stesso digrandezza statistica) ma significa che le due quantità non possono essere distinte traloro con misure statistiche.

Conseguenza di questa definizione è che: fx(x; t) = fx(x; t+ ∆t) cioè la funzionedensità di probabilità del primo ordine non è funzione del tempo e anche i parametristatistici del primo ordine (funzione valor medio, funzione potenza e funzione varian-za) non dipendono dalla variabile tempo (stazionarietà del primo ordine).

Inoltre per quel che riguarda la stazionarietà del secondo ordine, si ha:

(3.3.3) fx(x1, x2; t1, t2) = fx(x1, x2; t1 + ∆t, t2 + ∆t)

e questo può accadere solo se la funzione di densità di probabilità dipende dalladifferenza tra gli istanti di tempo, e non separatamente dai due: fx(x1, x2; t1, t2) =fx(x1, x2; t1 − t2). Allora tutte le statistiche del secondo ordine (funzione di autocor-relazione e funzione di autocovarianza) dipenderanno dalla differenza degli istanti ditempo e non separatamente dai due. Questo è il caso del processo visto in (3.1.2) o delsegnale telegrafico casuale.

Salendo di ordine (sebbene statistiche di ordine superiore non siano state introdotte)si ottiene che la funzione densità di probabilità congiunta di ordine n e tutte le statis-tiche di ordine correlato non dipenderanno dagli istanti di tempo separatamente, madalle n − 1 differenze t1 − t2, t2 − t3, ..., tn−1 − tn, dato che solo queste differenzerestano invariate rispetto ad una traslazione rigida dei tempi.

COROLLARY 3.3.2. Una stazionarietà di ordine n implica la stazionarietà di tuttigli ordini più bassi (il contrario generalmente non è vero).

3.3. PROCESSI STAZIONARI 81

3.3.1. Stazionarietà in senso lato. La verifica della stazionarietà in senso stret-to, anche per ordini bassi, è in genere un compito arduo (salvo casi particolari). Disolito allora ci si accontenta di una definizione di stazionarietà meno restrittiva: lastazionarietà in senso lato (o debole).

PROPOSITION 3.3.3. Un processo aleatorio è stazionario in senso lato se la suafunzione valor medio è costante µx(t) = µx e la sua funzione di autocorrelazionedipende solo dalla differenza degli istanti di tempo Rx(t1, t2) = Rx(t1 − t2).

La definizione di stazionarietà in senso lato coinvolge solo due statistiche e quindinon richiede alcuna paricolare proprietà alla funzione densità di probabilità congiunta.

COROLLARY 3.3.4. Un processo stazionario in senso stretto è stazionario anchein senso lato. Non è vero il viceversa

Se il processo è stazionario in senso lato la funzione di autocovarianza vale:

(3.3.4) Cx(t1, t2) = Rx(t1 − t2)− µ2x = Cx(t1 − t2)

cioè anche la funzione di autocovarianza dipende dalla differenza degli istanti ditempo. Anche nel caso di stazionarietà in senso lato rimane comunque difficile ver-ificare la proprietà. Infatti la verifica di una proprietà statistica come la stazionarietàrichiede che si riescano a manipolare (per effettuare misure statistiche) tutte le possi-bili realizzazioni del primo e secondo ordine del processo, o che si conosca in qualchemodo una forma chiusa della funzione di densità di probabilità del processo stesso alvariare di t (cosa normalmente non vera).

La funzione di autocorrelazione, nell’ipotesi di stazionarietà in senso lato può es-sere riscritta mettendo in evidenza proprio la dipendenza dalla differenza degli istantidi tempo:

(3.3.5) Rx(t1, t2) = Rx(t, t− τ) = E[X(t)X(t− τ)]

EXAMPLE 3.3.5. Riprediamo l’esempio visto più volte: X(t) = a·cos(2πfot+Θ),con Θ = U [0, π[. Si è ottenuto che µ(t) = −2a

πsin(2πfot), quindi il processo non si

può considerare stazionario in senso lato, dato che la funzione valor medio dipende daltempo.

Il processo X(t) = a · cos(2πfot + Θ), con Θ = U [0, 2π[, ha invece: µ(t) = 0

e Rx(t1, t2) = a2

2cos(2πfo(t1 − t2)), e quindi si può ritenere un processo stazionario

3.3. PROCESSI STAZIONARI 82

in senso lato, dato che la funzione valor medio è costante e la funzione di autocorre-lazione dipende solo dalla differenza dei tempi.

Un caso particolare del processo telegrafico casuale è il seguente

EXAMPLE 3.3.6. Segnale dati.Si supponga di avere un processo stocastico le cui realizzazioni sono funzioni del

tempo V (t) che possono assumere solo due valori discreti: +1 e −1 con probabilità1/2. Si supponga inoltre che la funzione cambi di stato solo ad istanti prefissati, cheverranno indicati con degli indici interi: V (nT ) = Vn. I valori inoltre sono assunti inmodo indipendente l’uno dall’altro. Quindi la funzione assume valore costante per tuttigli istanti di tempo t compresi tra due transizioni: V (t) = Vn per nT ≤ t < (n+ 1)T .La forma generica della funzione è quindi la seguente:

(3.3.6) V (t) =+∞∑

n=−∞

Vnrect(t− nT − T/2

T)

Il precedente processo modella molto bene un segnale dati binario con velocità di clockpari a 1/T . Esso è utile a schematizzare tutte le situazioni in cui si ha il trasferimento dibit tra due sistemi (ad esempio un computer ed una sua periferica). Poichè infatti nonè nota a priori l’informazione che si sta trasmettendo, il processo si può considerare atutti gli effetti aleatorio.

Determiniamo ora i parametri statistici rilevanti e verifichiamo l’eventuale staziona-rietà. Ad un certo istante fissato t, l’osservazione di tutte le realizzazioni porta a direche i valori che queste possono assumere sono soltanto +1 o −1. Inoltre, poichè si èsupposto che tali valori sono assunti con probabilità pari ad 1/2, la funzione di densitàdi probabilità del primo ordine non può che valere:

(3.3.7) fv(v; t) =1

2δ(v + 1) +

1

2δ(v − 1)

Questa funzione non dipende dalla variabile tempo. Quindi il processo è stazionarioin senso stretto per il primo ordine. Ci aspettiamo allora che la funzione valor mediosia costante:

(3.3.8) µv(t) =

∫ +∞

−∞vfv(v; t)dv =

∫ +∞

−∞v · [1

2δ(v + 1) +

1

2δ(v − 1)]dv = 0

3.3. PROCESSI STAZIONARI 83

Il calcolo della funzione di autocorrelazione è un po’ più complesso. Tuttaviasi può facilmente dimostrare che il processo non è stazionario nè in senso stretto,nè in senso lato per quel che riguarda il secondo ordine, dato che la funzione diautocorrelazione non può dipendere dalla sola differenza dei tempi.

Si consideri infatti, nella figura 3.3.1, i due istanti di tempo t1 e t2. Nel graficoin alto i due istanti di tempo capitano all’interno dell’intervallo [nT, (n + 1)T ], quin-di la realizzazione assume valore uguale: V (t1) = V (t2) = Vn. Si ha allora cheRv(t1, t2) = E[V (t1)V (t2)] = E[V 2

n ] = 1. Se ora spostiamo rigidamente i due istantidi tempo sino a farli capitare a cavallo di due intervalli, come indicato nella figura inbasso, si avrà che V (t1) 6= V (t2) e quindi

(3.3.9) Rv(t1, t2) = E[V (t1)V (t2)] = E[V (t1)]E[V (t2)] = E[Vn]E[Vn+1] = 0

Se il processo fosse stazionario in senso lato la funzione di autocorrelazione dovrebbedipendere solo dalla differenza dei due istanti di tempo e quindi la Rv(t1, t2) nei duecasi avrebbe dovuto mantenere lo stesso valore.

2

t t

t

1 2

1 t

FIGURA 3.3.1. Realizzazione di un processo dati binario

Si può concludere quindi che il processo in esame non è stazionario in senso lato,pur essendo stazionario in senso stretto per il primo ordine.

Un caso molto frequente è quello in cui si conosce la forma di un segnale (cioè ilsuo andamento) ma non si riesce a piazzare il segnale rispetto ad un preciso riferimento

3.3. PROCESSI STAZIONARI 84

temporale. In tal caso il segnale può essere modellato come un processo stocastico diquesto tipo:

EXAMPLE 3.3.7. X(t) = p(t − Θ), con Θ variabile aleatoria che modella l’in-certezza sulla posizione temporale del segnale. Un esempio classico è l’eco del segnaleradar.

Se supponiamo per semplicità che il segnale sia periodico di periodo T : p(t) =p(t + T ), Θ si può ipotizzare distribuita in modo uniforme tra 0 e T : Θ ∈ U(0, T ).Troviamo le proprietà del processo descritto.

La funzione valor medio:

(3.3.10) µ(t) = E[p(t−Θ)] =

∫ T

0

p(t− θ) 1

Tdθ =

1

T

∫ t

t−Tp(α)dα

Poichè la funzione p(α) è periodica di periodo T , il suo integrale in un periodo non puòdipendere dagli estremi di integrazione, quindi dal valore t. Quindi la funzione valormedio è indipendente dalla variabile tempo. In particolare il valore che la funzionevalor medio assume è pari al valor medio della funzione p(α).

Per la funzione di autocorrelazione si ha invece:

Rx(t1, t2) = E[X(t1)X(t2)] = E[p(t1 −Θ)p(t2 −Θ)] =

(3.3.11) =

∫ T

0

p(t1 − θ) · p(t2 − θ)1

Tdθ =

1

T

∫ t1

t1−Tp(α) · p(t2 − t1 + α)dα

Anche in questo caso la funzione integranda, essendo il prodotto di due segnali peri-odici di periodo T, è ancora periodica di periodo T , quindi il suo integrale non dipendedal particolare posizionamento degli estremi di integrazione. La funzione di autocorre-lazione quindi non dipende separatamente da t1 o da t2, ma solo dalla loro differenza:Rx(t1, t2) = Rx(t1−t2). Se si pone allora: t1−t2 = τ nella equazione precedente si ha:

(3.3.12) Rx(τ) =1

T

∫ T/2

−T/2p(α) · p(α− τ)dα

avendo posto t1 = T/2. La funzione di autocorrelazione statistica del processo X(t) èpari alla funzione di autocorrelazione del segnale deterministico e periodico p(t).

3.3. PROCESSI STAZIONARI 85

3.3.2. Proprietà della funzione di autocorrelazione di un processo stazionarioin senso lato. Vediamo ora alcune proprietà della funzione di autocorrelazione di unprocesso stazionario in senso lato.

(1) La funzione di autocorrelazione Rx(τ) è pari: Rx(τ) = Rx(−τ).Per dimostrare questa proprietà si osservi che, per la stazionarietà del proces-so, la funzione di autocorrelazione rimane invariata se la si calcola relativa-mente a due istanti di tempo t e t− τ oppure ai due istanti t e t+ τ , dato chequesti ultimi sono ottenuti semplicemente mediante traslazione rigida. Si haallora

(3.3.13) Rx(τ) = E[X(t)X(t− τ)] = E[X(t+ τ)X(t)] = Rx(−τ)

(2) Il valore assunto da Rx(τ) nell’origine è pari alla potenza statisica del pro-cesso:

(3.3.14) Rx(τ)|τ=0 = Rx(0) = E[X(t)X(t)] = E[X2(t)]

.

(3) La funzione di autocorrelazione è massima in modulo nell’origine: Rx(0) ≥|Rx(τ)|.Se si considera infatti la disuguaglianza: E[(X(t) ± X(t − τ))2] ≥ 0, siosserva che essa è sempre vera, dato che rappresenta la aspettazione di unaquantità sempre positiva. Sviluppando la relazione precedente si ha però:

E[(X(t)±X(t− τ))2] =

(3.3.15) = E[X2(t) +X2(t− τ)± 2X(t)X(t− τ)] = 2Rx(0)± 2Rx(τ)

che prova la disuguaglianza.(4) Se Rx(τ) non è periodica il suo valore limite per τ → ∞ è il quadrato del

valor medio:

(3.3.16) limτ→∞

Rx(τ) = µ2x

Per giustificare qualitativamente questa proprietà si ricordi innanzitutto che:Rx(τ) = Cx(τ) + µ2

x. Al crescere della distanza τ tra gli istanti di tempo, te t− τ , i valori delle variabili aleatorie tendono sempre più ad “allontanarsi”tra loro, ad assumere cioè comportamenti statistici sempre più indipendenti,finchè, al limite per τ →∞, il loro comportamento è completamente indipen-dente e quindi la loro autocovarianza è nulla. La funzione di autocorrelazionequindi diventa pari al quadrato del valor medio.

3.3. PROCESSI STAZIONARI 86

EXAMPLE 3.3.8. Si riconsideri il processo dati binario già visto precedentemente.Se il riferimento temporale non è noto, il modello più appropriato per questo processoè:

(3.3.17) V (t) =+∞∑

n=−∞

Vnrect(t−Θ− T/2− nT

T)

t

0

0

t

FIGURA 3.3.2. Realizzazioni di un processo dati binario conriferimento temporale non noto

dove la variabile aleatoria Θ contiene l’incertezza relativa al riferimento temporale,ed è distribuita nell’intervallo [0, T ] in modo uniforme. Tale v.a. è indipendente dallagenerazione dei dati binari, ed è modellata da una v.a. uniforme nell’intervallo [0, T [.Indipendentemente dall’istante di inizio del processo, il ragionamento fatto per deter-minare la funzione di densità di probabilità del primo ordine vale ancora. Quindi ilprocesso si può ancora definire stazionario in senso stretto per il primo ordine, e ilcalcolo della funzione valor medio è uguale a quanto già fatto in (3.3.8). Si ha allorache: µv(t) = µv = 0. Per il calcolo della funzione di autocorrelazione si ha invece:

Rv(t1, t2) = E[+∞∑

n=−∞

Vnrect(t1 −Θ− T/2− nT

T)·

·+∞∑

m=−∞

Vmrect(t2 −Θ− T/2−mT

T)] =

3.3. PROCESSI STAZIONARI 87

(3.3.18)

=+∞∑

n=−∞

+∞∑m=−∞

E[VnVmrect(t1 −Θ− T/2− nT

T) · rect(

t2 −Θ− T/2−mTT

)]

ottenibile sfruttando la linearità dell’operatore aspettazione. Ora si osservi che rispettoalla statistica dei dati binari, E[VnVm] è diversa da zero solo quando gli indici n edm sono uguali (vedi il ragionamento e l’eq. (3.3.9)). Quindi della doppia sommatoriasopravvive solo un indice:

Rx(t1, t2) =+∞∑

n=−∞

EΘ[rect(t1 −Θ− T/2− nT

T) · rect(

t2 −Θ− T/2− nTT

)] =

=+∞∑

n=−∞

EΘ[rect(t−Θ− T/2− nT

T) · rect(

t− τ −Θ− T/2− nTT

)] =

=1

T

+∞∑n=−∞

∫ T

0

rect(t− θ − T/2− nT

T) · rect(

t− τ − θ − T/2− nTT

)dθ =

se ora si pone: α = t− θ − nT , si ha:

(3.3.19) =1

T

+∞∑n=−∞

∫ t−nT

t−nT−Trect(

α− T/2T

)rect(α− τ − T/2

T)dα

Si osservi ora che la funzione integranda non contiene la dipendenza da n, quindi ivalori dell’integrale saranno tutti uguali al variare di n e saranno funzioni dipendentisolo da τ . Inoltre, poichè tali integrali sono calcolati in intervalli disgiunti del tipo:[nT − T, nT ], la funzione di autocorrelazione si può anche scrivere come:

(3.3.20) Rx(τ) =1

T

∫ +∞

−∞rect(

α− T/2T

)rect(α− τ − T/2

T)dα

3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO 88

che rappresenta la nota correlazione deterministica tra due funzioni rettangolo. Il risul-tato è pari alla funzione triangolo di base 2T :

(3.3.21) Rx(τ) = (1− |τ |T

)rect(τ

2T)

Quindi, in questo secondo caso, il segnali dati binario è stazionario in senso lato, datoche la funzione valor medio è costante e la funzione di autocorrelazione dipende solodalla variabile τ .

3.3.2.1. Significato della funzione di autocorrelazione. Si supponga di avere dueprocessi stocastici e stazionari in senso lato X(t) e Y (t), dotati degli stessi parametristatistici del primo ordine (funzione valor medio, funzione potenza e funzione varian-za). In tal caso, rinunciando all’idea di riuscire a determinare la funzione di densitàdi probabilità congiunta di qualunque ordine per i due processi, ci si deve affidare, perpoterli distinguere, ai parametri statistici. I parametri statistici del primo ordine peròsono tra loro uguali e quindi non permettono una distinzione statistica dei due processiin esame.

In tal caso vengono in aiuto i parametri statistici del secondo ordine ed in par-ticolare la funzione di autocorrelazione, il cui significato ed utilità sono molto beneevidenziati proprio per i processi stazionari. Infatti se si suppone che i due proces-si X(t) ed Y (t) hanno funzioni di autocorrelazione differenti tra loro, qusto significache, in uno stesso istante di tempo τ , Rx(τ) ed Ry(τ) saranno differenti. Cioè se siosservano i processi in due istanti di tempo distaccati di un intervallo τ , la loro ve-locità di variazione è differente, dato che uno dei due processi assomiglia molto dipiù a se stesso rispetto all’altro processo (quello con autocorrelazione maggiore haun’autosomiglianza maggiore).

In conclusione la funzione di autocorrelazione decresce tanto più velocemente azero quanto più rapida è la variazione delle realizzazioni del processo. Essa misuracioè la rapidità di variazione del segnale aleatorio.

3.4. Filtraggio di un Processo Aleatorio

Si è già detto che il motivo principale nell’introduzione della teoria dei processistocastici sta nel modellamento di fenomeni reali che sono descrivibili da grandezzefisiche che variano nel tempo e il cui comportamento non è predicibile a priori. Poichèle grandezze fisiche con cui ha a che fare l’ingegnere sono anche grandezze fisichemanipolabili, ha senso porsi il problema di cosa succede al processo (e quindi anchealle sue statistiche) se lo si fa passare per un sistema. Uno dei sistemi più semplici dastudiare è il filtro, cioè un sistema lineare e tempo-invariante, che può essere descrittocompletamente dalla sua risposta all’impulso, o dalla sua funzione di trasferimento.

3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO 89

Un tipico esempio è quello in cui il processo in ingresso è costituito da un segnaledeterministico noto a cui è sovrapposto un processo aleatorio a valor medio nullo (det-to disturbo o rumore): X(t) = s(t)+n(t), come riportato nell’esempio in figura 3.4.1.

30

−1

−0.5

0

0.5

1

1.5

0 5 10 15 20 25−1.5

FIGURA 3.4.1. Esempio di un segnale deterministico rumoroso

Quello che si fa è normalmente di cercare, almeno in parte, di elaborare s(t) elim-inando la componente rumorosa. Questa operazione può essere effettuata da un filtro.L’operazione imposta da un filtro è un’operazione di convoluzione con un segnale noto(la risposta all’impulso del filtro), quindi il comportamento sui segnali deterministici ènoto. Resta da vedere come si comporta sui processi stocastici.

X(t) Y(t)h(t)

FIGURA 3.4.2. Filtraggio del processo X(t)

Ogni realizzazione del processo di partenza X(t) è ottenuta mediante estrazione diun risultato dallo spazio campione Ω: x(t;ω). Questa realizzazione è un segnale cheammette un’uscita dal sistema filtro: y(t) = x(t;ω) ? h(t), dove l’operazione ? denotala convoluzione. Per ogni risultato dello spazio campione Ω si ha una realizzazionedifferente e quindi un segnale di uscita differente. L’insieme dei segnali di uscita cos-tituiscono un nuovo processo, Y (t), che può complessivamente denotarsi con:

(3.4.1) Y (t) = X(t) ? h(t)

3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO 90

Generalmente il problema di determinare la funzione densità di probabilità congiuntadi qualunque ordine del processo di uscita, ammesso che sia nota quella del processodi partenza, è insolubile.

Quello che si fa allora è di determinare la relazione che esiste tra i parametri stastiti-ci del primo e secondo ordine (si suppone di essere riusciti a determinare per lo menola funzione valor medio e la funzione di autocorrelazione di X(t)). La funzione valormedio vale:

µy(t) = E[Y (t)] = E[X(t) ? h(t)] =

∫ +∞

−∞h(τ)E[X(t− τ)]dτ =

(3.4.2)∫ +∞

−∞h(τ)µx(t− τ)dτ = µx(t) ? h(t)

La funzione valor medio in uscita si ottiene effettuando la convoluzione tra la funzionevalor medio in ingresso con la risposta all’impulso del sistema. Il processo in ingressosi può sempre pensare, ai fini del filtraggio, come la somma di una funzione determin-istica, µx(t) e di un processo a valor medio nullo: X(t) = Xo(t) + µx(t). Il filtraggiodel processo X(t), per la linearità del sistema, dà in uscita un processo somma di duecomponenti: quella deterministica è ottenuta filtrando il segnale deterministico µx(t),la componente statistica ha valor medio nullo.

Vediamo adesso la funzione di autocorrelazione del segnale di uscita:

Ry(t1, t2) = E[Y (t1)Y (t2)] = E[(X(t1) ? h(t1))(X(t2) ? h(t2))] =

= E[

∫ +∞

−∞X(α)h(t1 − α)dα

∫ +∞

−∞X(β)h(t2 − β)dβ] =

=

∫ +∞

−∞

∫ +∞

−∞E[X(α)h(t1 − α)X(β)h(t2 − β)]dαdβ =

=

∫ +∞

−∞

∫ +∞

−∞h(t1 − α)h(t2 − β)E[X(α)X(β)]dαdβ =

(3.4.3) =

∫ +∞

−∞

∫ +∞

−∞h(t1−α)h(t2− β)Rx(α, β)dαdβ = Rx(t1, t2) ? h(t1) ? h(t2)

3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO 91

La doppia convoluzione va intesa nel senso che, nella prima la variabile t2 è consider-ata costante, nella seconda convoluzione è t1 ad essere considerata costante.

3.4.1. Filtraggio di un processo stazionario in senso lato. Particolare interesseassume il caso in cui il processo in ingresso al filtro sia stazionario in senso lato. Perla funzione valor medio sia ha infatti la seguente relazione ingresso-uscita:

(3.4.4) µy(t) = µy =

∫ +∞

−∞h(τ)µx(t− τ)dτ = µx

∫ +∞

−∞h(τ)dτ = H(0) · µx

dove H(0) è il valore che la trasformata di Fourier della risposta all’impulso delsistema (la sua funzione di trasferimento H(f)) assume in f = 0.

La funzione di autocorrelazione vale:

Ry(t, t− τ) = E[Y (t)Y (t− τ)] = E[(X(t) ? h(t))(X(t− τ) ? h(t− τ))] =

= E[

∫ +∞

−∞h(α)X(t− α)dα

∫ +∞

−∞h(β)X(t− τ − β)dβ] =

= E[

∫ +∞

−∞

∫ +∞

−∞h(α)h(β)X(t− α)X(t− τ − β)dαdβ] =

=

∫ +∞

−∞

∫ +∞

−∞h(α)h(β)E[X(t− α)X(t− τ − β)]dαdβ =

=

∫ +∞

−∞

∫ +∞

−∞h(α)h(β)Rx(τ + β − α)dαdβ =

(3.4.5) =

∫ +∞

−∞h(β) · [

∫ +∞

−∞h(α)Rx(τ + β − α)dα]dβ

Si osservi subito che la funzione di autocorrelazione non dipende da t, ma solo da τ .Inoltre:

(3.4.6)∫ +∞

−∞h(α)Rx(τ + β − α)dα = Rx(τ + β) ? h(τ + β)

3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 92

Quindi la funzione di autocorrelazione in uscita diventa:

(3.4.7) Ry(τ) =

∫ +∞

−∞h(β) · [Rx(τ + β) ? h(τ + β)]dβ = Rx(τ) ? h(τ) ? h(−τ)

Se poi si osserva che la convoluzione di un segnale con se stesso ribaltato rispettoall’asse dei tempi è la autocorrelazione deterministica, si ha che: h(τ)?h(−τ) = rh(τ).Quindi: Ry(τ) = Rx(τ) ? rh(τ).In conclusione:

THEOREM 3.4.1. Se un processo in ingresso ad un sistema lineare tempo invari-ante è stazionario in senso lato, lo è anche in uscita dal sistema. Il valore medio e lafunzione di autocorrelazione del processo in uscita sono legate a quelle del processoin ingresso tramite, rispettivamente, le (3.4.4) e (3.4.7).

3.5. Analisi Spettrale di un Processo Aleatorio

Poichè si è introdotto il problema del filtraggio di un processo aleatorio, può averesenso la descrizione dello stesso problema in termini spettrali, dato che per il sistema lafunzione di trasferimento è facilmente calcolabile. Si deve tuttavia introdurre l’analisifrequenziale per i processi aleatori. Si supporrà di studiare le proprietà in frequenza peri soli processi aleatori stazionari in senso lato, anche se, concettualmente, è possibileanalizzare nel dominio delle frequenze un qualunque processo aleatorio.

La caratterizzazione di un processo aleatorio in frequenza, in termini di spettro diampiezza e fase è normalmente inusuale. E’ infatti sempre concepibile l’estrazionedi una realizzazione x(t) dal processo X(t) e la sua trasformazione secondo Fourier.Tuttavia l’analisi dell’intero processo richiederebbe lo studio in frequenza di ogni real-izzazione del processo. Conseguentemente le ampiezze e le fasi dello spettro sarebberocaratterizzate in maniera aleatoria, con relazione tra aleatorietà nel tempo e aleatorietàin frequenza non banale.

E’ allora più comune limitarsi alla descrizione degli spettri di potenza del segnalealeatorio. Le realizzazioni di un processo stazionario in senso lato non possono esseresegnali ad energia finita. Infatti tutti i segnali ad energia finita prima o poi, al tenderedi t → ∞ tendono a zero. Se così fosse anche la funzione valor medio, calcolata pervalori di t → ∞ tenderebbe a zero, e quindi, a meno che non è sempre pari a zero,essa non sarebbe più un valore costante. Quindi generalmente le realizzazioni di unprocesso stazionario in senso lato sono segnali a potenza finita e perciò il processoaleatorio ammette spettro di potenza.

La funzione densità spettrale di potenza di un processo aleatorio è la media dellefunzioni densità spettrale di potenza ottenute per le singole realizzazioni:

3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 93

(3.5.1) Sx(f) = E[Sx(f ;ω)] = E[ limT→∞

|= xT (t;ω)|2

T]

dove l’operazione di media va fatta tra tutti i segnali aleatori Sx(f ;ω) che si otten-gono prendendo i pezzi delle realizzazioni del processo X(t) che sono compresi tra[−T/2, T/2], e cioè:

xT (t;ω) = x(t;ω) · rect(t

T)

e facendone il modulo quadro della loro trasformata di Fourier. La definizione di spet-tro di potenza ricalca quindi quella che si potrebbe fare per un segnale deterministicodi potenza. L’unica differenza è dovuta alla presenza di una collezione (anche infinita)di realizzazioni sulla quali non possiamo fare altro che effettuare una media. Questadefinizione è del tutto generale, cioè è valida anche per processi non stazionari.

Normalmente essa è molto difficile da utilizzare, anche per processi stazionari insenso lato. Si utilizza allora nella pratica la definizione dovuta a Wiener-Kintchine. Inbase a questa definizione

PROPOSITION 3.5.1. la densità spettrale di potenza dei processi stazionari è cal-colabile come trasformata di Fourier della funzione di autocorrelazione:

(3.5.2) Sx(f) =

∫ +∞

−∞Rx(τ)e−j2πfτdτ

Vediamo alcune proprietà.(1) La densità spettrale di potenza di un processo aleatorio e stazionario in senso

lato è una funzione reale e pari, dato che è la trasformata di Fourier di unsegnale reale e pari

(2) La potenza statistica media del processo (che si ricordi è una costante, datala stazionarietà del processo) è pari all’integrale della densità spettrale di fre-quenza su tutto l’asse delle frequenze:

(3.5.3) Px = E[X2(t)] =

∫ +∞

−∞Sx(f)df

3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 94

(3) la densità spettrale di potenza è una funzione non negativa: Sx(f) ≥ 0.Quest’ultima proprietà discende direttamente dalla definizione diretta, e nondalla definizione di Wiener-Kintchine.

3.5.1. Filtraggio di un processo stazionario. Riprendiamo allora il problema delfiltraggio visto in fig. 3.4.2 di un processo stazionario e vediamo come ora si puòcaratterizzare la densità spettrale del processo in uscita, nota la densità spettrale delprocesso in ingresso. Sappiamo infatti che, se il processo in ingresso è stazionario insenso lato, lo è anche quello in uscita.

La densità spettrale del processo in uscita vale:

(3.5.4) Sy(f) = F Rx(τ) ? h(τ) ? h(−τ) = Sx(f)H(f)H(−f)

Inoltre, poichè il sistema si suppone reale, H(−f) = H∗(f), si ha:

(3.5.5) Sy(f) = Sx(f) · |H(f)|2

che è la stessa relazione che vale per gli spettri di potenza dei segnali deterministici.La risposta in fase del sistema non influenza la densità spettrale del processo in uscita.

Nella densità spettrale di potenza sono quindi contenute tutte le informazioni spet-trali del processo e cioè come si distribuisce la potenza sulle varie componenti ar-moniche, dato che Sx(f) si comporta come la densità spettrale di potenza di un segnaledeterministico.

Conseguentemente il significato di densità spettrale di potenza è lo stesso per i seg-nali deterministici e per i processi aleatori: una fettina spettrale alla frequenza f rapp-resenta il contenuto in potenza del processo sulla sinusoide a frequenza f moltiplicatoper la banda passante infinitesima intorno a f , df : dPx(f) = Sx(f)df .

EXAMPLE 3.5.2. Calcoliamo la densità spettrale di potenza del processo vistoin (3.1.2): X(t) = A · sin(2πfot + Θ), con Θ = U [0, 2π[. Poichè il processoè stazionario in senso lato, la sua densità spettrale di potenza può essere calcolatasecondo la definizione di Wiener-Kintchine. Poichè si è già trovato che: Rx(τ) =a2

2cos(2πfoτ), la densità spettrale di potenza vale:

(3.5.6) Sx(f) = Fa2

2cos(2πfoτ)

=a2

4[δ(f − fo) + δ(f + fo)]

3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 95

La potenza dell’intero processo è quindi concentrata sulla frequenza fo.

La funzione di autocorrelazione misura, come già detto, la velocità di variazione el’autosomiglianza di un processo con sè stesso. Poichè la densità spettrale di potenza èla trasformata di Fourier della funzione di autocorrelazione (per i processi stazionari),allora anche la densità spettrale di potenza può caratterizzare un processo. In parti-colare, quanto più rapidamente variano le singole realizzazioni di un processo, tantopiù larga è la banda passante della densità spettrale di potenza, dato che ad una bandalarga corrisponde una funzione di autocorrelazione piccola. Quindi a variazioni rapidecorrispondono termini spettrali a potenza non nulla sempre più in alta frequenza. Nellafigura 3.5.1 è riportata una singola realizzazione di tre processi, ciascuno dei quali pre-senta una densità spettrale di potenza a banda crescente. Si osservi come, al cresceredella banda aumenta non solo la rapidità di variazione della realizzazione, ma anchel’ampiezza delle escursioni, e cioè la potenza complessiva del segnale

8000

−1

−0.5

0

0.5

1

1.5

0 1000 2000 3000 4000 5000 6000 7000−1.5

8000

−1

−0.5

0

0.5

1

1.5

0 1000 2000 3000 4000 5000 6000 7000−1.5

3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 96

8000

−1

−0.5

0

0.5

1

1.5

0 1000 2000 3000 4000 5000 6000 7000−1.5

FIGURA 3.5.1. Esempio di tre processi a banda crescente nello spettrodi potenza

3.5.2. Processo aleatorio bianco. Si supponga ora di considerare un processo lacui densità spettrale di potenza ha una banda che cresce illimitatamente, pur mantenen-do lo stesso valore per f = 0. La funzione di autocorrelazione di tale processo tenderàad un valore piccolissimo (la funzione non assomiglia quasi per niente a sè stessa evaria sempre più rapidamente). Al limite per f → ∞ la funzione di autocorrelazionediventa impulsiva e quindi la densità spettrale di potenza diventa costante su tutto lospettro di frequenze:

(3.5.7) Rx(τ) = n · δ(τ) ⇔ Sx(f) = n

A tale tipo di processo, astrazione matematica di molti fenomeni reali, si dà il nomedi processo di rumore bianco. Il nome rumore bianco deriva dal fatto che tutte le com-ponenti spettrali sono ugualmente rappresentate, così come tutti i colori sono ugual-mente rappresentati nel processo di composizione della luce bianca. Il valor medio diquesto processo è nullo, dato che il valor medio è pari al limτ→∞Rx(τ) = 0. Inoltresi capisce bene che tale processo è solo una idealizzazione, dato che esso dovrebbepossedere potenza infinita, condizione impossibile per un qualunque processo chemodelli un segnale fisico.

Una delle applicazioni più comuni di questa idealizzazione consiste nel modella-mento del rumore termico. Un comune resistore, oltre a presentare una certa resistenzaR, presenta anche una debole tensione di rumore, dovuta alla casuale agitazione ter-mica degli elettroni nel materiale che compone il resistore. Questa agitazione termicaè tanto più elevata quanto più alta è la temperatura assoluta alla quale si trova il resis-tore. Il modello che normalmente si utilizza è allora quello di considerare il resististore

3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 97

ideale e di porre in serie ad esso un generatore di tensione con tensione pari a n(t) V ,dove n(t) è un processo casuale, responsabile della produzione di rumore termico.L’espressione che assume la densità spettrale di potenza del rumore termico deriva daconsiderazioni di carattere quantistico (e quindi non verrà effettuata in questa sede) edassume la forma:

(3.5.8) Sn(f) = kTR|f | /fo

e|f |/fo − 1

dove il valore di fo è: fo = kTR/h, con k = 1.38 · 10−23J/K costante di Boltzmann,h = 6.62 · 10−34J · s costante di Plank e TR temperatura assoluta del resistore. Allatemperatura ambiente il valore di fo è estremamente alto (∼ 6THz). Poichè i valoridi frequenza che normalmente si utilizzano nelle applicazioni pratiche sono molto piùbassi, l’espressione precedente si può approssimare come segue:

(3.5.9) Sn(f) = kTR|f | /fo

e|f |/fo − 1≈ kTR

cioè come una costante. Il processo di rumore bianco è quindi, in questo caso, un utileidealizzazione di una situazione reale. Un circuito elettrico infatti che sia compostoda un filtro con banda passante B fo, “vedrà” la densità spettrale del processopraticamente come piatta.

EXAMPLE 3.5.3. Si voglia determinare la densità spettrale di potenza del processoin uscita dal sistema riportato in figura 3.5.2, conN(t) un processo stazionario in sensolato e densità spettrale di potenza costante e pari ad n.

Il primo blocco effettua una media pesata del segnale in ingresso su un intervallo[t− T, T ]:

(3.5.10)1

T

∫ t

t−T(•)dτ

La sua risposta all’impulso vale allora: g(t) = 1Trect( t−T/2

T). Il secondo blocco è un

filtro passa banda ideale, con banda pari a 2/T intorno ad f0, con f0T 1. Infine ilmoltiplicatore moltiplica per un oscillatore locale la cui espressione è del tipo: p(t) =2 cos(2πf0t+ Θ), quindi è in realtà un processo, con Θ variabile aleatoria con densitàdi probabilità uniforme in [0, 2π[.

3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 98

0

N(t) X(t) Y(t) Z(t)

H(f)g(t)

p(t)

−f f0

2/T

0f

| H(f) |

FIGURA 3.5.2. Sistema dell’esempio e filtro passa banda H(f)

Poichè il processo in ingresso è stazionario in senso lato e il blocco g(t) è linearee tempo invariante, anche il processo in uscita X(t) è stazionario in senso lato. Il suovalor medio è: µx = µnG(0) = 0 ·G(0) = 0, essendo il processo in ingresso a medianulla. La funzione di autocorrelazione di X(t) é:

(3.5.11)

Rx(τ) = Rn(τ) ? g(τ) ? g(−τ) = nδ(τ) ? rg(τ) = nrg(τ) =n

T(1− |τ |

T)rect(

τ

2T)

e dipende solo da τ . La corrispondente densità spettrale di potenza vale: Sx(f) =F Rx(τ) = n · sinc2(Tf).

Il processo p(t) sappiamo che è stazionario, avendo valor medio nullo e funzione diautocorrelazione pari a: Rp(τ) = 2 cos(2πfoτ). La funzione valor medio del prodottotra le due è:

(3.5.12) µy(t) = E[X(t)p(t)] = 2E[X(t) cos(2πf0t+ Θ)]

Poichè la v.a. Θ è indipendente dalla sinusoide in cui è contenuta (all’interno del pro-cesso p(t)) lo è a maggior ragione anche dal processo X(t). Quindi l’aspettazionedel prodotto è pari all’aspettazione presa separatamente dei singoli processi: µy(t) =E[X(t)p(t)] = E[X(t)]E[p(t)] = 0. La funzione di autocorrelazione vale:

3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 99

Ry(t, t− τ) = E[Y (t)Y (t− τ)] =

= 4E[X(t)X(t− τ) cos(2πf0t+ θ) cos(2πf0(t− τ) + θ)] =

= 4E[X(t)X(t− τ)] · E[cos(2πf0t+ θ) cos(2πf0(t− τ) + θ)] =

(3.5.13) = 2Rx(τ) · cos(2πf0τ)

Anche il processo Y (t) è quindi stazionario in senso lato, essendo il suo valor medionullo e la sua funzione di autocorrelazione dipendente solo da τ . La densità spettraledi potenza è la trasformata di Fourier di Ry(τ):

Sy(f) = F Ry(τ) =

(3.5.14)= n · sinc2(fT ) ? [δ(f − fo) + δ(f + fo)] = n · [sinc2(T (f − fo)) + sinc2(T (f + fo))]

La maggior parte della potenza si è spostata attorno ad fo, anche se le code delle fun-zioni sinc2 si sovrappongono sino ad infinito. L’effetto del filtraggio passa banda finaleè quello di tagliare appunto queste code, in modo da lasciar passare solo la parte dellospettro che contiene più potenza (vedi in figure 3.5.3 ed 3.5.4 ). Approssimatamentequindi lo spettro di potenza in uscita si può scrivere come:

(3.5.15)

Sz(f) ≈ n · [sinc2(T (f − fo)) · rect(f − fo2/T

) + sinc2(T (f + fo)) · rect(f + fo2/T

)]

3.6. PROCESSI ALEATORI GAUSSIANI 100

frequenze normalizzate fT

0.2

0.4

0.6

0.8

1

1.2

−15 −10 −5 0 5 10 150

FIGURA 3.5.3. Filtraggio del processo Y (t). I valori nell’esempioriportato sono: f0T = 5.

frequenze normalizzate fT

0.2

0.4

0.6

0.8

1

−15 −10 −5 0 5 10 15

Sz(f

)

0

FIGURA 3.5.4. Densità spettrale di potenza in uscita dal sistema, Sz(f)

3.6. Processi Aleatori Gaussiani

Nell’esempio del rumore termico la generazione della tensione di rumore è dovutaalla somma della tensione provocata dal movimento casuale degli elettroni. Poichèil processo in esame è generato dal contributo di molti fenomeni elementari ed in-dipendenti, si può ritenere che la statistica del processo stesso sia di tipo gaussiano(per il teorema del limite centrale). Poichè una grande quantità di fenomeni fisici sicomportano in modo simile, è utile studiare le proprietà dei processi gaussiani.

DEFINITION 3.6.1. Un processo aleatorio X(t) è gaussiano se scelto n arbitraria-mente grande ed n istanti di tempo t1, t2, ..., tn, le variabili aleatorie

[X(t1), X(t2), ..., X(tn)] sono congiuntamente gaussiane.

In questa definizione è quindi necessario verificare non solo la gaussianità dellasingola variabile aleatoria che si può ottenere ad ogni istante t, ma anche del vettorealeatorio [X(t1), X(t2), ..., X(tn)], comunque si scelgano gli istanti di tempo.

Molti fenomeni fisici sono modellati come processi gaussiani (onde sismiche, voceumana, rumore termico, etc) e questo spiega la centralità di questo tipo di processi nellostudio dei processi stocastici.

3.6. PROCESSI ALEATORI GAUSSIANI 101

La descrizione statistica completa di un processo è possibile solo se è nota la suafunzione di densità di probabilità di ogni ordine e per ogni n− pla di istanti di tempo:fx(x1, x2, ..., xn; t1, t2, ..., tn). Tuttavia se X(t) è gaussiano la densità di probabilitàcongiunta ha una forma nota:

(3.6.1)

fX(x1, x2, ..., xn; t1, t2, ..., tn) =1√

(2π)n det |CX |· exp(−1

2(x−µX)TC−1

X (x−µX))

dove il vettore aleatorio x è quello che si ottiene estraendo le variabili aleatorie[X(t1), X(t2), ..., X(tn)]. Per la conoscenza completa della funzione di densità diprobabilità congiunta (e quindi dell’intero processo) è sufficiente conoscere quindi lafunzione valor medio e la funzione di autocovarianza; µx(t) e Cx(t1, t2). Infatti perogni n− pla di istanti di tempo (t1, t2, ..., tn) si ha:

(3.6.2) µX = [µx(t1), µx(t2), ..., µx(tn)]

Invece per la funzione di autocovarianza si ha: Cx = [cij], dove

(3.6.3)cij = E[(X(ti)− µx(ti)) · (X(tj)− µx(tj))] = Cx(ti, tj) = Rx(ti, tj)− µx(ti)µx(tj)

Una delle proprietà notevoli dei processi gaussiani consiste nel fatto che la staziona-rietà in senso lato implica la stazionarietà in senso stretto (cosa generalmente non ve-ra). Infatti la stazionarietà in senso lato equivale ad imporre una funzione valor mediocostante ed una funzione di autocorrelazione dipendente solo dalla differenza degli is-tanti di tempo: µX(t) = µX e Rx(t1, t2) = Rx(τ). Se allora si considera l’n − pla diistanti:

[t1 + ∆t, t2 + ∆t, ..., tn + ∆t]

in tali istanti la funzione valor medio non sarà cambiata poichè è una costante. Lafunzione di autocovarianza rimane anch’essa costante dato che dipende solo dalledifferenze tra una qualunque coppia di istanti di tempo.

3.6. PROCESSI ALEATORI GAUSSIANI 102

Poiche infine la funzione di densità di probabilità congiunta del processo dipendesolo da questi due parametri statistici, si può concludere che il processo stazionario insenso lato lo è anche in senso stretto.

Quando si fa passare un processo attraverso un sistema lineare tempo-invariante,di cui si conosce la funzione di trasferimento, è generalmete difficile determinare lafunzione di densità di probabilità congiunta di uscita, anche se nota quella di ingresso.I processi gaussiani fanno eccezione a questa regola: un processo gaussiano che vengafatto passare attraverso un sistema lineare conserva la sua proprietà principale di gaus-sianità; inoltre conserva anche la stazionarietà se il sistema è anche tempo-invariante eil processo in ingresso è stazionario.

Intuitivamente il motivo per cui la statistica del processo non cambia si può com-prendere osservando l’operazione che si effettua quando il processo passa attraverso ilsistema:

(3.6.4) Y (t) = X(t) ? h(t) =

∫ +∞

−∞X(α)h(t− α)dα

Questa operazione si può pensare come una somma di infiniti termini, ciascuno delquali vale approssimatamente:

(3.6.5) X(k∆α)h(t− k∆α)∆α

dove si deve pensare k intero e ∆α molto piccolo. Poichè allora il processo in uscitaaltro non è che una combinazione lineare di tanti processi in ingresso, tutti gaussiani(X(t), calcolato per t = k∆α è gaussiano), è anch’esso gaussiano, comunque si scelgal’n− pla degli istanti di tempo [t1, t2, ..., tn].

EXAMPLE 3.6.2. Si consideri un processo gaussiano stazionario con densità spet-trale di potenza:

(3.6.6) Sn(f) = No(1−|f |B

)rect(f

2B)

e si supponga di far passare questo processo attraverso un campionatore. Il cam-pionatore è un sistema che, dato un segnale continuo, ne estrae il valore per particolariistanti di tempo, normalmente equispaziati. A partire da una funzione tempo continua

3.6. PROCESSI ALEATORI GAUSSIANI 103

costruisce quindi una funzione tempo discreta o, se si preferisce, una successione dinumeri reali.

Il campionatore campioni il processo agli istanti di tempo k/B. Se k lo facciamovariare da 1, ..., n otterremo n numeri reali

X(t1 = 1/B), X(t2 = 2/B), ..., X(tn = n/B)

corrispondenti ad n variabili aleatorie. Si vuole calcolare la densità di probabilitàcongiunta di queste n variabili aleatorie fx(x1, x2, ..., xn).

k/B

N0

f

S (f)

0 B−B

n

X(t) X k

FIGURA 3.6.1. Densità spettrale e schema a blocchi dell’esempio 3.6.2

Si osservi subito che se X(t) è un processo a valor medio nullo, anche il processocampionato, essendo l’insieme di n v.a. a valor medio nullo, è a valor medio nullo.Inoltre la sua funzione di autocovarianza vale:

cxixj= E[(Xi − µxi

)(Xi − µxj)] = E[XiXj] = E[X(ti)X(tj)] =

(3.6.7) = Rx(ti − tj) = Rx(i− jB

)

Poichè conosciamo Sn(f) è possibile esprimere in forma chiusa anche la funzione diautocorrelazione:

(3.6.8) Rn(τ) = NoB · sinc2(Bτ)

3.7. PROCESSI ERGODICI 104

Quindi l’autocovarianza vale: cxixj= NoB · sinc2(i− j) = NoB · δik (con δik simbolo

di Kronecker) ed è una matrice diagonale. Questo ci dice che le variabili aleatorieestratte con l’operazione di campionamento sono a due a due incorrelate. Essendo in-oltre congiuntamente gaussiane (l’operazione di campionamento è infatti chiaramentelineare) esse sono a due a due indipendenti. La loro potenza statistica, è pari anche allaloro varianza: Rn(0) = NoB. La densità di probabilità congiunta è allora il prodottodelle singole densità di probabilità delle v.a. [X1, X2, ..., Xn]:

f(x1, x2, ..., xn) =n∏k=1

f(xk)

(3.6.9) f(x1, x2, ..., xn) =1√

(2π)n · (NoB)nexp(−x

21 + x2

2 + ...+ x2n

2NoB)

3.7. Processi Ergodici

I parametri statistici di un processo aleatorio si possono considerare operazionid’insieme, poichè sono effettuate sull’insieme delle funzioni campione (o realizzazioni).Ad esempio la funzione valor medio si determina, per ogni istante fissato t, effettuan-do la media di tutte le realizzazioni in t, nota che sia la funzione densità di probabilitàdi primo ordine per quell’istante. Questa operazione, dal punto di vista teorico noncomporta alcuna difficoltà, ammesso che del processo si conosca una forma chiusa,ammesso cioè che si sia in grado di scrivere ogni possibile realizzazione del processo,insieme con la funzione di densità di probabilità del primo ordine (o di ordine superioreper le altre statistiche).

In pratica la funzione di densità di probabilità non è nota e a volte non si riescenemmeno a fare delle ipotesi ragionevoli sulla sua forma con misure statistiche sulprocesso in esame. A volte infatti, di un dato processo, è possibile misurare soltan-to una singola realizzazione. La domanda che sorge spontanea è allora: è possibileeffettuare alcune misure sulla singola realizzazione per ottenere un comportamentostatistico generale ? La risposta a questa domanda è sì, a volte si può fare, ma ciòdipende da una particolare proprietà che possono possedere i processi aleatori. Questaproprietà è l’ergodicità.

DEFINITION 3.7.1. Un processo aleatorio stazionario in media si dice ergodico inmedia se, con probabilità che tende ad 1 si ha che la media d’insieme coincide con lamedia temporale effettuata sulla singola realizzazione:

3.7. PROCESSI ERGODICI 105

(3.7.1) P (E[X(t)] = limT→∞

∫ T/2

−T/2x(t)dt ) = 1

Tale definizione nasce infatti dall’osservazione che, se si possiede una sola realiz-zazione del processo, può avere senso effettuare delle misure deterministiche sul quelprocesso (media temporale, misura della autocorrelazione e così via). In particolare perla misura della media temporale può accadere che questa sia differente realizzazioneper realizzazione oppure che, anche se sempre uguale per tutte le realizzazioni, siadifferente dalla media d’insieme del processo in esame. Per alcuni processi invececapita che non solo la media temporale è uguale per tutte le realizzazioni, ma ancheche questo valore è pari a quello che si determina dalla media d’insieme. Tali processisono appunto detti ergodici in media.

Un processo ergodico in media è un processo la cui singola realizzazione si com-porta come tutto il processo in esame dal punto di vista statistico, permette cioè misuredi media che dovrebbero essere fatte altrimenti su tutta la statistica del processo stesso.E’ evidente che, affinchè un processo sia ergodico, è necessario che sia stazionario, da-to che la media temporale è necessariamente un valore singolo e quindi non potrebbemai essere pari ad una funzione del tempo (se il processo non fosse stazionario).

Si osservi che nella definizione non abbiamo dato una condizione di uguaglian-za con certezza, ma con probabilità tendente ad 1, che è una cosa differente. Infattiquando si osserva la singola realizzazione, questa è una sola tra le tante che potreb-bero capitare, e quindi il valore che estraiamo della media temporale è essa stessa unavariabile aleatoria. L’uguaglianza di tale variabile aleatoria con una costante (il valormedio ottenuto come media d’insieme) può essere fatta solo in termini probabilistici,affermando cioè che tale variabile aleatoria ha valor medio che coincide con la mediad’insieme e varianza nulla. Si tenga inoltre presente che nei casi pratici non si puòosservare nemmeno tutta la realizzazione (cioè da −∞ a +∞) e quindi quella che siottiene è solo una stima del valor medio (che a sua volta è una variabile aleatoria).Quello che nella pratica si riesce ad ottenere è quindi:

(3.7.2) XT =1

T

∫ T/2

−T/2x(t)dt

la media temporale sarà quindi:

Xm = limT→∞

XT

3.7. PROCESSI ERGODICI 106

ed inoltre:

(3.7.3) µXm = limT→∞

µXT, σ2

Xm= lim

T→∞σ2XT→ 0

anche se questi ultimi risultati non sono accessibili in una situazione reale.Si ricordi infine che, essendo la varianza della variabile aleatoria XT pari alla funzionedi autocovarianza valutata per τ = 0, il verificarsi della condizione di ergodicità inmedia è subordinato al verificarsi di una determinata condizione (CXT

(0) → 0) checoinvolge la statistica del secondo ordine del processo.

Per il calcolo della media temporale si definisce un operatore valor medio tempo-rale, che si può applicare a qualunque segnale x(t) determinato o no:

(3.7.4) 〈x(t)〉 = limT→∞

1

T

∫ T/2

−T/2x(t)dt

La proprietà di ergodicità in media può essere allora riscritta nel modo seguente:

(3.7.5) E[X(t)] = 〈x(t;ω)〉

dove si è messo in evidenza che la media temporale è stata effettuata sulla particolarerealizzazione estratta dal processo X(t). Se però il processo è ergodico tale valore èuguale per tutte le realizzazioni e quindi, con notazione non proprio rigorosa si puòscrivere:

(3.7.6) E[X(t)] = 〈X(t)〉

La dimostrazione che l’uguaglianza della definizione vale con probabilità pari ad 1è legata alla dimostrazione che la media della variabile aleatoria 〈x(t)〉 sia pari al valormedio d’insieme e la sua varianza tenda a zero. L’aspettazione della media temporale

3.7. PROCESSI ERGODICI 107

è:

E[〈x(t)〉] = E[ limT→∞

1

T

∫ T/2

−T/2x(t)dt] =

(3.7.7) = limT→∞

1

T

∫ T/2

−T/2E[x(t)]dt = lim

T→∞

1

T

∫ T/2

−T/2µxdt = µx

La varianza della variabile aleatoria 〈x(t)〉 invece vale:

V ar(〈x(t)〉) = E[(〈x(t)〉 − µx)2] =

= E[( limT→∞

1

T

∫ T/2

−T/2x(t)dt− µx)

2] = limT→∞

E[(1

T

∫ T/2

−T/2x(t)dt− µx)

2] =

= limT→∞

E[1

T 2

∫ T/2

−T/2(x(t)− µx)dt ·

∫ T/2

−T/2(x(t)− µx)dt] =

= limT→∞

E[1

T 2

∫ T/2

−T/2

∫ T/2

−T/2(x(t)− µx)(x(t1)− µx)dtdt1] =

= limT→∞

1

T 2

∫ T/2

−T/2

∫ T/2

−T/2E[(x(t)− µx)(x(t1)− µx)]dtdt1 =

= limT→∞

1

T 2

∫ T/2

−T/2

∫ T/2

−T/2Cx(t, t1)dtdt1 = lim

T→∞

1

T 2

∫ T/2

−T/2

∫ T/2

−T/2Cx(t− t1)dtdt1 =

dove l’ultima uguaglianza vale solo nell’ipotesi che il processo sia stazionario in sensolato e non solo in media. In questa ipotesi infatti la dimostrazione che la varianzadi 〈x(t)〉 va a zero per T → ∞ risulta più semplice (la dimostrazione nel caso piùgenerale è più complessa).Se ora si pone t−t1 = u, si osserva che al variare di (t, t1) nel quadrato [−T/2, T/2]×[−T/2, T/2], u varia da [−T, T ]. Inoltre dtdt1 =

√2(T − |u|)du: si provi infatti a

calcolare l’area del rettangolino che si ottiene spostando di un infinitesimo du la rettat− t1 = u (vedi figura 3.7.1).

3.7. PROCESSI ERGODICI 108

−T/2

t−t = ut−t = u+du1

1

t1

t0−T/2 T/2

T/2

FIGURA 3.7.1. Calcolo del differenziale nel cambio di variabile t −t1 = u

Quindi:

(3.7.8) = limT→∞

1

T 2

∫ T

−T

√2(T − |u|)Cx(u)du = 0

dato che la funzione di autocovarianza non può divergere per nessun valore della vari-abile indipendente. E’ quindi dimostrata la definizione di ergodicità in media secondola relazione probabilistica.

L’operatore di media temporale può essere utilizzato per definire l’autocorrelazionedi un segnale deterministico a potenza finita:

(3.7.9) 〈x(t)x(t− τ)〉 = limT→∞

1

T

∫ T/2

−T/2x(t)x(t− τ)dt

Risulta allora abbastanza chiaro che il concetto di ergodicità in media può essere estesaanche alla autocorrelazione, purchè il processo sia stazionario non solo in media maanche per quel che riguarda l’autocorrelazione, sia cioè stazionario in senso lato.

DEFINITION 3.7.2. Un processo aleatorio stazionario in senso lato è ergodico inautocorrelazione se con probabilità pari ad 1 risulta vera l’uguaglianza;

3.7. PROCESSI ERGODICI 109

(3.7.10)

Rx(τ) = E[X(t)X(t− τ)] = 〈x(t)x(t− τ)〉 = limT→∞

1

T

∫ T/2

−T/2x(t)x(t− τ)dt

Si osservi che l’ipotesi di stazionarietà è necessaria per l’ergodicità in autocor-relazione, dato che altrimenti il processo avrebbe una funzione di autocorrelazioned’insieme dipendente da due variabili, mentre l’autocorrelazione temporale dipendechiaramente da una sola variabile. Inoltre, per gli stessi motivi addotti precedente-mente, è necessario dare anche in questo caso una definizione in termini probabilistici.

L’ergodicità in autocorrelazione è importante poichè mediante questa è possibiledeterminare la funzione di autocorrelazione d’insieme mediante l’osservazione di unasingola realizzazione. Dalla funzione di autocorrelazione si può poi calcolare la densitàspettrale di potenza del processo.

Le condizioni sull’ergodicità in autocorrelazione del processo coinvolgono grandezzestatistiche del quarto ordine, poichè si deve provare che la varianza della variabilealeatoria

(3.7.11) 〈x(t)x(t− τ)〉T =1

T

∫ T/2

−T/2x(t)x(t− τ)dt

tende a zero al tendere di T →∞.Un processo ergodico in valor medio e in autocorrelazione si dice ergodico in

senso lato.

DEFINITION 3.7.3. Un processo si dice ergodico in senso stretto se la proprietàdi ergodicità vale per una qualunque grandezza statistica estratta dal processo (e diqualunque ordine):

(3.7.12)E[g(X(t), X(t−τ1), ..., X(t−τn−1))] = 〈g(X(t;ω), X(t− τ1;ω), ..., X(t− τn−1;ω))〉

EXAMPLE 3.7.4. Dimostriamo che il processo X(t) = a · cos(2πfot + Θ), conΘ = U [0, 2π[, con a ed fo noti, è ergodico in senso lato.

Abbiamo già dimostrato che tale processo è stazionario in senso lato (quindi ilproblema è ben posto). Inoltre si è già trovato che:

3.8. CENNI SULLE CATENE DI MARKOV 110

(3.7.13) µx = 0, Rx(τ) =a2

2cos(2πfoτ)

Calcoliamo ora le corrispondenti medie temporali:

(3.7.14)

〈x(t; θ)〉 = limT→∞

1

T

∫ T/2

−T/2a · cos(2πfot+ Θ)dt =

1

T

∫ T/2

−T/2a · cos(2πfot+ Θ)dt = 0

dato che la media di un qualunque segnale periodico può essere valutata sul singoloperiodo. Il risultato ottenuto è indipendente dal particolare valore di Θ. Il processo èquindi ergodico in media.

Per l’autocorrelazione temporale si ha poi:

〈x(t; θ)x(t− τ ; θ)〉 = limT→∞

1

T

∫ T/2

−T/2a · cos(2πfot+ Θ)a · cos(2πfo(t− τ) + Θ)dt =

=1

T

∫ T/2

−T/2a ·cos(2πfot+Θ)a ·cos(2πfo(t−τ)+Θ)dt =

a2

2T

∫ T/2

−T/2cos(2πfoτ)dt =

(3.7.15)a2

2cos(2πfoτ) = Rx(τ)

Il processo è ergodico anche in autocorrelazione e quindi lo è in senso lato.

3.8. Cenni sulle Catene di Markov

3.8.1. Qualche definizione sulle catene di Markov. Le catene di Markov sonouna delle applicazioni della teoria dei processi aleatori più diffusa. Esse sono utilizzatein un’enorme varietà di contesti poichè modellano molto bene una classe di fenomenireali (gli arrivi e le attese in coda).

Si supponga di considerare un processio aleatorio X(t) e si supponga di volerconoscere qualche proprietà della variabile aleatoria X(tk) a partire dalla conoscenzadelle variabili aleatorie X(t1), X(t2), ..., X(tk−1), con t1, t2, ..., tk arbitrariamente es-tratti. Si vuole quindi, se possibile, determinare: