Upload
votuong
View
215
Download
0
Embed Size (px)
Citation preview
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
1
PARTE I
SEGNALI E SISTEMI
1. Alcuni esempi introduttivi
Gli schemi illustrati nella figura rappresentano quattro tipici sistemi elettronici, che
discuteremo brevemente allo scopo di fornire una introduzione esemplificativa ai sistemi, ai
segnali e ai problemi di interesse nel campo dell'elettronica.
Il primo esempio riguarda un sistema di acquisizione. Il trasduttore1 T fornisce il
1 Per trasduttore s'intende un dispositivo che trasferisce un segnale da una grandezza di supporto a un'altra, di differente natura fisica; per esempio da una grandezza non elettrica a una elettrica e in tal caso chiamato anche sensore.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
2
segnale x(t), che contiene sia l'informazione relativa all'andamento temporale della grandezza
non elettrica misurata sia un disturbo (rumore additivo). Si tratta di un segnale a basso livello,
che l'amplificatore A amplifica riproducendolo fedelmente e che il filtro F provvede a filtrare
per migliorare il rapporto segnale/rumore. Il convertitore A/D (analogico/digitale) trasforma
infine il segnale analogico in forma digitale permettendone la lettura da parte di un
calcolatore.
Il secondo esempio riguarda un sistema di trasmissione di dati. Qui il segnale x(t)
consiste in una sequenza di impulsi a due livelli, che vengono trasmessi a distanza attraverso
un canale (per esempio una linea telefonica). All'uscita dal canale, il segnale y(t) è deformato,
rispetto a quello d'ingresso, sia dal rumore che dall'effetto della risposta del canale.
L'equalizzatore E (un particolare tipo di filtro) provvede a compensare gli effetti della risposta
del canale e a ridurre il rumore. Il rigeneratore RI (un discriminatore di segno) ritrasforma
infine il segnale nella forma iniziale di impulsi a due livelli.
Il terzo esempio riguarda il sistema di controllo del processo P (che consiste, per
esempio, nell'azionamento di un asse da parte di un motore). Qui si utilizza il principio della
reazione negativa in modo che l'uscita del processo (la posizione angolare dell'asse) segua il
riferimento x(t) e in particolare approssimi, sia pure con un piccolo ritardo, un segnale a
gradino. A questo provvedono il blocco di reazione H e il blocco di compensazione W,
generando il segnale di comando m(t).
L'ultimo esempio riguarda un sistema di alimentazione in continua. La corrente
alternata della rete viene prima rettificata dal raddrizzatore RA, poi filtrata e infine applicata
al regolatore RE che ne stabilizza il valore della tensione. Quest'ultimo dispositivo funziona in
base al principio della reazione negativa, cioè in modo simile a quello del sistema di controllo,
ma utilizzando un riferimento interno costante per produrre un'uscita costante.
Qui richiamiamo l'attenzione sulla natura dei segnali in gioco e sulle funzioni di
elaborazione dei segnali che i vari blocchi sono chiamati a compiere (amplificare fedelmente
un segnale, trasmettere solo certe frequenze e non altre, rettificare un'onda sinusoidale, ecc.)
negli esempi precedenti.
Accenniamo ora brevemente al progetto dei sistemi elettronici. Il progetto di un
sistema, in generale, ha inizio attraverso la stesura delle specifiche, che ne stabiliscono le
prestazioni essenziali in relazioni agli obiettivi prefissati (un sistema di alimentazione, per
esempio, deve fornire corrente al carico collegato all'uscita mantenendo costante la tensione
d'uscita entro limiti prefissati e con un residuo di alternata inferiore a un valore prefissato, per
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
3
variazioni date della tensione alternata d'ingresso, del carico e della temperatura).
Sulla base delle specifiche, che riguardano generalmente anche l'affidabilità (cioè la
probabilità che il sistema funzioni correttamente su un tempo prefissato in condizioni
ambientali prefissate → Appendice C) e la spesa ammissibile, viene scelta la struttura
generale del sistema, tenendo conto delle tecnologie disponibili anche in relazione ai costi e al
numero di apparati che si intendono realizzare.
Si procede quindi al progetto di massima delle varie parti del sistema e poi al progetto
dettagliato dei circuiti che le costituiscono, sempre tenendo condo della componentistica
disponibile e dei costi relativi. In questa fase ci si avvale a volte di procedimenti basati su
criteri di sintesi, ma più spesso si procede invece per tentativi, cioè analizzando le prestazioni
ottenibili con una data struttura per verificare se sono accettabili, altrimenti esaminando altre
soluzioni.
Notiamo, per concludere, che nella progettazione giocano tre fattori essenziali: la
conoscenza delle tecnologie realizzative disponibili, la conoscenza delle metodologie di
progetto, in particolare di analisi e di calcolo, e l'esperienza.
I SEGNALI
Come mostrano gli esempi fatti prima, la funzione essenziale dei sistemi, in
elettronica, è quella di elaborare segnali, intesi come grandezze fisiche variabili nel tempo che
costituiscono generalmente il supporto di informazioni. In quanto segue esamineremo prima
alcune caratteristiche generali dei segnali e poi alcune famiglie di segnali che si usano più di
frequente.
2. Segnali analogici e digitali
Una distinzione fondamentale fra i segnali è quella che li suddivide in analogici e
digitali. I primi possono assumere qualsiasi valore in un intervallo prefissato, chiamato
"gamma dinamica" (per esempio è un segnale analogico una tensione variabile fra -15 e +15
volt). I segnali analogici sono dunque grandezze reali. I segnali digitali (o numerici), invece,
possono assumere solo valori discreti appartenenti a un insieme finito; spesso si tratta di
grandezze a due valori, cioè binarie.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
4
La teoria dell'informazione stabilisce che l'informazione associata a un campione di un
segnale, misurata in bit, è data dal logaritmo in base due del numero dei diversi valori
possibili che il segnale stesso può assumere (se sono tutti equiprobabili). L'informazione, a un
dato istante, relativa a un segnale digitale binario è dunque 1 bit (3,322 bit nel caso di un
segnale digitale decimale). L'informazione associata a un segnale analogico non è invece
infinita, come potrebbe sembrare. Il fatto è che gli infiniti valori che un segnale analogico può
assumere non sono, in realtà, tutti distinguibili fra loro a causa dei disturbi che sono sempre
presenti in un sistema fisico reale (fra cui, inevitabile, il rumore di fondo, che discende da
proprietà fondamentali della materia, come l'agitazione termica e la quantizzazione della
carica elettrica). Si conclude pertanto che l'informazione associata a un segnale analogico, a
un dato istante, è log2 N, dove N è il numero di livelli effettivamente distinguibili, esprimibile
come ∆V/δV, dove ∆V è la gamma dinamica e δV è la fascia d'incertezza dovuta al rumore.
3. Segnali a tempo continuo e a tempo discreto
Un'altra distinzione fondamentale riguarda gli istanti di tempo a cui i segnali sono
definiti. I segnali a tempo continuo sono rappresentati da funzioni il cui dominio è costituito
da tutti gli istanti contenuti in un intervallo di tempo (o su tutto l'asse dei tempi): qui il tempo
è una grandezza reale. Il dominio dei segnali a tempo discreto è invece costituito da un
insieme discreto di istanti, che nella maggior parte dei casi sono fra loro equispaziati di un
intervallo Tc detto passo di campionamento. La tabella seguente raccoglie le denominazioni
usate per designare i segnali in relazione alle due suddivisioni che abbiamo considerato.
tempo discreto reale ampiezza reale segnali campionati segnali analogici (a tempo continuo) discreta segnali digitali (non usati)
Per chiarire quanto è stato esposto, facciamo un esempio considerando il sistema
mostrato nella figura, che provvede alla conversione di un segnale dalla forma analogica a
quella digitale (convertitore A/D).
Nel campionatore CA il segnale analogico d'ingresso x(t) viene campionato, cioè
quantizzato secondo l'asse dei tempi agli istanti definiti dagli impulsi forniti dall'orologio O (il
campionatore può essere immaginato, per semplicità, come un moltiplicatore che fornisce in
uscita il prodotto fra il segnale x(t) e gli impulsi di campionamento, intesi di durata brevissima
e di ampiezza unitaria). Si ottiene così il segnale campionato y(kTc), costituito da una
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
5
sequenza di impulsi (di ampiezza reale) a istanti discreti di tempo. Questo viene applicato al
quantizzatore Q, che produce in uscita il segnale digitale z(kTc) associando ad ogni
determinato intervallo di valori di y il corrispondente valore di z (per esempio, z è uguale alla
parte intera di y). Il segnale z(kTc) viene poi rappresentato mediante un codice opportuno,
usando più sequenze di impulsi binari zi(kTc) in parallelo, ciascuna delle quali rappresenta un
bit della parola di codice. A quest'ultima operazione provvede il codificatore CO.
E' importante notare che l'operazione di quantizzazione di ampiezza non è reversibile
(non esiste, cioè, una corrispondente operazione inversa che permetta di ricostruire il segnale
di partenza); essa conduce pertanto a perdita d'informazione. L'operazione di quantizzazione
temporale, cioè il campionamento, può, invece, essere resa reversibile scegliendo il passo di
campionamento opportunamente piccolo rispetto alla velocità di variazione del segnale. Il
teorema del campionamento stabilisce, più precisamente, che un segnale x(t) a banda limitata,
cioè il cui contenuto spettrale svanisce al di sopra di una data frequenza fM, può essere
ricostruito esattamente quando si conoscano i suoi campioni, se questi sono equispaziati con
passo:
(1) Tc ≤ 1/2fM
cioè se la frequenza di campionamento 1/Tc è maggiore o uguale della frequenza 2fM, detta
frequenza di Nyquist. La formula di ricostruzione è la seguente:
(2) sin( ( ))( ) ( )( )M c
ck M c
t kTx t x kTt kT
ωω
−=
−∑
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
6
Spesso, nella pratica, il segnale viene campionato a una frequenza maggiore di 2fM e
diventa possibile usare formule di ricostruzione approssimata più semplici della (2). Si usano,
per esempio, tecniche di interpolazione, la più semplice delle quali è quella di ordine zero
(campionamento e tenuta, sample and hold): in tal caso il segnale analogico ricostruito ha
valore costante, pari a quello dell'ultimo campione, durante ciascun intervallo Tc.
Le tensioni, le correnti e tutte le altre grandezze fisiche variabili sono segnali analogici, in quanto
funzioni reali della variabile reale tempo. Notiamo che di solito anche le grandezze che costituiscono il supporto
dei segnali digitali sono, in realtà analogiche anch'esse (per convincersi di questo, basta osservare
all'oscilloscopio l'andamento temporale della forma d'onda di un segnale in un circuito logico). Si parla, però, di
segnali campionati se si considera significativo il valore della grandezza fisica di supporto (che può essere una
sequenza di impulsi più o meno stretti) solo a determinati valori discreti del tempo; si parla poi di segnali digitali
solo se, oltre a restringere l'attenzione a determinati istanti (come prima), si considerano significative solo
determinate fasce di valori della grandezza fisica (per esempio, all'uscita di un circuito logico si considerano
usualmente "0" tutti i valori fra 0 e 0,6 volt, "1" tutti i valori fra 3, 2 e 5 volt; il significato di queste due fasce di
valori viene poi riconosciuto correttamente quando il segnale viene applicato all'ingresso di un altro circuito
logico appartenente alla stessa "famiglia" del primo).
In quanto segue ci occuperemo degli andamenti temporali dei segnali, in particolare
analogici, considerando le funzioni che si usano più di frequente. Restringeremo così la nostra
attenzione ai soli segnali deterministici, che sono descritti da funzioni matematiche, a
differenza dei segnali casuali (o stocastici o aleatori) che sono invece descrivibili solo in
termini delle loro proprietà statistiche. I segnali casuali sono infatti associati a fenomeni, come
le fluttuazioni (il rumore), di natura intrinsecamente statistica.
4. Funzioni sinusoidali
La famiglia delle funzioni sinusoidali presenta particolare interesse in elettronica, sia
perchè il teorema di Fourier permette di scomporre in funzioni sinusoidali elementari tutte le
funzioni periodiche di interesse pratico (e l'integrale di Fourier compie analoga operazione su
un'ampia classe di funzioni aperiodiche) sia per altri motivi che vedremo. Rappresentiamo le
funzioni sinusoidali, cioè la classe dei seni e dei coseni, nella forma generale:
(3) x(t) = A sin (ωt + φ)
dove A rappresenta l'ampiezza (valore di picco); ω = 2πf rappresenta la pulsazione o
frequenza angolare, che si misura in radianti/secondo (rad/s), mentre la frequenza f si misura
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
7
in hertz (Hz); φ rappresenta la fase, che si misura in radianti (o in gradi). Sono dunque
sufficienti i valori di tre parametri reali: A, ω e φ, per determinare tutto l'andamento temporale
di una sinusoide.
Il valore efficace (root mean square, r.m.s.) della sinusoide (3) è
(4) 2
0
1 ( )2
T
effAx x t dt
T= =∫
Le funzioni sinusoidali sono periodiche2 con periodo T = 1/f = 2π/ω. Derivando o
integrando una sinusoide rispetto al tempo, quante volte si vuole, si ottiene ancora una
sinusoide della stessa frequenza. Sommando assieme due sinusoidi, esse mantengono la
propria identità, in particolare le loro frequenze. Il prodotto di due sinusoidi conduce invece a
una somma di sinusoidi con frequenze diverse da quelle di partenza.
Più in generale, si dimostra facilmente che eseguendo operazioni lineari (algebriche o
differenziali) su una combinazione lineare di sinusoidi di frequenze qualsiasi, si ottiene ancora
una combinazione lineare di sinusoidi delle stesse frequenze; eseguendo invece operazioni
nonlineari si ottengono anche sinusoidi a frequenze diverse di quelle di partenza, in
particolare alle cosidette frequenze di combinazione:
(5) fnmp... = ± nf1 ± mf2 ± pf3 ..... con n, m, p, ... interi
dove fi sono le frequenze delle sinusoidi che interagiscono.
Esercizio. Determinare il contenuto in sinusoidi elementari del segnale x(t) = (cosω1t + cosω2t)3.
Quelle considerate sinora sono funzioni sinusoidali armoniche pure, che si estendono
sull'asse dei tempi da -∞ a +∞. Oltre ad esse si considerano spesso sinusoidi che si estendono
solo sulla parte positiva dell'asse dei tempi e anche "pacchetti d'onda", cioè sinusoidi che
assumono valori diversi da zero solo in un determinato intervallo; queste ultime costituiscono
un esempio di segnale transitorio, cioè dotato di supporto temporale limitato.
Mediante l'integrale di Fourier si rileva che il contenuto spettrale di un pacchetto
d'onda di frequenza f non è una riga alla frequenza f (come nel caso armonico), ma costituisce
uno spettro continuo, tanto più esteso attorno a f quanto più breve è la durata del pacchetto.
2 Non sono periodiche, in generale, le funzioni sinusoidali a tempo discreto del tipo x(kTc)=sin(wkTc+f), mentre è sempre periodico il loro inviluppo.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
8
5. Funzioni periodiche
Fra le funzioni periodiche più usate in pratica consideriamo le onde quadre e le onde
triangolari. L'onda quadra simmetrica unitaria si può rappresentare nella forma
(6) x(t) = sgn(sin(ωt + φ))
dove si è usata la funzione segno, che rappresenta appunto il segno del suo argomento
(sgn(x)=1 se x>0, sgn(x)=-1 se x<0). Le onde quadre presentano in ciascun periodo soltanto
due discontinuità, in corrispondenza alle transizioni di livello, sicchè sono sviluppabili in serie
di Fourier.
Sviluppando l'onda quadra mostrata nella figura, cioè A sgn(cos ωt), si ottiene:
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
9
(7) ( ) ( ) ( )cos 3 cos 54 cos ...3 5
t tAx t tω ω
ωπ
= − + −
Queste onde, oltre alla fondamentale, contengono dunque solo le armoniche dispari,
pesate secondo l'inverso dell'ordine armonico.
Sviluppando in serie l'onda triangolare mostrata nella figura si ottiene:
(8) ( ) ( ) ( )2
cos 3 cos 58 cos ...9 25
t tAx t tω ω
ωπ
= + + +
Le onde triangolari hanno dunque lo stesso contenuto spettrale delle onde quadre, ma
pesato diversamente, cioè secondo l'inverso del quadrato dell'ordine armonico. Questo
risultato è in accordo col fatto che un'onda triangolare costituisce l'integrale nel tempo
dell'onda quadra della stessa frequenza.
La definizione di valore efficace (4) può essere applicata alle onde quadre (xeff=A), alle
onde triangolari (xeff=A/√3) e a qualsiasi altro segnale periodico. Per questi segnali si
definisce anche il fattore di picco (o di cresta), dato dal rapporto fra l'ampiezza (valore di
picco) e il valore efficace.
Spesso il valore efficace di un segnale periodico si determina integrando il quadrato
del segnale su un intervallo più lungo del periodo ed estraendo poi la radice quadrata. Il
risultato di questa operazione è esatto (cioè coincide con quello dato dalla (4)) solo se la
durata dell'intervallo d'integrazione è un multiplo del periodo; altrimenti si commette un
errore che, in generale, si riduce al crescere del rapporto fra la durata dell'intervallo e il
periodo del segnale. Quanto si è detto conduce alla seguente definizione alternativa di valore
efficace:
(9) 2lim 1 ( )2
o
o
T
eff To o
x x t dtT T −
=→ ∞ ∫
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
10
dove 2To è il tempo di osservazione su cui si esegue l'integrazione (operando su tempo
finito si ottiene una stima di xeff, la cui precisione dipende dalla durata del tempo di
osservazione). Un importantissimo vantaggio della definizione (9) è che essa può essere
applicata anche a segnali non periodici, per esempio casuali, purchè stazionari, cioè con
proprietà statistiche indipendenti dal tempo. Per un segnale a valor medio nullo il valore
efficace definito dalla (9) coincide con la deviazione standard σ.
6. La famiglia delle funzioni impulsive
Un'altra importante famiglia di funzioni è costituita dalla funzione impulsiva, o delta
di Dirac, e dai suoi integrali successivi. Notiamo che non si tratta di funzioni ordinarie, ma di
"funzioni generalizzate", che si introducono nell'ambito della teoria delle distribuzioni3.
La funzione impulsiva unitaria, indicata con δ(t), è una funzione di area unitaria che
assume valore nullo ovunque eccetto l'origine e gode della proprietà integrale:
(10) ( ) 1t dtδ∞
−∞=∫ con δ(t) = 0 per qualsiasi t≠0
Si noti che tale funzione ha dimensioni fisiche pari all'inverso di quelle della variabile
d'integrazione (cioè hertz, nel caso della (10)). Con la notazione Aδ(t-t0) si indica una delta di
area (o, come si dice abitualmente, di intensità) A al tempo
t0. Le funzioni impulsive si rappresentano graficamente con
una freccia verticale al tempo di occorrenza, di lunghezza
proporzionale all'area.
La funzione delta è pari: infatti δ(t-to) = δ(to-t). Essa gode inoltre della seguente
proprietà, detta di "campionamento":
(11) ( ) ( ) ( )o ox t t t dt x tδ∞
−∞− =∫
La funzione impulsiva unitaria δ(t) viene spesso introdotta intuitivamente come il
limite di una sequenza di impulsi rettangolari la cui durata venga fatta tendere a zero e la cui
ampiezza, contemporaneamente, venga fatta tendere all'infinito, col vincolo che l'area si
mantenga unitaria.
3 Per ulteriori approfondimenti rimandiamo al corso di Metodi matematici.
A
to t
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
11
L'impulso rettangolare a) è la derivata temporale del segnale b). Quando ε tende a zero, i
due segnali tendono, rispettivamente, all'impulso unitario e al gradino unitario.
Una definizione più rigorosa della funzione delta di Dirac è quella
in termini di una opportuna sequenza "regolare" di funzioni "buone"4
fn(t), tale cioè che il limite ( ) ( )lim
nnf t x t dt
∞
−∞→ ∞ ∫ esiste e vale
precisamente x(0). E' da questa proprietà che derivano la (10) e la (11). Due esempi di
sequenze siffatte, costituite dunque da funzioni ordinarie (in particolare prive di
discontinuità), sono i seguenti:
fn(t) = (n/π)1/2 exp(-nt2) ; gn(t) = sin(nt)/πt
Nessuna grandezza fisica, in realtà, può
assumere valore infinito. E' dunque evidente che la
funzione δ(t) rappresenta solo un modello per la
rappresentazione di segnali, comunque variabili,
che però hanno durata brevissima e ampiezza
grandissima (come quando si considera il teorema
dell'impulso in meccanica). Questo modello è
estremamente utile ed efficace, non tanto per descrivere il segnale stesso, ma, sopratutto, per
studiare gli effetti che esso determina quando viene applicato a un sistema.
Quando in elettrostatica si parla di "carica puntiforme", in un punto Po, si utilizza implicitamente il
concetto di funzione delta: la carica puntiforme infatti una delta di densità di carica, nel cui argomento figurano
le tre coordinate spaziali (xo,yo,zo) del punto Po: δ(x-xo,y-yo,z-zo). Sebbene una densità di carica infinita non
abbia senso, il concetto di carica puntiforme si rivela utilissimo (per esempio per calcolare il potenziale in un
punto P diverso da Po).
L'integrale della δ(t) prende il nome di funzione gradino unitario (unit step function) e
si indica con la notazione u(t) (oppure 1(t) o δ-1(t)):
(12) ( ) ( )0 01 0
t per tu t d
per tδ τ τ
−∞
<= =
<∫
4 Per funzioni “buone” s’intendono quelle che sono derivabili dovunque un numero qualsiasi di volte e che, quando il loro argomento x tende all’infinito, tendono a zero, assieme a tutte le loro derivate, più rapidamente di |x|-n per qualsiasi n.
n=1
n=7
2 0 20
0.5
1
1.51.493
0
f t 1,( )
f t 4,( )
f t 7,( )
2.52.5− t
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
12
Si tratta anche qui di una funzione generalizzata, che secondo la visione intuitiva
accennata prima, presenta una discontinuità all'origine, dove il suo valore non è definito. Un
gradino di ampiezza A, con discontinuità al tempo to, si indica con la notazione Au(t-to).
A u(t-to)
Anche la funzione gradino unitario, come la delta, può essere considerata come il
limite di una sequenza di opportune funzioni.
Mediante successive integrazioni si ottengono altre funzioni usate in elettronica: la
rampa unitaria r(t)= t u(t),
la parabola unitaria p(t) = ½
t² u(t), e così via.
Usando opportune
combinazioni di queste
funzioni si possono
rappresentare molti segnali
di interesse pratico. Per
esempio, un impulso
rettangolare di ampiezza
unitaria nell'intervallo fra t1
e t2, si indicherà con
x(t)=u(t-t1)-u(t-t2).
Esercizio. Rappresentare in termini di rampe e gradini un impulso trapezoidale di ampiezza A, che ha inizio al
tempo t1 e termina al tempo t4, assumendo valore costante (A) fra t2 e t3.
Le funzioni che abbiamo considerato ora rappresentano soltanto dei modelli dei
segnali reali. Infatti, non sono realizzabili nè impulsi di durata nulla e di ampiezza infinita, nè
segnali che impieghino un tempo nullo per portarsi da un livello a un altro (gradini ideali). In
particolare è ragionevole approssimare con una funzione delta un impulso reale, come quello
mostrato nella figura seguente, soltanto se la sua durata è significativamente inferiore al
tempo caratteristico di risposta del sistema a cui viene applicato per studiarne l'effetto (e allora
la risposta alla delta non differisce apprezzabilmente da quella all’impulso reale).
to
A
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
13
Un impulso che duri 1 microsecondo, per esempio, è bene approssimabile con una
delta quando venga applicato a un amplificatore per audiofrequenze, ma non così se
costituisce l'ingresso a un amplificatore con banda passante più estesa, con tempi caratteristici
di risposta nella regione del µs o ancora più brevi. In quest'ultimo caso, sarà necessario
rappresentare con maggior dettaglio l'andamento temporale dell'impulso per determinare più
realisticamente il suo effetto.
Per caratterizzare un impulso reale x(t),
che abbia supporto temporale nell'intervallo t1, t2,
si usano vari parametri: l'ampiezza massima xM,
l'area
(13)
( )2
1
t
tA x t dt= ∫
la cosidetta "energia"5.
(14) ( )2
1
2t
tE x t dt= ∫
la durata T, definita come la distanza fra i due istanti dove il segnale assume valore pari alla
metà dell'ampiezza massima, e i due tempi di transizione. Questi sono il tempo di salita (rise
time) tr, definito come la distanza fra i due istanti in cui, nel fronte d'onda iniziale, il segnale
assume valore pari al 10% e al 90% del massimo6, e il tempo di discesa (fall time) tf, definito
allo stesso modo del precedente, ma per il fronte d'onda finale.
Le definizioni dei tempi di transizione date sopra sono dette "empiriche" perchè sono
rivolte a facilitare la misura di tali grandezze (per esempio, attraverso l'osservazione
all'oscilloscopio). Vedremo in seguito anche altre definizioni.
5 Le dimensioni fisiche di questa grandezza non sono, in generale, quelli di un’energia. Tuttavia, se il segnale x(t) rappresenta una corrente elettrica (una tensione), la grandezza E ha lo stesso valore numerico dell’energia dissipata in un resistore unitario attraversato dalla corrente (ai terminali del quale sia applicata la tensione). 6 Questa particolare convenzione ha lo scopo pratico di facilitare la misura dei tempi di transizione nelle osservazioni all’oscilloscopio.
| tr | | tf | t
XM 0,9 0,5 0,1
T
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
14
I SISTEMI
7. Sistemi e modelli
Il temine sistema viene usato comunemente con uno spettro molto vasto di significati.
Noi lo useremo per indicare sia i sistemi fisici, naturali o artificiali, costituiti da un aggregato
di più elementi (o anche da un solo elemento), sia i modelli matematici che li rappresentano
formalmente. Il termine sistema può essere anche usato, a un livello ancora più astratto, per
indicare una relazione fra due funzioni del tempo, definita dall'operatore che, applicato alla
prima, fornisce la seconda7.
L'aspetto modellistico ha un ruolo essenziale nella trattazione dei sistemi: dei
molteplici aspetti di un dato sistema fisico, un modello permette infatti di evidenziare solo
quelli che hanno rilevanza rispetto a un determinato punto di vista. Ne consegue che, a
seconda dei casi, si potranno considerare per un medesimo sistema modelli anche assai diversi
fra loro. Nella modellizzazione dei sistemi, poi, l'economia ha un ruolo essenziale: non
soltanto occorre tener conto al meglio di tutti gli aspetti che si considerano importanti ai fini
che interessano, ma è opportuno limitarsi solo ad essi. Si cerca sempre, infatti, di arrivare a
una rappresentazione che sia, al tempo stesso, adeguatamente significativa ma anche
sufficientemente semplice.
Facciamo un esempio considerando un dispositivo, il resistore, che, solo in apparenza, si presenta come
semplicissimo e di ovvia rappresentazione. Il resistore può essere descritto in termini essenziali mediante la legge
di Ohm, se il punto di vista è puramente elettrico; dal punto di vista termico, d'altra parte, esso costituisce una
sorgente di calore e altri punti di vista ancora possono essere presi come base per la costruzione di altri modelli
del resistore (trave sospesa agli estremi, ...). Ciascuno di questi modelli, poi, può venire raffinato per rendere
meglio conto del comportamento del dispositivo: nel caso elettrico potremo tener conto della sua induttanza e
capacità parassita; nel caso termico, della sua capacità termica e della resistenza termica che incontra lo
smaltimento verso l'esterno del calore prodotto; e così via. Può anche essere necessario tenere conto
dell'interazione fra diversi punti di vista; per esempio, volendo tener conto della dipendenza dalla temperatura
della conducibilità elettrica del materiale che costituisce il resistore, occorrerà utilizzare un modello del
dispositivo che ne consideri, al tempo stesso, gli effetti elettrici e termici.
Il modello matematico di un sistema fisico è costituito da un insieme di variabili,
ciascuna delle quali rappresenta una determinata grandezza fisica del sistema, e da un insieme
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
15
di relazioni matematiche fra le variabili. Il modello stabilisce così in modo formale il
comportamento del sistema
A seconda dei casi, ci si può limitare a considerare le sole variabili di ingresso e di
uscita, attraverso le quali il sistema considerato interagisce con l'esterno, oppure anche
variabili interne al sistema stesso (alcune di queste, come vedremo, giocano un ruolo
importantissimo). Nei sistemi artificiali, costruiti per un determinato scopo, è generalmente
semplice stabilire quali variabili costituiscono gli ingressi e quali le uscite. Nei sistemi
naturali questo, invece, non è affatto ovvio; la scelta, tuttavia, è certamente guidata dagli
obiettivi specifici che ciò si prefigge nella costruzione del modello, oltre che dall'intuizione
fisica. Lo scopo, generalmente, è quello di giungere a una rappresentazione ingresso-uscita,
che permetta di esprimere le grandezze d'uscita del sistema come variabili dipendenti di
opportune relazioni espresse in termini di variabili indipendenti costituite dalle grandezze
d'ingresso.
Così procedendo, l'elaborazione compiuta dal sistema viene ad essere caratterizzata da
un insieme di operatori Γk, uno per ciascuna variabile d'uscita, che fanno corrispondere in
modo univoco gli andamenti temporali di ciascuna delle uscite yk(t) a quelli dell'insieme degli
ingressi xh(t). Nel caso di un solo ingresso e di una sola uscita si ha:
x(t) Γ y(t)
(15) y(t) = Γ x(t)
La natura di questi operatori dipende dalla natura dei modelli con cui si rappresentano
i sistemi. Il caso che considereremo più spesso è quello di operatori lineari integro-
differenziali.
Facciamo un esempio relativo ad un circuito
RLC serie, in cui assumiamo come ingresso l'intensità
i(t) della corrente che lo attraversa e come uscita la
tensione v(t) ai suoi terminali.
L'equazione del circuito è:
(16) ( )( ) 1( ) ( )tdi tL R i t i d v t
dt Cτ τ
−∞+ + =∫
7 Non è affatto detto, in generale, che a un "sistema" descritto da un dato operatore corrisponda un sistema fisico che realizzi tale operazione. La stessa considerazione, d'altronde, si applica anche al caso dei modelli dei sistemi fisici.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
16
e si ha dunque 1 tdL R ddt C
τ−∞
Γ = + + ∫
Una prima distinzione fra i sistemi va fatta in relazione al tipo dei segnali in gioco:
analogici o digitali, a tempo continuo o a tempo discreto. Qualsiasi circuito elettrico è
evidentemente un sistema analogico; un calcolatore elettronico, d'altra parte, sebbene sia
anch'esso un sistema analogico, viene rappresentato assai più efficacemente come un sistema
digitale (generalmente, infatti, non ci interessa il dettaglio fine del comportamento dei suoi
circuiti, mentre ci interessano i segnali digitali che esso presenta in uscita, a determinati istanti
di tempo, in relazione agli ingressi digitali ad esso applicati).
Consideriamo ora alcune proprietà fondamentali dei sistemi che riguardano più
direttamente il loro comportamento, in relazione alla natura delle elaborazioni che essi
compiono sui segnali.
8. Sistemi statici e sistemi dinamici
Un sistema si dice statico (privo di memoria o istantaneo) quando le sue variabili
d'uscita, a qualsiasi istante, dipendono solo dai valori degli ingressi a quello stesso istante. Ciò
significa che le equazioni del sistema sono di tipo algebrico. Un sistema si dice invece
dinamico (dotato di memoria o non istantaneo) quando, a un istante qualsiasi, le sue variabili
d'uscita dipendono anche dai valori degli ingressi a tempi precedenti. Ciò significa che le
equazioni del sistema sono di tipo differenziale (oppure, nel caso dei sistemi a tempo discreto,
si tratta di equazioni alle differenze).
Questa distinzione si applica sia ai sistemi analogici che a quelli digitali: questi ultimi
sono spesso chiamati combinatori se statici, sequenziali se dinamici (una porta logica è un
elemento statico, un flip-flop un elemento dinamico). Il fatto fisico essenziale che distingue i
sistemi dinamici da quelli statici è la presenza di elementi immagazzinatori di energia
(condensatori, induttori, capacità termiche, masse, molle, ...), da cui consegue la capacità di
memorizzare informazioni.
In un sistema dinamico, la memoria del passato è associata proprio a questi elementi.
La conseguenza è che l'andamento temporale delle variabili interne e d'uscita di un sistema, a
partire da un dato istante, dipende solo dagli ingressi applicati a partire da quell'istante e
dall'insieme dei valori (a quello stesso istante) delle variabili associate agli elementi
immagazzinatori di energia. Questi valori, che costituiscono una sintesi essenziale dell'effetto
degli ingressi applicati da -∞ all'istante considerato, rappresentano l'insieme delle condizioni
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
17
iniziali per le equazioni differenziali (o alle differenze) del sistema. Per tale motivo esse sono
chiamate variabili di stato. L'insieme dei valori di queste variabili, a ciascun istante,
rappresenta lo stato del sistema. Per esempio, le variabili di stato del circuito RLC considerato
prima sono la tensione del condensatore e la corrente attraverso l'induttore.
L'elaborazione dinamica di un sistema riguarda solamente la dipendenza delle variabili
di stato dall'ingresso. L'uscita, infatti, dipende dallo stato (ed eventualmente anche
dall'ingresso) attraverso relazioni algebriche. Questa è la rappresentazione ingresso-stato-
uscita, che è schematizzata nella figura (dove lo stato è rappresentato con il vettore s(t), le cui
componenti sono le variabili di stato): il
blocco A è un sistema dinamico, il blocco B
un sistema statico.
Un caso importante è quello dei sistemi descritti da equazioni differenziali alle
derivate parziali, in cui ha interesse la distribuzione dell'energia nello spazio, oltre che il suo
andamento nel tempo. Questo è quanto riguarda, per esempio, le vibrazioni di una sbarra
metallica o il campo elettromagnetico in una cavità risonante. Qui il numero delle variabili di
stato è evidentemente infinito. Gli spostamenti dei punti della sbarra e le intensità dei campi
sono infatti funzioni delle coordinate spaziali, oltre che del tempo. Di solito è possibile
ricondurre questi problemi in termini di una molteplicità di equazioni differenziali ordinarie,
con la tecnica dello sviluppo in modi normali.
Assumere un modello statico significa ignorare gli effetti di inerzia (di varia natura) che sono peraltro
sempre presenti in un sistema fisico reale, ammettendo così che l'uscita risponda istantaneamente all'ingresso e,
in particolare, che la risposta a una eccitazione sinusoidale sia sempre la stessa, per qualunque frequenza, anche
se elevatissima. Sebbene ciò sia certamente sbagliato in linea di principio, è evidente l'utilità di un modello
statico per rappresentare i fenomeni in cui gli effetti d'inerzia siano trascurabili sulla scala dei tempi (o delle
frequenze) che interessa.
9. Sistemi lineari e sistemi nonlineari
Dal punto di vista formale, un sistema è lineare se tali sono le equazioni che ne
costituiscono il modello, altrimenti è nonlineare. Dal punto di vista fisico è più significativo
definire lineari i sistemi che verificano il principio di sovrapposizione degli effetti. Questo
principio stabilisce che in un sistema lineare, applicando al quale (separatamente) gli ingressi
x1(t) e x2(t) si ottengono rispettivamente le risposte y1(t) e y2(t), l'applicazione di una
combinazione lineare degli ingressi x(t)=ax1(t)+bx2(t) provoca la risposta y(t)=ay1(t)+by2(t)
A x(t)B
y(t)s(t)
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
18
(per qualunque valore dei coefficienti a e b, e per qualunque coppia di segnali d'ingresso x1(t)
e x2(t)). Tutto ciò va considerato al netto dell'effetto delle condizioni iniziali: pertanto, prima
dell'applicazione dei vari ingressi, il sistema si deve trovare nello stato di riposo, cioè con
tutte le variabili di stato uguali a zero.
Il principio di sovrapposizione è evidentemente verificato dai sistemi descritti da
equazioni lineari. Esso presenta grande interesse anche dal punto di vista pratico dato che può
essere utilizzato come test sperimentale della linearità di un sistema.
Facciamo un esempio, per mostrare che la proporzionalità tra causa ed effetto (chiamata "omogeneità")
non è sufficiente a determinare la linearità di un sistema, perchè occorre che sia verificata anche l'”additività”,
richiesta appunto dal principio di sovrapposizione degli effetti. Consideriamo un circuito che, quando la variabile
d'ingresso attraversa lo zero, produce in uscita un impulso di ampiezza pari alla derivata dell'ingresso a
quell'istante. L'effetto è proporzionale alla causa sicchè il sistema è omogeneo; esso, però, non è additivo
(applicando all’ingresso la somma di due segnali, gli attraversamenti dello zero della somma si verificano a
istanti diversi rispetto a quelli di ciascun segnale) e quindi non è lineare.
L'importanza dei sistemi lineari è duplice: da un lato un gran numero di fenomeni
fisici è descritto da equazioni lineari e un modello lineare è dunque appropriato per i
dispositivi basati su questi effetti, dall'altro si tende ad usare modelli lineari anche per sistemi
che tali non sono, dal momento che la trattazione matematica dei sistemi nonlineari è
generalmente assai più complessa di quella dei sistemi lineari (per questi ultimi esistono
metodi di analisi che sono applicabili in generale, non così per i sistemi nonlineari).
D'altra parte, l'interesse per i sistemi nonlineari deriva da almeno tre motivi:
1) molti fenomeni fisici sono intrinsecamente nonlineari, in particolare quelli su cui si
basa il funzionamento di dispositivi elettronici assai importanti;
2) i sistemi fisici reali sono lineari solo in prima approssimazione; generalmente,
infatti, la linearità è verificata accuratamente solo su un intervallo limitato dei valori delle
variabili: quando questi diventano troppo piccoli entrano in gioco effetti di quantizzazione;
quando diventano troppo grandi, effetti di rottura;
3) l'elaborazione dei segnali richiede, in molti casi assai importanti, la disponibilità di
funzioni nonlineari, che si realizzano mediante appositi dispositivi e circuiti (raddrizzatori,
discriminatori, circuiti logici, ecc...).
A ciò si aggiunge l'interesse legato alla eccezionale varietà e ricchezza di
comportamenti dei sistemi nonlineari, nel quadro degli studi sulla dinamica nonlineare che
sono attualmente in vivace sviluppo, e anche l'ovvia considerazione che, sia pure da un punto
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
19
di vista puramente matematico, la classe dei sistemi nonlineari è straordinariamente più vasta
di quelli lineari.
Esempi di blocchi funzionali nonlineari usati in elettronica.
Qui non consideriamo i metodi che sono stati introdotti per l'analisi dei sistemi
nonlineari (in realtà solo per alcune particolari classi di tali sistemi). Accenniamo, invece, a
due metodi di linearizzazione dei sistemi nonlineari statici, che sono usati per ricondurne
l'analisi nel quadro di quelli lineari. Entrambi i metodi, ma sopratutto il primo, sono molto
usati nella trattazione dei dispositivi elettronici a semiconduttori.
Consideriamo un sistema descritto dalla relazione ingresso-uscita:
(17) y = f(x)
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
20
che supponiamo derivabile, con derivata continua. Poichè si tratta di una relazione algebrica,
il sistema è considerato statico ed è allora possibile tracciarne8 la curva caratteristica, cioè
l'uscita in funzione dell'ingresso.
Il primo metodo, detto di linearizzazione per piccoli segnali, consiste nello sviluppare
in serie l'equazione (17) attorno a un determinato valore xo della variabile d'ingresso, che
stabilisce il punto di lavoro del sistema, allo scopo di individuare una relazione lineare fra le
variazioni delle due variabili x e y (anzichè fra le variabili stesse) rispetto ai valori (xo e yo)
corrispondenti al punto di lavoro.
Si ottiene così: y = f(xo) + (x-xo) [f’(x)]x=xo+ ...
da cui, trascurando gli altri termini dello sviluppo, si ottiene:
(18) ( )'o
o
ox x
x xx f xy y y
δδ =
−= ≈
−
dove l'approssimazione è tanto migliore quanto più piccole sono le variazioni dei segnali.
Questo metodo è applicabile anche quando una variabile d'uscita dipende da più
variabili d'ingresso x1, x2, ... . Qui il punto di lavoro è stabilito da un opportuno insieme di
valori x1o, x2o, ... La variazione dell'uscita rispetto al valore yo corrispondente al punto di
lavoro si esprime allora nella forma:
(19) δy ≈ f’x1 δx1 + f’x2 δx2 + ...
dove intervengono le derivate parziali della funzione, tutte calcolate nel punto di lavoro.
Il secondo metodo di linearizzazione consiste invece nell'approssimare la relazione
ingresso-uscita con una caratteristica lineare a tratti, cioè suddividendo il dominio della
funzione in intervalli in cui questa possa essere approssimata con un andamento lineare.
Fintanto che il segnale d'ingresso si mantiene entro uno di questi intervalli, il sistema si
comporta linearmente.
Applichiamo questi metodi di linearizzazione a un diodo a giunzione pn, descritto
dall'equazione i = a(e(v/b)-1), dove le variabili i e v sono l'intensità della corrente che attraversa
il diodo e la differenza di potenziale fra i suoi terminali; a e b sono due costanti. Assumiamo
come ingresso la tensione v e come uscita la corrente i.
8 Questo non è possible nel caso dei sistemi dinamici, perchè l'uscita a un dato istante non dipende soltanto
dall'ingresso allo stesso istante.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
21
Il primo metodo fornisce la relazione
/o ov b i ai aev b b
δδ
+= =
dove abbiamo indicato con i0 e v0 i valori delle variabili nel punto di lavoro. Notiamo che il
rapporto così ottenuto ha le dimensioni fisiche di una conduttanza; esso prende il nome di
conduttanza differenziale del diodo. Come mostra la figura, questo metodo consiste
nell'approssimare la curva caratteristica del dispositivo con la retta ad essa tangente nel punto
di lavoro.
Linearizzazione della curva caratteristica di un diodo a giunzione pn: a) mediante la tangente nel punto di lavoro; b) con una approssimazione lineare a tratti
Applicando il secondo metodo, scegliamo di suddividere l'asse v in due parti,
introducendo una tensione di soglia V*: nella prima parte (cioè per v<V*) la corrente i viene
considerata nulla; nella seconda (cioè per v>V* ) la corrente viene espressa dalla relazione
i = G (v-V*), dove la grandezza G rappresenta una conduttanza di valore opportuno. E'
evidente dall'esempio che la scelta del punto di soglia e, più in generale, la scelta del numero
di intervalli in cui suddividere l'asse della variabile d'ingresso è largamente arbitraria; in
pratica queste scelte saranno guidate da criteri di utilità pratica.
10. Sistemi stazionari e sistemi non stazionari
Un sistema si dice stazionario (invariante nel tempo o permanente) quando la sua
risposta a una eccitazione non dipende dal tempo a cui essa viene applicata: se l'ingresso x(t)
provoca la risposta y(t), allora l'ingresso x(t-T) causerà9 la risposta y(t-T), per qualsiasi
valore di T e per qualsiasi funzione x(t). Altrimenti si dice non stazionario (variabile nel
tempo).
I coefficienti che intervengono nelle equazioni di un sistema stazionario debbono
essere dunque indipendenti dal tempo, altrimenti il sistema non è stazionario. Un caso
particolare di sistemi non stazionari è quello dei sistemi probabilistici, in cui i coefficienti
9 Il sistema, all'atto dell'applicazione dei segnali x(t) e x(t-T), si deve trovare evidentemente nello stesso stato.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
22
delle equazioni variano con legge casuale e sono pertanto descritti in termini statistici.
Un criterio di approssimazione dei sistemi non stazionari in termini di sistemi
stazionari consiste nel supporre che le variazioni dei coefficienti avvengano molto lentamente,
cioè su una scala temporale assai più estesa di quella che riguarda gli andamenti dei segnali.
Si può allora suddividere l'asse dei tempi in più intervalli, in ciascuno dei quali i coefficienti
siano approssimativamente costanti.
Nel seguito ammetteremo sempre che l'ipotesi di stazionarietà sia verificata, salvo
contraria esplicita indicazione.
Esempio. Un problema di classificazione
Consideriamo il modulatore d'ampiezza, apparecchio usato nelle radiocomunicazioni per variare nel
tempo l'ampiezza di un'onda sinusoidale di alta frequenza (l'onda portante) secondo l'andamento di un segnale di
bassa frequenza (onda modulante) che si vuole trasmettere a distanza. L'uscita del modulatore è un'onda
modulata, che viene poi irradiata da un'antenna.
Chiamando m(t) il segnale modulante, che contiene l'informazione, e p(t) = cos ωpt l'onda portante,
l'uscita del modulatore è data dall'espressione:
y(t) = p(t) (1 + m(t)) = cos ωpt + m(t) cos ωpt
Si tratta, chiaramente, di un sistema statico, che si può classificare come nonlineare oppure come non
stazionario. Se l'onda portante p(t) viene considerata come un segnale d'ingresso, il sistema è evidentemente
nonlineare (e stazionario). Ma se l'onda portante non viene considerata come un ingresso e il suo effetto viene
rappresentato mediante un coefficiente variabile nel tempo (cos ωpt), il sistema allora è non stazionario (e
lineare).
Questi due diversi punti di vista sono rappresentati nei due schemi a blocchi qui sotto.
m(t) MODULATORE MODULATORE
D’AMPIEZZA D’AMPIEZZA
p(t) y(t) m(t) y(t)
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
23
RISPOSTE CARATTERISTICHE
11. Risposta libera e risposta forzata
Consideriamo l'andamento temporale del segnale d'uscita y(t) di un sistema a partire
da un istante generico, che assumiamo come origine dell'asse dei tempi, senza perdita di
generalità. Se da t=0 in poi l'ingresso x(t) è nullo, l'uscita è determinata unicamente dallo stato
del sistema all'istante iniziale e prende il nome di risposta libera o evoluzione libera.
I sistemi fisici sono dotati generalmente di memoria finita: onnipresenti effetti di
dissipazione fanno sì che l'energia in essi immagazzinata subisca trasformazioni irreversibili e
venga dissipata. Ne consegue che la risposta libera tende a zero al tendere del tempo
all'infinito. In altre parole, tutte le variabili di stato vanno ad assumere valori trascurabili dopo
un tempo sufficientemente lungo durante il quale gli ingressi siano identicamente nulli.
Quando, invece, a t=0 il sistema si trova in riposo (stato zero) ed è soggetto a una
eccitazione x(t) (diversa da zero da t=0 in poi), l'uscita è determinata unicamente dall'ingresso
e prende il nome di risposta forzata.
Nel caso generale, cioè quando si applica l'eccitazione a un sistema che non si trova a
riposo, il segnale d'uscita dipende sia dall'eccitazione sia dallo stato al tempo t=0. In tal caso
se il sistema è lineare, e allora è verificato il principio di sovrapposizione degli effetti, la
risposta complessiva è costituita dalla somma dell'evoluzione libera e della risposta forzata.
La risposta di un sistema lineare, che al tempo t=0 si trova in uno stato determinato,
all'ingresso x(t) si può dunque esprimere nella forma:
(20) y(t) = yl(t) + yf(t)
dove yl(t) rappresenta l'evoluzione libera a partire dallo stato iniziale (a t=0) ed yf(t)
rappresenta la risposta forzata all'eccitazione x(t) applicata da t=0 in poi.
Si capisce, per quanto detto, che il ruolo dello stato iniziale è simile a quello
dell'eccitazione esterna, nel senso che concorrono entrambi a determinare l'andamento del
segnale d'uscita del sistema. Stato iniziale ed ingresso a partire dall'istante iniziale in poi
costituiscono assieme l'eccitazione generalizzata.
Nei sistemi a memoria finita, quando i segnali d'ingresso si estendono da un istante
iniziale all'infinito, con andamento costante o periodico, diventa significativo anche un altro
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
24
modo di decomporre la risposta complessiva y(t). In questo caso ai tempi lunghi, quando si
sono certamente esauriti sia l'evoluzione libera sia l'effetto della brusca applicazione del
segnale d'ingresso, la risposta assume un andamento caratteristico, costante o periodico, che
dipende solo dall'eccitazione e prende il nome di risposta forzata in regime permanente o
risposta permanente yp(t). Il segnale di uscita allora, sempre se nell’ipotesi di linearità del
sistema, si può allora decomporre come segue:
(21) y(t) = yp(t) + yt(t) per t > 0
dove il termine yt(t), chiamato
risposta transitoria, che si
ottiene sottraendo la risposta
permanente da quella totale, si
estende soltanto sul tempo finito
di memoria del sistema.
12. Risposta in regime permanente sinusoidale
Nello studio dei sistemi, in particolare di quelli lineari, presenta particolare interesse la
risposta in regime permanente a una eccitazione sinusoidale (che si suppone dunque applicata
a partire da t = -∞). Questa, infatti, proprio e soltanto nel caso dei sistemi lineari e stazionari,
è costituita ancora da una sinusoide della stessa frequenza di quella applicata in ingresso.
A una data frequenza, dunque, un sistema lineare e stazionario è completamente
caratterizzato dal valore del rapporto fra l'ampiezza della sinusoide d'uscita e di quella
d'ingresso, e dalla differenza fra la fase della sinusoide d'uscita e di quella d'ingresso. Al
variare della frequenza, poi, il rapporto d'ampiezza e la differenza di fase vengono a costituire
due funzioni reali della frequenza: la cosidetta risposta in frequenza (frequency response)
del sistema.
Esaminiamo brevemente come si determinano queste due funzioni, quando si conosca
l'equazione ingresso-uscita di un sistema, usando il metodo simbolico di C. P. Steinmetz.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
25
Rappresentiamo l'ingresso e l'uscita con le forme simboliche10:
(22) x(t) = X cos ωt ←→ X ejωt = X ejωt
y(t) = Y cos (ωt+φ) ←→ Y ej(ωt+φ) = Y ejωt
dove la generica grandezza simbolica è costituita dal prodotto di una corrispondente
grandezza complessa indipendente dal tempo (indicata con sottolineatura per evitare
ambiguità di simboli) per il fattore ejωt. Sostituendo le grandezze simboliche nell'equazione
differenziale del sistema ed eseguendo le necessarie operazioni di derivazione e integrazione,
si ottiene una equazione algebrica con variabili complesse; da questa si ricava il rapporto fra
le due grandezze simboliche, che coincide evidentemente con quello fra le grandezze
complesse Y e X:
(23) ( )j t
j t
Y e YHXe X
ω ϕ
ω
+
= =
Il rapporto H, che è un numero complesso, permette poi di calcolare Y e ϕ conoscendo
X, cioè di determinare compiutamente la sinusoide d'uscita alla frequenza angolare ω. Questo
rapporto dipende in generale dalla frequenza che si considera. Si dimostra facilmente che se i
coefficienti dell'equazione differenziale del sistema sono reali (sistemi fisici) allora H è una
funzione complessa di ω, ma una funzione reale di jω. Conviene dunque esplicitare questa
dipendenza nel simbolo del rapporto H, che pertanto indicheremo d'ora in poi con H(jω).
Questa funzione, chiamata funzione di trasferimento in regime permanente sinusoidale, si
può porre in generale nella forma polare oppure in quella rettangolare:
(24) H(jω) = |H(jω)| e jϕ(ω) = Re[H] + j Im[H]
dove spesso la fase di H(jω) si indica col simbolo /H(jω). Qui il modulo |H(jω)|, che
rappresenta il rapporto fra le ampiezze Y e X, e la fase ϕ(ω), che rappresenta lo sfasamento
della sinusoide d'uscita rispetto a quella d'ingresso, sono le due funzioni reali che
costituiscono la risposta in frequenza, chiamate rispettivamente caratteristica di ampiezza e
caratteristica di fase.
10 In questa rappresentazione i segnali si ottengono prendendo la parte reale delle corrispondenti grandezze simboliche (si può, tuttavia, anche scegliere una diversa convenzione).
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
26
Dalla caratteristica di fase si ricavano altre due grandezze: la prima è il ritardo della
sinusoide d'uscita rispetto a quella d'ingresso
(25) T(ω) = ϕ(ω) / ω
la seconda è il ritardo di gruppo
(25') ( ) ( )g
dT
dϕ ω
ωω
=
cioè il ritardo subito da un pacchetto d'onda di frequenza angolare ω applicato all'ingresso del
sistema11.
Quando la funzione H(jω) esprime il rapporto fra la tensione e la corrente (simboliche)
ai morsetti di un circuito in regime sinusoidale permanente, essa prende il nome di impedenza
e si indica col simbolo Z:
(26) Z(jω) = R(ω) + j X(ω)
dove R(ω) si chiama resistenza, X(ω) reattanza. Quando H(jω) rappresenta il rapporto fra la
corrente e la tensione (simboliche) prende il nome di ammettenza e si indica col simbolo Y:
(27) Y(jω) = G(ω) + j B(ω)
dove G(ω) si chiama conduttanza, B(ω) suscettanza.
Facciamo un esempio, applicando il metodo simbolico al circuito RLC serie, già
considerato prima. Sostituendo v(t) e i(t) nell'equazione (16) con le grandezze simboliche
corrispondenti, V ejωt e I ejωt, e semplificando si ottiene
V = jωLI + RI + I / jωC
da cui l'ammettenza
( ) 11
IY jV j L R j C
ωω ω
= =+ +
11 Consideriamo il segnale costituito dalla somma di due sinusoidi di ampiezza unitaria e frequenze angolari ω − ∆ω, ω + ∆ω. Il battimento fra queste crea una serie di pacchetti d'onda con inviluppo 2cos ∆ωt. All'uscita del sistema, l'inviluppo dei pacchetti d'onda è 2 cos(∆ωt+dφ(ω)/dt), cioè essi subiscono il ritardo dφ(ω)/dt.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
27
Di quest'ultima si ottengono il modulo e la fase:
( )( )2 2
11
Y jL C R
ωω ω
=− +
( ) 1/ arctang L CY jR
ω ωω − = −
Si noti che |Y(jω)| presenta un massimo
per ω=ωo, dove ωo=(LC)-½. Alla stessa
frequenza, la derivata della fase è massima.
Nella figura sono rappresentati i grafici
dell'ammettenza in regime sinusoidale del
circuito RLC espressi in forma normalizzata,
cioè in termini del rapporto ω/ωo e del
parametro Q=ωoL/R, avendo scelto R = 1 Ω . Il
modulo è espresso in decibel. Si nota, per Q>1,
il fenomeno della risonanza.
Esprimere in decibel (dB) una grandezza reale x
significa trasformarla mediante la formula
(28) 20 log10(x)
Questa rappresentazione è molto usata in
elettronica per esprimere sia valori di ampiezza che,
sopratutto, rapporti di ampiezza, e questo per vari motivi.
In particolare, è molto più agevole tracciare i
grafici di grandezze espresse in decibel, quando esse
assumono valori che differiscono di molti ordini di
grandezza; inoltre, i rapporti di ampiezza determinati dal
modulo delle funzioni di trasferimento usuali si prestano bene a una rappresentazione approssimata (diagrammi
di Bode) del tipo lineare a tratti (cioè mediante spezzate) in funzione del logaritmo della frequenza. E' poi
evidente che il prodotto (il rapporto) di due grandezze espresse in decibel è dato semplicemente dalla somma
(dalla sottrazione) dei loro valori. Questo risulta assai comodo quando più sistemi lineari sono collegati in
cascata (l'uscita del primo costituisce l'ingresso del secondo, e così via) e si debba determinare la risposta
complessiva in regime sinusoidale permanente come prodotto delle risposte dei vari sistemi.
Come si è detto, la formula (28) si usa per esprimere in decibel valori di ampiezza o di rapporti di
ampiezza. Nel caso di una grandezza p che rappresenti il quadrato di una ampiezza, cioè sia proporzionale alla
potenza, oppure il rapporto fra quadrati di ampiezze, si usa invece la formula:
(28’) 10 log10(p)
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
28
Il valore in decibel dato dalla (28') coincide evidentemente con quello dato dalla (28) se p = x².
Osserviamo che basta ricordare anche solo alcuni dati della tabella qui sotto per poter determinare a
mente, sia pure approssimativamente, il valore in decibel di qualsiasi numero.
x xdB x xdB
106 120 1 0
103 60 0,9 -0,9152.. ≈ -1
102 40 0,8 -1,938.. ≈ -2
10 20 1/√2 ≈ 0,707.. -3,010.. ≈ -3
9 19,08.. ≈ 19 0,5 -6,021.. ≈ -6
8 18,06.. ≈ 18 0,4 -7,959.. ≈ -8
10/√2=7,071.. 16,99.. ≈ 17 1/√10 ≈ 0,3162.. -10
5 13.98.. ≈ 14 0,2 -13,98.. ≈ -14
4 12,04.. ≈ 12 √2/10 ≈ 0,141.. -16,99.. ≈ -17
√10=3,162.. 10 0,1 -20
2 6,021.. ≈ 6 0,01 -40
√2=1,414.. 3,010.. ≈ 3 10-3 -60
1 0
10-6 -120
L'andamento del modulo di H(jω) con la frequenza, cioè la caratteristica di ampiezza,
stabilisce le proprietà filtranti di un sistema. Sotto questo punto di vista, i sistemi si possono
comportare come passabasso, che trasmettono tutte le frequenze dalla continua fino a un
limite superiore; passabanda, che trasmettono solo le frequenze comprese in un intervallo;
passaalto, che trasmettono solo le frequenze oltre un limite inferiore, ed eliminabanda, che
trasmettono solo al di fuori di un dato intervallo. Una distinzione assai importante è poi quella
fra i sistemi che trasmettono
anche segnali costanti,
ovvero la componente
continua dei segnali, e quelli
che trasmettono solo segnali
variabili, ovvero la
componente variabile del
segnale (chiamata spesso,
anche se impropriamente,
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
29
"componente alternata"). I primi, detti anche sistemi in continua, hanno evidentemente
|H(j0)|≠0, mentre i secondi, detti sistemi in alternata, hanno H(j0)=0.
L'ammettenza del circuito RLC che abbiamo considerato prima è una funzione
continua della frequenza; di questa proprietà godono tutte le funzioni H(jω) dei sistemi che ci
interessano. Le bande di frequenza trasmesse non presentano pertanto limiti netti. I limiti delle
bande di frequenza vengono espressi di solito in termini di frequenze di taglio (cutoff
frequencies) che sono definite come quelle frequenze a cui il modulo della risposta si riduce a
1√2 = 0,707.. (cioè -3 dB) di quello nella banda trasmessa uniformemente (o del massimo in
banda), ossia la risposta in potenza si dimezza.
Esercizio. Determinare analiticamente le due frequenze di taglio, f1 ed f2, e la larghezza di banda f2-f1 per
l'ammettenza del circuito RLC considerato prima.
La risposta in frequenza di un sistema lineare può essere determinata
sperimentalmente12 eseguendo misure a più frequenze (di solito, a spaziatura uniforme su
scala logaritmica) nell'intervallo che interessa. In questo caso, ovviamente, il segnale
d'ingresso non è armonico puro, perchè viene applicato solo a partire da un certo istante. A
noi, d'altra parte, interessa la risposta permanente, sicchè dovremo attendere, per ciascuna
misura, l'esaurimento della fase transitoria iniziale, prima di registrare i valori del rapporto
delle ampiezze e dello sfasamento. La durata di questo intervallo è dominata dalla costante di
tempo più lunga del sistema in esame.
Ai sistemi nonlineari il concetto di risposta in frequenza non è applicabile, dal
momento che l'uscita corrispondente a un ingresso sinusoidale contiene sinusoidi di altre
frequenze, generalmente armoniche di quella d'ingresso (e la frequenza d’ingresso, in certi
casi particolari, può addirittura essere assente in uscita!).
Nel caso dei sistemi solo debolmente nonlineari la risposta in regime permanente
sinusoidale è costituita da una sinusoide distorta, che si può rappresentare come somma di una
sinusoide della stessa frequenza di quella d'ingresso e di varie armoniche di questa. Il rapporto
fra il valore efficace complessivo di queste ultime e quello della fondamentale è usato per
caratterizzare la distorsione d'ampiezza che si verifica in questi sistemi (un caso tipico è
quello di un amplificatore di potenza, vedi parte VII). Notiamo che questo rapporto dipende
12 La possibilità di ricostruire le caratteristiche di ampiezza e di fase interpolando i risultati sperimentali ottenuti soltanto a un insieme di valori discreti della frequenza deriva dalla già menzionata proprietà di continuità di queste funzioni.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
30
dal livello del segnale applicato: di solito (ma non sempre) la distorsione nonlineare aumenta,
prima debolmente e poi più fortemente, al crescere dell'ampiezza dell'ingresso.
Per questi sistemi il rapporto fra l'ampiezza della fondamentale in uscita e l'ampiezza
dell'ingresso non è costante, ma dipende dall'ampiezza dell'ingresso, perchè non vi è
proporzionalità fra causa ed effetto. Questo rapporto d'altra parte può essere usato per
caratterizzare la risposta in frequenza dei sistemi debolmente nonlineari. Si introduce così la
funzione descrittiva:
(29) ( )( )
( )1 ,
,d
Y XH j X
Xω
ωω
=
dove Y1(ω, X) indica l'ampiezza della fondamentale (o prima armonica) in uscita, X
l'ampiezza della sinusoide d'ingresso; questa funzione dipende sia dalla frequenza che
dall'ampiezza dell'eccitazione. La caratterizzazione in termini di funzione descrittiva è usata
anche per i sistemi statici, nel qual caso la funzione dipende solo dall'ampiezza e non dalla
frequenza.
Esercizio. Determinare analiticamente la funzione descrittiva di un limitatore simmetrico ( figura a pag.19).
13. Le risposte indici
Un'altra caratterizzazione dinamica dei sistemi, che è molto usata per la sua diretta
applicazione allo studio dei fenomeni transitori e che presenta assai maggiore generalità in
quanto applicabile (con opportune modifiche rispetto alla trattazione che segue) anche a
sistemi nonlineari e/o non stazionari), è costituita dalle cosidette risposte indici. Queste sono
la risposta all'impulso unitario e la risposta al gradino unitario.
La prima è la
risposta impulsiva
(impulse response), che
indicheremo con h(t); la
seconda è la risposta
indiciale o risposta al
gradino (step response), che indicheremo con hu(t). Nel caso dei sistemi lineari la risposta
indiciale è l'integrale della risposta impulsiva:
(30) ( ) ( )t
uh t h dτ τ−∞
= ∫
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
31
Infatti, se h(t) rappresenta la soluzione di un'equazione differenziale lineare con
termine noto δ(t), è evidente che la soluzione della stessa equazione con termine noto u(t),
cioè costituito dall'integrale di δ(t), coincide con l'integrale di h(t), espresso dalla (30).
Per il principio di causalità13 gli andamenti delle risposte indici sono identicamente
nulli per t<0. Per t che tende all'infinito, la risposta impulsiva (nei sistemi a memoria finita)
tende a zero, mentre la risposta indiciale tende a un valore finito nei sistemi che trasmettono la
componente continua dei segnali (H(j0)≠0), e tende a zero in quelli che trasmettono solo le
componenti variabili (H(j0)=0).
Il principio di causalità pone il vincolo h(t)=0 per t<0 per i sistemi fisicamente realizzabili. Questo
principio tuttavia non si applica ai sistemi usati per analizzare una sequenza temporale di dati, dopo che essa sia
stata registrata. Questo è il caso degli algoritmi che si applicano a dati registrati su nastro magnetico, mediante un
programma su calcolatore, avendo quindi a disposizione l'andamento sia passato che futuro del segnale. Un
esempio molto semplice è quello di un filtro a media mobile, che assegna all'uscita, a ciascun istante di tempo, il
valor medio dell'ingresso in un intervallo T centrato in t, eseguendo l’operazione:
( ) ( )/ 2
/ 2
1 t T
t Ty t x d
Tτ τ
+
−= ∫
tale filtro ha risposta impulsiva: h(t) = [u(t+T/2) – u(t-T/2)]/T. Nella risposta impulsiva del filtro a media mobile, come in quella di tutti i sistemi non realizzabili
fisicamente, si distinguono la parte causale (per t<0) e la parte anticausale (per t<0).
Sappiamo che l'uscita di un sistema statico a un dato istante dipende solo dal valore
dell'ingresso allo stesso istante. Si conclude pertanto che le risposte indici di un sistema
lineare statico14 coincidono, rispettivamente, con un una funzione delta e con una funzione a
gradino, aventi un medesimo coefficiente di ampiezza.
Il calcolo delle risposte indici di un sistema può essere eseguito risolvendone
l'equazione differenziale ingresso-uscita. Più spesso, in pratica, si preferisce usare il metodo
della trasformazione di Laplace, che conduce più agevolmente al risultato: di questo ci
occuperemo nella III parte del corso. Qui ci limitiamo a illustrare brevemente il calcolo delle
risposte indici attraverso la soluzione diretta dell'equazione, nel caso di un sistema descritto da
13 Tutti i sistemi fisici reali verificano evidentemente questo principio. La condizione che l’effetto segua e non preceda la causa è chiamata anche condizione di “realizzabilità fisica”. 14 Nel caso dei sistemi nonlineari, le risposte indici usuali (a eccitazione unitaria) perdono significato; occorre infatti usare funzioni indici dipendenti da due argomenti, il tempo e l'ampiezza dell'eccitazione. Anche nel caso dei sistemi non stazionari (supposti lineari) occorre usare funzioni indici dipendenti da due argomenti: il tempo a cui si considera la risposta e l'istante di applicazione del segnale di eccitazione).
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
32
un'equazione differenziale del primo ordine: il circuito RC passabasso. I risultati che
otterremo sono del tutto
generali, perchè applicabili
a qualunque sistema, di
qualsiasi natura, che sia
descritto dalla stessa
equazione.
Indicando con x(t) la tensione d'ingresso e con y(t) quella d'uscita si ha:
( ) ( ) ( ) ( ) ( )1 1;t t
x t Ri t i d y t i dC C
τ τ τ τ−∞ −∞
= + =∫ ∫
da cui l'equazione ingresso-uscita15, dove τ = RC indica la costante di tempo del circuito:
(31) x(t) = τ y’(t) + y(t)
Calcoliamo la risposta indiciale del sistema, assumendo quindi x(t)=u(t), con la
condizione iniziale y(0)=0. L'integrale generale dell'equazione omogenea associata alla (31) è
evidentemente yg(t)=Ae-t/τ. In questo caso semplice, poi, l'integrale particolare relativo al
termine noto si determina facilmente: yp(t)=1. Specializzando rispetto alla condizione iniziale
assegnata la soluzione complessiva y(t) = 1+ Ae-t/τ si ottiene A= -1. La risposta indiciale è
dunque:
(32) hu(t) = [1 - exp(-t/τ)] u(t)
Derivando rispetto al tempo si ottiene quindi la risposta impulsiva:
(33) ( ) ( ) ( )exp th t u t
ττ−
=
Questa si poteva ottenere direttamente dall'equazione del sistema, specializzando la
soluzione dell'omogenea associata alla condizione iniziale ricavata integrando ambo i membri
della (31) fra 0- e 0+: τ (y(0+)-y(0-))=1, da cui A=1/τ.
Esercizio. Decomporre la (32) nei due termini che costituiscono la risposta transitoria e la risposta permanente.
15 In questo caso particolare l'equazione ingresso-uscita coincide con l'equazione ingresso-stato del sistema, dal momento che l'uscita coincide con l'unica variabile di stato del sistema.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
33
14. Relazioni fra risposte indici e risposta in frequenza
Completiamo l'analisi del sistema descritto dalla (31) determinandone la risposta in
frequenza con il metodo simbolico. Sostituendo nella (31) le grandezze simboliche si ottiene:
(34) ( ) 11
H jj
ωωτ
=+
(35) ( ) ( ) ( )2 2
1 ; arctang1
H j H jω ω ωτω τ
= = −+
/
La forma della (34) (e della (35)) permette di verificare che si tratta effettivamente di
un sistema passabasso, in particolare con risposta unitaria a frequenza zero, in accordo col
fatto che il valore asintotico della risposta indiciale (32) è unitario. Uguagliando la (35) a
1/√2, si ottiene la frequenza limite superiore (frequenza di taglio) del sistema:
(36) 11 0,16
2f
πτ τ= ≈
Nella risposta
indiciale di un sistema si
distinguono i seguenti
parametri caratteristici:
tempo di salita tr (già
definito trattando l'impulso
reale), ritardo (delay time)
td, definito dal tempo a cui
la risposta raggiunge il
50% del valore massimo
(o del valore asintotico ai
tempi lunghi) e tempo di assestamento (settling time) ts. Quest'ultimo rappresenta il tempo
(misurato dall'applicazione del gradino) a partire dal quale la risposta normalizzata si
mantiene definitamente entro la fascia 1-∆, 1+∆, per un valore prefissato16 di ∆.
A volte, come nel caso rappresentato nella figura, la risposta indiciale presenta un
16 La scelta di questo valore dipende dal caso che si considera. Per esempio, se il circuito costituisce il filtro che precede un convertitore A/D, il valore di ∆ sarà ragionevolmente riferito all’ampiezza del quanto di conversione.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
34
picco isolato oppure una serie di oscillazioni smorzate. Si considerano allora anche altri
parametri: sovraelongazione (overshot) s, cioè ampiezza del picco o della prima oscillazione,
periodo T delle oscillazioni, ecc.
Applicando le definizioni precedenti alla risposta indiciale di un filtro RC (32) si
ottengono i seguenti risultati:
(37) tr = 2,1972... τ ≈ 2,2 τ
(38) td = 0,6931... τ ≈ 0,69 τ
(39) ts = 6,9078... τ ≈ 7,0 τ
avendo scelto ∆ = 10-3 nel calcolo del tempo di assestamento.
Sostituendo nella (37) l'espressione (36) della frequenza di taglio, che indichiamo qui
con B nel significato di banda passante, si ottiene la seguente relazione, assai importante e
utile, fra la la risposta nel dominio del tempo e quella nel dominio della frequenza:
(40) B tr = 0,3497... ≈ 0,35
Ricordiamo che tutti i risultati precedenti, dalla (32) alla (40), sono validi per qualsiasi
sistema descritto dall'equazione differenziale (31) e non soltanto per il circuito RC. Si può
dimostrare poi che i risultati (37), (38) e (40) sono validi con ottima approssimazione anche
per i sistemi passabanda che hanno ad alta frequenza lo stesso andamento dei sistemi
passabasso descritti dalla (34), purchè la loro frequenza limite inferiore sia molto minore della
frequenza limite superiore (questo si verifica di solito in molti amplificatori, per esempio in
quelli che coprono la banda audio oppure quella video). Infine, la relazione (40), che presenta
grandissima utilità pratica, risulta valida, sia pure approssimativamente, anche per una classe
più estesa di sistemi, descritti da equazioni differenziali di grado superiore al primo (di solito,
il prodotto B tr assume valori fra ~0,3 e ~0,45).
Le precedenti definizioni del tempo di salita tr e del ritardo td sono dette pratiche o
empiriche, perchè intese a facilitarne la determinazione sperimentale. Per queste stesse
grandezze si usano anche delle diverse definizioni, dette analitiche, che indicheremo con
simboli diversi per evitare ambiguità. Tali definizioni si applicano soltanto ai sistemi
passabasso, la cui risposta indiciale tende, ai tempi lunghi, a un valore asintotico costante non
nullo, purchè questa presenti un andamento monotono crescente (almeno
approssimativamente).
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
35
Nelle definizioni analitiche interviene la risposta impulsiva normalizzata
hn(t) = h(t)/hu(∝)
cioè divisa per il valore asintotico della risposta indiciale (che rappresenta l'area della h(t)). Il
ritardo ρ e il tempo di salita σ e sono così definiti:
(41) ( )0 nth t dtρ∞
= ∫
(42) ( ) ( )2
02 nt h t dtσ π ρ
∞= −∫
dove la costante 2π è stata scelta in modo che il tempo di salita σ coincida con il tempo di
salita tr nel caso particolare dei sistemi con risposta impulsiva Gaussiana. Svolgendo il
quadrato che figura nella (42) e utilizzando la (41) si ottiene:
(43) ( )2 2
02 nt h t dtσ π ρ
∞ = − ∫
Applicando le definizioni analitiche al caso del sistema descritto dalla (31) si ottiene:
; 2 2,05066ρ τ σ π τ τ= = ≈
Le definizioni precedenti si possono usare anche per caratterizzare il ritardo e il tempo
di salita di un generico segnale f(t) (che non costituisca, cioè, la risposta indiciale di un
sistema) rispetto a un istante di tempo di riferimento, purchè la funzione f(t) soddisfi le
condizioni date sopra (abbia andamento monotono crescente fra zero e un valore asintotico
non nullo). In questo caso si utilizzerà nelle formule la derivata normalizzata fn'(t) = f'(t)/f(∝)
della funzione f(t).
15. Calcolo della risposta a una eccitazione qualsiasi con le risposte indici
L’importanza delle funzioni indice sta nel fatto che esse consentono, sempre nel caso
dei soli sistemi lineari e stazionari, di calcolare la risposta forzata a una eccitazione di forma
qualsiasi.
Supponiamo che l'ingresso x(t) sia costituito dalla somma di tre impulsi rettangolari di
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
36
durata ε, come mostrato nella figura:
x(t) = x1(t) + x2(t) + x3(t).
Questi impulsi, se ε è sufficientemente piccolo
rispetto ai tempi caratteristici del sistema a cui sono applicati, possono essere approssimati
con tre funzioni delta, nel senso che l'effetto di ciascuno di essi è approssimativamente uguale
all'effetto di una corrispondente funzione impulsiva:
x(t) ≈ ε δ(t) – 2 ε δ(t-1) + 3 ε δ(t-3)
Dal momento che, per l'ipotesi di stazionarietà, se la risposta a δ(t) è h(t) quella a δ(t-
T) sarà h(t-T), si conclude, grazie al principio di sovrapposizione degli effetti, che la risposta
di un sistema con risposta impulsiva h(t) all’eccitazione x(t) data sopra è:
y(t) ≈ ε h(t) - 2 ε h(t-1) + 3 ε h(t-3)
Esercizio. Tracciare il grafico del segnale d'uscita di un circuito RC passabasso con τ = 1 s, al quale è applicato
l'ingresso x(t) considerato sopra con ε = 0,25 s: a) ricavandolo in modo esatto, b) ricavandolo approssimando gli
impulsi mediante funzioni delta.
Supponiamo ora che x(t) sia un segnale di forma arbitraria. Suddividendo l'asse dei
tempi in intervalli di durata ∆τ, possiamo esprimere x(t) nella forma della somma seguente:
(44) x(t) = x1(t) + x2(t) + ...
dove ciascuna componente xk(t) coincide con x(t) nel corrispondente intervallo τk, τk+∆τ ed è
nulla altrove. Se ∆τ è sufficientemente piccolo, ciascuna componente elementare xk(t) può
essere approssimata con una funzione delta di area x(tk) ∆τ applicata al tempo tk, contribuendo
così alla risposta con il termine elementare corrispondente:
(45) yk(t) ≈ x(τk) h(t-τk) ∆τ
Sommando tutti questi contributi si ha:
(46) y(t) ≈ Σk yk(t) = Σk x(τk) h(t-τk) ∆τ
0 1 2 3 4 t
1 3
→ ε ←
-2
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
37
dove l'errore di approssimazione tende a zero quando ∆τ tende a zero. In tal caso la
sommatoria si trasforma nel seguente integrale, detto di convoluzione:
(47) ( ) ( ) ( )0
ty t x h t dτ τ τ= −∫
dove il limite inferiore d'integrazione rappresenta l'istante t=0 a partire dal quale consideriamo
la risposta forzata del sistema (che si suppone trovarsi nello stato zero) e il limite superiore t è
fissato dal principio di causalità (l'uscita al tempo t non è influenzata dai valori dell'ingresso a
tempi successivi).
L'integrale di convoluzione (47) si scrive anche nella seguente forma equivalente:
(48) ( ) ( ) ( )0
ty t x t h dτ τ τ= −∫
dove l'integrazione si svolge nello stesso intervallo di prima, ma secondo un asse diretto in
verso opposto al precedente: con l'origine τ=0 all’istante t e l'estremo superiore è τ=t, dove si
ha t-τ=0. Le due forme (47) e (48) dell'integrale di
convoluzione possono essere interpretate graficamente
come è mostrato nella figura.
In alto. Calcolo del contributo elementare dell'ingresso al tempo τ'
all'uscita al tempo t' con l'integrale di convoluzione (47)
In basso. Calcolo con l'integrale di convoluzione (48)
La parte in alto suggerisce un metodo grafico per la
valutazione approssimata della risposta y(t') all’istante
t', applicando la (46) ai campioni delle funzioni x(τ) e
h(t'-τ) che si trovano sulla stessa verticale.
Qualche considerazione sui limiti d'integrazione usati nelle due espressioni (47) e (48) dell'integrale di
convoluzione. Essi derivano dal fatto che abbiamo scelto di occuparci della risposta forzata, considerando quindi
soltanto gli effetti dell'ingresso a partire da un istante determinato (t=0) fino al tempo t al quale calcoliamo la
risposta (per l'ipotesi di causalità). Decidendo di calcolare l'effetto di un ingresso applicato a partire da un
generico istante to (che può anche assumere il valore to=-∝) scriveremo:
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
38
(49) ( ) ( ) ( ) ( ) ( )0
0 0
t t t
ty t x h t d x t h dτ τ τ τ τ τ
−= − = −∫ ∫
Nel caso dei sistemi non fisicamente realizzabili, come quelli usati per elaborare dati già registrati in
precedenza, cade il vincolo posto dalla causalità e si ha in generale:
(50) ( ) ( ) ( ) ( ) ( )y t x h t d x t h dτ τ τ τ τ τ∞ ∞
−∞ −∞= − = −∫ ∫
Notiamo infine che ad espressioni analoghe alle (47) e (48) si perviene anche decomponendo il segnale
d’ingresso in funzioni a gradino elementari, anzichè in funzioni impulsive. In tal caso l'ingresso viene
rappresentato dalla somma della funzione a gradino x(0)u(t) e di una sequenza di funzioni a gradino elementari,
applicate agli istanti tk, con coefficiente x(tk)-x(tk-∆τ). Ciascuna di queste contribuisce all'uscita y(t) con il
termine elementare (x(τk)-x(τk-1)) hu(t-τk) ∆τ.
16. Integrale di convoluzione e risposta impulsiva
L'integrale di convoluzione nella sua forma generale
(51) ( ) ( ) ( )1 2f t f f t dτ τ τ∞
−∞= −∫
definisce un'operazione binaria fra due funzioni. Nell'insieme delle funzioni ordinarie non
esiste l'elemento identità per tale operazione, cioè una funzione f2(t) che introdotta nella (51)
dia f(t) = f1(t). Questo elemento esiste solo se estendiamo l'insieme delle funzioni considerate
a comprendere anche la funzione impulsiva δ(t), tale che, per qualsiasi funzione ordinaria f(t),
sia
(52) ( ) ( ) ( )f t f t dτ δ τ τ∞
−∞= −∫
La (52) può essere assunta come definizione della funzione delta.
17. Risposta in frequenza e risposta impulsiva Consideriamo un sistema lineare e stazionario, non necessariamente fisicamente realizzabile e quindi
con risposta impulsiva h(t) che può dunque assumere valori diversi da zero anche per t<0. Calcoliamone la
risposta al segnale armonico complesso x(t)=X exp(jωt) applicato a partire da -∝ utilizzando l'integrale di
convoluzione nella forma generale (50):
(53) ( ) ( ) ( ) ( ) ( ) ( )exp exp expy t X j t h d X j t j h dω τ τ τ ω ωτ τ τ∞ ∞
−∞ −∞= − = − ∫ ∫
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
39
Sappiamo già, d'altra parte, che in questo caso si ha y(t)=X exp(jωt) H(jω). Si conclude pertanto che la
la funzione di trasferimento di un sistema coincide con la trasformata di Fourier della sua risposta impulsiva
(54) ( ) ( ) ( )expH j j t h t dtω ω∞
−∞= −∫
18. Risposta impulsiva e stabilità
Studiando il sistema descritto dalla equazione (31) si è trovato che la risposta impulsiva altro
non è che una particolare specializzazione della risposta libera alle condizioni iniziali stabilite
a t=0+ dall'effetto di una funzione delta unitaria applicata all'ingresso. Questo risultato è
generale: la risposta impulsiva è costituita dai termini che compaiono nell'integrale generale
dell'equazione omogenea associata a quella del sistema. Nel caso dei sistemi differenziali
questi termini sono determinati dalle radici dell'equazione caratteristica. A ciascuna delle
radici distinte pi corrisponde un esponenziale, reale o complesso,
Ai exp(pit)
mentre in presenza di una radice p con molteplicità m la risposta contiene gli m termini
M0 exp(pt), M1 t exp(pt), ............ Mm-1 tm-1 exp(pt)
Ne consegue che l'andamento asintotico della risposta impulsiva per t che tende
all'infinito è comunque determinato dai termini esponenziali, più precisamente dal valore delle
radici reali, o delle parti reali delle eventuali radici complesse, dell'equazione caratteristica. Se
anche uno soltanto di questi è positivo, allora la risposta impulsiva diverge all'infinito,
indicando che il sistema è instabile. D'altra parte, perchè sia h(∝)=0 occorre che tutti questi
valori abbiano segno negativo.
Una condizione di stabilità usata spesso in elettronica è quella denominata stabilità
b.i.b.o. (bounded input-bounded output, ingresso limitato-uscita limitata). Questa condizione
di stabilità richiede che a un ingresso x(t) limitato corrisponda sempre un'uscita y(t) anch'essa
limitata. Più precisamente si richiede che valga la seguente condizione per qualsiasi ingresso
x(t):
se |x(t)| ≤ X per qualsiasi t, allora |y(t)| ≤ Y per X e Y finiti e per qualsiasi t
Questa particolare condizione di stabilità può essere espressa in termini della risposta
impulsiva ed equivale allora alla condizione di integrabilità assoluta di tale funzione:
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
40
(55) ( )-
I = h t dt∞
∞< ∞∫
Infatti se la (55) è verificata, allora, per qualsiasi x(t) limitata, si ha
( ) ( ) ( ) ( ) ( ) ( )- - -
= y t x t h d x t h dt X I h dt X Iτ τ τ τ τ τ∞ ∞ ∞
∞ ∞ ∞− ≤ − ≤ =∫ ∫ ∫
Oltre che condizione sufficiente, la (55) è anche necessaria. Scegliendo infatti h(t)=sin
ωot (corrispondente a una coppia di radici coniugate immaginarie) si ha evidentemente I=∞. E
allora se l'ingresso è x(t)=sin ωot si ha:
( ) ( ) ( ) ( )2
- -0 = sin oy x h d dτ τ τ ω τ τ
∞ ∞
∞ ∞− = = ∞∫ ∫
19. Schemi a blocchi
In quanto precede abbiamo spesso rappresentato graficamente i sistemi mediante
schemi a blocchi. In questa rappresentazione, assai intuitiva, un sistema viene indicato con un
rettangolo, le variabili d'ingresso con frecce entranti nel rettangolo, le variabili d'uscita con
frecce uscenti; alllo stesso modo si indicano le varie parti, o sottosistemi, di sistemi complessi,
e le loro interconnessioni.
Gli schemi a blocchi sono molto usati perchè evidenziano efficacemente come i vari
sottosistemi sono collegati fra loro e perchè permettono di seguire il flusso dei segnali in un
sistema, individuando le elaborazioni compiute dai sottosistemi che essi attraversano. E'
importante osservare che la schematizzazione dei sistemi, e dei sottosistemi, in termini di
schemi a blocchi deriva evidentemente dalla loro rappresentazione mediante relazioni
ingresso-uscita.
Alla base della rappresentazione mediante schemi a blocchi vi sono però due ipotesi
semplificatrici, che non sono quasi mai verificate rigorosamente e che vogliamo qui
evidenziare.
La prima è che la trasmissione dei segnali attraverso i sistemi avvenga in modo
unilaterale, cioè soltanto dall'ingresso verso l'uscita e non viceversa; e cio’ non accade
certamente nel caso di reti passive, come ad esempio un partitore resistivo.
La seconda ipotesi è che un segnale non subisca alcuna modifica quando venga
applicato all'ingresso di un sistema. Si ammette, in particolare, che il segnale d'uscita di un
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
41
sistema resti inalterato anche quando venga a costituire l'ingresso di un altro sistema. Questo
può verificarsi soltanto approssimativamente, dal momento che il secondo sistema deve
comunque assorbire energia dal primo perchè avvenga il trasferimento dell'informazione.
L'approssimazione, d'altra parte, è tanto migliore quanto maggiore è il rapporto fra l'energia
disponibile all'uscita del primo sistema e quella assorbita all'ingresso del secondo. Nel caso
dei sistemi lineari e stazionari, per cui si può utilizzare il concetto di impedenza, questa
approssimazione è tanto migliore quanto maggiore è il rapporto fra l'impedenza d'ingresso del
secondo sistema e l'impedenza d'uscita del primo.
Entrambe le ipotesi precedenti non sono più necessarie quando i sistemi vengano rappresentati mediante
circuiti, ossia come interconnessione di una molteplicità di componenti elementari. Ciascun tipo di questi
elementi viene descritto da determinate equazioni, mentre altre equazioni descrivono come i vari elementi sono
collegati assieme. La rappresentazione circuitale, di cui ci occuperemo nelle parti seguenti del corso, tiene conto
infatti, in modo naturale e diretto, sia delle modifiche che il segnale all'uscita di un sistema subisce quando viene
applicato all'ingresso di un altro sistema, sia dell'eventuale flusso inverso dei segnali, dall'uscita verso l'ingresso.
Questo richiede però una maggiore complessità nella rappresentazione dei sistemi: nella descrizione circuitale,
infatti, all'ingresso e all'uscita dei sistemi, non è più sufficiente considerare una sola grandezza fisica, ma ne
occorrono due (tensione e corrente nei sistemi elettrici, forza e spostamento nei sistemi meccanici, temperatura e
quantità di calore nei sistemi termici, ecc.).
Qui vogliamo sottolineare una importantissima differenza nel comportamento dei
sistemi costituiti dal collegamento in cascata di due o più sottosistemi, a seconda che tutti i
sottosistemi costituenti siano lineari oppure uno (o più) di essi sia nonlineare, supponendo qui
che le due ipotesi precedenti (trasmissione unilaterale e interazione energetica trascurabile)
siano entrambe verificate.
Nel primo caso il sistema complessivo è lineare e gode della importante proprietà che
il suo comportamento ingresso-uscita è invariante rispetto all'ordine con cui i sottosistemi
vengono collegati. Questo si dimostra immediatamente nel caso della risposta in regime
sinusoidale permanente: la funzione di trasferimento complessiva è data evidentemente dal
prodotto delle funzioni dei sottosistemi costituenti, sicchè non dipende dall'ordine con cui essi
si susseguono.
In pratica, tuttavia, occorre spesso tener conto anche di altre considerazioni. Per esempio, è certamente
vero che la funzione di trasferimento del sistema ottenuto collegando in cascata un preamplificatore a basso
rumore e un amplificatore di potenza rimane la stessa anche quando si inverte l'ordine con cui si collegano i due
sottosistemi. Però le prestazioni delle due configurazioni saranno assai diverse sia per quanto riguarda il rumore
che la potenza disponibile in uscita.
gvp – 25 Agosto 2004 Appunti di Elettronica – Parte I pag.
42
Nel secondo caso, invece, cioè quando anche un solo sottosistema è nonlineare, il
sistema complessivo è nonlineare a sua volta e il suo comportamento ingresso-uscita dipende
dalla disposizione dei sottosistemi (questa dipendenza può essere rilevantissima: si rifletta, per
esempio, al caso in cui il filtro di livellamento preceda, anzichè seguire, il circuito rettificatore
di un alimentatore).
Esercizio. Determinare l'equazione differenziale ingresso-uscita e la risposta in frequenza dei due sistemi nella
figura qui sotto, se i sottosistemi sono governati dalle seguenti equazioni, dove x indica l’ingresso e y l’uscita:
A y' = a y + b x
B y' = c y + d x
A B
B A
Esercizio. Calcolare la risposta a un inpulso rettangolare, con ampiezza di 10 V e durata di 100 ms, del sistema
costituito da un limitatore simmetrico (pag.19), con guadagno 2 nella zona lineare e livelli di limitazione in
uscita di 0,5 V, e da un circuito RC passabasso, con R=1 MΩ e C=1µF:
a) se il limitatore precede il filtro, b) se il filtro precede il limitatore.
20. Grafi di flusso
Una rappresentazione simile a quella degli schemi a blocchi stata formalizzata da
S.J.Mason nel 1953, col nome di grafi di flusso (signal flow graphs), per la rappresentazione
e l'analisi del flusso dei segnali attraverso i sistemi lineari. Un vantaggio di questo metodo che
esso è utilizzabile anche quando i sistemi sono rappresentati in termini circuitali.
In termini matematici, i grafi di flusso costituiscono un metodo per rappresentare
efficacemente e risolvere sistemi di equazioni algebriche lineari.