38
Università di Roma "La Sapienza" Facoltà di Ingegneria Introduzione alla Teoria dei Circuiti Appunti dal Corso di Teoria dei Circuiti I per Ingegneria Elettronica e per Ingegneria delle Telecomunicazioni A.A. 1998-99 Prof. Elio D. Di Claudio

Introduzione alla Teoria dei Circuiti - infocom.uniroma1.itinfocom.uniroma1.it/~dic/introduzioneallateoriadeicircuiti.pdf · Appunti dal Corso di Teoria dei Circuiti I per Ingegneria

  • Upload
    doduong

  • View
    225

  • Download
    0

Embed Size (px)

Citation preview

Università di Roma "La Sapienza"Facoltà di Ingegneria

Introduzione alla Teoria dei Circuiti

Appunti dal Corso di Teoria dei Circuiti I

per Ingegneria Elettronica eper Ingegneria delle Telecomunicazioni

A.A. 1998-99

Prof. Elio D. Di Claudio

2

PREFAZIONE

La Teoria dei Circuiti, oggetto di questo corso, si occupa essenzialmente della definizione edell'analisi dei circuiti elettrici, vale a dire della connessione di blocchi (o componenticircuitali) in cui hanno sede fenomeni di natura elettromagnetica (conduzione elettrica,induzione magnetica, accumulo di carica, ecc.).Questi fenomeni sono già spiegati con grande accuratezza dalla Teoria dei Campielettromagnetici, che è basata sulle equazioni di Maxwell ed è valida fino a distanze moltopiccole (inferiori ai 10-15 m) e alle massime frequenze d'interesse, come quelle dei raggigamma.La Teoria dei Circuiti analizza gli stessi fenomeni, ma imponendo, almeno inizialmente,limitazioni piuttosto pesanti sulle frequenze di lavoro e sulla natura dei componenti circuitali(la presenza in un blocco fondamentale di un solo tipo di fenomeno elettromagnetico pervolta, la costanza nel tempo delle caratteristiche del blocco, ecc.).Sorge spontanea a questo punto la domanda sull'utilità di introdurre (e studiare) una teoria sindall'inizio affetta da errori di approssimazione del mondo fisico ben superiori, ed un campo diapplicabilità inferiore.Ancora, le teorie della probabilità e dell'informazione suggeriscono che la stessa concezionedi un blocco circuitale caratterizzato da relazioni funzionali costanti è quasi certamente unaidealizzazione eccessiva del mondo reale e dovrebbe essere sostituita da un modello di tipostatistico.Nella stesura di questi appunti ci si è sforzati di dimostrare come le obiezioni alla Teoria deiCircuiti possono essere benissimo superate anche da un punto di vista teoretico, oltre cheessere giustificate dal punto di vista empirico dai risultati che l'approccio circuitale haconsentito per quel che riguarda la comprensione ed il dominio dei fenomeni elettromagnetici(e non soltanto quelli) da parte dell'ingegneria.Si ripercorreranno in breve nei Capitoli I, II e III le tappe storiche del pensiero filosofico escientifico che sono risultate determinanti per la creazione del concetto moderno di teoria.Si analizzeranno i passi fondamentali richiesti per la costruzione di una teoria scientificagenerica, sottolineando l'importanza della verifica sperimentale dei risultati e,contemporaneamente, delle idee guida o credenze che hanno animato ed animano tuttora lamigliore ricerca mondiale.Il termine “credenza” non deve trarre in inganno ed essere interpretato dal lettore nel sensonegativo che comunemente gli si attribuisce. La credenza nel vocabolario filosoficorappresenta una idea guida (o un atteggiamento mentale) che viene costantemente seguita nelcorso di uno sviluppo teorico per scegliere la rappresentazione matematica (modello)globalmente migliore fra più alternative, tutte formalmente e fisicamente plausibili.Nella scienza e nella tecnica i modelli vengono sempre formalizzati nel linguaggio unificatoredella matematica. La costruzione di una teoria scientifica richiede la definizione accurata diipotesi di lavoro, assiomi ed obiettivi (risultati attesi). Lo stesso obiettivo può essere spessoconseguito adottando più metodologie, caratterizzate da gradi differenti di complessità edaccuratezza.Vincoli di tempo e di costo impongono di selezionare gli approcci metodologici più efficientialla soluzione dei problemi, cioè quelli che di solito raggiungono gli obiettivi prefissati conmaggiore rapidità, eleganza, fecondità e flessibilità, in modo da ridurre la mole del bagagliodi conoscenze da padroneggiare ed insegnare.Un metodo di indagine diventa una credenza della ricerca scientifica e tecnologica quandodimostra la propria validità in svariati campi di applicazione. La credenza circuitale si èaffermata proprio perché permette di padroneggiare con un formalismo matematico semplice,

3

ma potente, fenomeni diversissimi che coesistono frequentemente nel medesimo sistemafisico. C'è da rimarcare che il fatto in sé di aver perseguito una credenza durante lo sviluppodi una teoria non può mai inficiarne la validità scientifica, semplicemente perché lacorrettezza delle conclusioni va sempre verificata per mezzo di una procedura sperimentaleindipendente, tenendo nel debito conto l’influenza del rumore e degli errori sistematici dimisura.Verrà messo in evidenza come l’adozione di moderni approcci statistici o probabilistici almodellamento dei sistemi fisici complessi praticamente impone di sviluppare modelli semplicie caratterizzati da pochi parametri significativi e, nei limiti del possibile, largamenteindipendenti l’uno dall’altro (in senso statistico). In particolare, la scelta ottimale dellaparametrizzazione dipende pesantemente da considerazioni matematiche e statistiche (analisidi sensibilità e di indipendenza), così che in moltissimi casi i parametri selezionati nonconservano più alcun legame diretto con le singole grandezze fisiche originarie.I modelli differenziali, le condizioni al contorno e le relazioni costitutive basate su funzionicontinue del punto, che si incontrano spesso nei testi della fisica di base, sebbene restinoindispensabili per comprendere la natura dei fenomeni e per stabilire le proprietà dellesoluzioni in casi elementari, quasi sempre non forniscono risposte sufficientemente precise,computazionalmente efficienti e statisticamente robuste ai problemi complessi postidall’ingegneria.Al contrario, i modelli circuitali, che si basano sull’interconnessione di blocchi elementari edidealizzati, caratterizzati da pochi parametri liberi, esibiscono per costruzione una strutturamatematica assai snella, efficiente e statisticamente robusta, idonea per sviluppareapplicazioni pratiche di grande complessità in tempi ragionevoli.Come esempio classico del modellamento circuitale, nei Capitoli IV, V e VI si deriverannodei risultati intermedi della Teoria dei Campi, relativamente non informativi, che diventanogli assiomi fondamentali per la trattazione delle reti elettriche a costanti concentrate, cioè leleggi di Kirchhoff e la definizione della potenza elettrica. Infine le equazioni costitutive deicomponenti elettrici classici, che permettono di chiudere il sistema risolvente, verrannoderivate direttamente dalle equazioni di Maxwell, per mezzo di un processo di separazioneideale delle componenti del campo elettromagnetico, di approssimazione locale dellesoluzioni e di una assunzione di robustezza rispetto alle condizioni iniziali e al contorno. Lavalidità del procedimento deve essere chiaramente giustificata dalle proprietà della soluzionedelle equazioni del campo e verificata sperimentalmente, tenendo conto dei limiti diprecisione desiderati o realizzabili.Nell’ambito di validità della teoria verranno definite delle opportune grandezze invarianti(tensione e corrente), caratterizzate da una proprietà di robustezza qualitativa rispetto alledistribuzioni del campo, conferita dalla natura integrale delle formule di definizione.Sarà sottolineato come la formulazione di un modello circuitale risulta praticamenteindispensabile per realizzare programmi per l'analisi ed il progetto automatico di dispositivi e,soprattutto, per ottimizzare il progetto ingegneristico, in presenza di vincoli di costo, di tempoe di verificabilità sperimentale.Si accennerà anche alla progressiva evoluzione in atto nella Teoria dei Circuiti, che staspostando l’interesse dai modelli caratterizzati da un grafo non orientato, tipici delle retielettriche classiche e dei sistemi acustici e meccanici, verso i circuiti unidirezionali, oggiampiamente usati per descrivere una straordinaria varietà di sistemi fisici ed economici.Questi nuovi modelli evidenziano le relazioni causa-effetto fra i fenomeni in gioco e risultanofacilmente formalizzabili in programmi di simulazione numerica sul calcolatore.

4

I. TAPPE EVOLUTIVE DELLA CONOSCENZA SCIENTIFICA NELLA STORIA

Il problema della fondazione logica della conoscenza scientifica (epistemologia) haarrovellato i filosofi fin dall'antichità.Il nodo centrale dell'epistemologia è quello di affermare la validità di una conoscenzascientifica, analizzando la correttezza dei processi empirici e mentali che sono stati seguiti perla sua formulazione. Risulta, infatti, tutt'altro che semplice distinguere proposizioni che hannoun valore scientifico e universale da altre che ne sono prive, pur essendo comunementeaccettate nel loro contenuto di verità.Le origini del pensiero scientifico possono essere fatte risalire ad Aristotele (384 a.C. - 322a.C.), che per primo si preoccupò di superare l'astrattezza e la trascendenza della speculazionecontemporanea, per legarla concretamente con l'esperienza.La logica aristotelica, raccolta nell'Organon, è fondata sui concetti di proposizione, che legaun soggetto ad un predicato, e di sillogismo, un ragionamento che collega due proposizioni opremesse in modo da generare in maniera non equivoca una terza proposizione, opera delpensiero umano, che amplia così la propria conoscenza. Il predicato di ciascuna proposizioneha la funzione di affermare o di negare qualcosa del soggetto [1], [2].Il sillogismo affermativo, l'unico che Aristotele afferma essere scientifico ed universale, usauna regola di inferenza di tipo transitivo (modus ponens) che collega un soggetto ed unpredicato globali, inserendo un terzo termine che funge da mediatore fra i due:a) prima proposizione o premessa: Ogni A (soggetto globale) è B (predicato di A);b) seconda proposizione o premessa: Ogni B (ora soggetto) è C (predicato di B);c) conclusione: Ogni A è C (predicato globale di A).

Secondapremessa

Primapremessa

Conclusione

A

B

C

Figura 1: Schema di sillogismo aristotelico

Esempio: Il Boeing 747 è un aereo (prima premessa).

5

Un aereo è in grado di volare (seconda premessa).Il Boeing 747 è in grado di volare (conclusione).1

Si notano in questo esempio alcuni tratti fondamentali del ragionamento scientificoaristotelico, che sono stati recepiti dalla moderna epistemologia:a) la conclusione esplicita la conoscenza intrinseca in ciascuna delle due premesse. Tuttavia

si può sostenere che la estenda anche (come la soluzione di un problema fisico particolaremigliora la comprensione delle leggi fondamentali impiegate per descriverlo);

b) la conclusione non richiede l'aggiunta di altre proposizioni oltre alle premesse per essereraggiunta [2]. Pertanto il sillogismo è un ragionamento di tipo deduttivo o apodittico;

c) in particolare, le premesse devono essere universali e compatibili, ovvero devonosoddisfare i principi di non contraddizione e di terzo escluso (per esempio, non devonoesistere aerei che non possano volare...).

d) in certi casi il concetto contenuto nelle premesse potrebbe essere sostituito da opportunielenchi (aereo ≡ Douglas DC 9, Lockeed F 104,..., Boeing 747,...), ma questa idea èassai opinabile, dal momento che l’universalità delle premesse ne potrebbe risultarecompromessa. Per esempio, l’arrivo di un nuovo modello di velivolo2,3, richiederebbe unamodifica all’elenco, che dovrebbe essere garantita da una sorta di certificazione esterna (lacui validità andrebbe a sua volta dimostrata...);

e) la deduzione in sé non contiene quasi mai gli elementi sufficienti per asserire la validitàdelle premesse [2]. La verità di un sillogismo logicamente corretto può essere, invece,asserita dalla verifica empirica della conclusione, cioè una conclusione vera puòdiscendere da premesse false. Se questa considerazione non è tranquillizzante per laricerca teorica, apre la strada a ragionamenti deduttivi, in cui l’universalità e/o la noncontradditorietà delle premesse venga temporaneamente rilasciata, al fine di ottenererapidamente risultati, la cui validità generale può essere accertata empiricamente o perconvergenza con ragionamenti di tipo diverso.

f) il processo di deduzione mediante il sillogismo, non potendo essere risalito indietroall'infinito, richiede comunque la definizione di un principio primo indimostrabile(assioma nella terminologia corrente), da giustificare mediante argomentazioni induttive(anapodittiche).

In particolare, i punti (b), (d) ed (e) evidenziano il problema fondamentale della ricercaodierna, che è chiamata ad elaborare continuamente nuovi concetti, a sottoporli a verificasperimentale e ad inquadrarli (formalizzarli) nella conoscenza precedente, allo scopo di usarlipiù efficacemente o di disseminarli mediante le pubblicazioni o l'insegnamento.

1 Il ruolo e l'ordine delle premesse sono intercambiabili, cioè i sillogismi (A=>B), (B=>C), (A=>C) e (B=>C),(A=>B), (A=>C) sono equivalenti [2].2 Le conseguenze pratiche di queste posizioni filosofiche non sono irrilevanti: negli anni Ottanta un aereo civilefu abbattuto perché la sua sagoma non era stata inclusa nella base dei dati di un riconoscitore basatosull’intelligenza artificiale, sebbene le sue caratteristiche geometriche e di volo fossero state correttamenteidentificate dai sensori. D’altra parte, sono note le acrobazie semantiche usate in ambito legale per evitare che unmanufatto venga incluso in una categoria commerciale codificata da regole “universali”, ma fiscalmentepenalizzata.3 La definizione mediante regole è di solito preferibile, secondo la Teoria dell’Informazione, a quella mediantetabelle memorizzate, perché impiega meno risorse e facilita l’estensione e l’unificazione dei concetti(generalizzazione) [11]. Tale conclusione è allineata con il senso comune: uno studente rapido ed efficace nellasoluzione di nuovi problemi è generalmente più apprezzato di uno studente “sgobbone”, ma poco creativo eflessibile!

6

Più sillogismi vengono collegati deduttivamente, in modo che la conclusione di uno divengala premessa per il successivo e creando una nuova teoria. L'insieme di tutte le conclusioni acui si perviene partendo dagli assiomi fondamentali costituisce la base dei risultati dellateoria, oggetto della verifica epistemologica.Nell'era contemporanea le conoscenze scientifiche vengono organizzate in teorie complesse,la cui struttura rimane sempre di tipo deduttivo e le cui proposizioni sono denominatecomunemente teoremi. Pertanto, risulta possibile in generale formulare la seguente:

Definizione: Una teoria è una architettura di proposizioni, derivate da un insieme finitodi assiomi indimostrabili mediante ragionamenti di tipo deduttivo, i quali usano regoledi inferenza, la cui validità è universalmente riconosciuta.

Questa definizione di teoria coincide praticamente con quella formulata per la matematica daDavid Hilbert (Königsberg, 1862 - Gottinga, 1943) negli anni 1922-1939 e sintetizzatanell'opera Fondamenti della Matematica [3]. Secondo Hilbert, l'obiettivo di una teoria èproprio il raggiungimento di una trama di proposizioni intrinsecamente immuni dacontraddizioni interne e dedotte da un insieme di assiomi o postulati, proposizionifondamentali che non è possibile derivare da altre mediante manipolazioni algebriche ologiche.La teoria viene formalizzata, una volta che sono state completamente definite le regolelogiche impiegabili per le dimostrazioni.Le giustificazioni addotte durante la fase di assiomatizzazione non hanno valore ai fini dellavalidazione della teoria, un po' come nella logica aristotelica.La validità della teoria viene dimostrata dall'assenza di contraddizioni fra le conseguenzededucibili dagli assiomi fondamentali, senza più alcun legame con il mondo empirico.Proposizioni non deducibili dagli assiomi fondamentali, se pur fisicamente vere, non possonoessere inserite nella teoria, se non come assiomi supplementari.

ConcettiIntermedi

Assiomi

Risultati

Figura 2: architettura di una teoria

La concezione assiomatica ha pesantemente influenzato i recenti sviluppi dell'Informatica,della Teoria della Probabilità [4] e della Teoria dell'Informazione ed è penetrata anche nellaTeoria dei Circuiti e nella Teoria dei Segnali, specialmente ad opera delle scuoleanglosassoni.

7

Sebbene si sia dimostrata (Gödel, 1931) l'impossibilità di costruire una teoria assiomaticacompletamente formalizzata, in cui ogni proposizione (compresi gli assiomi) sia deducibiledal sistema stesso, la posizione hilbertiana è stata di una certa utilità anche nella fisica, dalmomento che una formalizzazione spinta ha spesso avvicinato l'architettura di teorieinizialmente molto distanti (gravitazione, elettromagnetismo, interazioni nucleari forti edeboli), favorendone in molti casi l'unificazione, almeno a livello formale.

II. LA DEFINIZIONE DEGLI OBIETTIVI DI UNA TEORIA

I limiti della teoria hilbertiana balzano palesi quando la formalizzazione riguarda una teoriafisica o una teoria ad hoc costruita per scopi di applicazione pratica.Nella matematica pura si può giudicare la verità o la falsità di ciascuna affermazione sullabase di una verifica formale della dimostrazione, ripercorrendo tutti i passi logici e, ove ilcaso, ricontrollando tutti i calcoli.Nella fisica, invece, una teoria bellissima e perfettamente consistente può essere benissimofalsa perché nasce da assiomi ed ipotesi collaterali non realistiche, che generano alla finerisultati che non superano la verifica sperimentale.L'ingegneria mira a definire procedure operative o algoritmi per manipolare entità reali(materiali, segnali, campi elettromagnetici, denaro) a scopo di progettazione, costruzione,previsione, pianificazione, misurazione.Le teorie ingegneristiche non hanno nulla da invidiare a quelle puramente matematiche perquanto riguarda la complessità, la difficoltà ed il rigore dello sviluppo. Piuttosto la necessariaaderenza alla realtà fisica, la incertezza di ogni misurazione, insieme all'obiettivo primario edirrinunciabile della manipolabilità pratica dei risultati teorici in tempi relativamente brevicostituiscono formidabili ostacoli per una stabile formalizzazione.Fare affidamento su una formalizzazione matematica spinta può essere addiritturacontroproducente nell'ingegneria, perché si possono creare ambiguità e distorsioni nel finestesso della ricerca, non rilevabili da un punto di vista logico, come appare dai due esempi cheseguono:

Esempio 1: Due teorie perfettamente formalizzate approssimano la stessa funzione f(x,t) dellavariabile spaziale x e del tempo t. Viene fornita una tabella f(xk,tl), k=1, 2,..., K, l=1, 2 ..., Ldi valori della funzione calcolata sull'insieme di K*L punti dello spazio-tempo (xk,tl), k=1,2,..., K, l=1, 2 ..., L .La prima teoria interpreta la funzione f(x,t) come soluzione dell’equazione differenziale allederivate parziali del tipo:

2

22

2

2

t

txf

x

txf

∂∂β=

∂∂ ),(),(

. (E1.1)

La seconda teoria approssima la funzione su un intervallo dello spazio-tempo mediante unaserie doppia troncata di funzioni del tempo gj(t), j=-∞,..., +∞ e dello spazio hi(x), i=-∞,...,+∞ rispettivamente:

)t(g)x(h)t,x(fM

Mi

N

Njji∑ ∑

−= −=

≅ . (E1.2)

8

La prima teoria è assai più complicata e numericamente instabile se programmata su uncalcolatore elettronico, ma ci fornisce numerose informazioni sulla natura del sistema. Laseconda risulta più accurata ed efficiente dal punto di vista computazionale, ma è capace solodi fornire una generica descrizione funzionale del sistema.Non esiste motivo per preferire dal punto di vista logico una teoria rispetto all'altra se nonsono specificati le ragioni che ne hanno determinato lo sviluppo. Infatti, le argomentazionisulla differente utilità pratica o didattica hanno un valore puramente soggettivo e non hannosignificato per la validità logico-matematica della teoria.

Esempio 2: Una formula matematica collega la lunghezza dell'ombra proiettata da una torrecon la posizione istantanea del Sole e l'altezza della torre stessa [5].E' possibile costruire a partire da questa formula una teoria formalizzata che assume notel'altezza della torre e la posizione del Sole per calcolare la lunghezza dell'ombra, ma ancheuna teoria che permette di calcolare la posizione del Sole in funzione della lunghezzadell'ombra e dell'altezza della torre.Senza la definizione a priori dell'obiettivo del calcolo non esiste alcun metodo formale peraccettare una teoria e rigettare l'altra.

Da queste considerazioni si evince come la formalizzazione logico-matematica di una teorianon sia sufficiente a garantirne la correttezza sostanziale e l'utilizzabilità. Bisogna in qualchemodo introdurre ulteriori controlli sulla validità sperimentale degli assiomi e delle ipotesi dilavoro, precisare il contesto dell'analisi e specificarne gli obiettivi.La costruzione di teorie svincolate dall'esperienza e la cui formalizzazione ostacolal'individuazione della ragion d'essere degli sviluppi stessi, è riconosciuto dai moderniepistemologi come uno dei maggiori pericoli insiti nei metodi attuali di ricerca [4], [6], [7].

III. CONSIDERAZIONI SULLO SVILUPPO DELLE TEORIE NELLE SCIENZE FISICHE E

NELL'INGEGNERIA

La sequenza temporale dei passi logici compiuti nella costruzione di una teoria in ambitotecnico-scientifico non trova riscontro, di solito, nelle modalità con cui la stessa teoria verràpresentata in un congresso o in un'aula didattica. L'applicazione pratica della stessa teoriaseguirà prassi ancora diverse, ma tutte perfettamente spiegabili alla luce delle proprietà dellaformalizzazione matematica.Bisogna innanzitutto avere ben chiaro che una teoria non nasce per caso, ma è spinta dabisogni diffusi (o anche, talvolta, da motivazioni personali) ed è soggetta al livello generaledella conoscenza tecnico-scientifica del momento.

Lo sviluppo della fisica tende storicamente ad unificare teorie separate, inserendole inun'architettura logico-matematica comune. L'obiettivo è quello di descrivere i fenomeninaturali con la massima compattezza delle equazioni per una data precisione.L'intuizione, il semplice desiderio di perfezione, la sintesi di dati sperimentali e l'introduzionedi nuovi strumenti di indagine (il telescopio, il calcolatore, il satellite artificiale, ma anche ilcalcolo differenziale e variazionale, la teoria della probabilità e dell'informazione) consentonoad un certo momento storico di scoprire una nuova legge fisica, che, formalizzata in unsistema di equazioni, diviene l'assioma per la costruzione di una teoria [7]. La deduzionematematica definisce il contesto ed i risultati attesi per le prove sperimentali, a cui sole spettail compito di validare la teoria.

9

Esempi storici esemplari di questo processo sono stati la teoria della gravitazione di IsaacNewton (1642-1727) [8], la teoria delle interazioni elettromagnetiche di James Clerk Maxwell(1831-1879) [9], la teoria della relatività di Albert Einstein (1879-1955), la teoria dei quanti diPlanck, Heisenberg ed altri, [10], e le recenti teorie di Grande Unificazione.

Al contrario della fisica, le teorie usate nell'ingegneria tendono invece a diventare sempre piùspecializzate nel tempo, pur usando strumenti metodologici comuni, a causa di vincoli tecnici,economici e culturali, quali:a) la necessità di ripartire il lavoro industriale su più persone contemporaneamente

(parcellizzazione o taylorizzazione), per fronteggiare la mole di lavoro necessaria per igrossi progetti, in modo che ciascun tecnico possa concentrare l'attenzione ed essereresponsabilizzato su pochi aspetti del sistema per volta;

b) l'esigenza di ridurre i costi e i tempi di formazione del personale: il processo diapprendimento sarà tanto più rapido quanto più la conoscenza è mirata. Inoltre èchiaramente più facile ottenere una elevata qualificazione in un settore ristretto di attività;

c) l'obiettivo di standardizzare le procedure: la specializzazione assicura una grandeprevedibilità dei risultati, dal momento che il medesimo gruppo di persone si occuperàdelle stesse parti (circuiti elettronici, antenne, meccanica, alimentazione di potenza,compatibilità elettromagnetica, ecc...) in diversi progetti consecutivi, affinando la propriaesperienza. In più, una formalizzazione matematica comune permette lo sviluppo diimportanti strumenti di “moltiplicazione di forza” (programmi CAD per matematica comeMatlab, per esempio), la cui qualità può essere garantita dal controllo continuo impostodall’impiego simultaneo presso numerosi utilizzatori, che possono concentrarsi piùfacilmente sulla soluzione dei problemi specialistici.

Le teorie dell'ingegneria definiscono spesso i propri assiomi a partire da risultati particolaridelle leggi fisiche fondamentali per mezzo di un processo matematico di approssimazionelocale (espansione in serie di potenze, integrazione rettangolare, linearizzazione...), oppure diestrapolazione al limite (formulazione di ipotesi come l’assenza di rumore termico, le costanticircuitali concentrate, l’uniformità della qualità dei beni immessi sul mercato...). Lo sviluppodeduttivo delle teoria avviene quindi sulla base delle proprietà formali di queste soluzioniparticolari, senza più alcun riferimento esplicito alla realtà fisica originaria4.L’estensione del campo di validità di una teoria specializzata risulta quindi legata alla bontàfisica delle assunzioni e a quella matematico-statistica delle approssimazioni messe in atto, lacui scelta presenta di solito un buon margine di discrezionalità. Tuttavia, il rigore dellosviluppo matematico formale (dimostrazioni di convergenza, regolarità, chiusura) è spessouna buona garanzia per la validità sperimentale e l’estendibilità dei risultati.

III. 1 Le credenze.La derivazione della teoria soggiace non solo alle regole logico-matematiche sopra accennate,ma anche a criteri (credenze) [6] indotti dalla esperienza soggettiva dei ricercatori o impostidai vincoli tecnologici e operativi. Queste idee-guida non hanno certo valore universale, masono un utile strumento per definire gli obiettivi e giudicare dell'applicabilità della teoria.Ricordiamo, fra i criteri che hanno dimostrato un grande valore per gli sviluppi tecnico-scientifici contemporanei:

4 Per esempio, nella Teoria dei Circuiti elettrici si studiano le proprietà dei grafi, delle funzioni di trasferimentorazionali, la sensibilità e la chiusura dei sistemi di equazioni ai tagli fondamentali, ma ci si preoccupa ben pocodei problemi termodinamici e della soluzione unica delle equazioni di Maxwell, che è data per scontata.

10

a) la minimizzazione della lunghezza di descrizione (o di codice) della teoria, che sarà tantopiù comprensibile e disseminabile quanto ridotto è il numero di assiomi e teoreminecessari per giungere alle conclusioni [11];

b) la minimizzazione del supporto matematico e dei contributi di altre teorie per laderivazione dei risultati (teorie self-contained), per semplificarne l'apprendimento el'impiego;

c) la minimizzazione della profondità logica: dagli assiomi si derivano dei teoremi, che disolito non generano risultati utilizzabili direttamente, se non attraverso ulteriorielaborazioni. Le difficoltà di costruire, verificare e di disseminare la teoria cresconoesponenzialmente con i livelli gerarchici di teoremi necessari per giungere alleconclusioni5. Queste considerazioni spingono alla costruzione di teorie specialistiche, cheusano come assiomi dei concetti intermedi, ovvero dei risultati particolari di una teoria piùgenerale, che però può essere benissimo ignorata negli sviluppi matematici, nellaformazione e nell'applicazione6.

d) la massimizzazione della robustezza: i risultati della teoria devono soddisfare la verificasperimentale entro limiti dello stesso ordine di grandezza rispetto alle approssimazionioriginarie, per evitare errori catastrofici causati dalla precisione finita dei calcoliprogettuali e dalle tolleranze delle lavorazioni;

e) la generalizzazione: una teoria può spiegare i risultati di varie teorie ad hoc già esistenti,inserendoli in una nuova struttura matematica logicamente coerente. Gli assiomi delleteorie particolari divengono tesi di teoremi nella teoria generale;

f) la cross-fertilizzazione: i concetti intermedi e i metodi matematici usati nella derivazionedi una teoria vengono trasferiti in un'altra teoria preesistente, riducendone la complessità avantaggio dell'eleganza e della concisione.

Osservazione: Come si può intuire, alcune delle idee-guida qui esposte possono esserereciprocamente in contraddizione. Per esempio, la generalizzazione non sempre riduce lacomplessità rispetto all'insieme delle teorie specialistiche o può riguardare campi troppolontani per essere di qualche utilità pratica7. Lo stesso può dirsi per la cross-fertilizzazione,oggi una vera moda nella letteratura, che viene giustificata dalla nascita di nuovi strumenti diindagine, come il calcolatore elettronico, che traggono vantaggio da una impostazionematematica comune.

III.2 I modelli matematici standard.Una abitudine attualmente molto diffusa nella letteratura tecnico-scientifica è quello dicostruire modelli matematici standard per l'analisi di un certo problema.Il modello consiste in un sistema di equazioni, che ha come obiettivo la descrizione o lamanipolazione di una classe di sistemi fisici o economici. Le equazioni costituiscono le basiassiomatiche di una teoria, che usa i metodi deduttivi propri della matematica per derivaredelle leggi che permettono di descrivere il comportamento del sistema osservato.Questa prassi è assai comoda, perché consente di confrontare più teorie a partire da una basecomune e di trascurare le osservazioni empiriche da un certo punto in poi dello studio. 5 Assai spesso la teoria ha lo scopo di inquadrare logicamente dei risultati già scoperti con l'intuizione edampiamente utilizzati nella pratica, conferendo loro un solido fondamento matematico-deduttivo.6 Esempi banali di questi concetti intermedi sono la funzione di trasferimento di un circuito, i valori attesi delledistribuzioni di variabili aleatorie, il criterio di massima verosimiglianza nella teoria della stima e le librerie diporte logiche usate per la realizzazione di circuiti integrati.7 Si può affermare un po' causticamente che l'ingegneria e la ricerca richiedono applicazioni complesse eraffinate di teorie assai specialistiche, mentre la formazione scientifica di solito sviluppa la capacità di ricavarerisultati semplici da teorie molto generali ed articolate.

11

In più, il modello serve per la costruzione di programmi di simulazione automatica,progettazione assistita al calcolatore (CAD) e tecniche di validazione (testing) dei risultati,che sono le basi delle moderne procedure industriali e di ricerca teorica.Nel processo di modellamento si possono distinguere diverse fasi fondamentali:1. Definizione degli obiettivi del modello matematico;2. Collezione ed analisi dei risultati degli esperimenti, costruiti sulla base delle ipotesi di

lavoro e delle conoscenze scientifiche e tecnologiche del momento;3. Sintesi dei dati sperimentali, principalmente mediante gli strumenti offerti dalla statistica

e dalla matematica applicate (interpolazione, regressione, approssimazione,classificazione, ...);

4. Astrazione del modello: normalmente, numerose formalizzazioni matematiche consentonodi spiegare gli esperimenti con un sufficiente grado di accuratezza. Pertanto, ad un certopunto occorre effettuare una selezione competitiva fra i modelli, sulla base di criteri siaoggettivi (complessità matematica del modello, rapporto fra qualità dei risultati e costodella ricerca), sia soggettivi (eleganza matematica, comprensibilità degli sviluppi da partedegli altri ricercatori della stessa disciplina e idoneità a scopi di formazione). Da questaprocedura di selezione, a volte condotta da apposite commissioni internazionali, emergeun modello standard, che la maggior parte dei ricercatori userà per gli sviluppi successivi;

5. Sviluppo della teoria, cioè creazione di un insieme di procedure di calcolo o algoritmicapaci non solo di predire, a partire dalle equazioni del modello standard, i risultati degliesperimenti eseguiti, ma anche di costruirne di nuovi per mettere alla prova la bontà delmodello;

6. Validazione della teoria attraverso l'esecuzione di nuovi esperimenti per confermarne o nole conclusioni. Se la teoria supera la verifica sperimentale, viene accettata dalla comunitàtecnico-scientifica ed entra nella fase successiva di:

7. Raffinamento e disseminazione. La teoria viene riordinata, selezionando gli algoritmimigliori8, inquadrandoli nelle conoscenze precedenti ed inserendoli nei percorsi diformazione. Le ricerche successive saranno rivolte alla semplificazione formale,all'unificazione dei concetti e alla stesura dei manuali, che descrivono le procedureoperative per l'applicazione dei risultati teorici.

Base sperimentale

Creazioneassiomi

Teoriaformalizzata

DisseminazioneFormazione

Induzione

Deduzione

Validazione Affinamento

Figura 3: Processo di formazione di una teoria

8 La proliferazione e la convivenza di molti algoritmi aventi il medesimo obiettivo è in generale sintomo discarsa comprensione delle proprietà del modello ed è tipica della fase "giovanile" di una teoria.

12

Si può notare come, a differenza della natura deduttiva della teoria finale, la maggior parte deipassi sopra elencati richiede un approccio di tipo sintetico-induttivo, che fa leva su dotipersonali dei ricercatori, quali l'intuito, l'esperienza, la sensibilità matematica e formale,insieme alla capacità di organizzare una corretta pianificazione logica, economica e temporaledegli sviluppi.La teoria esposta nei manuali è una immagine statica e fredda del processo dinamico che l'hacreata e che può definirsi a ragione come genetico-evolutivo. Le idee nascono a ruota liberasui tavoli dei ricercatori, poi vengono analizzate, discusse, corrette, confrontate sullaletteratura e nell'applicazione industriale. Molti sviluppi scompaiono o perché sonoinutilmente complicati, ridondanti e di scarsa utilità pratica, o perché vengono ad un certopunto definitivamente soppiantati da approcci più raffinati e conclusivi9.

III.3 Il problema della verifica sperimentale.Nel corso degli ultimi venti anni è in atto in tutto il mondo un profondo ripensamento suimetodi e gli indirizzi della ricerca di base ed applicata, che pongono l’accento sulla verificasperimentale diretta e quantitativa dei risultati analitici ottenuti da modelli complessi. Questotravaglio si è concretizzato nella definizione di nuovi strumenti di indagine esploratoria, fra iquali sono particolarmente degni di menzione i concetti di lunghezza di descrizione deimodelli [11] e di robustezza statistica [12]. Essi hanno un fondamento solido nelle teorie dellaprobabilità e dell’informazione, ma sono oggi impiegati in maniera euristica per indagare dueproblemi assai spinosi della ricerca attuale: la cosiddetta “maledizione” della dimensionalità,(curse of dimensionality) che si manifesta al progredire della conoscenza scientifica, e laselezione ottima dei modelli matematici, fra più alternative possibili. Entrambe le questionisono collegate alla possibilità di una efficace verifica sperimentale dei risultati teorici.Normalmente il progresso scientifico è accompagnato dall’inclusione formale di nuovitermini nelle equazioni, che inevitabilmente ne accrescono la complessità, intesa comenumero di parametri indipendentemente specificabili. La verifica sperimentale riguardainizialmente sistemi assai semplici (toy problems), su cui è possibile:a) ricavare la soluzione delle equazioni del modello per via analitica o comunque con

elevata precisione matematicamente garantita;b) ripetere in condizioni controllate l’esperimento fino a raggiungere il livello voluto di

confidenza statistica.Una nuova teoria soppianta quelle precedenti quando dimostra di poterne correggere megliogli errori sperimentali.Questo progresso trova un limite nella realizzabilità di un sistema di prova realmenteaffidabile (costi elevati, tempi della sperimentazione, eccessive energie in gioco, emissione diradiazioni pericolose, limiti dei sensori, conoscenza imprecisa delle equazioni costitutive,deviazioni delle distribuzioni dei dati da quelle assunte, complessità del progetto, errori diarrotondamento nei calcoli, microinstabilità ed invecchiamento dei componenti del sistema).Inevitabilmente il numero degli esperimenti che è possibile eseguire in condizioni controllatee ripetibili risulta limitato superiormente [14] e gli errori di previsione vanno attribuiti in parteall’ inadeguatezza del modello matematico, in parte agli errori nel calcolo della soluzionematematica ed in parte alla imprecisione delle misure e al trattamento statistico dei datisperimentali.In molti casi di interesse, è possibile definire formalmente una lunghezza di descrizione delmodello (DL, Description Length), la quale cresce linearmente con il numero dei parametri

9 L'utilità operativa della teoria si intravede di solito solo al termine di lunghi sviluppi matematici, quando,invece, è stata la motivazione e l'obiettivo di tutta la costruzione.

13

indipendenti [11] presenti nelle equazioni. Gli errori congiunti delle misure e dei calcoliaccrescono anch’essi la lunghezza di descrizione, proporzionalmente alla propria varianza.Il miglioramento del modello, evidenziato dalla riduzione statistica degli scostamenti fraprevisioni e misure, e la crescita del numero di osservazioni impiegabili per la validazioneaccorciano, ovviamente, la lunghezza di descrizione stessa.

Secondo il concetto MDL (Minimum Description Length) [11] o altri similari, oggi molto invoga (l’AIC o criterio di Akaike, il “rasoio di Occam”), il modello ottimo è quello cheminimizza la lunghezza totale di descrizione, ovvero quello che è in grado di stabilire ilmigliore compromesso statistico fra complessità a priori del modello (numero dei parametriliberi) e qualità delle previsioni a posteriori.L’introduzione di questi criteri di ottimalità nella ricerca scientifica rappresentaindubbiamente una credenza, a dispetto della impostazione teorico-deduttiva rigorosa, ma staportando ad un profondo ripensamento sulle metodologie di conduzione della ricerca e,soprattutto, di valutazione dei risultati scientifici.La ricerca di base classica puntava all’eliminazione delle discrepanze sistematiche fra risultatiteorici ed esperimenti, ovvero, in termini statistici, ad una riduzione della polarizzazione delmodello [14]. I modelli più elaborati riducono quasi sempre la polarizzazione rispetto a quellipiù semplici.Nel criterio MDL l’accento è invece posto sulla varianza che possiamo raggiungere durante lamisura dei parametri liberi del modello con un numero di osservazioni limitato a priori.In un confronto sperimentale fra due modelli teorici, quello più semplice potrebbe ottenere unaccordo leggermente inferiore fra le previsioni ed i risultati empirici, ma l’incertezzacomplessiva delle misure potrebbe più che compensare i “migliori” risultati del modello piùcomplesso, rendendo di nuovo probabilisticamente incerto l’esito della competizione [11]!Nella pratica, introducendo queste considerazioni probabilistiche, il modello più semplicefinisce sempre per prevalere, a meno che non sia palesemente inferiore nella qualità delleprevisioni rispetto a quello più complesso.Si può anche osservare, a sostegno della validità del concetto MDL, che le teorie fisiche sisono evolute fino ad oggi nel sostanziale rispetto del principio di minima lunghezza didescrizione.

Il problema della complessità ed il vincolo della finitezza dei campioni sperimentali è ancorpiù sentito nell’ingegneria, per svariati motivi:a) lo sviluppo dei nuovi prodotti, delle problematiche teoriche e delle procedure di collaudo

procedono parallelamente, spesso con una ridotta base di conoscenze alle spalle;b) i prodotti stessi dell’ingegneria tendono a diventare tremendamente complessi, ed una

spiegazione teorica completa del loro funzionamento a partire dalle leggi fisichefondamentali è ragionevolmente impossibile (e probabilmente fuorviante rispetto agliobiettivi), comunque imponenti siano le risorse umane e finanziarie devolute allo scopo;

c) la funzionalità del prodotto è e deve rimanere l’obiettivo prioritario: tanto per fare unesempio, lo studio della meccanica quantistica ha permesso grandi miglioramenti neicomponenti elementari ottici ed elettronici, ma è fuor di luogo pensare di analizzare,costruire ed ottimizzare con questa teoria un microprocessore con cinque milioni ditransistor, il cui compito è, peraltro, quello di eseguire calcoli logici e aritmetici;

d) molti prodotti avanzati dell’ingegneria operano in ambienti ostili e largamente ignoti apriori. Spesso possiedono dispositivi atti a modificare il proprio funzionamento per reagirealle sollecitazioni ambientali, dipendenti dai pochi dati acquisiti forzatamente entro unbreve lasso di tempo da un insieme di sensori. Un modello matematico con pochi

14

parametri significativi diventa in questi casi un prerequisito per l’affidabilità operativa, dalmomento che questi potranno essere stimati con un’incertezza adeguatamente ridotta (lavarianza complessiva degli errori di previsione è determinata approssimativamente dalrapporto fra il numero totale dei parametri e quello delle osservazioni sperimentali). Aquesto proposito, bisogna anche ricordare che le equazioni definite su un dominiocontinuo hanno un numero infinito di parametri liberi, creando problemi non facilmenterisolvibili durante l’analisi di complessità.

Gli anni Novanta hanno segnato una rivoluzione nel progresso tecnologico, che pone inevidenza i compromessi fra costi e benefici e l’ottimizzazione di ogni aspetto tecnico edeconomico. In questo ambito la produzione industriale ad alta tecnologia pone obiettivi bendefiniti alla ricerca di base:a) disseminazione del patrimonio delle conoscenze, selezionate sulla base dell’intensità della

loro applicazione e dell’effetto positivo sulla sensibilità progettuale dei lavoratori(eliminazione di errori sistematici, rapidità di sviluppo);

b) isolamento ed impostazione teoricamente corretta dei problemi di progetto;c) sviluppo di modelli matematici atti a renderne possibile la soluzione: particolare cura va

dedicata alla messa a punto di programmi simulatori e delle tecniche di ottimizzazionenumerica per la progettazione assistita da calcolatore;

d) estrapolazione dal modello teorico, dai risultati delle simulazioni e dalle provesperimentali delle direzioni di possibile miglioramento delle prestazioni, insieme alladefinizione dei limiti fisici di questo progresso10.

IV. L'APPROCCIO CIRCUITALE

Quello di circuito è un concetto primitivo, indipendente dalla natura dei sistemi elettrici, ederiva piuttosto dalla naturale tendenza della mente umana a decomporre i grandi problemi intanti sottoproblemi più piccoli per padroneggiarli meglio.L'idea circuitale appartiene dunque alla classe di quelle che abbiamo definito credenze dellaricerca scientifica ed è caratterizzata dall'approccio geometrico-deterministico all'analisi deifenomeni fisici e al loro confinamento all'interno di “blocchi sigillati matematicamente” especializzati per funzione. I blocchi sono poi virtualmente interconnessi in modo da crearemodelli di sistemi complessi. Come tutte le altre credenze, l'approccio circuitale deve esseregiudicato esclusivamente valutando i risultati tecnici, economici e formativi che ha prodottonella ricerca di base e nell'ingegneria.Osservare un “circuito” elettrico realizzato industrialmente è forse la maniera migliore percomprenderne la natura. Su una piastra di circuito stampato estratta, per esempio, da untelevisore si notano tanti blocchetti (componenti), collegati fra di loro da sottili fili di rame(piste), depositati su un supporto (substrato) di fibra di vetro o di altro materiale isolante.In generale, l'idea del circuito può essere sintetizzata nella seguente:

Definizione: Un circuito è la connessione di blocchi, appartenenti a pochi tipifondamentali, ognuno dei quali è caratterizzato da equazioni dipendenti da un numerofinito di costanti numeriche consistentemente misurabili (dette anche parametri circuitali).

10 Lo scopo di questa richiesta non è certamente l’interesse scientifico, ma la necessità di evitare investimentisenza ritorno, pur mantenendo la competitività tecnico-economica del prodotto.

15

Ciascuno dei concetti presenti in questa definizione possiede una precisa formalizzazionematematica. Infatti, durante lo sviluppo della Teoria dei Circuiti bisogna sempre ricordare cheun circuito non coincide con un sistema fisico, ma è la sua rappresentazione sotto forma dimodello matematico.Le componenti fondamentali di un modello circuitale sono quindi i blocchi funzionali e la retedi interconnessione, descritta da un apposito grafo.

IV.1 Il blocco circuitaleIl blocco circuitale modella matematicamente un sistema aperto a scambi energetici.Ogni blocco possiede un certo numero N di terminali o porte, che sono numerati da un indiceintero k = 1, 2, ..., N, e sono le uniche vie di passaggio virtuali per i flussi energetici.Su ciascun terminale è definito un insieme di opportune variabili di interfaccia Xk = xik, i=1,2, ..., Mk .E' da rimarcare che il numero (Mk) ed il tipo delle variabili di interfaccia possono esserebenissimo diverse da terminale a terminale.A scopo di formalizzazione, i valori assunti all'istante t dalle variabili di interfaccia, indicaticon mik(xik,t), possono essere ordinati in un vettore g(t) = [ mik(t), i=1,..., Mk, k=1,..., N ].Le variabili di interfaccia sono collegate fra loro da un sistema di equazioni costitutive delblocco, contenenti un insieme di P parametri circuitali, ordinati nel vettore a = [ aj, j=1, 2, ...,P ]. Le componenti del vettore a sono assunte indipendenti dal tempo (modello permanente ostazionario).Il legame costitutivo del blocco è formalmente descritto da una equazione implicita di tipovettoriale, del tipo:

F(g(τ), -∞ < τ < t , a) = 0 11. (1)

z - 3*x + 2*y = 0y - 0.5*x - log z = 0

1

2

3

y

x z

Variabile diinterfaccia

Terminaleetichettato

Figura 4: Blocco circuitale non direzionale

In un modello circuitale, gli effetti dei fenomeni energetici si manifestano esclusivamenteattraverso la equazioni costitutive dei blocchi, ma restano quantitativamente indeterminatifinché il blocco non viene connesso insieme con altri a formare il circuito.

11 Una definizione formale così generica ha un significato operativo solo se la storia passata delle variabilid’interfaccia è riassumibile in un numero finito di equazioni (ottenute, per esempio, per mezzo di unarappresentazione ricorsiva alle variabili di stato [13]).

16

Esempio 3: Un attuatore elettromeccanico è caratterizzato come un blocco circuitale a dueterminali. Il primo rappresenta l'ingresso di controllo, che è un segnale12 elettricocaratterizzato dalla tensione elettrica v, espressa in Volt, il cui valore è funzione dellospostamento angolare Θ0 che l'attuatore dovrà imprimere al suo braccio meccanico. Il secondoterminale ha come grandezza di interfaccia lo spostamento angolare Θ effettivamentecompiuto dal braccio meccanico in risposta allo stimolo della tensione di controllo. Θ èovviamente misurato in radianti.Il vettore di interfaccia g è:

g(t) = [ v(t), Θ(t) ] ; (2)

L'equazione costitutiva implicita del blocco è la seguente:

0tKd

dB

d

dJ

2

2

=−Θ+Θ+Θv(t))(

t

(t)

t

(t); (3)

Il vettore dei parametri circuitali del blocco è a = [ J B K ].

Questo esempio dimostra alcuni aspetti peculiari del modellamento circuitale, che sono allabase delle sue potenzialità pratiche:a) Il tipo di fenomeni fisici coinvolti nel "blocco attuatore" non ha nessuna influenza sulla

rappresentazione circuitale. Qualsiasi sistema, meccanico, pneumatico, elettrico chepossegga la stessa equazione costitutiva e le stesse variabili di interfaccia è sostituibileall'attuatore originario, senza che la rappresentazione matematica del circuito cambi.

b) L'utilizzatore può quindi tranquillamente ignorare la natura fisica del sottosistemarappresentato dal blocco e rimanere in grado di impiegarlo proficuamente, nell’ambito divalidità delle equazioni costitutive.

c) Come conseguenza dei punti precedenti, si può affermare che l'approccio circuitale èindipendente dalla tecnologia e permette di inserire nuovi dispositivi nel modellomatematico di sistemi complessi senza stravolgerlo.

d) I parametri circuitali appaiono nel modello come costanti. Nella realtà essi sono variabilialeatorie [14], caratterizzate da una propria distribuzione: ogni attuatore costruito avrà deiparametri [ J B K ] differenti dall'altro. Tuttavia, se la deviazione standard di ciascunadistribuzione è ragionevolmente piccola (~10-20%) rispetto al suo valor medio, possiamousare quest'ultimo come valore nominale del parametro per i calcoli progettuali erecuperare l'aspetto probabilistico della trattazione rigorosa mediante un'analisi locale disensibilità delle equazioni costitutive13 espanse in serie di Taylor di basso ordine [13].Questa procedura accelera la progettazione e, soprattutto, consente di distinguereimmediatamente (ad occhio) l'influenza degli errori di ciascun parametro sul risultatofinale.

12 Un segnale è la rappresentazione matematico-funzionale di una grandezza fisica rispetto al tempo.13 I casi di deviazione standard elevata rispetto alla media del parametro oppure di parametri statisticamentedipendenti dall'andamento temporale delle variabili di interfaccia esulano dallo spirito e dalle finalitàdell'approccio circuitale e vanno trattati da un punto di vista probabilistico. Tuttavia, modelli aventi questeproprietà derivano generalmente da problemi mal posti (ipersensibili), non formalmente chiusi e/o fortementenon lineari (saturazione), quindi di problematica trattabilità ed utilità.

17

e) Una volta note le equazioni costitutive, i parametri circuitali del blocco possono essere inlinea di principio caratterizzati o identificati dall'esterno, mediante misure delle solevariabili di interfaccia in opportune situazioni sperimentali. La supposta costanza edindipendenza statistica delle costanti circuitali rispetto alle variabili di interfacciaassicurano che l'identificazione dei parametri è consistente (con incertezza statisticatendente a zero all'aumentare del numero delle misure verso l'infinito) [14].

IV.2 Il grafoLa seconda componente caratteristica della rappresentazione circuitale è la connessione deivari blocchi mediante un grafo, ovvero un insieme di tratti di curve (rami), talvolta orientate(archi), definite in un opportuno spazio multidimensionale, che collegano fra loro i terminali(morsetti) dei blocchi circuitali.Ciascun arco impone sempre l'omogeneità (stessa unità di misura) e la continuità (stessovalore) alle variabili di interfaccia in corrispondenza dei terminali dei blocchi collegati ai suoiestremi. Queste proprietà restano verificate per ogni istante di tempo (assenza di ritardi o dimemoria nella propagazione dell'energia) e generano equazioni di vincolo, una per ciascunarco, che si aggiungono a quelle costitutive dei blocchi interconnessi a formare il sistemarisolvente del circuito.Talvolta, per simboleggiare equazioni di continuità di flussi (come, per esempio, la correnteelettrica) si introducono nei grafi i nodi, che sono speciali blocchi a più di due terminali. Atutti i morsetti del nodo è associata una variabile di interfaccia del medesimo tipo del quale sivuole imporre la continuità. L'equazione costitutiva del nodo uguaglia a zero la sommaalgebrica di queste variabili di interfaccia su tutti i morsetti.A seconda del particolare modello circuitale, i rami del grafo possono imporre altre equazionidi vincolo, oltre alla continuità. In particolare, nel caso dei circuiti elettrici, la presenza dipercorsi chiusi formati da un sottoinsieme di archi (maglie) genera equazioni di equilibriodeterminate dalla legge di Kirchhoff sulle tensioni [13].Le equazioni di continuità e di equilibrio, che dipendono solo dalla geometria delleconnessioni, ma non dai blocchi funzionali effettivamente presenti, sono dette anche vincolitopologici del circuito.

Nota: una condizione indispensabile per la validità del modello circuitale è quella che tutti ifenomeni energetici del sistema fra loro correlati siano modellati da opportuni blocchiinterconnessi (sorgenti, pozzi e trasformatori di energia). Infatti, il circuito nel suo complessorappresenta un sistema isolato, per il quale è sempre possibile definire un'equazione globaledi conservazione dell'energia. Il mancato modellamento di parti del sistema o di flussienergetici esogeni forza in ogni caso, ma in maniera sostanzialmente scorretta, questoprincipio di conservazione, conducendo ad analisi errate14.Le analisi di sensibilità [13] e di robustezza [12] applicate al modello matematico servonoanche a stabilire i margini entro i quali è assicurato il mantenimento della funzionalità delsistema fisico in presenza, rispettivamente, di piccole deviazioni rispetto alle assunzioni delmodello e di errori grossolani in alcuni parametri circuitali (guadagno in corrente deitransistor BJT nei circuiti elettronici, per esempio).

14 E' chiaramente impossibile, per motivi sia teorici, sia pratici, rispettare alla lettera questa prescrizione. Tuttaviaè un compito fondamentale della ricerca stabilire l'importanza relativa dei vari fenomeni che il modello dovràrappresentare.

18

IV.3 Risoluzione o analisi del circuitoLe equazioni costitutive e topologiche traducono nel linguaggio universale della matematica icomportamenti di un sistema fisico, che possono essere così analizzati "a tavolino" oriprodotti al calcolatore (modello simulatore) a scopo di sperimentazione, in tutta comodità,con bassi costi e perdite di tempo.Più il modello è accurato, più sarà facile progettare e costruire manufatti di elevata qualità.Anche le proprietà matematiche del modello circuitale possono essere strettamente correlateall'impegno necessario per il progetto e la costruzione e ai relativi costi.

Le equazioni topologiche e costitutive, insieme ai vincoli derivanti dalle condizioniiniziali, da quelle al contorno e dagli andamenti imposti da cause esogene ad alcunegrandezze di interfaccia, formano il sistema risolvente del circuito.Risolvere un circuito significa calcolare gli andamenti temporali di tutte le variabili diinterfaccia. Questo obiettivo è possibile solo se il sistema risolvente del circuito ammetteuna soluzione unica per ogni istante di tempo.

IV. 4 La chiusura del sistema risolvente.Nella fisica e nell'elaborazione del segnale, il sistema risolvente generato da un modellocircuitale ammette molto spesso infinite soluzioni (sistema indeterminato o sottodeterminato),a causa dell'impossibilità di caratterizzare dall'esterno certi blocchi (presenza di risposteinosservabili oppure non eccitabili). In questo caso, bisogna aggiungere alle equazioni delsistema risolvente altri vincoli derivanti da ipotesi di lavoro plausibili o credenze esogene(regolarità matematica della soluzione, minima varianza, ecc...) per raggiungere l'unicitàdella soluzione, che va pur sempre validata da un punto di vista sperimentale.Viceversa, gli insiemi di misure sperimentali per la caratterizzazione di un blocco circuitale,essendo affetti da errori casuali, generano certamente sistemi di equazioni incompatibili osovradeterminati (più equazioni che incognite). Questi sistemi vanno affrontati con i metodidella ricerca operativa e della statistica (minimi quadrati, massima verosimiglianza, inferenzabayesiana) che esulano dalla trattazione presente.Si incontrano anche sistemi risolventi che sono indeterminati solo in certi istanti dell'analisi.Questi punti, che al più possono costituire un insieme numerabile sull'intero asse dei tempi,sono detti punti di ramificazione o di biforcazione. L'esperienza porta ad avvertire che questeanomalie matematiche dei sistemi risolventi sono raramente il risultato di errori nel processodi formalizzazione, anzi quasi sempre sono il segnale di mancanza d'informazione(inosservabilità, incompletezza o inadeguatezza delle leggi costitutive) e di comportamentiinstabili o ipersensibili dell'oggetto modellato, che sono indesiderabili in qualsiasirealizzazione industriale o predizione economica.

IV.5 Circuiti direzionali e non direzionaliI modelli circuitali possono essere distinti in due classi fondamentali, a seconda della naturadel sistema risolvente e della conseguente tecnica di soluzione: circuiti non direzionali ecircuiti (uni-)direzionali.I circuiti non direzionali sono quelli in cui la direzione degli scambi energetici è indeterminatae non è stabilito alcun rapporto oggettivo di causa-effetto fra le variabili d'interfaccia primadella soluzione del circuito. Il sistema risolvente calcola congiuntamente tutte le variabili diinterfaccia, che dipendono significativamente da tutti i blocchi interconnessi. Questa influenzareciproca rende più onerosa e sensibile la soluzione del sistema stesso e complica lacostruzione (sintesi) di un circuito che debba rispondere a specifiche predeterminate. Il bloccoriportato in figura 4 è di tipo chiaramente non-direzionale. I circuiti non direzionali derivano

19

in genere dal modellamento di campi ondulatori. Le reti elettriche appartengono proprio aquesta categoria di circuiti.I circuiti direzionali sono invece quelli in cui è stabilita a priori una relazione causa-effetto frale varie variabili di interfaccia [13]. Per esempio, l'attuatore dell'esempio 3 è un bloccodirezionale, in cui la tensione di controllo è la causa, mentre l'angolo di rotazione del braccioè l'effetto prodotto dalla stessa causa.Il funzionamento dei vari blocchi è disaccoppiato nei circuiti direzionali, così che il sistemarisolvente può essere risolto sequenzialmente, dopo aver esplicitato l'equazione costitutiva diciascun blocco rispetto all'effetto, identificato dal vettore di interfaccia y:

y(t) = G(x(τ), −∞ < τ < t, a) . (4)

La funzione G nell'equazione (4) è detta funzione di trasferimento fra le variabili di ingressox(t) e le variabili d'uscita y(t)15.I circuiti digitali, oggi molto in voga, e le cosiddette reti neurali appartengono tutti allafamiglia dei circuiti direzionali.In particolare, consideriamo la figura 5. Essa rappresenta un circuito, detto rete neuralemultistrato (o perceptron), che in origine aveva lo scopo di modellare la struttura di un organosensoriale biologico, come la retina umana.La rete neurale illustrata è formata da strati di tanti piccoli blocchi circuitali direzionali, dettineuroni per analogia con la terminologia biologica. Tutti gli archi del grafo associatoall'architettura in figura 5 sono orientati dagli ingressi a sinistra verso le uscite a destra.Ciascun neurone è a sua volta costituito da una connessione di più (sotto)blocchi, collegaticome in figura 6. Esso possiede inoltre P porte di ingresso numerate, caratterizzate dalle Pvariabili di interfaccia xi(t), i=1,2,..., P, ed una di uscita, la cui variabile di interfaccia èy( t). I parametri liberi (invarianti rispetto alle variabili d’interfaccia) sono costituiti dai pesiw i, i=1,2,..., P con cui sono combinate linearmente le variabili d’ingresso. La funzionecostitutiva del neurone riportato in figura 6 è evidentemente:

= ∑

=

3

1iii )t(xwf)t(y . (5)

Chiaramente i circuiti direzionali, che introducono i concetti di funzione di trasferimento erapporto causa-effetto, si pongono ad un livello di astrazione superiore rispetto ai modellinon-direzionali, che risentono ancora fortemente della natura distribuita delle leggi fisiche.Oggi i circuiti direzionali, come quello riportato in figura 5, hanno una grande importanzanell'ingegneria, per l'eleganza del modello e per il loro legame diretto con il grafo di flusso diun algoritmo implementato su calcolatore. In particolare, i blocchi circuitali possonodiventare dei sottoprogrammi (procedure, subroutine, function), che hanno le variabili diinterfaccia16 come parametri formali.

15 Nella Teoria dei Circuiti lineari si preferisce definire la funzione di trasferimento a partire dalla trasformata diLaplace dell'equazione (4) [13]. La definizione data copre invece un maggior numero di casi di effettiva utilitàpratica.16 Gli algoritmi che discendono da modelli direzionali mantengono la struttura paratattica del circuito originale(stessa importanza assegnata a ciascun blocco). Essi risultano pertanto estremamente adatti all'uso su macchinedi calcolo parallele e circuiti integrati dedicati (VLSI) [15]. La classica programmazione strutturata (o quella adoggetti) conduce invece a strutturare l'algoritmo gerarchicamente (ipotassi).

20

Σ

Σ

Σ

f

f

Σ f

f

X1

W 1 W 2

Y1 X2 X3Y2

ingressi uscite

bias

bias

Figura 5: esempio di circuito direzionale (rete neurale multistrato)

Σf(u)

z3=x3*w3x3

z1=x1*w1x1

z2=x2*w2x2

z1

z2

z3u y

Figura 6: Neurone (blocco direzionale) isolato

IV.6 La definizione del confine del circuito.Il modellamento circuitale parte, come si è detto, da un processo di idealizzazione e diparticolarizzazione delle leggi fisiche rispetto ad una classe di sistemi. In più, il sistemarisolvente impone una credenza di isolamento energetico dei blocchi circuitali interconnessirispetto al resto dell’universo, che è generalmente falsa [6].D’altra parte, l’evidenza empirica del funzionamento e la particolare struttura di moltimanufatti suggerisce che:• la violazione dell’ipotesi di isolamento energetico non comporti necessariamente effetti

pratici catastrofici;• l’adozione di provvedimenti locali di natura ingegneristica (dimensionamento ed

orientazione dei componenti, scelta dei materiali, aggiunta di schermature e di sospensionimeccaniche) possa spesso restituire validità sostanziale alle assunzioni del modello;

• la natura delle soluzioni particolari ottenute da un modello circuitale ben fatto nondipenda rigidamente dalle assunzioni del modello, ed in particolare dalle condizioniiniziali ed al contorno.

21

Come diretta conseguenza di questi fatti, nelle applicazioni pratiche il confine del circuito nonè quasi mai univocamente definito. Anzi, in molti casi risulta conveniente escludere dalmodello matematico alcune interazioni, per ridurre la complessità e migliorare la funzionalità.Sebbene queste operazioni delicate debbano essere sempre giustificate da un punto di vistamatematico e statistico, il loro uso non soggiace apparentemente ad alcuna regola e restalegato alla sensibilità del ricercatore ed alla qualità della sperimentazione.La mera possibilità di poter variare senza troppi affanni il confine del sistema analizzato deveessere tuttavia spiegabile a partire dalle proprietà intrinseche di un (buon) modellamentocircuitale.

IV.7 La robustezza dei modelli circuitali.La nozione di robustezza è una delle più recenti elaborate dalla statistica [12], essendo statadefinita pienamente negli anni Ottanta, ed è intimamente legata all’incertezza ineliminabile dacui sono affette le misure sperimentali.Per quanto attiene allo sviluppo della teoria (classica) dei circuiti elettrici, è opportunoriformulare appropriatamente qui una definizione di robustezza qualitativa, la quale torneràassai utile nel seguito.La cosiddetta robustezza quantitativa [12], sebbene sia di importanza fondamentale per lacomprensione delle proprietà della caratterizzazione esterna dei parametri circuitali al variaredelle assunzioni e degli algoritmi di ottimizzazione usati per la sintesi, esula dalle finalitàdella trattazione presente.La robustezza qualitativa attiene all’insensibilità strutturale delle variabili d’interfaccia e dimisura delle costanti circuitali rispetto a ragionevoli errori locali di specificazione dellecondizioni al contorno, delle leggi costitutive e del dominio di supporto.Sia dato un insieme di funzioni di punto (scalari, vettoriali, tensoriali) xi(t, r ), i=1,2,..., N,definite su un dominio spaziale Ω. A partire da queste funzioni di punto, si costruisca unanuova funzione u(t, r ) nel seguente modo:

( ) ( )r'rr'xru i ,t,,,,,Gt τ=τ= N1,2,...,i),( D , (P1)t,, <τ<−∞⊆∈∈ ΩΩΩ Dr'r ;

Si suppone anche che sia stata definita una metrica opportuna [12] in Ω per stabilire il gradodi “vicinanza” tra due funzioni di punto xi’ (t, r ) e xi(t, r ), che vengono assunte assolutamentesommabili sul dominio Ω stesso per ogni istante t17. Nella fisica e nell’ingegneria, questefunzioni di punto possono rappresentare, per esempio, la soluzione formale di un sistema diequazioni differenziali alle derivate parziali.

Definizione: u(t, r ) è qualitativamente robusta se si mantiene limitata per ogni andamentoammissibile di xi(t, r ) e continua quando la stessa xi(t, r ) viene deformata continuamenteverso funzioni vicine xi’ (t, r ), secondo la metrica prescelta (cfr. [12]).

Se restringiamo la nostra attenzione a funzioni lineari delle grandezze xi(t, r ) è faciledimostrare il seguente:

Teorema: Le funzioni integrali del tipo:

17 Nel caso di domini di supporto aventi misura infinita, la sommabilità può essere ridefinita per mezzo diopportune estensioni al limite e normalizzazione delle funzioni di punto [14].

22

τ

τ•τ= ∑ ∫ ∫

= ∞− Ω⊆

d)d()(),(1

N

i

t

D

ii ,,t,,t r'r'xr'rKru (P2)

soddisfano ai requisiti di robustezza qualitativa, se e solo se i nuclei K i(r , r’ , t, τ) sonocontinui e limitati in norma per ogni valore delle variabili (r , r’ , t, τ). La dimostrazione dellasufficienza della forma (P2) per la robustezza qualitativa è ovvia. La necessità della continuitàe della limitatezza dei nuclei integrali deriva invece (sulla falsariga di quanto riportato in [12])dal fatto che possono essere costruite particolari funzioni ammissibili xi, composte da uninsieme di impulsi matematici strategicamente disposti, capaci di invalidare la tesi per formenon integrali e nuclei discontinui o non limitati in Ω.

Alcuni operatori integrali possono soddisfare anche al più stringente requisito di robustezzaquantitativa, che sancisce in sostanza l’insensibilità al primo ordine di u(t, r ) rispetto aperturbazioni delle xi e/o dei nuclei Ki [12].Un sistema risolvente non patologico che leghi variabili d’interfaccia definite da formuleintegrali del tipo (P2) sarà quindi soggetto ad una variazione continua e controllabile dellesue soluzioni rispetto ad errori nella definizione dei nuclei e delle condizioni al contorno.I modelli circuitali, che fanno esclusivo uso di variabili di interfaccia definite da funzioniintegrali e posseggono per definizione un numero finito e ridotto di parametri liberi, risultanoquindi ideali in tutti quei casi, in cui il sistema e l’ambiente sono descritti fisicamente inmaniera incerta e/o incompleta.Viceversa, un modello basato su equazioni non qualitativamente robuste e affetto dallamaledizione della dimensionalità (poche misure e molti parametri liberi), creeràinvariabilmente grossi problemi nella verifica sperimentale18 e nelle applicazioni pratiche.

V. DERIVAZIONE DEL MODELLO CIRCUITALE ELETTRICO DALLA TEORIA DEI CAMPI

La discussione precedente ci permette ora di seguire in dettaglio il processo di derivazionedalle equazioni di Maxwell dei risultati intermedi, che costituiscono gli assiomi della Teoriadei Circuiti, rappresentati rispettivamente dalle due leggi di Kirchhoff e dalla espressionedella potenza elettrica istantanea.Il campo elettromagnetico ha natura tensoriale dipendente dal punto P(r ). Il vettore r = [ x, y,z ] contiene le coordinate spaziali di P, definite in un opportuno sistema di riferimento. L'usodi variabili di interfaccia tensoriali è assai scomodo in pratica, dal momento che gli strumentidi misura, indispensabili per la caratterizzazione dei blocchi circuitali, osservanoinvariabilmente delle grandezze integrali del campo nell'intorno di un punto (flussi o integralidi linea). Oltre a tutto, per le considerazioni esposte nel precedente paragrafo, una funzioneintegrale del campo è quasi certamente continua e regolare rispetto alla posizione delle curveo delle superfici nello spazio, semplificando i problemi matematici connessi con ilmodellamento.Per tutti questi motivi, la scrittura delle equazioni di Maxwell in forma integrale risulta ilpunto di partenza migliore per l'analisi dei fenomeni elettrici.

18 La robustezza qualitativa e anch'essa una credenza, se pur teoricamente giustificabile. La limitazione deimodelli integrali risiede di solito nella gamma di frequenze/energie che è possibile trattare. Tuttavia la Teoria deiSegnali [14][15][17] sottolinea la possibilità di analizzare moltissimi fenomeni localmente in tempo o frequenza,mediante l'uso di espansioni locali delle soluzioni formali, [14], senza inficiare la qualità della previsioneglobale.

23

Nel seguito, i vettori dei campi elettromagnetici saranno indicati con lettere maiuscole ingrassetto, i vettori della statica e della dinamica (posizione r , velocità v, forza specifica f) inlettere minuscole in grassetto e, infine, le grandezze scalari (tempo t) con lettere minuscole.

Definizioni:

E(r ,t) : vettore del campo elettrico nel punto P(r );D(r ,t) : vettore dell'induzione elettrica (risposta del mezzo materiale eccitato dal campo E);H(r ,t) : vettore del campo magnetico nel punto P(r );B(r ,t) : vettore dell'induzione magnetica (risposta del mezzo materiale eccitato dal campo H);J(r ,t) : vettore della densità della corrente elettrica nel punto P(r );ρ(r ,t) : densità di carica elettrica nel punto P(r );ρlib(r ,t) : densità di carica elettrica libera nel punto P(r );ρ+(r ,t) : densità di carica elettrica positiva nel punto P(r );ρ−(r ,t) : densità di carica elettrica negativa nel punto P(r );n(r ) : vettore normale con direzione uscente dalla generica superficie S nel punto P(r );dS : elemento infinitesimo della generica superficie S, orientato secondo n;t(r ) : vettore tangente alla generica curva chiusa orientata γ nel punto P(r );dl : lunghezza dell'elemento infinitesimo della generica curva γ;dV: elemento infinitesimo di volume;Sv : superficie che racchiude il volume V;Sγ : porzione di una superficie arbitraria che ha per base la curva chiusa orientata γ:

Ove inessenziale, nel seguito si ometteranno i parametri tra parentesi, che esprimono ledipendenze dalle coordinate spaziali e dal tempo.

Equazioni di Maxwell in forma integrale (relazioni topologiche):

∫∫ ∫∫∫ρ=•Sv V

lib dVdSnD ; (M1)

0dSSv

=•∫∫ nB ; (M2)

∫ ∫∫γ γ

•∂∂−=•

S

dSt

dl nB

tE ; (M3)

∫ ∫∫∫∫γ γγ

•∂∂+•=•

SS

dSt

dSdl nD

nJtH . (M4)

Equazioni di Maxwell in forma differenziale:

lib)( ρ=Ddiv ; (M1’)

0)( =Bdiv ; (M2’)

24

trot

∂∂−= B

E)( ; (M3’)

trot

∂∂+= D

JH)( . (M4’)

Equazioni costitutive generiche dei materiali:

D = ε(E) ; (C1)

B = µ(H) ; (C2)

J = σ(E, r) = ρ+<v+>+ρ-<v->19 ; (C3)

f = ρ E + J ^ B ; (C4)

Indichiamo ora con il pedice "0" la componente dei vettori impressa da sorgenti esterne(generatori) e con il pedice "c" le componenti derivanti dalle interazioni elettromagnetiche.Per esempio, Ec è il campo elettrico propriamente detto, mentre E0 è un campo elettromotoredi origine esogena. Otteniamo:

J = J0 + Jc ; (P1)

E = E0 + Ec ; (P2)

D = D0 + Dc ; (P3)

B = B0 + Bc ; (P4)

H = H0 + Hc . (P5)

V.1 Legge di Kirchhoff alle tensioni (LKT)La tensione v(P1, P2) esistente fra due punti arbitrari dello spazio P1 e P2 viene definita inelettrotecnica dalla formula:

∫ •−=2

1

P

P

21 dl)PP(v tE, . (6)

Il segno (-) è nuovamente del tutto convenzionale, e i membri dell'equazione (6) hannodimensione [Volt]. A differenza del caso elettrostatico, però, il campo elettrico non èvincolato ad essere conservativo. Per questo motivo bisogna indicare di volta in volta qual è ilpercorso di integrazione prescelto.

19 La funzione σ è detta funzione di conducibilità del materiale; similmente ε è la funzione di permettivitàelettrica e µ è la funzione di permeabilità magnetica. Le equazioni sono scritte per un sistema in quiete rispettoad un sistema di riferimento inerziale.

25

Consideriamo quindi un sistema fisico sede di fenomeni elettromagnetici e scegliamo al suointerno una generica curva γ chiusa e fissa nello spazio come percorso dell'integrazione.Inseriamo in (M3) tutti i contributi elencati in precedenza e, dopo facili passaggi, otteniamo:

000 =•

∂∂−•

∂∂−•−•− ∫∫∫ ∫∫∫

γγ γγ S

c

S

c dSt

dSt

lddl nB

nB

tEtE . (7)

Il primo termine rappresenta il contributo di tensione vg dovuto ad eccitazioni impressedall'esterno. Il secondo termine, che chiameremo (vR+vc), descrive il campo che devesussistere in un conduttore per sostenere la corrente elettrica e tiene conto anche della densitàdi corrente di spostamento Jsp rappresentata dall'ultimo termine di (M4), che genera icosiddetti effetti capacitivi, dovuti all'accumulo delle cariche elettriche.Il terzo termine (vM) indica il contributo dei campi magnetici esterni concatenati con la curvaγ che provocano effetti di mutua induzione. Il quarto (vL), infine, descrive la componente delcampo magnetico autoindotto dalla densità di corrente J. L'equazione (7) con le posizionifatte diviene una forma della nota legge di Kirchhoff alle tensioni lungo il percorso chiuso γ,detto anche maglia nella terminologia dei circuiti [13]:

vM + vR + vL+ vc + vg = 020; (8)

Anche se è possibile scendere maggiormente nel dettaglio dei contributi degli integrali dellaformula (7), si vede immediatamente che:• l'espressione (8) dipende solo da espressioni integrali e (potenzialmente) robuste dei

campi elettromagnetici;• gli integrali dipendono dalla forma della curva chiusa γ prefissata che attraversa il sistema,

ma l'espressione (8) resta sempre formalmente valida per qualsiasi configurazione deicampi e per qualsiasi frequenza.

V.2 Legge di Kirchhoff alle correnti (LKI)Per procedere nel ragionamento, conviene definire anche la corrente elettrica iSλ come flussodi J attraverso una superficie Sλ che ha per base la generica curva chiusa λ. In questo modoabbiamo a disposizione una seconda grandezza integrale per rappresentaremacroscopicamente le cariche elettriche in moto:

∫∫λ

λ •=S

S dSI nJ . (9)

Dalla quarta equazione di Maxwell (M4’), scritta in forma differenziale, si ricava l'espressionedella continuità della corrente elettrica, applicando ad entrambi i membri l'operatoredivergenza ed integrando su un volume prefissato V, racchiuso dalla superficie Sv:

0))(( =∂ρ∂+•= ∫∫∫∫∫∫∫∫

VSvV

dVt

dSdVrotdiv nJH (10)

20 I segni sono nuovamente convenzionali. Per le definizioni in uso nell’Elettrotecnica si rimanda ai successiviparagrafi V.4-V.6.

26

La superficie di integrazione Sv può essere suddivisa in un insieme S = Si, i=1, 2, ..., M diaree mutuamente disgiunte e tali da ricoprirla completamente. Il flusso della corrente elettricaattraverso ciascuna delle aree Si definisce, secondo l'equazione (9), la corrente Ii. L'ultimotermine della espressione (10) è la cosiddetta corrente di spostamento Isp e rappresenta ilcontributo alla corrente totale dovuto dalla accumulazione della carica elettrica Q racchiusanel volume V. Con queste posizioni, l'equazione (10) può essere riscritta esclusivamente permezzo di grandezze integrali21, ottenendo:

dt

dQII sp

M

1ii −=−=∑

=

(11)

L'espressione (11) costituisce una forma generale della legge di Kirchhoff alle correnti [13].Nelle figure 7 e 8 sono presentati alcuni casi particolari della formula di continuità dellacorrente elettrica. In particolare, la figura 7 rappresenta la diramazione della corrente elettricasu più conduttori. La superficie di integrazione Sv dell'equazione (10), la cui proiezione sulpiano di sezione appare come una linea tratteggiata nella figura 7, è detta superficie di taglio erappresenta un concetto fondamentale per l'analisi di circuiti elettrici in cui possono esseredefinite più maglie contemporaneamente.

nσ<>0

I1

I3

I2I1 + I2 + I3 = 0

σ=

Figura 7: Equilibrio di correnti su un taglio

E' da rimarcare come non sia stata fatta alcuna approssimazione per ricavare entrambe leleggi di Kirchhoff da quelle di Maxwell. Le forme (8) e (11) possono essere impiegate (ed ineffetti spesso lo sono) anche in applicazioni ad alta frequenza. Sia le equazioni di Kirchhoffche quelle di Maxwell sono però incapaci di chiudere il sistema risolvente, senza far uso dellerelazioni costitutive dei materiali e delle informazioni sulla configurazione geometrica delsistema. La costruzione del modello circuitale classico22 richiede, inoltre, l'indipendenza dellasoluzione dalla configurazione fisico-geometrica del dispositivo elettrico [13], che è unvincolo di robustezza sul modello teoricamente difficile da assicurare. Da un punto di vista 21 Per le applicazioni circuitali, il segno di derivata parziale rispetto al tempo può essere sostituito da quello diderivata totale.22 Nel seguito sarà seguita una forma classica della derivazione del modello circuitale a costanti concentrate. Perparticolari applicazioni (alta frequenza, propagazione multimodo in linee di trasmissione,...), sarà tuttaviapossibile costruire differenti modelli circuitali imponendo approssimazioni leggermente diverse alle equazioni(6) e (7).

27

tecnico-progettuale, però, questa condizione ci assicura ragionevolmente il mantenimentodella funzionalità di un circuito elettrico fisico al cambiare della disposizione dei componentie della geometria delle interconnessioni.La condizione di robustezza non è certamente verificata a priori dalle equazioni (8) e (11).Risulta quindi necessario concentrare i fenomeni elettromagnetici all'interno di regioni,conformate in maniera opportuna, per ridurre gli effetti degli accoppiamenti elettromagneticiindesiderati con campi di origine esogena.

I1

Isp

I2

σ=0

σ<>0

I1 = -I2 = Isp n1

n2

Figura 8: equilibri di corrente in un condensatore

V.3 Il processo di concentrazione dei blocchiPerché possa definirsi un modello circuitale astratto, bisogna ancora:• definire i blocchi circuitali e la loro equazione costitutiva;• assicurarsi che l'equazione di ciascun blocco sia ampiamente insensibile alla scelta del

percorso di integrazione γ (robustezza) e sia caratterizzabile in termini di grandezzeintegrali dei campi.

• definire la struttura della connessione.

I passi fondamentali del processo di concentrazione delle costanti circuitali derivano da unaserie di argomentazioni semi-euristiche:

Argomento 1. Perché i flussi siano robusti, il materiale con caratteristiche elettrichesignificativamente diverse da quelle del vuoto dovrebbe essere disposto in una sorta dicorda stretta attorno alla curva γ presa come riferimento, piuttosto che occupare unaregione estesa e di forma arbitraria nello spazio.

Argomento 2. Dalla formula degli integrali di linea, si può immaginare che i particolaricontributi del campo siano concentrati in specifici tratti della maglia, piuttosto che esseredistribuiti omogeneamente su tutto il percorso γ. Se necessario, questa localizzazione deifenomeni elettromagnetici può essere assicurata da una costruzione opportuna del circuito

28

reale23. Ciascun tratto o regione della curva è idealmente sede di un unico tipo difenomeno elettromagnetico. Le regioni sede di componenti impresse dei campi elettrici emagnetici danno luogo ai blocchi generatori di tensione e generatori di corrente,rispettivamente. La regione in cui esistono fenomeni di autoinduzione definisce il blocco(auto-)induttore. La regione sede esclusiva di fenomeni di conduzione costituisce il bloccoresistore. La regione ove è presente solo corrente di spostamento definisce il bloccocondensatore, e così via di questo passo [13];

Argomento 3. La curva γ finora è stata immaginata passante attraverso la regione attiva dellacorda, entro la quale hanno prevalentemente luogo i fenomeni elettromagnetici presi inesame. Tuttavia, se si immagina che il circuito elettrico è immerso nel vuoto ideale,ovvero una regione dove tutte le induzioni D e B (ma non i campi E ed H), come pure ladensità di corrente J, sono nulle, è facile vedere che poco cambierebbe nel calcolo deiflussi e degli integrali di linea se la curva di integrazione originale γ fosse sostituita da unaopportuna curva γ1, che la interseca solo in corrispondenza dei confini delle singoleregioni (figura 9). Il vantaggio è che i campi elettrici e magnetici lungo la nuova curva γ1

sono irrotazionali e quindi è possibile ridefinire la tensione (6) come differenza di unpotenziale opportuno [13];

Argomento 4. Nulla cambia per gli integrali nella espressione (7) se i blocchi attivi sonocongiunti da regioni arbitrarie circondate dal vuoto e riempite di materiale conduttoreperfetto (di conducibilità idealmente infinita), così che la tensione è ovunque costante (E= 0) e la continuità della corrente è conservata. Le superfici di contatto fra blocchi attivi eblocchi perfettamente conduttivi si chiamano terminali o morsetti o poli, mentre ilconduttore perfetto è simboleggiato nella rappresentazione grafica del circuito elettrico daun tratto di linea che interconnette i morsetti di due blocchi.

Argomento 5. I parametri circuitali di ciascuna regione possono essere descritti da funzioniintegrali robuste e caratterizzabili solo se i campi elettromagnetici della regione sonolentamente variabili rispetto alle coordinate spaziali. In termini più matematici, i campistessi devono poter essere approssimati localmente nel senso di Hilbert da una espansionein serie rapidamente convergente, definita su una base opportuna di funzioni continue elimitate in norma. Date le soluzioni analitiche dell'equazione d'onda ottenuta dalleequazione di Maxwell [16], questa condizione implica che il tempo di attraversamentodell'onda attraverso il blocco debba essere (molto) inferiore al periodo minimo dellecomponenti significative del segnale di tensione [13]. In particolare, a basse frequenze edin assenza di brusche discontinuità spaziali della funzione di conducibilità σ e dellafunzione di permeabilità elettrica ε, il contributo della corrente di spostamento può esseretrascurato nell'equazione (11).

Per evidenziare il contributo di questi argomenti, seguiamo in dettaglio la derivazione di unmodello idealizzato a costanti concentrate per un blocco conduttivo, detto nella terminologiaelettrotecnica resistore.

23 Questa argomentazione può apparire sofistica e non-fisica, ma l'obiettivo della derivazione è proprio quello digiustificare un certo modo operativamente valido di costruire i circuiti elettrici, non certo quello di ottenere unatrattazione generale del comportamento elettromagnetico dei materiali!

29

γ1γ

Vuoto

Figura 9: Curve di integrazione possibili in una maglia di circuito

V.4 Concentrazione del blocco resistoreSi consideri un blocco di materiale conduttore di forma arbitraria e si individuino su di essodue aree perfettamente conduttive S1 e S2 che ne costituiscono i morsetti.Per semplicità si può assumere che i morsetti sono parte di una superficie di taglio Sv cheracchiude il blocco conduttivo. Le superfici dei morsetti S1 e S2 misurano, rispettivamente, A1

e A2.Si ritengono trascurabili i fenomeni di accumulo di carica e quelli dovuti a campielettromagnetici impressi o indotti. Questo può essere assicurato dall’uso di schermature e dieccitazioni di prova costanti nel tempo (in continua). Se il materiale all'interno del bloccoconduttore è supposto lineare, isotropo, permanente ed omogeneo, l'equazione costitutiva perla densità di corrente è una semplice proporzione, [16]:

Jc = σEc . (12)

Con riferimento alla figura 10, si definiscano due punti P1 e P2, appartenenti rispettivamentealle superfici S1 e S2, e si congiungano con il tratto di curva γ, di lunghezza L, su cui si calcolala tensione globale vR:

LEP

Pdlv 0R

2

1

=•−= ∫ tE . (13)

E0 è un opportuno valore del campo elettrico tangente alla curva γ. Nello scrivere l'equazione(13) si è fatto uso del teorema della media per gli integrali definiti. Allo stesso modo, si puòcalcolare la corrente IR calcolando il flusso di J attraverso la superficie S1

24:

24 Si è scelta la superficie S1 in accordo con la convenzione dell'Elettrotecnica riguardo alla definizione dei versicoordinati di tensione e corrente sui blocchi circuitali a due terminali, detti anche bipoli [11].

30

11

1

R AES

dSI σ=•= ∫∫ nJ . (14)

Ancora una volta è stato applicato il teorema della media, che è ovviamente valido perqualsiasi configurazione dei campi e distribuzione spaziale della conducibilità. Il rapporto fratensione e corrente è detto resistenza R del resistore e ne costituisce il solo parametrocircuitale (legge di Ohm):

1R

11

0

R

R

AL

KAL

EE

Iv

== . (15)

Da notare che il coefficiente adimensionale KR, detto fattore di forma, dipende dallaconfigurazione del campo elettrico. Se questo fosse perfettamente uniforme all'interno delresistore e se il blocco avesse forma di parallelepipedo, KR sarebbe pari esattamente all'unità.Per forme arbitrarie, occorre risolvere le equazioni di Maxwell con le adatte condizioni alcontorno per calcolare teoricamente il valore di KR.Tuttavia, il carattere integrale delle espressioni (13) e (14) suggerisce che, anche se i campinon fossero costanti, il valore della resistenza varierebbe assai poco in molti casi di praticointeresse, come evidenziato dai seguenti argomenti:

• Sviluppando i campi spazialmente in serie di Fourier, si scopre che il contributo dei modispaziali fortemente oscillanti, corrispondenti alle armoniche elevate di J ed E, tende asmorzarsi rapidamente, in assenza di brusche discontinuità strutturali;

• Il teorema della media fornisce un risultato esatto non solo se i campi sono costanti(integrazione rettangolare), ma anche se questi posseggono una componente lineare nonprevista rispetto alle coordinate spaziali. In altre parole, l'errore commesso nel valutare gliintegrali (13) e (14) è un infinitesimo del secondo ordine rispetto alle dimensionidell'oggetto, confermando la robustezza del modello semplice. Non ci aspettiamo, quindi,particolari criticità realizzative, come è del resto confermato dai bassissimi costi deiresistori commerciali.

Per la maggior parte delle applicazioni, che tollerano errori dell'1%-5% sul valore dellaresistenza, questo modello semplificato del resistore fornisce una precisione sufficiente. Perusi particolari è possibile selezionare i resistori fisici, per mezzo di una procedura dicaratterizzazione esterna. Alternativamente, i resistori possono essere calibrati, aggiustandofinemente il valore di R mediante la rimozione controllata di materiale dal blocco, effettuatadi solito a mezzo laser.

Procedura basica di caratterizzazione: si applica al resistore una tensione continua nota Vcon un generatore e si misura la corrente IR che scorre nella maglia che contiene il generatoredi tensione ed il resistore incognito25. La misura viene ripetuta più volte, alternandoeventualmente diversi generatori per ridurre l'effetto di errori sistematici. Si ottiene, così, unaserie di N misure, che vengono raccolte nei vettori v ed i, rispettivamente.Infine, il valore di R viene stimato in maniera statisticamente consistente26 [14] applicandouna procedura di ottimizzazione, che ricerca la soluzione fisicamente più plausibile al sistema

25 Occorre evitare dispersioni di correnti su maglie conduttive parassite.26 Errore nullo in media con varianza tendente a zero almeno con la quantità (1/N) [12].

31

sovradeterminato (e di per sé incompatibile!) v = Ri. Molto spesso questa soluzione vienetrovata minimizzando rispetto al parametro incognito r la norma euclidea del vettore e deglierrori che rendono inconsistente il sistema (metodo dei minimi quadrati):

( ) ( )22

22r

rr

rR ive −==

minarg)(

minarg(16)

Sv

P2

P1

J

vR

Etγ

S1

S2

iR

n

σ=0

σ<>0

Figura 10: Blocco resistore

La concentrazione dei blocchi induttore (caratterizzato solo fenomeni di autoinduzionemagnetica) e condensatore (solo corrente di spostamento) si ottiene riapplicando il processodescritto in questo capitolo rispettivamente al primo ed al terzo termine dell'espressione (11).

V.5 Concentrazione del blocco condensatore. Il blocco detto condensatore (ideale) è sedeesclusivamente di fenomeni dovuti alla corrente di spostamento che dipende da accumuli dicariche elettriche in presenza di brusche variazioni spaziali della conducibilità, secondol'espressione (11). Un condensatore ideale è costituito da due armature piane perfettamenteconduttive, con interposto un materiale dielettrico lineare con σ=0. Si ipotizza che la correntedi spostamento (e quindi l'induzione elettrica Dc) sia significativa solo nello spazio compresofra le armature, ciascuna delle quali ha superficie A.Se il dielettrico è lineare, isotropo ed omogeneo, la relazione costitutiva (C1) esprime laproporzionalità fra campo ed induzione elettrica. Il fattore di proporzionalità ε è dettopermettività elettrica del dielettrico [16]:

Dc = εEc . (17)

Con riferimento alla figura 11 e ripetendo i ragionamenti svolti per il resistore, la tensione vc

fra i morsetti del condensatore può essere espressa come:

32

LEP

Pdlv 0c

2

1

=•−= ∫ tE . (18)

La corrente elettrica Ic obbedisce all'equazione di Kirchoff (11), che va particolarizzata come:

( )AEd

ddSI 1c ε=•

∂∂−= ∫∫ ttSv

nD

. (19)

Nell'equazione (19), E1 rappresenta come sempre un opportuno valore del campo elettricoderivante dall'applicazione del teorema della media all'integrale che calcola il flusso di D.Si procede quindi all'eliminazione, attraverso l'ausilio del fattore di forma KC=E1/E0, deitermini che hanno la dimensione di un campo elettrico [Vm-1] nelle le espressioni (18) e(19)27.L'equazione costitutiva, nell'ipotesi di invarianza rispetto al tempo (permanenza) di tutte ledimensioni ed i parametri del dielettrico, diventa la classica [13]:

dt

dvCI c

c = , (20)

dove il coefficiente C è detto capacità del condensatore.

Ic

σ→∞

L

Sv

nE

D

γ

A

vc

P1P2

σ→0

Figura 11: Campi elettromagnetici in un condensatore

27 Curiosamente, questa procedura in matematica e statistica viene spesso definita concentrazione delle variabilidi un sistema di equazioni. Nel caso della Teoria dei Circuiti, il termine concentrazione viene invece inteso nelsenso spaziale sopra esposto.

33

V.6 Concentrazione del blocco induttore. L'induttore ideale è un dispositivo a due terminali, obipolo, in cui hanno idealmente luogo esclusivamente fenomeni di autoinduzione magnetica,provocati dalla corrente IL che percorre la medesima maglia del circuito. Per poter provocareinduzione, la corrente elettrica deve percorrere delle spire conduttrici (o avvolgimenti) avvoltea spirale su un supporto di materiale magnetico. Come per il resistore ed il condensatore, sisuppone una perfetta stabilità dimensionale (assai problematica da realizzarsi in pratica pereffetto delle forze agenti sugli avvolgimenti stessi), in modo che le linee e le superfici diintegrazione non varino rispetto al tempo. La disposizione dei campi elettromagnetici e dellesuperfici di integrazione più convenienti è descritta in figura 12.

β

E

IL

nγtγ

H

γ

VL

P1

P2

l

Figura 12: Campi elettromagnetici in un induttore

Il campo magnetico H generato dalla corrente IL è significativamente diverso da zero solonello spazio compreso fra gli avvolgimenti coassiali. Il numero degli avvolgimenti è N e laprofondità totale di questi è l. Sia A la superficie delimitata da ciascun avvolgimento eproiettata su un piano perpendicolare all'asse dell'induttore. La corrente di spostamento èipotizzata trascurabile. La curva γ si svolge nella regione ove si verificano i fenomenimagnetici di interesse, ovvero all’esterno dell’avvolgimento (supposto costituito da unconduttore ideale), ma sufficientemente vicino ad esso. Se i versi della corrente e del percorsodi integrazione lungo la curva γ sono scelti congruenti con quelli della figura 12, la quartaequazione di Maxwell fornisce direttamente:

H0l = NIL. (21)

Il vettore induzione magnetica B, sotto le ipotesi semplificative di linearità, omogeneità edisotropia del materiale magnetico, è ovunque proporzionale al campo magnetico H:

B = µH. (22)

La costante µ è detta permeabilità magnetica del mezzo [16]. La tensione vL dell'induttoredovrebbe essere calcolata secondo le espressioni (7) e (8) lungo una curva β, prossima agliavvolgimenti conduttori, come illustrato in figura 12. La terza equazione di Maxwell fornisce

34

la tensione ai capi degli avvolgimenti in funzione della derivata temporale del flusso di Battraverso una superficie Sβ avente per base proprio la curva β. Questa integrazione è assaidifficile da visualizzare, dal momento che una superficie siffatta assomiglia ad una scala achiocciola a N giri, osservata in pianta.Tuttavia possiamo fare appello al principio di robustezza delle funzioni integrali sopraenunciato per affermare che l'integrale in oggetto non si discosta significativamente da:

( )AHdt

dNdS

tv 1

S

bL µ≅•∂∂= ∫∫

β

nB

. (23)

Ancora una volta, le quantità H0 ed H1, ottenute dall'applicazione del teorema della media,hanno dimensione [Am-1] e possono essere legate da un fattore di forma KL=H1/H0.Sostituendo l'espressione (23) nella (21) e raggruppando in una coefficiente di autoinduzioneL i termini non dipendenti dal tempo (per l'ipotesi di permanenza), si ottiene immediatamentel'equazione costitutiva dell'induttore ideale:

dt

Idv L

L L= . (24)

Con lo stesso metodo è possibile derivare il modello circuitale a costanti concentrate di altridispositivi di tipo elettrico più complessi o comprendenti equazioni diverse da quelle delcampo elettromagnetico. Le problematiche relative alla ricerca ed alla caratterizzazione deimodelli circuitali parametrici sono sviluppate nella teoria della stima, che sarà oggetto dicorsi futuri.

V.7 Generalizzazione e astrazione del modello circuitale elettrico. Le ipotesi sotto cui sonostate ricavate le equazioni costitutive dei bipoli elettrotecnici classici appaiono alquantostringenti, ma il pregio fondamentale di questa analisi semplificata consiste nel mostrare chesemplici equazioni integro-differenziali possono modellare accettabilmente alcuni fenomenielettromagnetici. Nulla vieta di introdurre relazioni più complesse per estendere l'applicabilitàdel modello circuitale a casi più generali (linee di trasmissione, effetto pelle, isteresi, guided'onda...). Tuttavia questa generalizzazione non si fonda più sull'analogia fisica, bensì sullecapacità matematiche di certe famiglie di funzioni (per esempio, i polinomi, le funzionirazionali, le sigmoidi...) di approssimare rapidamente (ovvero con pochi parametri liberi) erobustamente le equazioni topologiche, quelle costitutive e le soluzioni finali. Laformalizzazione del modello finale può quindi discostarsi notevolmente dalle equazionitradizionali della fisica, introducendo nuove rappresentazioni matematiche del fenomenostesso, che, come sempre, dovranno essere valutate per via sperimentale e sotto il profilo dellacomplessità matematica e computazionale.Nell’ottica circuitale, lo studio fisico-matematico di base fornisce essenzialmente quelleindicazioni qualitative sulle soluzioni (proprietà di unicità, regolarità matematica e diinvarianza statistica soprattutto), necessarie per la concezione del modello e per la messa apunto delle procedure di identificazione dei parametri circuitali invarianti via via introdotti.

35

VI. LA POTENZA ELETTRICA

La potenza nella dinamica è, come noto, il prodotto scalare della forza per la velocità. Nelcaso elettromagnetico, la potenza elettrica specifica p(r ,t) può essere definita partendo dalleequazioni della forza specifica (C4) e della corrente (C3) e prendendo a riferimento la figura10. La potenza spesa dal campo elettrico per mantenere la densità di corrente elettrica J vale,nel caso di portatori di carica tutti positivi:

JEvEvfr •=ρ•=•=t),(p . (25)

La potenza dissipata28 in calore per unità di volume nella regione conduttiva eguaglia purequesta quantità. E' facile convincersi che integrando la (25) sul volume V, delimitato da Sv,in figura 10 e cambiando il segno si ottiene la potenza elettrica P fornita al (vale a direentrante nel) resistore dal resto del circuito e trasformata irreversibilmente per effetto Joule:

PR(t) = vR(t)*I R(t) . (26)

Questa relazione costituisce il terzo assioma della Teoria dei Circuiti, che si aggiunge alle dueleggi di Kirchhoff per le tensioni e per le correnti [13] ed è valida per ogni blocco a dueterminali. Esistono altre maniere per giustificare l'espressione (26) della potenza elettrica, maquella riportata ha il pregio di presentare un legame diretto con un fenomeno fisico ben noto.

Generalizzazione del concetto di potenza elettrica. E' possibile generalizzare il concetto dipotenza ad altre regioni, caratterizzate da correnti e campi impressi ed indotti, introducendo ilcosiddetto vettore di Poynting P [16]:

P = E ∧ H . (27)

Calcolando la divergenza di P e sostituendo le equazioni di Maxwell si ottiene:

div(P) = H • rot(E) - E • rot(H); (28a)

tt)(div

∂∂•−•−

∂∂•−= D

EJEB

HP . (28b)

Calcolando il flusso uscente di P attraverso la superficie chiusa Sv che delimita un volume Vsi trova una espressione generalizzata rispetto alla (26) che può essere interpretata comepotenza “perduta” istantaneamente dalla regione contenuta nel volume V29. L’espressione(28b) costituisce il risultato del cosiddetto Teorema di Poynting. Il primo terminedell'espressione (28b) rappresenta la densità di potenza magnetica ed il terzo la densità dipotenza associata alla corrente di spostamento. Definendo le opportune tensioni è ancorapossibile riottenere l'espressione (26) [16], che, ricordiamolo, rappresenta un assioma nellaTeoria dei Circuiti elettrici.

28 Un flusso di energia uscente dal resistore è considerato positivo.29 Da qui il segno opposto rispetto all'espressione (25), che esprime invece la potenza assorbita e trasformata dalcampo elettromagnetico.

36

La trattazione circuitale è possibile anche per altri fenomeni di tipo distribuito (meccanici,acustici, idraulici, ecc...) e rappresenta un approccio metodologico assai efficiente che, comevedremo del capitolo seguente, può sostituire vantaggiosamente le soluzioni ottenibilirisolvendo sistemi di equazioni differenziali, soprattutto nei casi non lineari (assetto deisatelliti, distorsione negli altoparlanti e così via).

VII. M ODELLI CIRCUITALI DI CAMPI SPAZIALMENTE DISCRETIZZATI30

Soluzioni analitiche delle equazioni di Maxwell sono disponibili solo per geometrie moltosemplici. Lo sfruttamento applicativo dei fenomeni elettromagnetici dipende, invece,dall'abilità di calcolare con precisione e di manipolare i campi in situazioni complesse, inmodo da produrre quegli effetti che si desiderano (diffusione acustica, telerilevamento,trasmissione dell’informazione).L'uso del calcolatore rende possibile trattare in breve tempo grandi quantità di dati, ma è pocoefficace in presenza di operatori simbolici e funzioni continue. Per risolvere con uncalcolatore elettronico problemi di campo, le funzioni e le loro derivate devono essere perforza approssimate su una griglia discreta di punti del continuo spazio-temporale, oppureespanse in serie su una base opportuna di funzioni approssimanti (metodi agliautocoefficienti) [13].Di conseguenza, la soluzione numerica delle equazioni di Maxwell è affetta da una certaimprecisione intrinseca, imputabile in parte all'accumulo di errori di arrotondamento neicalcoli ed in parte alla discretizzazione spaziale. La precisione raggiungibile è, d’altra parte,nettamente insufficiente per molte applicazioni nelle telecomunicazioni e nel telerilevamento(propagazione su raggi multipli, acustica applicata, schermature elettriche e magnetiche diforma complessa, calcolo dei parametri circuitali parassiti), quando sono richieste valutazioniquantitative per il progetto di manufatti.Si potrebbe pensare allora di elaborare un metodo generale per modellare sistemielettromagnetici complessi, decomponendo spazialmente il sistema stesso in tante piccoleparti e creando per ciascuna di esse un modello integrale (circuitale) di elevata precisione.Una volta trovate le equazioni costitutive di ciascun blocco, il sistema risolvente del circuitoglobale sarebbe in grado di fornire un valore del campo su un insieme discreto di punti dellospazio. I valori in punti diversi da quelli considerati nel modello circuitale potrebbero esserericavati per interpolazione spazio-temporale fra i valori calcolati.Tutte le procedure sarebbero perfettamente formalizzabili come programmi di calcoloautomatico. Tecniche sofisticate di questo tipo sono effettivamente state sviluppate ed usate,specialmente nella progettazione di antenne, nello studio della propagazione delle ondeelettromagnetiche e sonore e nell’elaborazione del segnale proveniente da schiere di sensorispazialmente distribuiti (array processing) [17]. L'esperienza dimostra che questo approcciopuò portare facilmente nelle applicazioni a risultati migliori della soluzione numerica delleequazioni di Maxwell, proprio per la maggiore stabilità delle espressioni integrali rispetto aquelle differenziali31.

30 Un insieme discreto è un insieme numerabile (o anche a cardinalità finita) derivato da un insieme densosecondo una regola prefissata, detta operazione di campionamento.31 L'errore sui campi con i metodi che approssimano direttamente le equazioni di Maxwell sono tipicamentedell'ordine dell'1%. Alcuni metodi numerici basati su approcci circuitali, applicati ad antenne caratterizzate ecalibrate, raggiungono invece precisioni da cento a mille volte superiori, molto prossime ai limiti statistici diindeterminazione!

37

Infine, molti dei modelli circuitali per lo studio dei campi sono di tipo unidirezionale, cosache mette in evidenza e permette di sfruttare efficacemente nelle applicazioni le relazionicausa-effetto fra i fenomeni elettromagnetici coinvolti.

VIII. CONCLUSIONE

La Teoria dei Circuiti elettrici è stata formalizzata piuttosto di recente (a partire dagli anniTrenta) ed ha raggiunto il massimo della sua espansione negli anni Sessanta e Settanta, con larealizzazione dei maggiori programmi per l'analisi e la sintesi dei circuiti analogici, come ilfamosissimo SPICE dell'Università di Berkeley in California.Nei successivi due decenni, poi, la Teoria dei Circuiti si è specializzata in una moltitudine dibranche differenti, che hanno per oggetto i dispositivi elettronici, i circuiti digitali tempo-discreto, i circuiti VLSI per il calcolo parallelo superveloce, le reti booleane, i controlliautomatici, l'elaborazione del segnale, le reti neurali e così via.Queste nuove discipline hanno incorporato rapidamente i recenti contributi offerti dalla fisicateorica, dalla Teoria Statistica dell'Informazione, dall'analisi numerica e dall'algebra lineare.Tuttavia, il tipo di analisi esterna ed indipendente dalla tecnologia, propria dell'approcciocircuitale, è stato mantenuto e consente oggi di costruire dei modelli comportamentaliragionevolmente semplici e caratterizzabili di dispositivi altrimenti complicatissimi dadescrivere e gestire.La Teoria dei Circuiti elettrici rimane un esempio da manuale di come sia possibile derivareuna teoria utile a partire da leggi fisiche generali e considerazioni semi-empiriche, avendocome obiettivo il dominio pratico dei fenomeni elettromagnetici e come idee guida lasemplicità, la compattezza, l'eleganza e la versatilità dello sviluppo teorico.

BIBLIOGRAFIA

[1] Aristotele, Analitica I, 1, 24 a 16.[2] Guido De Ruggiero, Storia della Filosofia, Parte I: La Filosofia Greca, vol. II, pp. 20-30,

Ed. Laterza, Bari, 1958.[3] D. Hilbert, P. Bernays, Grundlagen der Mathematik, vol. I, 1934, e vol. II, 1939.[4] Bruno de Finetti, Probabilità ed induzione, Ed. CLEB, Bologna, 1993.[5] Libero adattamento da S. Bromberger, Why-questions, in R. Colodny, Mind and cosmos,

Pittsburgh, 1966, pp. 86-111.[6] Karl Raimund Popper, The logic of scientific discovery, Londra, 1959.[7] Ludovico Geymonat, Storia del pensiero filosofico e scientifico, Il Novecento, Ed.

Garzanti, 1996.[8] Isaac Newton, Philosophiae naturalis principia mathematica, 1687.[9] James Clerk Maxwell, Treatise on electricity and magnetism, 1873.[10] Niels Bohr, Teoria dell'atomo e conoscenza umana, trad. it. Boringhieri, Torino, 1961.[11] J. Rissanen, “Modeling by shortest data description”, Automatica, Vol. 14, pp. 465-471,

1978.[12] P.J. Huber, Robust Statistics, J. Wiley, 1981.[13] Giuseppe Martinelli, Mario Salerno, Fondamenti di elettrotecnica, ed. La Siderea, Roma,

1995-96 (II ed.).[14] Athanasios Papoulis, Probability Random Variables and Stochastic Processes, Mc

Graw-Hill, New York, III Edizione, 1991.

38

[15] S.Y. Kung, H.J. Whitehouse, T. Kailath, VLSI and modern signal processing, EnglewoodCliffs, NJ, USA, Prentice Hall, 1985.

[16] Scipione Bobbio, Emilio Gatti, Elettromagnetismo Ottica, ed. Bollati Boringhieri, 1991.[17] A. Viola, E.D. Di Claudio, G. Orlandi, “Algoritmi per la stima della direzione di arrivo di

segnali a larga banda mediante schiere di sensori”, Alta Frequenza, Vol.6, N. 2, Milano,Marzo-Aprile 1994, pp. 37-47.