371
Vincenzo Pappalardo !"#$%& !"##$ !"#"$% ! #!$ !"#$%"&’ $!"#$%"&"!’ La verità non esiste, ci è concesso di conoscere solo una sua possibile approssimazione

Vincenzo Pappalardo - iismarianoquartodarborea.gov.it · – La filosofia rinascimentale della natura – Aristotelismo e platonismo 136 CAPITOLO 6 – LA RIVOLUZIONE SCIENTIFICA

Embed Size (px)

Citation preview

Vincenzo Pappalardo

!"#$%&'!"##$!!"#"$%!

!"#!$!!"#$%"&'($!"#$%"&"!'!

La verità non esiste, ci è concesso di conoscere solo una sua possibile approssimazione

"#$%&$'(!)*++*,*-.(!!

STORIA DELLA FISICA E DEL PENSIERO SCIENTIFICO

Copyright 2010 di Vincenzo Pappalardo Tutti i diritti sono riservati Prima edizione ottobre 2010 Nuova edizione riveduta e aggiornata aprile 2012 Nuova edizione luglio 2013 Edizione aggiornata novembre 2013 Edizione riveduta e aggiornata luglio 2014 Il presente libro “Storia della fisica e del pensiero scientifico” può essere copiato, fotocopiato, a patto che il presente avviso non venga alterato, e che la proprietà del documento rimanga di Vincenzo Pappalardo. Il presente documento è pubblicato sul sito: www.liceoweb.webnode.it

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4!

Ai tre quarks:

Gina, Raffaella e Pietro, fondamenta del mio universo.

5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#!$%!

6 Prefazione

8 Introduzione

14 CAPITOLO 1 - IL MONDO ANTICO

Mito e scienza – Le cosmogonie - Le più antiche civiltà

18 CAPITOLO 2 - IL MONDO GRECO

Caratteri della società greca – La physis - La concezione classica della scienza - I primi

fisici. Anassimandro e la prima rivoluzione scientifica – La nascita della matematica come

interpretazione della realtà – Il moto: realtà o illusione - I fondamenti della scienza –

Platone ed Aristotele – Prime conclusioni sull’idea di realtà - La scienza alessandrina – Geocentrismo ed eliocentrismo – La fine della scienza greca

80 CAPITOLO 3 - IL MONDO ROMANO

Roma e la scienza – Il Cristianesimo: ragione e fede inconciliabili? - Conclusioni

92 CAPITOLO 4 - IL MEDIOEVO

La profonda crisi della civiltà occidentale - Il salvataggio dell’antica sapienza e la

riscoperta del passato – La scienza araba - Il pensiero scolastico - Declino dell’influenza di Aristotele – La ricerca scientifica medievale

124 CAPITOLO 5 – UMANESIMO E RINASCIMENTO Umanesimo e Rinascimento: anticipazioni del moderno – L’Umanesimo – Il Rinascimento

– La filosofia rinascimentale della natura – Aristotelismo e platonismo

136 CAPITOLO 6 – LA RIVOLUZIONE SCIENTIFICA Introduzione - Leonardo da Vinci: precursore della scienza moderna - La Rivoluzione

Scientifica: una moderna visione del mondo – La Rivoluzione Astronomica e la nuova

immagine dell’universo – Galileo Galilei: il padre della scienza moderna – L’eredità

galileiana – Empirismo e razionalismo: due filosofie a confronto - Francesco Bacone: la

scienza al servizio dell’uomo – La filosofia meccanica - Cartesio, filosofo della modernità –

I cartesiani e anticartesiani – L’organizzazione della ricerca – Newton e Leibniz

242 CAPITOLO 7 - IL SETTECENTO E L’APOGEO DELLA MECCANICA

Introduzione - La diffusione del newtonianismo - L’illuminismo: libero e critico uso

dell’intelletto - L’immaterialismo di Berkeley e l’empirismo radicale di Hume – La scienza

nuova di Vico - Kant e i confini della ragione - Il trionfo della meccanica e la filosofia

meccanicistica della natura – L’ottica – Termometria e calorimetria – Elettricità e

magnetismo – Il sorgere di alcune istanze critiche

293 CAPITOLO 8 - L’OTTOCENTO: LA TERMODINAMICA E L’ELETTROMAGNETISMO

Introduzione - La filosofia romantica della natura – Indagine sui fondamenti nella scienza

ottocentesca – La filosofia positivistica - La teoria ondulatoria – La spettroscopia – La

termologia e la termometria - La termodinamica - La complessità ed il disordine – La corrente elettrica e i suoi effetti: nascita dell’elettrodinamica – Faraday e

l’elettromagnetismo – Maxwell e la teoria dei campi 372 CAPITOLO 9 – LA CRISI DELLA FISICA CLASSICA

La crisi del meccanicismo – Riflessioni critiche sul meccanicismo - La nuova metafisica

della natura - Lo studio degli inosservabili e la crisi dell’intuizione in fisica

393 CAPITOLO 10 – LA RIVOLUZIONE RELATIVISTICA

LA TEORIA DELLA RELATIVITA’ RISTRETTA: Il percorso verso la teoria della relatività ristretta – I

postulati della relatività ristretta - L’unione dello spazio e del tempo - I paradossi e le

verifiche sperimentali della relatività ristretta – L’equazione più famosa della fisica – LA

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6!

TEORIA DELLA RELATIVITA’ GENERALE: Equivalenza tra gravità e accelerazione – La

gravitazione e la curvatura dello spaziotempo – La geometria non euclidea – L’immagine

del mondo di Einstein - Le principali verifiche sperimentali della relatività generale -

L’universo di Einstein - La teoria unificata dei campi - Conclusioni

429 CAPITOLO 11 – LA RIVOLUZIONE QUANTISTICA

Introduzione – Crisi del riduzionismo - Il crollo della visione classica del mondo - L’inizio

della fisica moderna: la scoperta dell’elettrone – La radiazione di corpo nero e l’ipotesi di

Planck – La realtà dei quanti: l’effetto fotoelettrico e l’effetto Compton - I primi modelli di

atomo - L’atomo di Bohr e l’origine della meccanica quantistica – Dualità onda corpuscolo

nella materia – Nascita della meccanica quantistica – Il significato fisico della funzione

d’onda - La natura delle onde quantistiche - Il principio di indeterminazione di Heisenberg

– La scoperta della casualità: esperimento delle due fenditure – Il principio di

complementarietà - La meccanica quantistica dell’atomo - Il principio di esclusione di Pauli – La meccanica quantistica relativistica – La statistica dei quanti – L’immagine del

mondo della meccanica quantistica: la teoria dei campi 487 CAPITOLO 12 – INTERPRETAZIONI E CONSEGUENZE FILOSOFICHE DELLA TEORIA

DELLA RELATIVITA’

Le radici filosofiche di Einstein - Il significato filosofico del pensiero di Einstein - Il

significato filosofico della relatività – Discussioni filosofiche-scientifiche sulla teoria della

relatività - Capire lo spaziotempo – Il tempo esiste?

530 CAPITOLO 13 - INTERPRETAZIONI E CONSEGUENZE FILOSOFICHE DELLA TEORIA DEI

QUANTI

L’importanza delle diverse formulazioni di una stessa teoria scientifica - Oltre il linguaggio

- Paradosso di Einstein-Podolsky-Rosen (EPR) – La disuguaglianza di Bell - Interpretazioni

della meccanica quantistica - La filosofia di fronte alla nuova fisica - Fondamento

filosofico della meccanica quantistica - La realtà e l’informazione

567 CAPITOLO 14 – LA FISICA NUCLEARE E SUBNUCLEARE

La scoperta della radioattività e sue conseguenze – La fissione nucleare – La fusione

nucleare – Le particelle elementari e le loro interazioni – Il modello standard

591 CAPITOLO 15 – GLI ENTI FONDAMENTALI SONO REALI?

L’importanza del bosone di Higgs per la filosofia della scienza - Confronto tra atomismo

democriteo e moderno – Che cosa è reale?

599 CAPITOLO 16: LA COSMOLOGIA

La cosmologia come scienza – Il principio antropico - L’universo ha avuto un’origine?

Dibattito tra scienza, filosofia e teologia - L’origine dell’universo: il big bang - La fine

dell’universo

626 CAPITOLO 17: LA NUOVA EPISTEMOLOGIA DELLA SCIENZA

La fisica come conoscenza fallibile - Crisi del neopositivismo – Kuhn e la struttura delle

rivoluzioni scientifiche – Lakatos e la metodologia dei programmi di ricerca – Feyerabend e

l’anarchismo metodologico

645 CAPITOLO 18 – LA FISICA DEL FUTURO

Il Large Hadron Collider – La gravità quantistica: la teoria delle stringhe e la gravità

quantistica a loop – Energia e materia oscura – Il computer quantistico – Il teletrasporto quantistico – L’immagine del mondo definitiva? - I futuri premi Nobel

663 Conclusioni

665 Appendice: Biografie - Il Processo a Galileo Galilei - Il Progetto Manhattan

727 Bibliografia

7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'()#!

La scienza è puro interesse culturale, è desiderio di sapere, è conoscenza, metodo,

è pensiero scientifico. Essa serve unicamente a soddisfare la curiosità innata nell’uomo,

da sempre, di conoscere l’ambiente che lo circonda e sé stesso. La scienza è un continuo

ridisegnare il mondo e il pensiero scientifico è un’appassionata esplorazione di modi

sempre nuovi di ripensare il mondo. La forza del pensiero scientifico non consiste nelle

certezze raggiunte, anzi è nella sua continua ribellione al sapere del presente e a tutte

quelle certezze che appaiono ovvie. La ricerca della conoscenza non si nutre di

certezze, ma di una radicale mancanza di certezze. L’ignoranza come molla per

sovvertire l’ordine delle cose e ripensare continuamente il mondo. La scienza nasce da

ciò che non sappiamo e dalla messa in discussione di ciò che crediamo di sapere. La

natura del pensiero scientifico è critica, ribelle, insofferente a ogni concezione a priori,

a ogni riverenza, a ogni verità intoccabile. La scienza, quindi, è soprattutto

esplorazione continua di nuove forme di pensiero. Ma se il sapere scientifico cambia

continuamente, perché dobbiamo ritenerlo affidabile e credibile? Perché a ogni dato

momento della storia, la descrizione del mondo che abbiamo è la migliore. Le risposte

scientifiche non sono mai definitive, sono semplicemente le migliori risposte di cui

disponiamo. La credibilità della scienza poggia sulla certezza che nulla è definitivo.

La scienza, però, in quanto elemento di civiltà, non sta isolata dagli altri aspetti

della cultura e come tale è connessa col modo di vivere e di pensare, con i rapporti

sociali e le istituzioni degli uomini che l’hanno elaborata e continuano ad elaborarla. La

scienza e la poesia, per esempio, nell’antica Grecia, venivano considerate entrambe

come imprese dell’immaginazione, modi complementari di esplorare il mondo della

natura.

Partendo da queste considerazioni, questa “Storia della Fisica e del pensiero

scientifico”, vuole raccontare la fisica come un viaggio, un’avventura del pensiero

umano, dei continui cambiamenti delle visioni del mondo, dalle prime civiltà, in

particolare quella greca, con i vari filosofi come Anassimandro, Platone, Aristotele e

Archimede, passando attraverso i protagonisti della rivoluzione scientifica come

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 8!

Copernico, Galileo e Newton fino alla rivoluzione relativistica con Einstein e a quella

quantistica con Planck, Heisenberg, Bohr, Schrodinger, Dirac.

Questo libro, però, non ha la pretesa e la presunzione né di essere originale, né di

proporre nuove tesi rispetto a quelle esposte da autorevoli studiosi di storia della fisica,

di filosofi della scienza e del pensiero scientifico in generale. Anzi, interi passi di questo

libro sono stati tratti dalle opere riportate nella bibliografia. Se un merito deve avere

questo libro è quello di rappresentare una sintesi di storia della fisica sullo sfondo della

filosofia della scienza, al fine di offrire a tutti coloro che si avvicinano allo studio della

fisica, uno strumento per indagare sul faticoso cammino delle idee per giungere alla

formulazione di leggi fisiche, o teorie scientifiche, ed il loro successo in un particolare

momento storico. In più, vuole sfatare il mito che le teorie scientifiche siano il frutto del

lavoro spontaneo e solitario di uno scienziato, ma bensì il risultato di secoli d’indagine,

anzi di secoli di avventura del pensiero umano, che trovano il loro compimento, l’atto

finale, nel lavoro del genio, come Galileo, Newton, Einstein.

9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Non tutto ciò che può essere contato conta e non tutto ciò che conta può essere contato

Einstein

!"#$%&'()%"*!

In Grecia, e fino al Medioevo, la finalità della filosofia era la conoscenza del

mondo ontico mediante i principi universali in sè stessi intelligibili. Nelle loro dissertazioni sull'universo e sulle sue componenti, i filosofi rivolgevano l'attenzione all'essenza delle cose per scoprirvi l'essere primordiale, il sostrato immutabile di tutti gli enti. Da qui le teorie cosmologiche da Talete fino ad Aristotele e le loro diverse soluzioni: l'acqua, l'indeterminato, i quattro elementi, la quintessenza. Determinate la sostanza primigenia e le essenze delle cose gli uomini dell'antichità e quelli del Medioevo deducevano aprioristicamente l'attività propria d'ogni ente in ossequio all'aforisma che “l'agire segue l'essere”. Il loro interesse non era tanto di conoscere gli effetti quanto le cause generali. Di speciale importanza è il principio della causalità finale. Ogni ente è per sua natura orientato ad un fine, e Aristotele nella Fisica dice: “La natura è causa, anzi propriamente causa finale”. Il confronto vero con la realtà attraverso la verifica sperimentale o l'osservazione scientifica risultava così per essi superfluo. Per loro erano sufficienti la semplice osservazione e il senso comune, inteso come interpretazione razionale dei dati percepiti attraverso i sensi, senza decantazione, né analisi ulteriore.

Il loro universo risultava antropomorfico in un duplice senso. Primo, perchè s'adattava alla visione ingenua, ch'essi avevano, dello stesso: la Terra è piatta, il Sole gira attorno alla Terra che, essendo la dimora dell'uomo, occupa il posto centrale, il cielo sta in alto, ecc. E, secondo, perchè a tutti gli enti è attribuita una teleologia in maniera che tutto opera, analogamente all'uomo, per una finalità: la pietra cade, perchè tende al luogo suo proprio e il fuoco sale, per la stessa ragione, verso l'alto. Il moto e il mutamento obbediscono generalmente a questa naturale appetenza del fine, che è la causa del mutamento, come è scritto chiaramente nella Summa theologica di Tommaso d’Aquino: “E’ necessario che tutti gli agenti agiscano per un fine. Infatti in una serie di cause ordinate tra loro, non si può eliminare la prima, senza eliminare anche le altre. Ma la prima delle cause è la causa finale. E lo dimostra il fatto che la materia non raggiunge la forma, senza la mozione della causa agente: poiché nessuna cosa può passare da se stessa dalla potenza all'atto. Ma la causa agente non muove senza mirare al fine. Infatti, se l'agente non fosse determinato a un dato effetto, non verrebbe mai a compiere una cosa piuttosto che un'altra: e quindi, perchè produca un dato effetto, è necessario che venga determinato a una cosa definita, la quale acquista così la ragione di fine. Ora, questa determinazione, che nell’essere ragionevole è dovuta all'appetito intellettivo, detto volontà, negli altri esseri viene prodotta dall'inclinazione naturale, chiamata appunto appetito naturale”.

Diametralmente opposta alla filosofia si trova la tecnica, la quale persegue l'utilità immediata attraverso regole pratiche concrete, senza formulare leggi generali né

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :!

principi. Per la mentalità del cittadino ateniese o romano questo era un compito riservato agli schiavi ed agli artefici di bassa estrazione sociale. E nessuno spirito nobile brama d'essere Fidia o Policleto, poiché propria dell'uomo liberale è la contemplazione delle idee, non l'osservazione dei fatti, ne l'utilità dei risultati.

In un ambito intermedio, la scienza, nel prescindere dalla conoscenza ontica e dai principi in sé stessi intelligibili, cerca d'inquadrare i dati fenomenici osservati in leggi sempre più generali, le quali servano a prevedere nuovi fatti fenomenici. Il criterio filosofico di verità è sostituito dal criterio scientifico. Quello stabilisce la verità di una proposizione, se la si può logicamente dedurre partendo da alcuni principi in se stessi intelligibili. Il criterio scientifico, invece, afferma che un'ipotesi o una teoria è credibile se da essa si deducono risultati comprovati dalla verifica sperimentale o dall'osservazione.

Come già san Tommaso aveva giustamente osservato, il criterio scientifico di verità è relativo, poiché la verifica sperimentale non assicura la verità della teoria. Accade talvolta che una nuova teoria spieghi ugualmente bene, o addirittura meglio, i fenomeni osservati. Le teorie scientifiche sono, infatti, sostituite costantemente da altre nuove. Così avvenne con le teorie intese a spiegare il moto degli astri: dalla teoria delle sfere celesti dei pitagorici si pervenne a quella tolemaica degli epicicli; quindi all'eliocentrismo circolare di Copernico e, infine, alle orbite ellittiche di Keplero.

A distinguere la filosofia dalla scienza non è soltanto la finalità. Anche il rispettivo metodo è differente. Punto di partenza della filosofia è la ragione, la quale fissa i principi intelligibili, in accordo con il senso comune e con l'esperienza volgare, in alcuni casi, o anche prescindendo assolutamente dall'esperienza, in altri. La fiducia nella ragione come fonte di conoscenza superiore ed anche indipendente dall'esperienza è retaggio di Parmenide, per il quale il pensiero e l'essere sono un'unica cosa. Per questo, Aristotele stabilisce il principio, fondamentale per il suo sistema, secondo cui tutto ciò che si muove, è mosso da altro. E lo stabilisce come deduzione razionale dal fatto che, quando cessa la causa, cessa anche l’effetto. Così, infatti, gl'insegna l'esperienza comune: un oggetto cessa di muoversi quando cessa l'atto di spingerlo. E Zenone non può fare a meno di negare l'esperienza stessa del moto, poiché la ragione non sa risolvere l'aporia della divisibilità infinita della traiettoria da percorrere.

Un testo di Aristotele riassume perfettamente questo metodo deduttivo, o discendente, che va dall'universale al particolare: “Chi preferisce il puro conoscere, sceglierà massimamente quella che è scienza al massimo grado, e tale è, appunto, la scienza di ciò che è conoscibile nel grado più alto; e sono conoscibili nel grado più alto i primi principi e le cause, giacché mediante questi e in base a questi sono conosciute le altre cose, e non questi sono conosciuti mediante le cose che da essi dipendono “. Aristotele, utilizzando esclusivamente il metodo deduttivo costruì quel modello complesso e articolato della natura, ma in gran parte sbagliato, che influenzerà il pensiero scientifico per circa duemila anni.

Spetterà a Galileo Galilei, attraverso il metodo induttivo (o meglio ancora attraverso le sensate esperienze e le dimostrazioni matematiche) ribaltare il metodo di indagine della natura e quindi distruggere l'intero edificio del sapere costruito dai filosofi greci nell'antichità, metodo che ispirerà Newton a formulare le leggi della dinamica, Maxwell a realizzare la prima grande unificazione della fisica con l’elettromagnetismo, Einstein a rivedere i concetti di spazio e di tempo e gli interpreti della meccanica quantistica a descrivere il mondo microscopico con leggi nuove e in conflitto con il senso comune. La scienza moderna, da Galileo in poi, segue quindi un

;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

processo inverso. L'osservazione dei fenomeni le presenta un complesso di fatti in cui si possono dare, e solitamente si danno, fenomeni di diverso tipo. Da codesti aggregati confusi, ottenuti con l'osservazione o con l'esperienza, la scienza cerca di pervenire ad alcune leggi generali che consentano conclusioni suscettibili di osservazione. Quando queste conclusioni osservabili sono comprovate sperimentalmente, la legge generale assurge a ruolo di teoria generale. Il conflitto fra Galilei e l'Inquisizione non fu, quindi, semplicemente l'antitesi fra libero pensiero e oscurantismo o fra scienza e religione, ma la contrapposizione fra il metodo induttivo e quello deduttivo applicato allo studio della natura. Con le regole imposte da Galilei nello studio dei fenomeni naturali, diventava evidente lo scontro tra due visioni differenti del mondo, quella religiosa, che offriva verità assolute, spiegazioni complete e definitive, e quella scientifica animata dal dubbio e da risposte parziali o provvisorie.

La fisica moderna prende dunque l'avvio con Galileo il quale, anziché mirare, come Aristotele, a spiegare il “perché” della realtà ontica in base a principi intelligibili, si limita a studiare il “come” avvengono i fatti della realtà fenomenica. Non si esige che sia stabilita la natura degli esseri e poi, partendo da essa, il loro modo di operare, in ossequio all'aforisma aristotelico-scolastico secondo cui “l'operare segue l'essere”; e che, quindi, la conoscenza dell'operare debba seguire la conoscenza dell'essere; ma si esamina il modo di procedere di ogni cosa per stabilirne la norma generale, prescindendo dalla sua natura ontica. Il metodo di Galileo è sperimentale ed il suo strumento è la matematica, così che la visione, ch'egli ha dell'universo, risulta a tal punto quantificata, che per la prima volta, dopo Democrito ed in anticipo su Locke, è da lui introdotta la differenziazione fra qualità che sono inerenti agli oggetti e qualità che sono insite nei sensi. Fra le prime Galileo pone la figura e il movimento e, fra le seconde, i sapori, i colori e gli odori, i quali non possono esistere separati dall'animale che sente.

Alla nascita della scienza moderna fa riscontro tutta una serie di conseguenze per il sapere in generale e nel campo filosofico in particolare. In primo luogo l'interesse si sposta dal sapere puro, contemplativo, alla scienza applicata. Quanto è lontano da Aristotele Bacone quando scrive: “L'obiettivo vero e legittimo della scienza non è altro che questo: che la vita umana sia arricchita da nuove scoperte e nuove forze”.

Per ciò che concerne l'oggetto stesso di studio, l'interesse si sposta dall'ontico (ossia dalla sostanza od essenza) al fenomenico (all'accidente). La questione di fondo non è più quella di sapere che cosa siano le cose, ma com'esse si effettuino, cioè in connessione a quali leggi, che siano traducibili matematicamente s'intende. Motivo per cui la qualità cede il primato alla quantità misurabile. Procedendo nella stessa linea fenomenica di Galileo, Keplero riesce a ridurre a leggi matematiche il moto apparente dei pianeti. Fu, tuttavia, merito di Newton se la visione fenomenico-meccanica del mondo giunse al suo apogeo. Newton formula quattro regole fondamentali per l'investigazione nel campo delle scienze naturali:

1. Delle cose naturali non devono essere ammesse cause più numerose di quelle che sono vere e bastano a spiegare i fenomeni.

2. Perciò, finché può essere fatto, le medesime cause vanno attribuite ad effetti naturali dello stesso genere.

3. Le qualità dei corpi che non possono essere aumentate e diminuite, e quelle che appartengono a tutti i corpi sui quali è possibile impiantare esperimenti, devono essere ritenute qualità di tutti i corpi.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;!

4. Nella filosofia sperimentale, le proposizioni ricavate per induzione dai fenomeni, devono, nonostante le ipotesi contrarie, essere considerate vere, o rigorosamente o quanto più possibile, finché non interverranno altri fenomeni, mediante i quali o sono rese più esatte o vengono assoggettate ad eccezioni.

Due tratti principali caratterizzano la visione newtoniana. Il primo è la semplicità di tutto il suo sistema. Newton fonda tutta la sua costruzione su quattro grandezze fisiche (spazio, tempo, massa e quantità di moto) ed altrettante leggi o principi. Con elementi così semplici Newton riesce a dare una visione coerente ed unitaria non solo dei fenomeni meccanici, che avvengono sulla Terra, ma anche dei moti degli astri. Questa visione unitaria costituisce la seconda caratteristica del sistema newtoniano e relega nel dimenticatoio la dicotomia aristotelica fra corpi sublunari e corpi celesti, tra fisica terrestre e fisica celeste. Newton, partendo da queste grandezze e da questi principi, giunse infine a scoprire e a formulare la famosa legge della gravitazione universale, che costituisce forse l'esempio più chiaro del cambiamento operato nella concezione della scienza e nella visione del mondo. Prescindendo dall'intenzione di Newton, tale legge non pretende di chiarire la natura reale, ontica, dei corpi, né della stessa gravitazione, che era sconosciuta a Newton come continua ad esserlo tuttora, né ha la pretesa d'essere una verità filosofica, ma semplicemente una verità scientifica, ossia un'ipotesi di lavoro, che è vera nella misura in cui corrisponde ai fatti fenomenici conosciuti e in quanto serve a predirne altri comprovabili mediante la verifica sperimentale e l'osservazione. Questa visione dell'universo come macchina gigantesca, le cui parti sono fra di loro collegate dalla gravitazione, ebbe in seguito numerose e splendide conferme come nell’opera di Laplace e la scoperta di Nettuno fatta da Verrier esclusivamente mediante calcolo matematico.

Tutto ciò ha come conseguenza che la scienza e la filosofia vadano sempre più distanziandosi e rendendosi indipendenti, con pregiudizio di entrambe, in special modo della seconda, che si chiude in se stessa e tralascia di rispondere alla problematica del mondo d'oggi. Più ancora, la molteplicità dei sistemi filosofici, spesso in opposizione fra di loro, induce gli stessi filosofi a interrogarsi sulla validità della conoscenza stessa. Non è allora a caso che Cartesio proponga il suo dubbio metodico sulla conoscenza, per quanto egli creda di riuscire a trovargli una via d'uscita vittoriosa.

In questa stessa direzione, ma in forma più radicale, Kant, sorpreso dell'insicurezza della metafisica di fronte alla sicurezza delle matematiche e della fisica, nella prefazione della seconda edizione della Critica della ragion pura scrive: “Alla metafisica, conoscenza speculativa razionale, affatto isolata, che si eleva assolutamente al di sopra degli insegnamenti dell'esperienza, e mediante semplici concetti (non, come la matematica, per l'applicazione di questi all'intuizione), nella quale dunque la ragione deve essere scolara di se stessa, non è sinora toccata la fortuna di potersi avviare per la via sicura della scienza; sebbene essa sia più antica di tutte le altre scienze, e sopravvivrebbe anche quando le altre dovessero tutte quante essere inghiottite nel baratro di una barbarie che tutto devastasse. Giacché la ragione si trova in essa continuamente in imbarazzo, anche quando vuole scoprire (come essa presume) a priori quelle leggi, che la più comune esperienza conferma. In essa si deve innumerevoli volte rifar la via, poiché si trova che quella già seguita non conduce alla meta; e, quanto all'accordo dei suoi cultori nelle loro affermazioni, essa è cosi lontana dall'averlo raggiunto, che è piuttosto un campo di lotta: il quale par proprio un campo ad esercitare le lotte antagonistiche, in cui nemmeno un campione ha mai potuto

;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

impadronirsi della più piccola parte di terreno e fondar sulla propria vittoria un durevole possesso”.

Agli inizi del secolo XX gli scienziati cominciano a distanziarsi dalla visione meccanicistica newtoniana dell'universo in conseguenza di certi fenomeni che avvengono nel mondo dell'estremamente piccolo (l'atomo) e dell'estremamente grande (le galassie), e che non trovano una spiegazione congrua nella meccanica classica, dando vita, così, alle due grandi e rivoluzionarie teorie del Novecento: la relatività e la meccanica quantistica. Sorvolando sui contenuti specifici di tali teorie, che saranno approfonditi nel corso del libro, ci limiteremo a menzionare quegli aspetti concettuali e logici che hanno avuto un carattere autenticamente rivoluzionario sotto diversi punti di vista, dal momento che non riguardavano più l'impossibilità di "visualizzare" il mondo fisico, ma addirittura quello di pensarlo impiegando le categorie che il senso comune utilizza per intendere il mondo e che, in particolare, sono state precisate ed elaborate in seno alla tradizione filosofica dell'Occidente. Si pensi, per esempio, al fatto di dover conciliare continuità e discontinuità nell'interpretazione del mondo microfisico, alla dualità della rappresentazione corpuscolare e ondulatoria delle particelle elementari, all'indeterminatezza di principio nell'attribuzione simultanea di valori a grandezze coniugate a livello microfisico, alla necessità di considerare la massa e le dimensioni spaziali di un corpo non più come le sue proprietà più inalterabili e intrinseche, ma come variabili in funzione della sua velocità, per non parlare delle interdipendenze fra due entità concettualmente tanto distinte come lo spazio e il tempo e, per finire, della conversione da una concezione deterministica a una probabilistica delle leggi naturali, con la correlata riconsiderazione del principio di causalità.

Daremo ora solo qualche breve cenno per mostrare come queste difficoltà siano venute dipanandosi e connettendosi l'una all'altra in modo irresistibile. Per il senso comune e per la fisica classica il concetto di simultaneità di due eventi ha un valore assoluto (essi sono tali se hanno luogo nel medesimo istante temporale). Einstein ha però chiarito che questo concetto ha un reale significato fisico solo se possiamo precisare come stabilire tale simultaneità, e la sua analisi ha condotto a riconoscere che essa dipende dal sistema di riferimento e può risultare sussistente o non sussistente a seconda del moto relativo dei sistemi di riferimento. Tale simultaneità intrinseca ai due eventi può essere affermata dal senso comune solo con riferimento implicito a un tempo assoluto, ma questo è stato eliminato dalla teoria della relatività, la quale ha anche operato un mutamento più radicale, mostrando che spazio e tempo sono interdipendenti, per non accennare ad altre peculiarità, come i concetti di spazio a quattro dimensioni o di spazio curvo.

Passiamo ora ad altre proprietà che il senso comune considera come intrinseche e invariabili per un dato corpo, come la massa e la lunghezza di un corpo rigido. La relatività mostra che esse dipendono dalla velocità di traslazione di quel corpo la quale, a sua volta, è relativa ai sistemi di riferimento. Per di più la massa può convertirsi in energia e viceversa, cosicché la vecchia legge di conservazione della massa deve esser riformulata in una più complessa formula di conservazione dell'energia (o della massa-energia). Si noti che, anche così, la vecchia concezione dell'uniformità della natura, espressa dalle leggi fisiche, non è stata abbandonata, poiché la teoria della relatività è un grande sforzo per trovare una formulazione delle leggi di natura che sia invariante rispetto alla relatività delle misure possibili nei diversi sistemi di riferimento.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;4!

Passando alla fisica quantistica, basti ricordare che essa pone un limite teorico (e non solo pratico) alla possibilità di determinazione esatta e simultanea delle grandezze coniugate di un sistema microfisico (come, per esempio, posizione e velocità di una particella), secondo quanto stabilito nelle relazioni di indeterminazione di Heisenberg e ciò si riflette anche sulla possibilità di precisione esatta consentita dalle leggi fisiche (che assume un carattere soltanto statistico). Tutto ciò è anche conseguenza del fatto che nei procedimenti di misura si deve realizzare una preparazione che rende impossibile una netta separazione fra osservatore (o apparecchio di misura) e oggetto osservato, togliendo una delle caratteristiche più spontanee che il senso comune (e la fisica tradizionale) sottendevano per una conoscenza oggettiva del mondo. Finalmente, perfino le due visioni rivali (corpuscolare e ondulatoria) sono obbligate a convivere, non già in campi separati della fisica, come accadeva in precedenza, ma nella descrizione del comportamento di una medesima entità, secondo il cosiddetto principio di complementarietà enunciato da Bohr.

Possiamo fermarci qui e chiederci come mai gli scienziati accettino teorie tanto strane per il senso comune e gli stessi intelletti delle persone colte. La risposta è che esse non solo hanno ricevuto molte conferme sperimentali inoppugnabili e permesso applicazioni tecnologiche di grande rilievo, ma anche che relatività e fisica quantistica non hanno incontrato una sola smentita sperimentale e debbono esser considerate come verificate ancor più di quanto lo fosse, nel suo campo, la fisica classica. Proprio queste conferme sperimentali e queste riuscite applicazioni tecnologiche costituiscono un certo ritorno verso il senso comune, anche se sono venute meno quasi tutte le possibilità di rappresentazione di senso comune di cui godeva abbastanza ampiamente la vecchia fisica e che, ben inteso, possono esser tentate con strumenti più complessi anche per la nuova fisica.

Questi fatti ben noti hanno alimentato, sin dai primi decenni del Novecento, dibattiti filosofici vasti e approfonditi sulla fisica, in cui sono intervenuti i maggiori scienziati del tempo, ma anche filosofi forniti di una sufficiente competenza scientifica; dibattiti che hanno riguardato temi di filosofia della conoscenza, di ontologia e metafisica, di filosofia della natura, di metodologia delle scienze e nei quali sono emerse le più diverse posizioni. Tutto ciò sta a confermare che una filosofia della fisica si sviluppò robustamente a partire dalla crisi dei fondamenti della fisica, non meno di quanto i dibattiti sui fondamenti della matematica e i risultati inattesi delle ricerche di logica matematica abbiano innervato una filosofia della matematica. Entrambe poi hanno contribuito notevolmente alla costituzione della filosofia della scienza come nuova branca ormai specializzata della filosofia.

;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&()!

Chi non riesce più a provare stupore e meraviglia è già come morto e i

suoi occhi sono incapaci di vedere.

Einstein

!"#$%&'%#(&)!*%#

1.1 Mito e scienza

Per spiegare i fenomeni naturali l’uomo, prima che alla ragione e all’osservazione, fece ricorso alla fantasia, e si formarono così interessantissimi miti intorno all’origine del mondo, al destino dei mortali, alle grandi forze dominanti lo sviluppo degli eventi. Il mito (dal greco mythéo che significa io racconto o narro) rappresenta il primo tentativo, nella lunga storia della ricerca umana, di elaborazione della realtà. Attraverso il mito, infatti, l'uomo, in primo luogo, dà il nome alle cose, vincendo in tal modo il sentimento di paura primordiale, e, poi, costruisce delle narrazioni fantastiche che intendono spiegare come si sono formati il mondo e le divinità. Il mito è una difesa di fronte alla minacciosa presenza delle forze occulte della natura e con esso l'uomo procede a dare un nome al mondo e ad illuminarlo, e a mettere ordine nel caos. Prima che la scienza prendesse esplicitamente avvio, l'arte e la religione greca avevano già abbozzato alcune riflessioni generali sull'uomo e sul mondo. Ciò avvenne soprattutto nelle cosmologie mitiche, che cercavano di narrare l'origine del mondo a partire dal caos primitivo. Questi racconti sono definiti mitici, in quanto ricorrono a spiegazioni fantastiche. Essi, però, non devono essere considerati come qualcosa di primitivo, in quanto la forma letteraria del mito, che sul piano artistico attinge a vette elevatissime, è già una elaborazione della realtà. Il mito, dunque, anche se non possiede l'universalità e la lucidità dell'affermazione teorica, non va considerato come un complesso di falsità e quindi un ostacolo alla conquista del vero. Al contrario esso ha avuto una funzione molto positiva: ha educato l'uomo a non fermarsi ai semplici fatti nella loro molteplicità disorganica, ma a considerarli connessi l'uno all'altro, cercando i principi di ciò che accade intorno a noi, e, attraverso i principi, i mezzi per agire sulla natura onde trasformarla a vantaggio dell'umanità.

Tra mito e scienza non c'è, pertanto, opposizione, in quanto entrambi sono attività del pensiero umano tendenti a rispondere al perché del mondo, ma un comune

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;6!

sentimento di stupore e la comune volontà di dare un senso ai fenomeni della natura: dai corpi celesti ai fenomeni atmosferici, dall'alternarsi delle stagioni all'origine stessa degli uomini e delle divinità. La differenza principale tra mito e scienza riguarda, piuttosto, il metodo con cui essi ricercano la verità delle cose. Il mito si serve della narrazione fantastica e non si cura di accertare la validità dei propri enunciati; la scienza, invece, fa del metodo scientifico, ossia della verifica delle proprie ipotesi attraverso opportune misure quantitative, lo strumento essenziale della propria ricerca.

1.2 Le cosmogonie

I primordi della scienza si confondono con la sapienza mitica espressa soprattutto nelle cosmogonie. La cosmogonia (da kosmos=universo e ghighnomai=io genero) è la spiegazione mitica dell'origine e della formazione del mondo e tutti i popoli e le civiltà hanno formulato dei miti cosmogonici. Alcuni dei miti cosmogonici più antichi si estendono a tutto l'oriente mediterraneo. L'elemento primordiale sarebbe quasi ovunque un caos fluido (si pensi alla spontanea fertilità dell'elemento acquoso che produce la vita nelle valli del Nilo, del Tigri e dell'Eufrate), ed, emersa da esso, una Grande Madre avrebbe dato inizio alla creazione del mondo e degli dèi. E' presente in questo mito il concetto, che suggerirà a volte forme di religiosità panteistica, di unità dell'universo in quanto originato da una materia unica. Ma il binomio Grande Madre-caos fu interpretato anche come dualistica opposizione tra forza della vita e della morte, della fecondazione e della sterilità, della luce e delle tenebre, dell'amore e dell'odio.

Il più antico documento della cosmogonia presso i Greci è la Teogonia di Esiodo (VIII sec. a.C.; VII sec. a.C.), il quale, fu probabilmente il primo a cercare un principio delle cose quando disse che all'inizio ci fu «Caos», poi venne la terra «dall'ampio seno» e quindi l'amore «che eccelle tra gli dei immortali». Egli vuole rispondere alla domanda fondamentale che gli sta a cuore, e cioè: come il mondo è divenuto quello che è. Per rispondere a tale questione un poeta dell'VIII secolo a.C., come Esiodo, non poteva fare a meno di immaginare un complesso di atti e di interventi divini che dessero ragione dell'esistenza e della forma di cui si compone la realtà. In questa primitiva ricerca il mondo umano e quello divino si trovano strettamente legati l'uno all'altro, e la cosmogonia si trasforma, dunque, in teogonia: attraverso la narrazione delle generazioni degli dèi, l'autore allude al multiforme divenire della realtà. Esiodo, per poter spiegare l'ordine che governa il mondo, non fa altro che narrare i rapporti genealogici tra i vari dèi, che del kosmos (= ordine) sono i garanti . Ed è significativo che nella Teogonia il ruolo della coppia divina primigenia, che è all'origine di tutto, sia attribuito a Gaia (la terra) e Urano (il cielo). Infatti, dovendo rappresentare l'ordine del mondo fisico attraverso le gerarchie divine, Esiodo pone all'origine di tutte le generazioni una coppia che è la personificazione stessa dell'universo fisico, la terra e il cielo.

La Teogonia di Esiodo presenta alcune significative analogie con alcuni miti cosmogonici del vicino Oriente. L'origine dell'universo da una coppia divina si ritrova anche nella mitologia egizia, che propone vari racconti della creazione. Un'idea ricorrente nei miti cosmogonici egizi è che la vita derivò dalle acque dello "smisurato abisso". All'origine di questi miti c'era indubbiamente l'osservazione che le terre

;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

inondate dal fertile limo del Nilo erano promesse di nuova vita per un nuovo anno agricolo.

Presso i Babilonesi la creazione di un universo ordinato venne attribuita alla vittoria di Marduk, il dio babilonese per eccellenza, su Tiamat, la divinità del caos. Ancora una volta all'origine della creazione troviamo, come nella Teogonia di Esiodo, una battaglia titanica tra forze divine opposte, un dramma cosmico tra il caos e l'intelligenza ordinatrice. In questo mito si cela, forse, la lotta dell'uomo primitivo contro le periodiche inondazioni della Mesopotamia, interpretata come conflitto primordiale tra le forze del caos e quelle dell'ordine che producono la vita.

Contemporaneamente alle credenze religiose politeistiche del resto del bacino mediterraneo si sviluppò nel popolo ebraico, soprattutto per merito di Mosè, una fede intransigentemente monoteistica.

Secondo la cosmogonia ebraica dio è creatore di tutte le cose, ed il mondo che può apparire ingiusto e malvagio ha in realtà una sua profonda moralità e tende ad un alto fine religioso.

1.3 Le più antiche civiltà

L’uomo ha sempre cercato di controllare e dominare la natura attraverso l’invenzione di tecnologie sempre più avanzate; gradualmente ha poi provato a comprenderla. Solo molto tempo dopo ha imparato a combinare i due desideri, dando forma alla scienza moderna. Ma lo sviluppo della scienza moderna poggia sulla curiosità e l’interesse di molti secoli nei quali le tecniche per esplorare la natura sono state sviluppate lentamente, e la conoscenza lentamente accumulata.

La tecnologia primitiva, oltre al mito, fu il mezzo attraverso cui l’uomo cercò di sottomettere la natura. Basterebbero le imponenti rovine dei monumenti nel Mediterraneo orientale per darci un’idea dello sviluppo fra quei popoli della tecnica. Man mano che al bronzo si sostituiva il ferro, più economico e funzionale, fonderie e miniere passavano dal livello artigianale a quello di piccole manifatture, data la tecnica più complessa richiesta dalla nuova lavorazione. Non si deve tuttavia pensare che la tecnica, prodotto di osservazione razionale e di sperimentazione ripetuta, abbia potuto svilupparsi senza che un profondo impulso fosse dato pure alla scienza. Strumento della scienza in quest’epoca fu anzitutto la scrittura, che, originariamente geroglifica, venne sostituita dalle più funzionali scritture fonetiche, sillabica (miceneo) e alfabetica (forse di invezione fenicia). La scrittura permise l’approfondimento delle prime conoscenze ed osservazioni, si scrissero i primi libri e si fondarono le prime biblioteche nei templi e palazzi reali (famosissima quella a Ninive costruita dal re Assurbanipal nel VII sec. a.C.).

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;8!

Quindi, se vogliamo individuare il luogo in cui collocare le origini della scienza moderna, questo è la Mesopotamia, dove intorno al 4000 a. C. si sviluppò una fiorente civiltà, quella dei Sumeri prima e dopo quella dei Babilonesi. In quanto popolo di commercianti, si interessarono di numeri. Svilupparono un sistema sessagesimale, cioè basato sul numero 60, del quale oggi ci rimane la suddivisione dell’angolo giro in 360° oppure l’ora in 60 minuti e il minuto in 60 secondi. Possedevano tavole di moltiplicazioni di grande complessità, e anche tavole che fornivano la soluzione di problemi che oggi risolviamo facilmente attraverso l’uso delle equazioni. Pertanto erano in grado di risolvere equazioni complesse ma sempre in termini numerici, poiché non possedevano la nozione di generalità. Ma neanche ci troviamo di fronte a semplici quesiti pratici che richiedono una soluzione, bensì ad un procedimento di calcolo che sembra costituire la parte importante di un discorso. Si può dire che è già superata la fase della matematica empirica, caso per caso, secondo il bisogno. Non solo molti problemi sono suggeriti da una curiosità scientifica che trascende la necessità della vita quotidiana, ma siamo di fronte a problemi che vengono risolti con lo stesso procedimento, con gli stessi metodi di calcolo. Una ricerca di metodo dunque, e questa è scienza.

Nonostante la presenza di una grande quantità di dati, conosciamo poco sul pensiero dei matematici babilonesi e soprattutto sulla presenza di una struttura teorica sottostante. Nel campo astronomico sappiamo che i sumeri utilizzavano un calendario lunare, mentre i babilonesi (dopo il 2000 a. C.), con l’aiuto di strumenti scientifici come lo gnomone, registrarono molte osservazioni del moto della luna, del sorgere e tramontare di Venere e Mercurio, e di eclissi. Furono in questo periodo che vennero denominate le costellazioni (lo zodiaco). Il fine di tutte queste registrazioni di fenomeni celesti era di carattere astrologico. Moltissimo tempo dopo (500 a. C.), quando la Mesopotamia era dominata dai greci, si sviluppò un’astronomia matematica altamente elaborata e complessa. Infatti, dopo il 300 a. C., vennero effettuate due previsioni della lunghezza dell’anno solare corrette a meno di pochissimi minuti.

La situazione nella vicina civiltà dell’Egitto era comparabile con quella del bacino mesopotamico. Nonostante le colossali costruzioni di tombe e monumenti, come le piramidi, la geometria egiziana era molto elementare, ed al pari di quella babilonese, aveva uno scopo prettamente pratico e non teorico. Il sistema numerico egiziano era più rudimentale di quello babilonese, e i metodi di calcolo davvero elementari. Diversamente dai babilonesi, gli egizi mostrarono uno scarso interesse per gli eventi astronomici anche se usarono calendari lunari e solari e potrebbero aver comparato i due al fine di determinare l’errore in lunghi cicli di tempo.

Anche se alcune fondamentali nozioni scientifiche, come la concatenazione di causa ed effetto, furono conquista già della tecnica più primitiva, e nonostante l’uso magistrale delle più sofisticate tecniche, sia gli egizi che i babilonesi mancarono di curiosità nel comprendere perché queste tecniche funzionassero. In nessuna fase cominciarono a speculare sulla natura, a costruire un sistema di pensiero, e cercarono per i più appariscenti fenomeni, come il moto delle stelle o dei pianeti, le fasi della luna o le eclissi, spiegazioni mitologiche. La civiltà mesopotamica ed egiziana influenzarono i greci, loro successori, tecnicamente ma non concettualmente.

;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&()!

…fatti non foste a viver come bruti,

ma per seguire virtute e conoscenza.

Dante

!"#$%&'%#+,-*%#

2.1 Caratteri della società greca

I Greci, e primi fra essi gli ionici dell’Asia Minore, oltre a una vastità di dati

empirici, soprattutto astronomici, ereditarono il furore matematico dei popoli mesopotamici e la tecnica geometrica degli egiziani. L’eredità venne accolta da spiriti nuovi che tendevano al raziocinio più che all’osservazione minuta, alla speculazione filosofica sull’origine e sui principi di tutte le cose più che al semplice computo. È vero che le convinzioni religiose che avevano animato l’indagine scientifica nell’Oriente non vennero meno neanche durante il periodo della fioritura della scienza greca, solo che adesso sorgono degli accesi contrasti di idee le cui conseguenze risulteranno fondamentali per lo sviluppo della scienza nel mondo occidentale.

La scienza dei Greci che si venne delineando attraverso un lento e faticoso processo di ricerca tra i secoli VI e V a.C., non si deve intendere come separata dalla filosofia né dalle tecniche, che proprio in quei secoli acquistavano grande importanza. Il termine greco téchne (tecnica), infatti, comprendeva fra i suoi significati non solo quello di arte della manipolazione del mondo fisico, ma anche della sua conoscenza (scienza, nel nostro linguaggio odierno). Inoltre, l'arte o téchne era vista in funzione dell'utilità e del beneficio che poteva assicurare all'uomo. Nel concetto greco di téchne sono, dunque, contenute sia l'idea della conoscenza o epistème che quella dell'abilità pratica nella produzione di un oggetto.

Nella società greca arcaica, almeno fino a Platone, il sapere non si presenta parcellizzato in tanti compartimenti stagni; pertanto, colui che aveva conoscenza profonda delle cose, padroneggiava contemporaneamente anche l'arte del fare, era cioè esperto nell'utilizzo tecnico di esse. Significativo, a tal proposito, il seguente aneddoto che Aristotele ci tramanda su Talete e che evidenzia la stretta interazione tra conoscenza, téchne e utilità per l'uomo. Si diceva - ci riferisce Aristotele - che la gente rinfacciasse a Talete l'inutilità del suo sapere, dal momento che egli era povero. Ma Talete, avendo previsto, in base ai suoi calcoli astronomici, un abbondante raccolto di

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:!

olive, ancora in pieno inverno si accaparrò tutti i frantoi di Mileto e di Chio, pagandoli a prezzo irrisorio, dal momento che non ce n'era richiesta alcuna. Quando giunse il tempo della raccolta, poiché erano molti a ricercare i frantoi, egli li noleggiò al prezzo che volle e così, ricavatene molte ricchezze, dimostrò che per i sapienti era facile arricchirsi, anche se non era questo il loro obiettivo. L'aneddoto mette in risalto come la scienza, lungi dall'essere inutile, poteva essere fonte di arricchimento, anche se non a questo badavano principalmente i primi filosofi.

Lo sforzo di descrizione, di coordinazione, di spiegazione e di previsione dei fenomeni naturali, primo nucleo attorno al quale nel corso dei secoli si formerà la fisica (dal greco physis=natura), cominciò dunque in Grecia nel VI secolo a.C., favorito dall’ambiente politico-sociale-culturale e da un linguaggio già affinato da una lunga tradizione letteraria. Però quando si parla della Grecia antica, non dobbiamo pensare soltanto alla penisola che costituisce oggi lo stato greco, bensì a tutto il bacino del Mar Egeo e dello Ionio, comprendente da un lato le coste dell’Asia Minore, e dall’altro quelle della Sicilia e dell’Italia Meridionale, colonizzate dai Greci.

L’evoluzione della scienza greca si suole dividere in quattro periodi:

1. l’età ellenica (dal 600 al 300 a.C.), che corrisponde allo sviluppo libero delle città greche;

2. l’età ellenistica (dal 300 all’inizio dell’era volgare), che riguarda l’ellenizzazione di tutto il mondo orientale;

3. l’età greco-romana, che occupa i primi tre secoli dell’era volgare; 4. il periodo dei commentatori o della decadenza (dal 300 al 600 d.C.), che non reca

ulteriore sviluppo scientifico, ma solo una riduzione dell’antico materiale, nella forma di riferimenti e di notizie.

L‘idea che si potesse comprendere la natura in modo razionale nasce, perciò, nelle luminose città greche. La nascente civiltà greca è profondamente diversa da quella mesopotamica ed egiziana, che sono ordinate, stabili e gerarchiche. Il potere è centralizzato e la civiltà si regge sulla conservazione dell’ordine stabilito. Il giovane mondo greco, al contrario, è dinamico, in evoluzione continua. E’ apertissimo ad assorbire quanto può dalle civiltà vicine. Non vi è potere centrale e ogni città è indipendente e, all’interno di esse, il potere è rinegoziato in continuazione fra i cittadini. Le leggi non sono né sacre né immutabili, ma, al contrario, sono continuamente discusse, sperimentate e messe alla prova. L’autorità è soprattutto di chi è in grado di convincere gli altri, attraverso il dialogo e la discussione. In questo clima culturale profondamente nuovo nella storia del mondo, nasce un’idea nuova della politica: la democrazia. E le basi su cui poggia la democrazia delle giovani città greche sono le

=<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

stesse della ricerca scientifica del sapere. E nasce un’idea nuova della conoscenza: la conoscenza razionale. Questa è una conoscenza dinamica, che evolve, che è continuamente discussa e messa alla prova. L’autorità del sapere viene soprattutto dalla capacità di convincere gli altri della giustezza delle proprie affermazioni e non dalla tradizione, dal potere, dalla forza o dall’appello a verità immutabili. La critica alle idee acquisite non è temuta; al contrario, è auspicata: è la sorgente stessa del dinamismo, della forza di questo pensiero.

Questo nuovo metodo d’indagine avvicina la scienza greca alla nostra. I Greci, staccandosi decisamente dalle pratiche magiche e sottoponendo a severa critica ogni ricorso alle spiegazioni mitiche dei fenomeni naturali, tracciarono per primi la via (il metodo) della ricerca scientifica, consistente soprattutto nel congiungere l'esperienza e il ragionamento, i dati sensibili ottenuti tramite l'attenta osservazione dei fenomeni e la sistemazione teorica.

2.2 La physis

Aristotele chiama "fisici" e "fisiologi" i primi pensatori greci. Nel suo linguaggio, la "fisica" (cioè la scienza studiata dai "fisici” ) ha come oggetto quella parte del Tutto che è la realtà diveniente (sia essa realtà corporea, o biologica, o psichica), oltre la quale esiste la realtà immutabile di Dio. La "fisica" aristotelica (e, a maggior ragione, la fisica moderna) non è scienza del Tutto. Anche se questa interpretazione di Aristotele della nascita della filosofia è spiegabile in relazione al modo in cui si configura la filosofia aristotelica, tuttavia il rendersi conto che nei primi pensatori greci la cura della verità è insieme un rivolgersi al Tutto, richiede che non si possa accettare la tesi aristotelica secondo la quale la filosofia al suo inizio è semplicemente una "fisica". Poiché la parola "metafisica" sarà usata, nel linguaggio filosofico successivo, per indicare il rivolgersi della filosofia al Tutto, oltrepassando il sapere limitato al mondo fisico, è più aderente alla situazione reale dire che i primi pensatori greci sono dei “metafisici” e anzi i primi metafisici. Questo, qualora la parola "metafisica” (usata inizialmente da Andronico, editore delle opere di Aristotele, nel I secolo a.C., per indicare gli scritti che, nell'edizione, venivano "dopo" quelli destinati alla fisica) sia appunto intesa come il rivolgersi al Tutto, andando oltre quella dimensione particolare del Tutto che è costituita dalla realtà diveniente.

Il termine "fisica" è costruito sulla parola physis, che i latini hanno tradotto con "natura". Se si sta alla definizione aristotelica di "fisica"—dove physis appunto è la realtà diveniente—allora tradurre physis con “natura” è del tutto legittimo, perché nel termine latino natura risuona innanzitutto il verbo nascor ("nasco", "sono generato"), si che la "natura" è appunto il regno degli esseri che nascono (e quindi muoiono), ossia di ciò che, appunto, diviene. Ma quando i primi filosofi pronunciano la parola physis, essi non la sentono come indicante semplicemente quella parte del Tutto che è il mondo diveniente. Anche perché è la parola stessa a mostrare un senso più originario, che sta al fondamento di quello presente ad Aristotele. Physis è costruita sulla radice indoeuropea bhu, che significa “essere”, e la radice bhu è strettamente legata (anche se non esclusivamente, ma innanzitutto) alla radice bha, che significa "luce" (la parola saphes). Nascendo, la filosofia è insieme il comparire di un nuovo linguaggio, ma questo linguaggio nuovo parla con le parole vecchie della lingua greca e soprattutto con quelle

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;!

che sembrano più disponibili ad essere dette in modo nuovo. Già da sola, la vecchia parola physis significa “essere” e “luce” e cioè l’essere, nel suo illuminarsi. Quando i primi filosofi chiamano physis ciò che essi pensano, non si rivolgono a una parte o a un aspetto dell'essere, ma all'essere stesso, in quanto esso è il Tutto che avvolge ogni parte e ogni aspetto; e non si rivolgono all'essere, in quanto esso si nasconde e si sottrae alla conoscenza, ma all'essere che si illumina, che appare, si mostra e che in questa sua luminosità è assolutamente innegabile. In questo rivolgersi alla physis, cioè al Tutto che si mostra, la filosofia riesce a vedere il Tutto nel suo esser libero dai veli del mito, ossia dai tratti alteranti che questo velamento conferisce al volto del Tutto. Per la filosofia, liberare il Tutto dal mito significa che il Tutto non è ciò che resta suscitato dalla forza inventiva del mito, bensì è ciò che da sé è capace di mostrarsi e di imporsi, proprio perché riesce a mantenersi manifesto e presente. E il Tutto non mostra di contenere ciò che il mito racconta (le teogonie e le vicende degli dèi e del loro rapporto con gli uomini), bensì mostra il cielo stellato e il sole e la terra e l'aria, e l'acqua, e tante altre cose ancora, che il filosofo si trova davanti e si propone di penetrare e comprendere. La filosofia (la "cura per il luminoso") si presenta sin dall'inizio come il lasciar apparire tutto ciò che è capace di rendersi manifesto e che pertanto si impone (e non è imposto dalla fantasia mitica), ossia è verità incontrovertibile: physis.

L’affermazione di Aristotele che la scienza dei primi pensatori è una "fisica" può essere espressa anche dicendo che tale scienza è una "cosmologia", cioè una scienza del "cosmo". Si è già accennato che, come la parola chàos, anche la parola kòsmos ha un significato originario che illumina il senso della presenza di tale parola nel più antico linguaggio filosofico. Quando si intende kòsmos come "ordine" e "cosmo" (cioè mondo ordinato, in contrapposizione al disordine del chàos), ci si trova già oltre quel significato originario. Anche qui è la radice indoeuropea di kòsmos a dare l'indicazione più importante. Tale radice e kens. Essa si ritrova anche nel latino censeo, che, nel suo significato pregnante, significa "annunzio con autorità": l'annunziare qualcosa che non può essere smentito, il dire qualcosa che si impone. Ci si avvicina al significato originario di kòsmos, se si traduce questa parola con "ciò che annunziandosi si impone con autorità". Anche l'annunziarsi è un modo di rendersi luminoso. Nel suo linguaggio più antico, la filosofia indica con la parola kòsmos quello stesso che essa indica con la parola physis: il Tutto, che nel suo apparire è la verità innegabile e indubitabile.

Si può così comprendere perché la filosofia non abbia tardato a chiamare se stessa epistéme. Se noi traduciamo questa parola con "scienza", trascuriamo che essa significa, alla lettera, lo "stare" (stéme) che si impone "su" (epì) tutto ciò che pretende negare ciò che "sta": lo "stare" che è proprio del sapere innegabile e indubitabile è che per questa sua innegabilità e indubitabilità si impone "su" ogni avversario che pretenda negarlo o metterlo in dubbio. Il contenuto di ciò che la filosofia non tarda a chiamare epistéme è appunto ciò che i primi pensatori (ad esempio Pitagora ed Eraclito) chiamano kòsmos e physis.

Come la fisica moderna (ma già la "fisica" aristotelica) non ha più a che fare col senso della physis alla quale pensano i primi filosofi—appunto perché la scienza moderna procede dall'assunto metodico di isolare dal suo contesto quella parte della realtà che essa intende studiare e controllare—così l'epistéme alla quale si riferisce la moderna epistemologia non ha a che fare col senso filosofico dell'epistéme. L’epistemologia è la riflessione critica sulla scienza moderna, ossia su quel tipo di conoscenza che ha progressivamente rinunciato a porsi come verità incontrovertibile e

==! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

si propone come conoscenza ipotetica provvisoriamente confermata dall'esperienza e in grado di operare la trasformazione del mondo più radicale che l'uomo sia mai riuscito a realizzare. E questi sono indubbiamente elementi dell'aspetto per il quale, nella derivazione della scienza dalla filosofia, il parto è un distacco traumatico e doloroso. Questo distacco della scienza dalla filosofia è già in qualche modo preannunciato dal significato complesso di physis, che se nei sui strati più profondi significa l'illuminarsi, l'apparire dell’essere, esso include però anche il senso del nascere e del crescere. Si può supporre che al significato originario di physis tenga dietro quello derivato, perché vi sono dei modi specifici secondo cui le cose giungono a rendersi manifeste: il nascere ricorrente del sole e della luna, il nascere degli uomini e degli animali, lo spuntare, crescere, sbocciare, fiorire delle piante. Quando non si presta più attenzione al fatto che, attraverso questi modi, le cose giungono a rendersi manifeste e ad imporsi, e si presta invece attenzione ai modi specifici che preparano il loro ingresso nell'apparire, allora la parola physis viene usata—come appunto accade in Aristotele—per indicare soltanto l'insieme degli enti costituiti da questi modi, e cioè l'insieme dei vari tipi di sviluppo, ossia quella regione particolare dell'essere che è la realtà diveniente.

2.3 La concezione classica della scienza

Non è difficile riconoscere che i Babilonesi possedevano un numero rispettabile di conoscenze astronomiche e matematiche, che avevano permesso loro di costruire calendari molto precisi e di apprestare regole di computo corrette per numerosi problemi concreti, e lo stesso si deve ripetere per gli antichi Egizi, per i Maya, Aztechi o i Cinesi. Le straordinarie realizzazioni architettoniche di tali civiltà del passato, ottenute con mezzi materiali assai rudimentali, presuppongono una genialità ingegneristica e la capacità di dominare e combinare tante conoscenze anche astratte. Queste considerazioni, seppur corrette, non tengono conto di un aspetto fondamentale della scienza quale noi la intendiamo e conosciamo, quello della sua costruzione teorica, che si aggiunge alla componente della constatazione di fatto e permette poi di spingere la conoscenza molto al di là di quanto è semplicemente constatabile. E proprio su questo punto che la civiltà greca ha introdotto quella rivoluzione nel modo di intendere e fare scienza, ossia nell’aver elaborato un nuovo e originale modello del sapere. Tale modello può essere brevemente schematizzato così: quando aspiriamo a conoscere nel modo più pieno e adeguato una certa realtà, non possiamo limitarci ad appurare che essa esiste e a descrivere accuratamente come è fatta, ma dobbiamo anche cercare di comprendere perché esiste ed è fatta così come ci appare. Per raggiungere questo ulteriore obiettivo non è più sufficiente attenerci a quanto ci fornisce l'esperienza immediata delle cose, ma dobbiamo far intervenire la ragione, la quale in qualche modo chiarisce che quanto constatiamo non è casuale, bensì rientra in un quadro generale entro cui risulta spiegabile. L'esigenza di comprendere e spiegare è connaturata all'uomo ed è conseguenza del suo essere un "animale ragionevole"; pertanto tutte le civiltà hanno cercato di soddisfarla, di solito producendo, come abbiamo visto per le antiche civiltà, miti cosmogonici o proponendo concezioni animistiche di singole realtà o eventi. Ciò che, invece, incomincia a manifestarsi nel mondo greco a partire dal VI secolo a.C. è l'esigenza di rendere esplicite le ragioni attraverso una dimostrazione, la quale sia capace di rifarsi a principi universali e non più a raffigurazioni o storie singole, per lo

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =4!

più soltanto immaginate. In tal modo la spiegazione dei modi di apparire delle cose fu ricercata nel che cosa esse sono, cioè nella loro natura o essenza, e nelle cause che le pongono in essere. Venivano così poste esplicitamente a tema, accanto alle esigenze dell'empiria, anche quelle del logos.

In questa ricerca di ragioni generali al posto di spiegazioni ad hoc escogitate caso per caso, e di un metodo dimostrativo per stabilirle, possiamo riconoscere i tratti distintivi che separano il sapere prescientifico da quello scientifico. Pertanto possiamo osservare che (come già si è detto) Babilonesi ed Egizi conoscevano parecchi esempi pratici di soluzione corretta per problemi aritmetici e geometrici, ma soltanto i Greci hanno fornito la dimostrazione delle proprietà generali dei numeri e delle figure di cui quegli esempi non erano che casi particolari, e con ciò fornirono anche la ragione della loro correttezza. Dovrebbe pertanto esser chiaro in quale senso, pur riconoscendo senza esitazione che parecchie conoscenze che oggi chiamiamo scientifiche erano state acquisite da varie civiltà, nessuna di queste era pervenuta alla creazione della scienza in senso vero e proprio. Questa creazione è un evento storico rivoluzionario di enorme portata che incomincia a prodursi agli inizi della civiltà greca ma che, proprio per il fatto di aver inaugurato una nuova forma di sapere e di pensare, è rimasto come caratteristica costante di tutta la civiltà occidentale che a partire da essa si è sviluppata.

Un fatto di capitale importanza è che le caratteristiche indicate in precedenza come requisiti specifici della scienza greca non emergono come risultato di un'analisi compiuta dai posteri, e in particolare dai filosofi della scienza, bensì furono pienamente enunciate e riconosciute proprio dai filosofi greci dell'epoca, i quali misero in risalto la differenza che sussiste fra il semplice possesso della verità e l'autentico sapere. Non si tratta di un'analisi di poco conto. Infatti è del tutto spontaneo identificare il sapere con il possesso della verità, e in particolare far consistere il sapere in una collezione di conoscenze, ossia di proposizioni vere. In sostanza la scienza è sapere pieno, in cui la verità è affermata con l’ostensione delle sue ragioni. Tutto questo chiarisce pertanto che, secondo il modello di conoscenza esplicitamente teorizzato dalla filosofia greca, il sapere autentico si raggiunge solo quando, dopo aver appurato una verità, si è anche in grado di darne la ragione, ossia di darne il perchè.

In che consiste il “dare le ragioni", il "mostrare perché"? I Greci diedero a queste domande una risposta precisa: significa offrire una dimostrazione. Il sapere autentico è un sapere dimostrativo, ossia argomentato e fondato in base a ragionamenti corretti. In questa scelta si radica quel razionalismo greco che è poi rimasto il carattere distintivo, anche se non esclusivo, dello stile intellettuale dell’Occidente. Tuttavia questa impostazione lascia aperte, o addirittura pone, alcune domande: in che consiste una dimostrazione? Ossia una concatenazione logica (cioè conforme alle esigenze del logos) di ragionamenti? E in che modo può una dimostrazione garantire la verità della conclusione di tale catena? Una dimostrazione o ragionamento corretto, consiste in una concatenazione di proposizioni nella quale la verità delle premesse si trasmette necessariamente anche alle conclusioni. Utilizzare lo strumento dimostrativo per "dare la ragione" di una proposizione vera, pertanto, significava trovare alcune premesse vere da cui questa potesse esser dedotta come conseguenza logica necessaria, ma è chiaro che in tal modo si ripresenta il problema di come garantire la verità di tali premesse, problema che non si risolve né regredendo all'infinito, né muovendosi in circolo, poiché allora non si potrebbe garantire la verità di nessuna proposizione. Pertanto ogni dimostrazione deve partire da premesse indimostrate e indimostrabili e, se a questa

=5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

condizione formale aggiungiamo l’ulteriore requisito che una dimostrazione non vuole essere soltanto una deduzione formale, bensì il modo per fondare un sapere e garantire la verità dei suoi contenuti, si dovrà anche dire che le premesse primitive e indimostrabili debbono essere vere di per sé, ossia, come pure si dice, evidenti. Esse devono apparire tali alla nostra intuizione intellettuale e, per distinguerle dalle premesse assunte in modo soltanto ipotetico, sono spesso chiamate principi. In conclusione: per i Greci un sapere autentico è quello che si fonda su principi evidenti, universali e necessari, dai quali sono dedotte con ragionamenti corretti conclusioni vere, e se capita che le conclusioni dedotte rigorosamente dai principi entrino in collisione con quanto attestato dall'esperienza, non saranno mai i principi a essere smentiti, ma semmai il valore di verità delle risultanze di osservazione. Tuttavia la strada feconda, come vedremo in particolare per Aristotele, sarà quella di trovare interpretazioni dei dati di esperienza che si accordino con i principi.

Quello qui abbozzato in modo intuitivo è il metodo assiomatico-deduttivo, presentato come struttura canonica del sapere. In un dato ambito di ricerca si tratta di organizzare le conoscenze in modo che, individuati alcuni enunciati primitivi (chiamati assiomi o postulati), le rimanenti proposizioni risultino rigorosamente dimostrabili a partire da essi. La scelta di tali enunciati primitivi si basa sulla loro evidenza. In forza di questa struttura, un'autentica scienza (ossia un autentico sapere) risulta dotata di universalità, necessità e certezza. L'applicazione più celebre di questo modello del sapere è costituita dagli Elementi di Euclide, ed ha costituito la spina dorsale della costruzione della matematica occidentale fino ai nostri giorni, ma ha trovato ampia applicazione anche nelle scienze fisiche. Per esempio, è stato adottato nei Principia di Newton ed è usato in diverse presentazioni di altre teorie fisiche attuali, quali la teoria della relatività e la meccanica quantistica. Ma forse ancor più essenziale è il fatto che, anche quando si lasciano cadere i requisiti dell'evidenza e persino della verità (come accade nelle epistemologie contemporanee), le teorie scientifiche continuano a esser concepite come costrutti ipotetico-deduttivi aventi il fine di spiegare, ossia di "dar ragione" dei fenomeni che esse studiano.

Analizziamo a questo punto grandezza e limiti della scienza greca. Le scienze nel mondo greco raggiunsero altezze sbalorditive in certi campi e conseguirono progressi piuttosto modesti in altri. Paradossalmente, la ragione di questo fatto risiede nell’eccesso di perfezione cui si ispirava il modello della ricerca di un sapere assolutamente certo, universale e necessario, sicuro nei suoi fondamenti grazie a un impianto rigorosamente deduttivo. Un ideale del genere finiva col precludere la strada a quelle che noi oggi chiamiamo scienze sperimentali. Ciò accadeva perché, come si è visto, tra l'empiria e il logos esso finiva col privilegiare in misura troppo cospicua il secondo, anche a discapito della prima. La cosa si può cogliere facilmente analizzando il ruolo svolto dalla deduzione logica nello schema classico del sapere e in quello delle scienze empiriche moderne. Nel primo, il compito della deduzione era quello di partire dalle proposizioni più evidentemente vere, per farne poi discendere la verità alle proposizioni dedotte, che trovavano nelle prime il loro fondamento e avevano, in genere, un carattere subordinato. Nel caso delle scienze empiriche quali oggi le riconosciamo, invece, il cammino è inverso: in esse le proposizioni che si possono ritenere immediatamente vere e meglio garantite sono quelle che descrivono singoli fatti d'esperienza. Quando poi vogliamo spiegarle, è ben vero che escogitiamo ipotesi e cerchiamo di mostrare deduttivamente che da esse discendono come conseguenze

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =6!

logiche le proposizioni empiriche note, ma non deve sfuggirci che le proposizioni immediatamente vere si trovano alla fine della deduzione e, ben lungi dal ricevere dalle ipotesi la garanzia della loro verità, sono esse che danno alle ipotesi un certo grado, per altro sempre rivedibile, di plausibilità.

Tenendo conto di questo fatto si può comprendere perché la civiltà greca abbia prodotto una splendida e ricca matematica, ma una fisica quasi trascurabile. Per le matematiche, infatti, lo schema classico era perfettamente applicabile, mentre, per le ragioni anzi dette, esso appare una camicia di forza poco adatta alle scienze empiriche. Di fatto, tentando di applicare tale modello anche alla scienza della natura, sia gli antichi sia i medioevali cercarono di fondarla sulla determinazione di essenze, di principi e di cause universali, le cui verità e certezza fossero più forti e più garantite che non quelle delle singole conoscenze empiriche, che avrebbero dovuto risultare come loro corollari. Ne è venuta una scienza naturale aprioristica, metafisicizzata, largamente arbitraria e dogmatica, rispetto alla quale doveva prodursi soltanto nel Rinascimento la Rivoluzione Scientifica. L'unica eccezione in questo campo era costituita dall'astronomia, il cui vantaggio consisteva nel prestarsi a essere una sorta di grande applicazione della geometria e del calcolo matematico.

2.4 I primi fisici. Anassimandro e la prima rivoluzione scientifica

La prima intuizione di una nuova via da seguire nella comprensione dei fenomeni naturali si ebbe, dunque, non nella Grecia vera e propria, ma nelle colonie della Ionia, in particolare a Mileto, attiva città posta sulle coste dell'Asia minore, in cui, per effetto degli intensi scambi commerciali e per la vivacità della vita civile e politica, fiorì un gruppo di intellettuali: Talete, Anassimandro, Anassimene, accomunati dalla passione per la ricerca fisica e da un nuovo modo di impostare i problemi. Pur operando ancora sulla base di vecchie tradizioni greche e orientali, essi vi introducono due nuovi elementi: in primo luogo una sconsacrazione dei miti intorno all’origine e all’unità del mondo, a cui si sostituisce un’intuizione fisica di tale origine e unità attraverso una sistematica raccolta di informazioni mediante l'esperienza; e, in conseguenza di ciò, la profonda visione metodica dell’omogeneità della natura. In particolare Anassimandro compie la prima grande rivoluzione concettuale della storia della scienza, ridisegnando profondamente la mappa del cosmo, in cui lo spazio non è strutturato in alto e basso assoluti e in cui la Terra “galleggia” nello spazio. E’ la scoperta dell’immagine del mondo che caratterizzerà l’Occidente per secoli, è la nascita della cosmologia e la prima grande rivoluzione scientifica.

Il pensiero dei filosofi milesi si incentrava soprattutto sul problema della realtà primaria e di fronte allo spettacolo multiforme e cangiante del mondo, costituito da una molteplicità di cose in continuo mutamento, si convinsero che, alla base di tutto, esisteva una realtà unica ed eterna, di cui ciò che esisteva era passeggera manifestazione. La loro aspirazione era scoprire la natura essenziale, ovvero la costituzione reale delle cose che essi chiamavano physis (fisica). Pertanto, il termine fisica originariamente significava lo sforzo di scoprire la natura essenziale di tutte le cose. Essi denominano tale sostanza archè (dal greco principio), da cui tutte le cose derivano come la forza o legge che tutte le domina e tutte le governa. E’ dunque una ripresa del problema che in precedenza si celava sotto i miti teogonici, solo che ora il

=7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

principio è materiale, come per Talete o Anassimene, o immateriale (indefinita) come per Anassimandro. Questa ricerca dell’origine di tutte le cose, questa ricerca dell’archè è propria di tutta la scuola ionica, ed esprime una esigenza rimasta sempre alla base del pensiero scientifico, ad esempio in una trasformazione fisica cerchiamo ciò che resta invariato (l’energia, il momento angolare, ecc.), o ciò che vi è di comune, al di là di ogni apparenza come per le radiazioni luminose, elettromagnetiche, termiche, ecc. Oppure, cerchiamo, nella fisica post-einsteniana, attraverso il superamento della geometria euclidea, nuovi strumenti matematici che ci diano la possibilità di trovare un fondamento comune di cui il campo gravitazionale e quello elettromagnetico siano espressioni particolari, in modo da ottenere l’unità del tutto. Il divenire del mondo, ossia i mutamenti che avvengono nelle cose della natura, obbedisce dunque alle stesse leggi ed è ciclico: tutto nasce dal principio e tutto vi ritorna.

La scuola di Mileto era fortemente permeata di misticismo e la cultura greca successiva definì i suoi filosofi ilozoisti, cioè coloro che pensano che la materia sia animata, poiché non facevano alcuna distinzione tra animato e inanimato, tra spirito e materia. In effetti, essi non avevano neppure un termine per indicare la materia, in quanto consideravano tutte le forme di esistenza come manifestazioni della physis, dotata di vita e di spiritualità.

In questo clima culturale effervescente, all’inizio del VI secolo a. C., Talete (c. 640/624 a.C; 547 a.C.), il fondatore della scuola ionica e rappresentante del primo punto di passaggio fra la scienza dell’antico Oriente e la nuova sapienza greca, cominciò una tradizione filosofica e scientifica. Aristotele attribuisce a Talete l’affermazione: “L’acqua è la causa materiale di tutte le cose”. L’affermazione che il mondo sia fatto di acqua (o a partire dall’acqua), non va inteso nel senso puramente materiale, ma che l’acqua rappresenta l’elemento primordiale o principio costitutivo di tutte le cose, e questo implicò un nuovo e rivoluzionario rivolgimento concettuale. Primo, l’esistenza di un problema circa la causa materiale di tutte le cose; secondo, l’esigenza che a questa domanda si debba rispondere in conformità alla ragione, senza ricorso ai miti, o al misticismo; terzo, il postulato che in definitiva sia possibile ridurre ogni cosa ad un principio unico.

L’affermazione di Talete era la prima formulazione dell’idea d’una sostanza fondamentale, di cui tutte le altre cose fossero forme transitorie. Pur facendo diversa scelta del principio unico, tale principio costituisce il tratto caratteristico e l’elemento comune al pensiero dei più antichi filosofi ionici (l’apeiron per Anassimandro, l’aria per Anassimene o il fuoco per il pitagorico Ippaso). Per tutti questi pensatori, non è dubbio che la materia sia qualitativamente unica, perché tutte le specie diverse si vedono trasformarsi l’una nell’altra. L’unità risulta per loro da un principio razionale di permanenza implicitamente accettato, per cui l’intima natura delle cose persiste invariata attraverso l’apparenza dei cambiamenti. Ed il presupposto fa parte ancora della nostra logica scientifica: in tutte le trasformazioni chimico-fisiche, noi cerchiamo ciò che rimane invariato (per esempio la massa) e che riteniamo attinente alla sostanza delle cose, persuasi che attraverso il cambiamento nulla si crei o si distrugga. Motivo per cui attraverso un ciclo conveniente di trasformazioni, ogni materia possa essere ricostruita (per esempio l’acqua, se vengono prima separati e poi ricongiunti i suoi costituenti, l’idrogeno e l’ossigeno).

Talete fu, dunque, il primo a propugnare l’idea che per comprendere il cosmo fosse necessario conoscere la sua natura (physis donde fisica) e che questa natura

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =8!

dovesse essere concepita in termini materiali. Egli fu perciò il fondatore della tradizione filosofica materialista, che cercava di trovare la costituzione definitiva del mondo attraverso la determinazione della materia di cui era costituito. E, nella ricerca della costruzione basilare dell’universo, Talete, e quindi i suoi discepoli, accettarono non solo il fatto che l’universo fosse costituito da qualcosa di semplice, ma anche che la sua complessità risultasse da mutamenti dai quali l’elemento materiale di base (acqua) era diversificato per formare la materia che costituiva l’universo. Un'ipotetica ricostruzione dell'origine dell'universo secondo Talete potrebbe essere la seguente: all'inizio esisteva il grande oceano, poi si formarono la Terra e i corpi celesti. L’intero cosmo, secondo questa teoria, è trasportato sul mare come una nave, mossa e guidata dall'acqua stessa, che ha gli attributi della divinità. Per Talete, dunque, l'acqua è principio divino e ha al suo interno la forza generatrice e regolatrice del cosmo, che probabilmente tornerà ad essere acqua quando avrà finito i suoi giorni. La rassomiglianza con il mito babilonese è evidente, ma è, altresì, significativa la differenza: Talete, eliminando la personificazione dell'acqua in potenze mitiche, la rende un principio materiale e naturale, appartenente cioè all'ordine delle cose fisiche. È il primo passo verso una considerazione scientifica dell'universo. E’ vero che Talete pensava che la Terra fosse un disco galleggiante sull’acqua, ma è di enorme rilievo che egli speculasse su tali argomenti, per cui introdusse elementi astronomici nella cosmologia che in precedenza erano a carattere magico e religioso.

Talete fu il primo ad occuparsi di elettricità e magnetismo, avendo notato che l’ambra, una resina fossile, opportunamente strofinata, era in grado di attrarre oggetti leggeri come piccoli semi o pezzetti di paglia, e affermando che il magnete fosse vivo perchè in grado di far muovere le cose (infatti attrae il ferro) e che avesse un'anima.

Anassimandro (ca. 610 a.C.– ca. 546 a.C.) come il suo maestro Talete, è alla ricerca di un principio di tutte le cose, ma la sua sostanza prima non è un elemento materiale, come l’acqua per Talete, ma l’àpeiron (l’indeterminato o l’infinito, e letteralmente “senza perimetro”). Simplicio (490 a.C.-560 a.C.), commentando il passo e rifacendosi alle, per noi perdute, Opinioni dei fisici di Teofrasto (371 a.C. – 287 a.C.), scrive che per Anassimandro “principio ed elemento degli esseri è l'infinito, avendo egli per primo introdotto questo nome di principio (archè). E dice che il principio non è né l'acqua né un altro dei cosiddetti elementi, ma un'altra natura infinita, dalla quale provengono tutti i cieli e i mondi che in essi esistono [...] e l'ha espresso con parole alquanto poetiche. È chiaro che avendo osservato il reciproco mutamento dei quattro elementi [acqua, aria, terra, fuoco], ritenne giusto di non porne nessuno come principio, ma qualcosa d'altro. Secondo lui la nascita delle cose non avviene per alterazione del principio elementare, ma avviene per il distacco da quello dei contrari a causa dell'eterno movimento”. Nella designazione di Anassimandro, àpeiron è un aggettivo sostantivato che designa una certa proprietà della sostanza primitiva, e che tale materia prima è ritenuta infinita e infinitamente diffusibile, cioè suscettibile di espandersi dappertutto identificandosi con lo spazio. Quindi, ápeiron inteso anche come "non definito", "indeterminato". Essendo indeterminato, non identificandosi con nessun specifico elemento (stoichéion) - acqua, aria, terra o fuoco – resta determinato dall'unica qualità che gli appartiene derivante dalla sua stessa definizione, ossia una materia indifferenziata, della quale nulla possa dirsi se non infinita e irriducibile a ogni determinazione.

=9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

I filosofi naturalisti della Ionia, impressionati dal fenomeno del nascere, del mutare e del morire di tutte le cose, ne ricercano la causa: l’acqua per Talete e l’aria per Anassimene. Ma Anassimandro vede che i fenomeni si producono ovunque e l'ovunque è per sua stessa natura indefinito proprio perché, essendo il Tutto, è privo di individuazione al di fuori di sé stesso, non è spiegabile attraverso la determinazione di qualcosa di altro, dal momento che questo qualcosa rientrerebbe già nel Tutto. Allo stesso modo, se nell'ápeiron sembrerebbe che vi debba essere una forza – “l'eterno movimento” di cui parla Simplicio – che faccia nascere, trasformare e morire le cose, questa forza, proprio in virtù dell'indefinibilità del Tutto, è resa definibile solo come essa stessa ápeiron, indissolubilmente legata, non scindibile e non distinguibile da esso, altrimenti il Tutto, nuovamente, non sarebbe più tale, avendo altro da sé, e come le cose nascono dall'ápeiron, così lì devono trasformarsi e morire, perché non c'è un altrove dove trasformarsi e morire. Anassimandro, che usò per primo il termine archè, infatti, introduce l’idea che ci possa essere una base comune di tutte le cose e che è all’origine dell’universo, che chiama appunto àpeiron, una sostanza universale, eterna, immutabile, illimitata, impercettibile e non propriamente materiale, come l’acqua per Talete o l’aria per Anassimene, dalla quale derivava ogni materia tramite una selezione di attributi o proprietà. Egli intuisce che per arrivare a rendere conto della molteplicità delle cose e dei fenomeni dobbiamo essere pronti ad introdurre oggetti nuovi, sostanze nuove, che non vediamo direttamente, ma che ci aiutano ad organizzare e comprendere. Anassimandro compie un passo decisivo verso una interpretazione globale della realtà, abbandonando l'idea che a fondamento di essa possa esserci un elemento determinato e rivelando una capacità di astrazione fino ad allora sconosciuta. Ma perché non accettare un elemento materiale terrestre come principio di tutte le cose e scegliere come tale l’infinito (o l’indeterminato)? Perché, interpreta Aristotele, tutte le cose hanno un principio: “ma di questo (cioè dell’infinito) non c’è principio, ed esso sembra essere principio degli altri, e tutti abbracciarli e governarli tutti… e questo è il divino immortale, infatti, e indistruttibile, come dice Anassimandro”. Ragioni di questo genere, che rimandano alla divinità, origine di tutte le cose, e perciò non spiegano nulla dal punto di vista fisico, sono per lo più confacenti ad Aristotele che non al fisico Anassimandro. Pertanto, stando ai recenti studi ed alle attuali interpretazioni, il filosofo ionico abbia voluto alludere ad una materia prima infinita e infinitamente diffusa. L’intuizione geniale è che per spiegare la complessità del mondo sia necessario postulare, immaginare, l’esistenza di qualcosa che non è nessuna delle sostanze del mondo diretto della nostra esperienza, ma possa fungere da elemento unificante di spiegazione per tutte queste. Nel postulare l’apeiron, Anassimandro non fa altro che aprire la strada a quello che la scienza continuerà poi a fare per secoli, con straordinario successo: immaginare l’esistenza di “entità” che non sono direttamente visibili e percepibili, ma la cui esistenza è postulata per organizzare e rendere conto in maniera unitaria, organica e naturalistica, della complessità dei fenomeni osservabili. Con questa interpretazione l’àpeiron diventa l’antenato di tutti gli oggetti introdotti dalla fisica: l’atomo, il campo elettromagnetico, il campo gravitazionale, lo spaziotempo, la funzione d’onda, i campi quantistici, le particelle elementari. Un’interpretazione diversa, isolata, ma consistente con la precedente lettura naturalistica dell’apeiron del fisico Carlo Rovelli, è quella del filologo Giovanni Semeraro, secondo il quale ápeiron, che deriverebbe dal semitico apar, («polvere», «terra»), accadico eperu equivalente del biblico 'afar, sarebbe stato utilizzato da

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:!

Anassimandro nel significato di terra e non di infinito. Questa interpretazione ricondurrebbe la filosofia presocratica a una fisica corpuscolare, che accomunerebbe Anassimandro, Talete e Democrito. La relazione fra l'ápeiron di Anassimandro e gli atomi di Leucippo e Democrito è corroborata dall'attributo che comunemente accompagna gli atomi nei frammenti degli atomisti: "ápeira", plurale di ápeiron, usualmente tradotto con "innumerevoli".

Anassimandro si pone anche il problema del processo attraverso il quale le cose derivano dalla sostanza primordiale: tale processo è la separazione. La spiegazione del processo di separazione è ancora una volta di carattere non mitico, ma razionale ed em-pirico. Non è un dio all'origine della derivazione delle cose dall'àpeiron, ma per l’azione di un moto rotatorio. Per primi si formarono il freddo ed il caldo che si ruppero formando un anello: all’esterno caldo (cioè fuoco) e all’interno freddo (aria); e dentro ancora la terra. La terra sarebbe sorta come umidità; seccata sotto l’azione del caldo, essa lascia quattro anelli: caldo (fuoco), freddo (aria), umidità (acqua), secco (terra), le qualità e le sostanze accettate per i successivi duemila anni come essenziali in natura. Per mezzo di questa separazione si generano i mondi infiniti, che si succedono secondo un ciclo eterno. Ma i mondi sono infiniti anche contemporaneamente nello spazio o soltanto successivamente nel tempo? Sicuramente è difficile negare che Anassimandro abbia ammesso un’infinità spaziale dei mondi, giacché, se l’infinito abbraccia tutti i mondi, esso deve essere pensato al di là non di un solo mondo, ma di altri e altri ancora. La legge della separazione presiede anche alla generazione dei primi uomini che, dopo una prima fase vissuta nell'acqua, all'interno dei pesci, uscirono sul terreno asciutto e impararono a vivere in società. Pertanto, la legge suprema che regola la vita è unica e vale sia per gli uomini che per gli animali e per il mondo fisico. Tradotto in termini moderni, si potrebbe dire che la “natura infinita” è concepita come un assoluto esistente di per sé, mentre le cose o qualità che se ne separano hanno una esistenza relativa. L’impulso a cercare ovunque ciò che vi è di relativo diventa un tratto caratteristico della speculazione greca verso il 500 a. C.

Di Anassimandro ci resta solo un piccolo frammento: “Le cose nascono l’una dall’altra e periscono l’una nell’altra, secondo necessità. Esse si rendono giustizia fra loro e riparano le loro ingiustizie secondo l’ordine del tempo”. E’ un pensiero che, probabilmente, esprime un’altra grandissima idea: gli eventi non avvengono per caso ma guidati da una necessità, secondo leggi che governano il loro svolgersi nel tempo. Nel quadro concettuale di un nuovo spazio e di un nuovo tempo, visto come il principio rispetto al quale i fenomeni sono ordinati, il genio di Anassimandro apre la strada alla nuova comprensione razionale del mondo.

Ma la grande rivoluzione concettuale di Anassimandro è quella di aver compreso che la Terra è un oggetto sospeso nel nulla, in sostanza galleggia nello spazio. Quindi, rifiutando l’acqua di Talete come archè, la elimina anche dalla sua macchina dell’universo come sostegno della Terra, e adopera invece, e ciò è molto moderno, un principio logico e geometrico. Ricorda Aristotele: “Vi sono alcuni che denominano indifferenza la causa che fa rimanere immobile la Terra, come ad

esempio Anassimandro fra gli antichi filosofi. Essi affermano che ciò che è posto al

4<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

centro, in egual posizione rispetto agli estremi, non ha da muoversi né in su, né in giù, né dalle parti. Non essendo possibile che compia movimenti in versi opposti, necessariamente sta ferma”. Anassimandro, in questo modo, ridisegna completamente il quadro concettuale della comprensione umana dello spazio, della Terra, della gravità. Non più lo spazio diviso in due, un sopra (cielo) e un sotto (terra) e gli oggetti che cadono dal sopra al sotto, bensì uno spazio fatto di cielo, all’interno del quale sta sospesa la Terra.

Senza esagerare, tale rivoluzione concettuale è più profonda di quella di Copernico. Infatti, mentre Copernico si avvale di un immenso lavoro concettuale e osservativo svolto dagli astronomi alessandrini e arabi, Anassimandro si appoggia solo sulle prime razionali domande sul funzionamento del cosmo e sulle prime imprecise speculazioni del suo maestro Talete. Su questa base così esigua di elementi scientifici compie quella che Popper ha definito “una delle più audaci, una delle più rivoluzionarie e delle più portentose scoperte dell’intera storia del pensiero umano”.

Ma come ha fatto Anassimandro a capire che sotto la Terra c’è ancora cielo? Partiamo dal presupposto che con Anassimandro nasce l’idea che è possibile comprendere i fenomeni, le loro relazioni, le loro cause, il loro concatenarsi, senza fare ricorso agli dei. In sostanza spiegare il mondo in termini delle cose del mondo. Quindi, gli indizi non mancavano per giungere a questa straordinaria idea, come osservare il movimento delle stelle circumpolari. Appare chiaro ad Anassimandro che sotto l’orizzonte ci deve essere dello spazio vuoto affinchè le stelle possano completare i loro cerchi. Alla domanda: se la Terra è sospesa nel nulla, perché la Terra non cade? La risposta di Anassimandro è perentoria e sconvolgente, ed è contenuta nel De Caelo di Aristotele: “Alcuni, per esempio Anassimandro fra gli antichi, dicono che la Terra mantiene la sua posizione per indifferenza. Perché una cosa che si trovi nel centro, per la quale tutte le direzioni siano equivalenti, non ha ragione per muoversi verso l’alto o il basso o lateralmente; e siccome non può muoversi in tutte le direzioni insieme, deve necessariamente restare ferma. Questa idea è ingegnosa …”. La Terra non cade perché non ha nessuna direzione particolare verso cui cadere se non verso se stessa. Alla luce della nostra comprensione della natura, la risposta di Anassimandro è esatta; anzi, rappresenta uno dei momenti più importanti del pensiero scientifico di tutti i tempi.

Nella nuova immagine del mondo proposta da Anassimandro, i concetti fondamentali di “alto” e “basso” vengono profondamente modificati, e non sono più quelli della nostra esperienza quotidiana. Le nozioni di alto e basso non costituiscono una struttura assoluta e

universale del reale. Non sono un’organizzazione a priori dello spazio, ma sono relativi alla presenza della Terra. “Verso il basso” non indica più una direzione assoluta del cosmo, ma una direzione particolare verso la quale cadono i corpi: verso la Terra. Dunque è la Terra che determina cosa sia l’alto e il basso. E’ la Terra stessa che

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;!

determina la direzione verso cui cadere. In sintesi, alto e basso non sono assoluti ma relativi alla Terra. In questo modo Anassimandro cambia il modo di comprendere non solo l’immagine del mondo, ma la struttura stessa dello spazio, che per secoli era stato inteso come la direzione privilegiata (assoluta) verso la quale le cose cadono. La rivoluzione di Anassimandro ha molto in comune con le altre grandi rivoluzioni del pensiero scientifico: come fa a muoversi la Terra se all’evidenza la Terra è ferma? Completando la rivoluzione copernicana, Galileo comprende che non esistono stati o moti assoluti. E Einstein, con la relatività ristretta, scopre che la “simultaneità”, cioè la nozione di “adesso” non è assoluta, ma relativa allo stato di moto dell’osservatore.

Un’altra radicale novità della cosmologia di Anassimandro è quella di considerare il mondo immerso in uno spazio esterno aperto. Infatti, la volta del cielo era sempre stata vista come la chiusura superiore del mondo. I vari corpi celesti (Sole, Luna, stelle, pianeti) come entità che si muovevano su una stessa volta celeste, tutti alla stessa distanza da noi. Con Anassimandro, per la prima volta, si introduce la possibilitò che i corpi celesti siano a distanze diverse da noi.

Qualunque fosse il motivo che animava le ricerche di Anassimandro, non si può certo dire che l’insieme delle idee e dei risultati raggiunti dal filosofo milese, costituiscano un corpus scientifico nel senso della scienza moderna. Infatti mancano diversi aspetti essenziali di quanto oggi chiamiamo scienza. In particolare è del tutto assente l’idea di cercare leggi matematiche che possano soggiacere ai fenomeni naturali. Questa idea comparirà, ad opera della scuola pitagorica, nella generazione successiva ad Anassimandro. E manca completamente l’idea di esperimento, nel senso della riproduzione artificiale di situazioni fisiche per comprendere le leggi che governano la natura. Questa idea, almeno nella sua forma più matura e consapevole, comparirà duemila anni più tardi con Galileo.

Con l'approfondirsi della ricerca da parte dei filosofi successivi, quello che era stato prima l'ambito della speculazione mitologica nella spiegazione dei fenomeni naturali cedette sempre più il posto all'analisi razionale, che cercherà di trarre le sue conclusioni sulla base dell'osservazione empirica dei fatti. Si costruirà, allora, gradatamente un'immagine razionale dell'universo, che sarà il frutto dello sviluppo della scienza.

Nel solco di questa visione del mondo si inserisce Anassimene (ca. 586 a.C.– 528 a.C.), il quale sostituisce l’acqua di Talete e l’apeiron di Anassimandro con l’aria. La scelta dell’aria come principio unico delle cose è il tentativo, riuscito, di affrontare una difficoltà evidente nelle dottrine di Talete e Anassimandro. Se il tutto è fatto di acqua o di apeiron, come è possibile che possano assumere forme e consistenze così diverse, come quelle che appaiono nella varietà delle sostanze della natura? Come può una sostanza primitiva assumere caratteristiche diverse? Anassimene cerca invece un meccanismo più ragionevole che permetta a una singola sostanza di assumere apparenze diverse. Con notevole sagacia, individua questo meccanismo nella compressione e rarefazione. Egli ipotizza che l’acqua sia generata dalla compressione dell’aria, che a sua volta si può riottenere per rarefazione dell’acqua; la Terra è generata per ulteriore compressione dell’acqua e così via per le altre sostanze. Simplicio, nel suo Commento alla Fisica di Aristotele testimonia: “Anassimene figlio di Euristrato di Mileto diceva che la materia originaria è una e illimitata. Ma, diversamente da Anassimandro, non pensava che non fosse specifica, ma che lo fosse, e che si trattasse

4=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

della aria. Ma essa appare diversa nei diversi oggetti, secondo la sua condensazione e rarefazione. In forma rarefatta origina il fuoco, mentre nella forma più densa produce il vento da cui provengono le nuvole e l’acqua, e da questa a sua volta si genera la terra, e da questa le pietre, e da queste ultime tutte le altre cose”. Anassimene insomma cerca di spiegare come, mediante condensazione e rarefazione, elementi di diversa densità possano essere ricondotti ad uno solo, riducendo le differenze qualitative a differenze quantitative, e poiché l’aria è sempre in movimento, il mutamento è una possibilità sempre presente. E’ un passo avanti verso una descrizione più ragionevole della struttura del mondo.

Anassimene definì chiaramente l’approccio materialistico, ossia che il cosmo potesse essere spiegato nei termini della materia di cui era formato, in base ad un processo localizzato nello spazio e nel tempo; infatti, il suo concetto più originale è quello di una volta celeste cristallina su cui sono infissi “come chiodi” gli astri, visione che qui appare per la prima volta e che avrà la consacrazione con Aristotele e che durerà fino al termine del medioevo. Come già per Anassimandro il modello che chiarisce la generazione del cosmo, e i suoi moti rotatori, è offerto dalla presenza di opposte azioni: centrifughe per i corpi leggeri, centripete per quelli pesanti. In virtù di questo modello cosmologico, il moto di un immenso vortice ha spinto la Terra verso il centro del mondo. Dice Aristotele: “Tutti ammettono questa causa (l’immenso vortice) desumendolo da ciò che accade nei liquidi e nell’atmosfera. In entrambi i casi i corpi più pesanti vanno verso il centro del vortice”. Anassimene pensava che le parti ignee (sfera del fuoco) fossero così state respinte nelle parti periferiche di questo vortice universale. L’impulso del vortice spezzò poi la sfera del fuoco in tanti anelli avvolti di aria e vapori, e le aperture rimaste in tali involucri sono i corpi celesti che vediamo ruotare intorno alla Terra. “Dio separò la luce dalle tenebre”. “Dio separò le acque sotto il firmamento, da quelle che erano sopra il firmamento”. La scienza dell’antico Oriente non riusciva a dire di più quando tentava di affrontare aspetti del problema cosmogonici. Gli ionici, invece, muovevano alla ricerca di cause fisiche, consistenti, naturali.

Il modo di porsi di Talete, Anassimandro e Anassimene di fronte ai fenomeni e al cosmo in generale, lascia intravedere un triplice aspetto nella scienza dei Milesi:

1. la sistematica osservazione dei fenomeni naturali e il ricorso all'esperienza; 2. l'impiego delle tecniche; 3. la spiegazione dei fenomeni all'interno di un quadro logico, rappresentato dalla

struttura geometrica dell'universo.

Questo terzo aspetto è particolarmente importante perché indica che la ricerca fisica, sin dall'inizio, muove dal bisogno di costruire una spiegazione razionale dei fenomeni.

2.5 La nascita della matematica come interpretazione della realtà

Ai materialisti Talete, Anassimandro e Anassimene, mancava una delle idee più importanti su cui tutta la scienza futura si svilupperà: l’ordine del cosmo è regolato da leggi matematiche. Questa idea fu introdotta dai pitagorici, secondo i quali la natura è incessante moto e perenne ritorno: tutto muta e niente perisce e principio di tutte le cose non sono gli elementi o qualche entità indeterminata introdotte dai milesi ma il numero.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 44!

Tale affermazione sembra voler significare che la materia è composta di punti fisici, le monadi, indistinguibili fra loro ed immerse nel neuma (aria), ma il cui numero e le cui configurazioni sono causa delle varie proprietà presentate dai corpi: le differenze qualitative sono così ricondotte, per la prima volta, a differenze quantitative. Il numero viene ad assumere un’importanza fondamentale nella costruzione del mondo, da cui l’interesse particolare per lo studio delle sue proprietà, la ricerca di analogie e il senso mistico che le accompagna. E nella visione pitagorica, il numero acquista una valenza ancora più ampia, riducendosi al credo che tutto è razionale (chiaro il riferimento ai numeri razionali, ossia quei numeri esprimibili dal rapporto di due numeri interi, come nei rapporti musicali). Esso testimoniava la fede che ciò che chiamiamo cosmo o mondo, lungi dall’essere un sistema caotico e inconoscibile, fosse invece un sistema ordinato, come nei significati originari del greco kòsmos e del latino mundum, e si potesse comprendere mediante la misura e la ragione.

Il primo a suggerire che la matematica (i numeri) dovesse essere la chiave per comprendere il mondo è stato, quindi, Pitagora (575 a.C.-490 a.C), figura forse leggendaria, massimo esponente della tradizione filosofica razionalista, sviluppatasi nelle colonie greche del Sud Italia, e che, a ragione, può essere considerato uno dei pensatori determinanti nella storia culturale d’Occidente.

La tesi fondamentale della filosofia pitagorica è che: il numero è la sostanza delle cose. A tal proposito Aristotele nella sua Metafisica dice: “Le cose sono numeri … E poiché d’altra parte, in tutto il resto, sembrava loro tutta quanta la natura esser fatta a somiglianza dei numeri, onde i numeri risultavano i principi di tutta la natura, così supposero che gli elementi dei numeri fossero elementi di tutti gli esseri, e che l’universo intiero fosse armonia e numero; e quante concordanze poterono mostrare nei numeri e nelle armonie, con le condizioni e le particolarità dell’universo, e con l’intiero ordinamento di esso, queste cercarono di raccogliere e coordinare insieme”. Il significato dell’affermazione paradossale “le cose sono numeri” può intendersi che i vari oggetti risulterebbero costituiti da punti materiali, o monadi. Col termine numeri i pitagorici intendevano soltanto i numeri interi, concepiti come le collezioni di più unità. Non fecero particolari indagini sulla natura di queste unità, limitandosi a rappresentarle con punti, circondati ciascuno da uno spazio vuoto. In altre parole, Pitagora non aveva ancora il concetto del punto privo di estensione, che verrà definito più tardi da Euclide, ma pensava piuttosto ad un punto avente estensione, ancorché minima, in base all’intuizione empirica. Era il germe della futura concezione atomistica di Leucippo e Democrito. Proprio questa rappresentazione spaziale facilitò il passaggio, caratteristicamente arcaico, dalla concezione del numero come chiave e rapporto alla sua concezione come costituente fisico elementare delle cose. Invece dell’acqua, dell’aria, dell’àpeiron o altri elementi materiali, i pitagorici riconobbero, dunque, il numero come l’elemento di cui sono costituite le cose, per cui il concetto fondamentale è quello di un ordine misurabile. Affermare che le cose sono costituite di numeri e che quindi tutto il mondo è fatto di numeri, significa che la vera natura del mondo, come delle singole cose, consiste in un ordinamento geometrico esprimibile in numeri, quindi misurabile, ed è qui la grande importanza dei pitagorici, che per primi hanno ricondotto la natura, o meglio il carattere che fa della natura qualcosa di oggettivo e di veramente reale, all’ordine misurabile e hanno riconosciuto in quest’ordine ciò che dà al mondo la sua unità, la sua armonia, quindi anche la sua bellezza. Infatti, mediante il numero è possibile spiegare il moto degli astri, il succedersi delle stagioni, le armonie musicali.

45! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Quando Pitagora diceva che il cosmo era composto di numero, invocava una complessa serie di idee correlate. In primo luogo, tutti i numeri interi potevano essere costruiti dall’unità: così equiparò il cosmo all’unità. Inoltre pensava che uno fosse il punto, due una linea, tre un triangolo e quattro una piramide. Questo sembrava mostrare che i corpi solidi potessero esser costruiti con i numeri. Pitagora non voleva soltanto intendere che il mondo fosse governato da leggi matematiche, ma che il numero, e non gli oggetti materiali, erano i costituenti del mondo reale.

La scoperta che proporzioni semplici sono nascoste dietro a fenomeni diversi, per esempio corde musicali in rapporti di lunghezza semplici producono suoni in armonia fra loro, porta Pitagora a promuovere una ricerca delle armonie nascoste nel mondo, esprimibili in termini di numeri, cioè di matematica. Ossia la matematica acquista la funzione di mediatrice tra la fisica e la musica, e più in generale fra la natura e l’uomo. A tale scopo egli usò il cosiddetto strumento monocorde, cioè una sola corda di lunghezza variabile soggetta a differenti tensioni per l’azione di un peso. Usando sempre lo stesso peso tensore e variando invece la lunghezza della corda Pitagora osservò che la produzione di coppie di note armoniche si aveva soltanto quando le lunghezze della corda stavano tra loro come numeri interi. Il rapporto 2:1 tra le lunghezze corrispondeva alla produzione di quella che chiamiamo un’ottava, il rapporto 3:2 a una quinta, il rapporto 4:3 a una quarta. Questa scoperta fu molto probabilmente la prima formulazione matematica di una legge fisica.

INTERPRETAZIONE MODERNA DELLA SCOPERTA DI PITAGORA

Nella moderna terminologia fisica diciamo che la frequenza di vibrazione, cioè il numero di vibrazioni al secondo di una data corda soggetta ad una data tensione è inversamente proporzionale alla sua lunghezza. Se di due corde la seconda è lunga la metà della prima, la sua frequenza di vibrazione sarà il doppio; se le lunghezze delle due corde stanno fra loro nei rapporti 3:2 o 4:3 le frequenze di vibrazione staranno rispettivamente tra loro nei rapporti 2:3 o 3:4.

Pitagora tentò di compiere un ulteriore passo in avanti suggerendo un’ipotesi:

poiché il moto dei pianeti deve essere armonioso, le loro distanze dalla Terra devono stare tra loro come numeri interi semplici. Pitagora, quindi, è stato il primo ad accorgersi che la natura non è governata dal caos, ma da una serie armonica di rapporti matematici. La natura stessa gli apparve come un’immensa corda vibrante tesa tra la terra e il cielo, in curiosa assonanza con la moderna teoria delle stringhe, e, anche se è azzardata come ipotesi, la suggestiva affinità fra l’Uno pitagorico e le teorie unificate della fisica attuale. E’ questa ricerca pitagorica della armonia mundi, espressa in forma matematica, che ha ispirato scienziati come Galileo, Keplero, Einstein.

Si dice che la scienza di Pitagora è una matematica del discontinuo, perché si fonda esclusivamente sui numeri interi e su ciò che può venire espresso con i numeri interi. Ebbene, questo carattere discontinuo rende speciale la matematica di Pitagora in quanto la differenzia notevolmente da molte altre concezioni posteriori. Infatti, secondo essa, l’accrescimento di una grandezza procede per salti discontinui, essendo impossibile aggiungere qualcosa che sia minore dell’unità. Qualcuno giunge addirittura a riconoscere nella teoria quantistica una sopravvivenza dell’antica eredità pitagorica sotto forma di concezione discontinua dell’energia e di altre grandezze fisiche.

In conclusione possiamo affermare che l’essenza della rivoluzione pitagorica, creatrice delle matematiche pure, è prendere in considerazione solo il simbolo, fissare

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 46!

le regole di operazioni sui simboli e creare così quello strumento, astratto sì ma potentissimo, che è il discorso matematico.

I pitagorici sostennero per primi la sfericità della Terra e dei corpi celesti in genere, in quanto la sfera, la più perfetta tra le figure solide, è l’immagine stessa dell’armonia. Ma essi ebbero anche altre geniali intuizioni, come quella di Filolao (verso il 400 a.C.), il primo pitagorico del quale ci sia pervenuto qualche frammento, che fu l’autore del primo sistema astronomico non geocentrico.

Filolao, abbandonò l’ipotesi che la Terra fosse il centro fisso del mondo e ammise, invece, che la Terra stessa e tutti gli altri corpi celesti si muovessero intorno a un fuoco centrale, la divina Hestia. Intorno ad esso stanno dieci sfere: la più lontana quella delle stelle fisse, poi Saturno, Giove, Marte , il Sole, Venere, Mercurio, la Luna, la Terra, ed infine l’Antiterra. Il Sole, illuminato dal fuoco centrale, riflette sulla Terra la luce ricevuta. In 24 ore la Terra compie una rivoluzione completa attorno al fuoco centrale, ma l’emisfero abitato è costantemente rivolto dalla parte opposta di Hestia, sicché questa è sempre nascosta a noi, e nascosta resta anche l’Antiterra che si muove sempre in modo sincrono rispetto alla Terra medesima. Così resta spiegato, come moto apparente, il sincronismo di tanti corpi (Luna, Sole, pianeti, stelle) che compiono la loro rivoluzione diurna rispetto alla Terra (relatività del movimento). Il Sole, a sua volta, si muove in una propria orbita, e ciò spiega il suo movimento annuo lungo l’eclittica. Tale orbita, al pari di quelle della Luna e dei pianeti, è inclinata rispetto all’orbita terrestre, e questo offriva una veduta geometrica semplice e coerente dei fenomeni di moto osservati da tempo e dell’alternarsi delle stagioni. Egualmente naturali risultano gli altri fenomeni come le eclissi e le fasi lunari. Tale spiegazione coerente è il vero merito del sistema. Inoltre per la prima volta veniva assegnato ai corpi celesti un ordine esatto, conservato sostanzialmente fino ad oggi.

Fortunatamente gli errori della dinamica aristotelica che resero così difficile il cammino a Copernico e a Galileo non erano stati ancora codificati in questa infanzia della scienza, e perciò pur senza possedere il principio d’inerzia, Filolao potè procedere alla propria costruzione libero da ogni condizionamento sul terreno della dinamica. Quanto all’Antiterra è vero che essa richiamava la tetraktys (completava il numero dieci delle sfere) e sapeva di misticismo pitagorico, ma quasi certamente serviva anche a spiegare certe caratteristiche delle eclissi, inesplicabili per chi ignori la rifrazione della luce. L’ipotesi della sfericità della Terra e l’esigenza di dare ordine geometrico e armonia al mondo hanno rappresentato la prima visione dell’immensità dell’universo.

Ai pitagorici è da attribuire anche lo studio su problemi di ottica, in particolare ad essi va ricondotta la più antica teoria della visione. Secondo la scuola pitagorica la visione avviene per mezzo di raggi di un “fuoco” invisibile che esce dall’occhio e attraverso l’aria o l’acqua raggiunge gli oggetti e li va a “toccare”, restituendo all’osservatore, in qualche modo non precisato, la superficie dei corpi, che i pitagorici chiamavano croma, cioè colore. Questa teoria prevede l’occhio di un osservatore (che partecipa attivamente alla visione) e un oggetto (che svolge un ruolo passivo) ma non prevede l’esistenza di ciò che chiamiamo “luce” e che collega l’oggetto visto con l’occhio che vede. Come altre antiche dottrine della visione (quella stoica e quella atomista) la dottrina pitagorica non pone una relazione esplicita tra visione e luce. Platone sarà il primo pensatore a introdurre esplicitamente la luce solare nel processo della visione. Una seconda osservazione è che nella teoria pitagorica la percezione visiva è realizzata da qualche flusso che viene emesso dall’occhio. Le teorie che prevedono un flusso

47! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

emesso dall’occhio sono dette “emissioniste” e si contrappongono alle teorie “immissioniste” che al contrario postulano che la visione sia dovuta a qualche flusso che rappresenta l’oggetto visto, flusso che raggiunge l’occhio e viene immesso nell’occhio stesso.

Il contributo dei pitagorici allo sviluppo del pensiero scientifico, e, più in generale alla cultura umana, è notevole. Ad essi si deve la fondazione scientifica della matematica e soprattutto l’intuizione che starà alla base della scienza moderna di tipo galileiano, quella per cui la matematica costituisce il più importante codice di interpretazione della realtà. Pertanto, i pitagorici si possono considerare, così, i lontani progenitori di tutta la scienza e appunto filosofi pitagorici si diranno Copernico, Keplero, Galileo e gli altri giganti della rivoluzione scientifica da cui nascerà l’uomo nuovo, l’uomo moderno.

2.6 Il moto: realtà o illusione

Ai due estremi geografici del mondo greco, quello orientale e quello occidentale, la riflessione ionica e quella pitagorica erano dunque venute, lungo tutto l’arco del VI secolo a.C., sollevando e dibattendo i grandi temi della realtà e dell’interpretazione che di essa la conoscenza umana poteva dare sul piano scientifico. Al tempo stesso pitagorici e ionici divergevano sempre più marcatamente negli esiti assunti da questi loro tentativi: i primi, attraverso l’interpretazione numerica della realtà e la sua elaborazione aritmo-geometrica, tendevano a creare schemi logico-razionali di interpretazione; i secondi si orientavano verso uno spiccato naturalismo, che faceva sempre più larga parte ai dati dell’osservazione e alle leggi fisiche che li connettevano, e credeva di poter rinunciare, data la loro apparente autosufficienza, a più consapevoli interventi della ragione e delle sue proprie leggi.

Entrambi questi punti di vista contenevano in sé un profondo nucleo di verità; entrambi richiedevano però, affinchè il pensiero scientifico e filosofico potesse compiere senza incertezze un più risoluto passo avanti, di essere chiariti nei loro presupposti fondamentali, spogliandosi delle proprie ambiguità. A questo compito di radicalizzazione e di chiarimento assolsero, tra la fine del VI e l’inizio del V secolo, le grandi speculazioni sull’essere e sul divenire, condotte rispettivamente dalla scuola eleatica e da Eraclito.

In questo clima speculativo è singolare la figura di Senofane (570-475 a. C.), che era stato personalmente in contatto sia con gli ionici che con i pitagorici, e che rispetto ad entrambi condusse una preziosa opera critica, volta a mettere in luce il fondamentale problema dei limiti e del valore della conoscenza umana. Secondo le testimonianze di Platone e di Aristotele, l’indirizzo che fu proprio della scuola eleatica era stato iniziato da Senofane, che per primo affermò l’unità dell’essere, ed in un suo frammento si può rinvenire la premessa metodologica del passaggio da una visione mitica ad una razionale del mondo: “Gli dèi non rivelarono agli uomini tutte le cose fin dall'inizio, ma gli uomini con la loro ricerca trovano nel corso del tempo ciò che è meglio”. Il punto di partenza di Senofane è una critica risoluta dell’antropomorfismo religioso e sostiene che c’è una sola divinità, “che non somiglia agli uomini né per il corpo né per il pensiero”, che si identifica con l’universo, è un dio-tutto, ed ha l’attributo dell’eternità: non nasce e

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 48!

non muore ed è sempre la stessa. Difatti se nascesse, ciò significherebbe che prima non era; ma ciò che non è, neppure può nascere né può far nascere nulla. Senofane afferma in forma teologica l’unità e l’immutabilità dell’universo. In Senofane si trovano anche spunti di ricerche fisiche: egli ritiene che ogni cosa ed anche l’uomo sia formato di terra ed acqua; che dalla terra vien tutto e tutto ritorna alla terra; ma questi elementi di un grossolano materialismo poco si collegano con il suo principio fondamentale.

Il fondatore dell’eleatismo è Parmenide (515 a.C.– 450 a.C.), che ritiene illusione e inganno dei sensi il perenne mutare: il mutamento ed il movimento sono illusori e che la sostanza sola è veramente. Quindi, il tema originale della filosofia parmenidea è il contrasto tra la verità e l’apparenza: “Due sole vie di ricerca si possono concepire. L’una è che l’essere è e non può non essere; e questa è la via della persuasione perché è accompagnata dalla verità. L’altra, che l’essere non è ed è necessario che non sia; e questo, ti dico, è un sentiero sul quale nessuno può persuaderci di nulla”. Perciò: “un solo cammino resta al discorso: che l’essere è”. Ma questo cammino non può non essere seguito che dalla ragione, giacché i sensi invece si fermano all’apparenza e pretendono testimoniarci il mutare delle cose, il nascere ed il perire, cioè insieme il loro essere e il loro non essere. Parmenide vuole così allontanare l’uomo dalla conoscenza sensibile e costringerlo a giudicare solo con la ragione. Ora la ragione dimostra subito che non si può pensare né esprimere il non essere. Non si può pensare senza pensare qualcosa; il pensare a nulla è un non pensare, il dir nulla è un non dire. Il pensiero e l’espressione devono in ogni caso avere un oggetto e questo oggetto è l’essere. Parmenide determina con tutta chiarezza quel criterio fondamentale della validità della conoscenza che doveva dominare tutta la filosofia greca: il valore di verità della conoscenza dipende dalla realtà dell’oggetto, la conoscenza vera non può essere che conoscenza dell’essere. Tale è il significato delle affermazioni famose di Parmenide: “La stessa cosa è il pensiero e l’essere” e “La stessa cosa è il pensare e l’oggetto del pensiero; senza l’essere nel quale il pensiero è espresso tu non potresti trovare il pensiero, giacché niente altro c’è fuori dell’essere”.

Per comprendere bene da dove nasce l’idea dell’Essere (Esistente) e del Non Essere (Niente), bisogna ricordare che Parmenide scrive sulla natura delle cose, cioè sul problema della materia primitiva. Secondo la tradizione ionica, egli assume una sostanza originaria unica, soggiacente alle diverse qualità fenomeniche. Ma dai pitagorici ha imparato che tale sostanza deve essere priva di qualità. Che cosa le rimane dunque? Soltanto la propietà di esistere, e di occupare uno spazio. Pertanto l’esistente è qualcosa che si afferma esistere in senso corporeo, cioè come materia estesa. Con questa chiave le parole di Parmenide diventano chiare. Le due ipotesi che si mettono di fronte l’una all’altra sono l’ipotesi che tutto sia pieno o che esista il vuoto. Parmenide propende per la materia estesa impenetrabile che deve riempire lo spazio, e identificarsi con esso, perché il vuoto, cioè il non esistente, è inconcepibile. Tale è in sostanza la concezione di Cartesio, duemila anni dopo. Per un solo aspetto l’esistente parmenideo differisce dallo spazio cartesiano: l’eleate non sa concepirlo come illimitato e gli attribuisce la forma d’una sfera perfetta. In effetti, Parmenide sentiva il bisogno di concepire il mondo come qualcosa di perfetto in se stesso, e perciò respingeva l’idea di pensarlo infinito. Questa incongruenza sarà risolta da Melisso più tardi. All’essere che è oggetto del pensiero, Parmenide attribuisce gli stessi caratteri che Senofane aveva riconosciuto al dio-tutto. Ma questi caratteri sono da lui ricondotti ad un’unica modalità fondamentale, che è quella della necessità. “L’essere è e non può non

49! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

essere” è la tesi principale di Parmenide: tesi che esprime quello che è per lui il senso fondamentale dell’essere in generale e costituisce il principio direttivo dell’indagine razionale. Anzi, Parmenide è il primo vero razionalista che si affacci nella storia del pensiero: la verità è da scoprire non guardando alle cose come sono fatte, ma attraverso l’idea che di esse ci formiamo. Ecco quindi che la teoria della materia primitiva, il principio unico, non è fondata, come avviene per gli ionici, su delle analogie sensibili, ma sopra un concetto razionale della materia stessa. A differenza di Senofane, l’eternità non è intesa da Parmenide come durata temporale infinita ma come negazione del tempo: “L’essere non è stato mai né mai sarà perché è ora tutto insieme, uno e continuo”. Parmenide ha elaborato per primo il concetto dell’eternità come presenza totale. L’essere non può nascere né perire, giacché dovrebbe derivare dal non essere o dissolversi in esso, il che è impossibile perché il non essere non è. L’essere è indivisibile perché è tutto uguale e non può essere in un luogo più o meno che in un altro; è immobile perché risiede nei propri limiti; è finito perché l’infinito è incompiuto e l’essere non manca di nulla. L’essere è compiutezza e perfezione, ed in questo senso appunto finito. Come tale, è paragonato da Parmenide ad una sfera omogenea, immobile, perfettamente uguale in tutti i punti: “Poiché vi è un limite estremo, l’essere è perfetto da ogni parte, simile alla massa arrotondata di una sfera uguale dal centro a ogni sua parte”. Perciò pure l’essere è pieno, in quanto è tutto presente a se stesso e in nessun punto mancante o deficiente in sé; esso è autosufficienza. Non si può tuttavia negare che la sfericità ora accennata vada accolta con la massima cautela; se infatti la interpretassimo alla lettera, cadremmo in contraddizione con tutto l’insegnamento di Parmenide, perché saremmo costretti ad ammettere l’esistenza di un non-essere (o vuoto), che è al di là dell’essere sferico, e lo limita. Essa va intesa come identità e assolutezza dell’essere lungo tutte le direzioni. In sostanza, la sfera di Parmenide è più simile allo spazio curvo einsteniano che al solido euclideo che siamo portati a raffigurarci. A quali conseguenze conduce la visione parmenidea in relazione al problema delle trasformazioni del mondo? Parmenide vorrebbe spiegare il processo o il divenire del mondo come effetto di cause che debbono dar ragione degli avvenimenti. Ma il mondo è pieno di una sostanza materiale, uniformemente distribuita, sicchè le azioni reciproche delle parti di questa, cioè della materia sulla materia, possono costituire le sole cause possibili di ogni avvenimento. D’altronde, la causa della diminuzione di temperatura di un corpo la ricerchiamo nel passaggio di calore da un corpo più caldo a uno più freddo; oppure la causa del movimento di liquido in due vasi comunicanti è la differenza di altezza del liquido nei rispettivi vasi. In questi fenomeni, e in tanti altri, ci sono sempre due corpi che agiscono l’uno sull’altro per effetto di una differenza di qualche grandezza fisica. Pertanto, non ci sembra una ragione sufficiente del cambiamento un’azione prodotta tra cose uguali (almeno a partire da un primitivo stato di quiete). Dunque, Parmenide non poteva trovare nel suo universo la spiegazione di un cambiamento o di un divenire qualsiasi. Tuttavia, secondo la tradizione ionica, il moto di rotazione del mondo (l’apparente rivoluzione della sfera celeste) era considerato come una prova evidente del processo cosmico, cui si connette, più o meno consapevolmente, l’idea di forze, quali sono le forze centrifughe. Parmenide poteva cercare in questa visione le ragioni del cambiamento o del divenire cosmico, pur rispettando l’omogeneità della materia. Invece egli rifiuta questa soluzione dichiarando che il mondo “è immobile nei limiti dei

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4:!

saldi legami”. Allora Parmenide negava il movimento? Il moto non significa nulla di per sé, ma soltanto variazione della posizione delle cose. Questa interpretazione è avvalorata dal seguente passo di Parmenide, in cui non parla del moto dei corpi ma del mondo nella sua interezza: “Lo stesso e nello stesso rimanendo è in quiete rispetto a se stesso, e in tal guisa è anche (assolutamente) immobile”. Parmenide, avendo compreso il senso relativo del moto, non può conferire significato al moto di rivoluzione del mondo, e perciò si chiude l’unica possibilità che lo possa condurre ad abbracciare l’idea del divenire delle cose: dal primitivo stato iniziale d’una materia estesa omogenea e in quiete, non vi è modo di passare ad un altro stato di moto. Nel linguaggio di Parmenide significa che il divenire del mondo non è verità razionale, ma soltanto apparenza sensibile. Il sensibile non ha valore di scienza. La sola scienza vera, conforme a ragione, è la scienza della materia estesa, che ha carattere necessariamente statico.

Il discepolo prediletto di Parmenide, Zenone di Elea (495 a.C.– 430 a.C.), con una serie di paradossi del moto, oltre a darci una veduta relativistica del moto, farà delle osservazioni che risulteranno preziose per lo sviluppo della matematica.

Esaminiamo i famosi quattro argomenti di Zenone sul moto. Il primo argomento dice che il moto è impossibile perché per andare dal punto A al punto B, bisogna passare per il punto medio C del segmento AB, e poi per il punto medio del segmento CB, e così di seguito, all’infinito. Il secondo argomento, il più famoso, riguarda l’impossibilità di raggiungere la tartaruga, da parte di piè-veloce Achille, che parte con un piccolo vantaggio. Achille non può raggiungere la lentissima tartaruga che fugga davanti a lui, perché nel tempo che Achille è arrivato là dove si trova ora la tartaruga, questa si è spostata un po' avanti; e quando Achille sarà arrivato a questo secondo punto, la tartaruga sarà un tantino avanti, e così all'infinito. Molti vedono in questi due paradossi la negazione del movimento. Altri, e a ragione, deducono una riduzione all’assurdo della tesi monadica dei pitagorici, e una dimostrazione della continuità della linea. Quindi, in questi paradossi è contenuta una scoperta veramente preziosa per gli sviluppi della matematica: la continuità dello spazio, ossia la divisibilità di esso all'infinito. Ciò significa l'impossibilità di rappresentare lo spazio come somma di parti discrete: da questo punto di vista l'analisi zenoniana completa, con altro metodo, la scoperta pitagorica della irrazionalità dello spazio. La concezione dello spazio come continuo sarà il fondamento del quale si servirà Archimede per elaborare quel famoso metodo di esaustione che fornirà ai matematici del secolo XVII d.C. l'idea per la creazione del moderno calcolo infinitesimale.

Il terzo argomento è quella della freccia: una freccia che vola in aria occupa in ogni istante un certo spazio. Quindi in ogni istante è in quiete. Ma una somma di stati di quiete come può produrre uno stato di moto? Si potrebbe rispondere dicendo che la freccia sta sempre passando da un punto a un altro. Ma allora cambia posizione anche entro l’istante, e questo andrà suddisviso, ai fini della rappresentazione, in più istanti

successivi. La discontinuità del tempo si risolve in continuità. In questo terzo argomento, come lo spazio non è discreto ossia composto da punti successivi, nemmeno il tempo è composto d’istanti ossia di tempuscoli elementari.

Nel quarto argomento (lo Stadio) abbiamo il pieno riconoscimento della relatività del moto. Si confrontino tre file parallele di punti materiali allineati a distanze uniformi. La fila A è immobile, e le file B e C si muovono in senso contrario con la

5<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

stessa velocità V. Quale sarà la velocità di un punto materiale della serie C? Essa si ottiene considerando il tempo in cui un punto della serie passa davanti a due successivi punti della serie A. Ma se il movimento viene riferito invece alla serie B, la stessa velocità, che era V, diventa 2V.

Alla scuola eleatica si collega un terzo personaggio, Melisso di Samo (470 a.C.;...). I frammenti che di lui rimangono, illustrano in modo suggestivo la tesi di Parmenide, in particolare uno di essi (fr. 8) contiene una bellissima critica delle sensazioni, che sembra quasi preludere alla concezione atomica. In un punto caratteristico Melisso si allontana da Parmenide: il pieno non è limitato a forma di sfera, ma si estende nello spazio all’infinito, risolvendo così l’incongruenza parmenidea. Tale correzione si accorda bene con la negazione del moto di rivoluzione del cosmo, perché è impossibile immaginare un moto che si estenda all’infinito.

La filosofia eleatica, svolgendo fino alle ultime conseguenze i motivi ionici e pitagorici, era arrivata ad una radicale negazione della realtà. Se esiste una materia unica, priva di differenze qualitative e puramente estesa; se questa costituisce da sola tutto l’esistente, e fuori di lei il vuoto è inconcepibile, come “non esistente”, allora il mondo costruito dal pensiero si riduce allo spazio figurato della geometria, e in esso viene a mancare ogni ragione sufficiente della diversità e del divenire. Il sensibile diventa illusorio. Comunque, l’eleatismo segna una tappa decisiva nella storia della filosofia, sottraendo al presupposto naturalistico le ricerche cosmologiche degli ionici e dei pitagorici e portandole per la prima volta su quel piano ontologico nel quale dovevano radicarsi i sistemi di Platone e di Aristotele. Ma è anche vero che ponendo il problema dell’essere su un piano metafisico-ontologico, cioè nella sua massima generalità e non più soltanto come un problema fisico, ossia sostituendo la scienza con la metafisica, tale concezione nuocerà molto allo sviluppo della fisica.

Chi non accetta di escludere, con Parmenide, ogni rapporto tra essere e non-essere, deve ammettere l’esistenza di uno stadio intermedio che partecipi entro certi limiti della natura di entrambi: questo stadio intermedio è il divenire. L’importanza del divenire, posizione rigorosamente antitetica a quella parmenidea, fu sostenuta con grande energia da Eraclito (535 a.C.– 475 a.C.), contemporaneo di Parmenide, che concepisce la materia come tutto indeterminato divenire pantha rei (tutto scorre). L’universo diviene, si trasforma, scorre; ma questo trasformarsi, questo variare, non è segno di irrazionalità; anzi, è l’attuazione della sua più profonda razionalità. La sostanza, che è il principio del mondo, deve spiegare il divenire incessante di esso con la propria estrema mobilità, ed Eraclito riconosce tale principio nel fuoco, elemento irrequieto, distruggitore e trasformatore perpetuo della materia. Il fuoco dunque è principio e fine, e il divenire è ciclico: tutto si trasforma ma perennemente ritorna a essere quello che era prima per poi tornare a trasformarsi. In sostanza: ogni cosa è costantemente in mutamento, che il mutamento è la sola realtà, per cui non è possibile indagare il mondo materiale. Ma il fuoco nella dottrina di Eraclito perde ogni carattere corporeo e diventa principio attivo, intelligente e creatore: “Questo mondo, che è lo stesso per tutti, nessuno degli dèi e degli uomini l’ha creato, ma fu sempre, è e sarà fuoco eternamente vivo che con ordine regolare si accende e con ordine regolare si spegne”. Il mutamento è quindi un’uscita dal fuoco o un ritorno al fuoco: “Col fuoco si scambiano tutte le cose e il fuoco si scambia con tutte, come l’oro si scambia con le merci e le merci con l’oro”. Le affermazioni che questo mondo è eterno e che il mutamento è un

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5;!

incessante scambio con il fuoco escludono il concetto di una conflagrazione universale, per la quale tutte le cose ritornerebbero al fuoco primitivo. Difatti lo scambio incessante tra le cose e il fuoco implica che non tutto si riduca al fuoco, così come lo scambio tra le merci e l’oro implica che non tutto si riduca all’oro. La difficoltà di conciliare l’idea d’un principio fondamentale con l’infinita varietà dei fenomeni, è risolta da Eraclito ammettendo che il conflitto degli opposti è in realtà un tipo di armonia. L’assoluta novità che troviamo in Eraclito, estranea al pensiero pitagorico, è, dunque, la concezione che l’unità dell’essere scaturisce dalla sua stessa molteplicità. Per unità, infatti, Eraclito intendeva il divenire, e questo deriva dall’esistenza degli opposti, in quanto è il loro fondersi, è lo svilupparsi dell’uno e dell’altro, è l’unità dei contrari. Il mondo è, pertanto, al tempo stesso uno e molti, ed è proprio la “tensione degli opposti” che costituisce l’unità dell’Uno. Riconsiderando lo sviluppo della filosofia greca fino a questo punto si capisce com’esso sia stato prodotto dalla tensione fra l’Uno e i Molti. Per i nostri sensi il mondo consiste di un’infinita varietà di cose e di eventi, di colori e di suoni. Ma per intenderlo dobbiamo introdurre un qualche tipo di ordine, e l’ordine significa riconoscere ciò che è uguale, significa ammettere una certa unità. Da ciò scaturisce la convinzione che c’è un principio fondamentale, e allo stesso tempo la difficoltà di derivare da esso l’infinita varietà delle cose. Che ci dovesse essere una causa materiale di tutte le cose era un punto di partenza naturale dato che il mondo consiste di materia. Ma se si portava all’estremo l’idea dell’unità fondamentale, si giungeva a quell’Essere infinito, eterno, indifferenziato che, sia inteso materialmente o meno, non può di per sé spiegare l’infinita varietà delle cose. Ciò conduce all’antitesi di essere e di divenire ed infine alla soluzione di Eraclito, che il principio fondamentale è il mutamento stesso. Ma di per sé il mutamento non è una causa materiale e perciò viene rappresentato da Eraclito con il fuoco, considerato come elemento base e forza motrice insieme. Possiamo notare a questo punto che la fisica moderna è in qualche modo assai vicina alle dottrine di Eraclito. Se sostituiamo la parola “fuoco” con la parola “energia” possiamo ripetere le sue affermazioni dal nostro moderno punto di vista. L’energia è difatti la sostanza di cui sono fatte tutte le particelle elementari, gli atomi e perciò tutte le cose, ed energia è ciò che muove. L’energia si può mutare in moto, in calore, in luce ed in tensione. Energia può essere chiamata la causa fondamentale di ogni cambiamento nel mondo. Eraclito si dimostra razionalista non meno intransigente del proprio avversario. Ed infatti, se è vero che i sensi ci pongono di fronte al molteplice (e così facendo ci forniscono una conoscenza esatta del reale), è altrettanto vero però che la conoscenza da essi prodotta è unilaterale, perché non riescono a farci superare l’inconciliabilità degli opposti. È dunque indispensabile oltrepassare i sensi per giungere alla ragione: solo questa sarà in grado di farci cogliere l’unità nella molteplicità, l’armonia nelle contraddizioni. Eraclito è veramente il filosofo della ricerca, e per la prima volta, in lui, la ricerca filosofica giunge alla chiarezza della sua natura e dei suoi presupposti. La natura stessa impone, secondo Eraclito, la ricerca; essa infatti “ama nascondersi”. Alla ricerca, egli vede schiudersi l’orizzonte più vasto: “Se non speri, non troverai l’insperato, introvabile essendo questo e inaccessibile”. Ma non si nasconde la difficoltà e il rischio della ricerca: “I cercatori d’oro scavano molta terra, ma ne trovano poco”.

La critica da parte dei filosofi razionalisti ebbe l’effetto di rendere i concetti materialistici più precisi e sofisticati. Dopo un lasso di tempo di quasi un secolo comparvero alcuni tentativi di cosmologie materialistiche radicalmente nuove ed

5=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

interessanti, che riflettevano le critiche dei razionalisti. All’incirca dal 450 a. C., troviamo per la prima volta cosmologie che sono chiaramente basate su una qualche conoscenza del numero e della natura dei corpi celesti, ed una considerevole consapevolezza della differenza tra mondo animato ed inanimato.

2.7 I fondamenti della scienza

Il secolo V, così come vede la massima fioritura della democrazia nelle città greche, vede anche fiorire una vera e propria scienza della natura. Si tratta di tentativi che sorgono in varie parti del mondo greco, per opera di pensatori di origine e mentalità diverse, ma che agiscono tutti nel senso di fondare una concezione scientifica della natura del tutto svincolata da miti religiosi. Con la filosofia della natura del V secolo siamo nel crogiuolo dei grandi problemi che occuperanno la riflessione umana per lunghi secoli a venire e le impostazioni che essa giunse a forgiare fornirono la materia prima a tutto il posteriore pensiero filosofico e scientifico. Infatti, Bacone e Galileo ne intuiranno la fecondità di alcune intuizioni come base di uno sviluppo propriamente scientifico.

Questi fisici pluralisti, in quanto ritengono che i principi della natura siano molteplici (come gli atomi per Democrito), cercano di conciliare due opposte affermazioni: l’idea dell’eterno Divenire delle cose di Eraclito e il concetto dell’Essere immutabile di Parmenide, ossia dell’eternità e immutabilità della natura. Questi filosofi risolvono genialmente il problema distinguendo tra composti (mutevoli) ed elementi (immutabili); infatti, ritengono che le cose del mondo siano costituite di elementi eterni, come gli atomi, che unendosi tra di loro danno origine alla nascita e disunendosi provocano la morte. In tal modo essi giungono alla comprensione di uno dei principi fondamentali della fisica, il principio di conservazione dell’energia: in natura nulla si crea e nulla si distrugge, ma tutto si trasforma.

Inoltre, per nessuno di questi pensatori è concepibile una distinzione a priori fra pensiero (o soggettività) e realtà (o oggettività) come due sfere autonome e sussistenti di per sé. Per essi il pensiero, in quanto vero, è pensiero del reale, e il reale a sua volta è il pensabile per eccellenza. Da tale presupposto fondamentale scaturivano due conseguenze importanti: in primo luogo non era pensabile una concezione della logica come scienza formale del discorso parlato e scritto che prescindesse dal rapporto di tale discorso con la realtà sul quale esso verteva, nel senso che la verità di qualsiasi discorso non poteva essere commisurata se non alle realtà che esso asseriva; in secondo luogo, non era ancora pensabile una distinzione tra i fenomeni che si presentano all’esperienza ed un eventuale sostrato oggettivo di questi fenomeni, quale verrà più tardi cristallizzato nelle nozioni di sostanza o di materia e che come tale dominerà per lunghi secoli il pensiero occidentale. Per i fisici pluralisti il mondo fisico si presentava come una essenziale unità in cui era inconcepibile contrapporre l’apparenza dei fenomeni alla realtà di una sostanza di base, e dall’impossibilità di pensare la materia in sé conseguiva l’impossibilità di pensare l’immateriale come esistente di per sé.

Ciò premesso, si capisce perché questi pensatori venissero comunemente definiti dai loro contemporanei non come filosofi ma come fysiològoi (studiosi di fysis), o più semplicemente come fisici. Fysis era ai loro occhi il sistema del mondo di cui l’uomo è una parte, al pari degli astri, degli esseri animati e inanimati, un mondo che ha una sua

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 54!

storia e un suo destino. Un mondo di cui occorre stabilire la pensabilità ma che non è pensiero, un mondo che è reale ma non è sostanza o materia, un mondo, infine, al di fuori del quale non si danno verità né realtà.

Il primo di questi fisici pluralisti è Empedocle (ca. 492 a.C.–ca. 430 a.C.) che visse in Sicilia, e quindi si trovò nelle migliori condizioni per essere a perfetta conoscenza delle filosofie razionalistiche sia di Pitagora che di Parmenide. Empedocle è consapevole dei limiti della conoscenza umana. I poteri conoscitivi dell’uomo sono limitati e conosce solo ciò in cui per caso si imbatte. Ma appunto per questo non può rinunciare a nessuno dei suoi poteri conoscitivi ed è necessario che si serva di tutti i sensi ed anche dell’intelletto per vedere ogni cosa nella sua chiarezza.

Empedocle presentò le sue idee in forma di un poema, Sulla Natura, e a causa della forma dell’esposizione, le spiegazioni restano spesso nascoste nel linguaggio poetico, ma il loro significato è profondamente razionale. Secondo Empedocle, la realtà, nel suo presentarsi alla nostra osservazione, appare indefinitamente diversa eppure connessa da ritmi, da cicli, da permanenze che ne formano la struttura unitaria; così come accade per l’organismo vivente, mutevole eppure un o, la realtà appare un tessuto variegato di poche sostanze semplici, un divenire scandito dal ciclo delle stagioni, della generazione, degli astri. Il mondo concepito, dunque, come un organismo unitario vivente e senziente, del quale nessuna parte poteva venire arbitrariamente amputata e tutte dovevano avere una loro profonda giustificazione. Se questo punto di vista ilozoico doveva trovare una spiegazione non mitica, una più universale razionalizzazione, occorreva infondervi i requisiti del vero; occorreva, una volta reso molteplice l’uno, trovare un’armonia tra questo vero molteplice e la molteplicità dell’esperito. Da questa esigenza nasce il sistema cosmico di Empedocle, una delle più potenti sintesi teoriche del pensiero greco.

Alla base del sistema stanno i quattro elementi, o piuttosto radici come li chiama Empedocle stesso con un termine che meglio corrisponde alla sua visione vitalistica del mondo: la terra, l’acqua, il fuoco, l’aria (o meglio l’etere). Ad ognuna di queste quattro radici veniva attribuito lo status dell’uno: l’infinità e l’immutabilità nello spazio e nel tempo, l’essere ingenerati e imperituri, e di conseguenza l’assoluta realtà e intelligibilità. Ciò non significava tuttavia negare la realtà degli infiniti altri oggetti dell’esperienza: ogni singolo ente è il risultato di una mescolanza delle radici, la sua nascita è la formazione della mescolanza e la sua morte ne è lo scioglimento; benchè in tali mescolanze le radici entrino sotto forma di porzioni frazionali, neppure nella minima di esse perdono alcuna delle loro proprietà

In principio, secondo Empedocle, vi era un universo sferico riempito con le quattro “radici delle cose”, che sono sempre esistite e da cui hanno origine tutte le cose create. Insieme con questi elementi vi erano le due forze, amore, che unisce le cose, e odio che invece le separa. L’amore è leggermente più forte, ma l’odio è necessario perché vi sia mutamento. L’opposizione di amore e odio divise successivamente i quattro elementi e questi, a loro volta, produssero la notte ed il giorno, i corpi celesti e l’universo come lo conosciamo. Dal punto di vista fisico è notevole, nel sistema di Empedocle, oltre la pluralità degli elementi, l’introduzione di due forze, che oggi diremmo di attrazione e di repulsione, come causa dei fenomeni e del divenire del mondo.

Empedocle introdusse un ampio numero di considerazioni di carattere astronomico: la luce della Luna proviene dal Sole; il Sole e la Luna girano intorno alla

55! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Terra, entrambi fatti girare da una sfera che li circonda; le eclissi avvengono quando la Luna, di forma lenticolare, passa tra il Sole e la Terra; la volta celeste è una sfera cristallina, sebbene l’universo abbia la forma di un uovo, il cui movimento conserva la Terra immobile nel centro. Secondo Empedocle, l’aria è un corpo, come risulta dal fatto che l’acqua non entra nella brocca immersavi con l’apertura in giù, che è impedita dall’aria compressa. La luce è una sostanza fluente, che, emessa dalla sorgente luminosa, raggiunge progressivamente i corpi interposti, insomma la luce è di natura corpuscolare e si muove con velocità finita. Essa può attraversare i corpi, perché s’infila nei pori presenti in questi corpi per la costituzione granulare della materia. I pori, invisibili a causa della loro piccolezza, non sono completamente vuoti, perché non esiste il vuoto in natura. Empedocle introduce, così, nella scienza una delle ipotesi destinate a maggiore fortuna: la concezione corpuscolare, secondo la quale i corpi che noi vediamo non sono semplici, ma formati di aggregati di particelle elementari, ciascuna delle quali, presa per sé, è eterna, immutabile, senza movimento o parti al suo interno. Questi corpuscoli Empedocle li chiama stoicheia (elementi), e sono di quattro specie o rhizomata (radici). Dall'aggregarsi e dal liberarsi di queste particelle hanno origine tutti i fenomeni: la nascita e la morte delle cose, le loro trasformazioni quantitative, i fenomeni meteorologici, ecc. Fondandosi sulla veduta della struttura porosa della materia, Empedocle cerca anche di spiegare l’attrazione magnetica: i pori sarebbero i ricettacoli delle influenze reciproche che i corpi esercitano l’uno sull’altro, per via degli effluvi che da essi emanano.

Plutarco nelle sue Questioni Naturali dice: “Secondo Empedocle tute le cose create emettono emanazioni … Così ogni cosa è consumata lentissimamente dal flusso continuo che emana”. Così il ferro è attratto dalla calamita perché entrambi producono emanazioni, e perché le dimensioni dei pori della calamita corrispondono perfettamente alle emanazioni del ferro, per cui ogni volta che le emanazioni del ferro si avvicinano ai pori della calamita vi si adattano per forma ed il ferro è trascinato dalle emanazioni e quindi attratto. Ciò che è importante non è, naturalmente, la teoria in sé, ma piuttosto lo sforzo che viene compiuto per spiegare razionalmente i fenomeni entro una prospettiva unificata.

Empedocle accettò anche la teoria pitagorica della visione, ma approfondendola per quanto riguarda il colore. Partendo dai quattro elementi primi e immutabili che compongono il mondo, ammise che l’interno dell’occhio è fatto di fuoco e di acqua mentre l’ambiente esterno è costituito di terra e aria. La visione avviene per mezzo di “corridoi” dell’acqua e del fuoco. Attraverso quelli del fuoco si riconosce il bianco, attraverso quelli dell’acqua si riconosce il nero. I corridoi dell’acqua e del fuoco sono intrecciati e i vari colori si formano dalla mescolanza dei due elementi e quindi dalla mescolanza di bianco e di nero. Come gli elementi anche i colori sono quattro: bianco, nero, rosso, giallo. Empedocle raggiunge una buona visione di quello che sarebbe il punto di vista scientifico e separa nettamente il piano della rivelazione religiosa da quello della scienza. Il primo si fonda sulla rivelazione, riservata ai soli iniziati, di verità arcane trascendenti la possibilità di comprensione dei comuni mortali; il secondo, invece, sulle testimonianze dei sensi. Date queste premesse, la teoria empedoclea si presenta come un tentativo di spiegazione sistematica dei fenomeni sensibili, qualcosa come un’ipotesi, nel senso che la parola acquisterà nella scienza moderna.

Il sistema cosmico costruito da Empedocle, una delle più affascinanti ipotesi scientifiche mai elaborate, fu rifiutato dal miglior pensiero filosofico-scientifico del V

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 56!

secolo (vedi Anassagora), che vedeva nel dogmatismo dell’esperienza, nel rifiuto di ogni strumento razionale di tipo logico-metodologico il più mortale pericolo per un libero progresso della ricerca. Eppure, tale sistema apparve a lungo come l’unico che potesse garantire una sicura base speculativa alle scienza nascenti, dalla biologia alla fisica, l’unico che ne assicurasse l’universalità. Così all’inizio del IV secolo la dottrina dei quattro elementi, la concezione organicistica dell’universo (che presto significò anche visione finalistica), il prevalere della qualità sulla quantità, finirono per trionfare e passarono in gran parte al platonismo e all’aristotelismo. Tramite questi canali, e sia pure con aggiustamenti progressivi, tali vedute percorsero un lunghissimo cammino, fino ad affacciarsi al rinascimento e alle soglie dell’età moderna. Qui tornarono a scontrarsi con il meccanicismo di tipo democriteo, e risultarono questa volta soccombenti senza però lasciar del tutto il passo.

Meno grandiosa, meno poetica, ma assai più chiara, è invece la concezione del mondo di Anassagora di Clazomene (500/497 a.C.-428 a.C.). Al contrario di quanto abbiamo visto per Empedocle, non v’è da attendersi in Anassagora un approccio globale alla realtà né un sistema esaustivo di essa. Al contrario, sono proprio la semplicità del suo modo di porsi di fronte al mondo, il suo rifiuto di imboccare la via che più direttamente lo conducesse al segreto della spiegazione e dell’unificazione universale, ad assegnargli un ruolo decisamente innovatore nel pensiero greco del V secolo. Occorreva lucidità filosofica per dichiarare mal posto il problema della semplificazione della realtà in pochi elementi o principi primordiali, per rifiutare la riduzione del molteplice all’uno e la deduzione del molteplice dall’uno.

Anche per Anassagora i corpi sono costituiti di particelle eterne (dette semi), invisibili, immutabili, senza parti né moto interni; solo che, invece di quattro, le radici (che da Anassagora pare che fossero chiamate «omeomerie») sono in numero indefinito, tante quante sono le materie, come ossa, legno, ferro, eccetera, che sminuzzate il più possibile non mostrano di mutare di qualità (le particelle anassagoriane, dunque, piuttosto che gli atomi della chimica moderna richiamerebbero le molecole: omeomerie sarebbero, in termini di oggi, tanto elementi quanto composti). Queste radici od omeomerie si possono mescolare: anzi, normalmente, ogni corpo è un miscuglio, ma prende il nome dalla sostanza predominante. Anche qui, nascita, morte, trasformazione dei corpi, e fenomeni di tutti i generi hanno origine dall'unirsi, in aggregati e miscugli vari, e dal liberarsi delle particelle.

Quindi, la prima caratteristica dei semi od omemeorie è la loro infinita divisibilità; la seconda caratteristica è la loro infinita aggregabilità. In altri termini, non si può, secondo Anassagora, giungere con la divisione dei semi a elementi indivisibili, come non si può giungere con l’aggregazione dei semi a un tutto massimo, di cui non sia possibile il maggiore. Il piccolo è, in un certo senso, grande quanto il grande, la parte è uguale al tutto, e questo paradosso che la logica moderna pone alla base della teoria dell’infinito, si trova in Anassagora a fondamento della teoria della materia: “Non c’è un grado minimo del piccolo ma c’è sempre un grado minore, essendo impossibile che ciò che è, cessi di essere per divisione. Ma anche del grande c’è sempre un più grande. Ed il grande è uguale al piccolo in composizione. Considerata in se stessa, ogni cosa è insieme piccola e grande”. Come si vede, quella infinita divisibilità che Zenone assumeva per negare la realtà delle cose, viene assunta da Anassagora come la caratteristica stessa della realtà. L’importanza matematica di questo concetto è evidente. Da un lato, la nozione che si possa raggiungere sempre, per divisione una quantità più piccola di ogni

57! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

quantità data, è il concetto fondamentale del calcolo infinitesimale. Dall’altro lato, che ogni cosa possa essere detta grande o piccola a seconda del processo di divisione o di composizione in cui viene coinvolta, è un’affermazione che implica la relatività dei concetti di grande e piccolo. Poiché non si giunge mai ad un elemento ultimo e indivisibile, non si giunge mai neppure a un elemento semplice, cioè a un elemento qualitativamente omogeneo che sia, per esempio, soltanto acqua o aria: in ogni cosa vi sono semi di ogni cosa e la natura di una cosa è determinata dai semi che prevalgono in essa. Appare oro quella nella quale prevalgono le particelle di oro, sebbene ci siano in essa particelle di tutte le altre sostanze. Rispetto all’antica ricerca dell’archè questa teoria segna un affinamento, per cui alla considerazione della materia si aggiunge quella dello spazio e della sua infinita divisibilità, secondo una concezione che, in qualche modo, prelude all’atomismo.

L'effettivo progresso sta nel modo in cui viene concepita la causa di questo moto dei corpuscoli, riportato non più a cause mitiche, ma a precise forze meccaniche: la forza centripeta e centrifuga che si sviluppano dal moto rotatorio di cui è animato il Tutto. Infatti, l’idea fondamentale di Anassagora nel suo modello cosmogonico è quella del vortice, della conseguente presenza di forze opposte, che oggi chiamiamo centrifuga e centripeta, che separano qualità opposte, come il denso e il rarefatto. La stessa discesa dei corpi pesanti verso il centro del vortice, cioè dell’universo, viene connessa alle azioni centripete e centrifughe che, anche se in forma rudimentale, prelude al tentativo compiuto da Huygens per spiegare la gravitazione. L’idea del vortice, come abbiamo già visto, era stata avanzata da Anassimandro e Anassimene, ma per i due milesi il problema di una causa generale del moto vorticoso dell’universo non esisteva, e il moto appariva come un attributo naturale, inerente alla sostanza primitiva. Anassagora invece solleva lo spinoso problema dell’origine del vortice primitivo, ma non può risolverlo, naturalmente, e ricorre all’ipotesi dell’azione di un intelletto (nous): “ … E tutto quanto un tal moto domina l’intelletto (nous), e ad esso diede principio. E da prima cominciò questo moto vorticoso dal piccolo, ma lo estende via via maggiormente, e lo estenderà sempre più … E si separa il denso dal raro, e dal freddo il caldo, e dall’oscuro il luminoso, e dall’umido il secco … Il denso e l’umido, il freddo e l’oscuro si riunirono dov’è ora la terra, mentre il raro, il caldo, il secco si portarono verso la regione esterna dell’etere … Così le cose si muovono e si separano per la forza e per la rapidità. La rapidità loro non somiglia alla rapidità di alcuna delle cose che sono ora fra gli uomini, ma è molte volte più veloce”. Il nous, l’intelligenza, è un principio che svolge essenzialmente tre funzioni: ordinamento, comprensione e controllo della realtà. Ma la sua caratteristica innovatrice sta nella sua separazione dalla realtà: “Le altre cose partecipano delle parti di tutto, l’intelligenza invece è illimitata e libera delle proprie leggi e a nessuna cosa è commista, ma sola essa in sé si costituisce. Se non fosse costituita in sé, ma commista ad altro, parteciperebbe di tutte le cose, a qualsiasi fosse commista … e le cose commiste le impedirebbero di prevalere su tutte le cose come fa invece sola essendo in sé costituita. È infatti la più sottile e la più pura di tutte le cose, e ha intera conoscenza di tutto e potenza grandissima: e tutto quanto ha un’anima, e il maggiore e il minore, tutto domina l’intelligenza”. Va detto che questo nous così separato non crea il mondo e non ha senso al di fuori del suo rapporto con il mondo; quello che Anassagora scopre è la necessità di un’alterità rispetto al mondo perché il mondo stesso possa essere compreso e controllato. Anassagora, invocando l’intervento del nous all’origine della sua ipotesi

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 58!

fisica, come punto d’inizio del vortice, e poiché tale vortice dava luogo al processo rettilineo di separazione e individuazione delle cose del mondo, ecco che il nous significava anche facoltà analitica e discriminante del conoscere; e il progressivo ordinamento del mondo in un cosmo, operato dal nous, significava anche ricostruzione di un mondo via via più trasparente nelle sue leggi e nei suoi significati. In definitiva, il dominio del nous sul mondo significava capacità di trasformazione fondata sulla comprensione di fysis. Platone ed Aristotele videro immediatamente nel nous la causa efficiente della realtà, e rimproverarono ad Anassagora di non averne saputo fare anche la causa finale, pur riconoscendogli il merito di aver per primo introdotto nel mondo un principio immateriale. Al di là delle critiche, il merito di Anassagora sta invece nell’aver fatto del nous il principio di spiegazione delle leggi della realtà e non legge esso stesso. Sebbene l’idea di una intelligenza che ordina e domina i fenomeni naturali fosse presente nelle religioni, si può dire che ora per la prima volta un principio mentale occupa un posto definito in un sistema scientifico, e questa è una svolta importante, giacché tale principio tenderà ad assumere proporzioni sempre maggiori specialmente per i filosofi interpreti della scienza, da Platone ad Aristotele, durante tutto il medioevo e fino ai metafisici dell’Ottocento. Naturalmente non vi è contraddizione fra Anassagora filosofo del nous e Anassagora fisico. Avendo assegnato a fysis ed alle scienze i ruoli che rispettivamente competevano loro, poteva egli stesso dedicarsi all’indagine scientifica senza incorrere in trasposizioni indebite. Così egli riprendeva dalla tradizione ionica la legge fisica di condensazione e rarefazione che gli serviva a spiegare un gran numero di fenomeni; così, contro quella stessa tradizione, tentò di dimostrare la non esistenza del vuoto e che l’aria è un corpo fisico come gli altri, ricorrendo all’esperienza della brocca di Empedocle, osservando che gli otri riempiti di aria offrono resistenza alla pressione; alla stessa maniera non esitava ad asserire la natura fisica dgli astri e le leggi meccaniche che presiedevano al loro moto.

Un esempio della mentalità scientifica di Anassagora è riportato da Plutarco: “Una enorme pietra cadde dal cielo su Egospotami; mentre gli abitanti del Chersonesco presero a venerarla, si dice che Anassagora sostenne che questa pietra proveniva da uno dei corpi celesti sui quali si era verificata una frana o un terremoto, così che questa pietra era stata divelta ed era precipitata su di noi”. Altri notevoli concetti di Anassagora circolavano probabilmente da tempo negli ambienti filosofici della Ionia come il principio di conservazione della materia: nulla si crea e nulla si distrugge che noi riteniamo del tutto moderno ma che egli esprime già con tanta concisione: “Niente nasce e niente perisce … E così rettamente si dovrebbe dire il nascere riunirsi, e il perire separarsi. Il tutto non è mai né in minor quantità, né in maggiore, chè non è possibile ci sia più del tutto; ma è sempre uguale”. È importante notare che in tutte queste ricerche le vedute filosofiche di Anassagora fungono da ipotesi generali, arricchite via via dai portati dell’indagine empirica e dell’esperienza accumulata dalle scienze speciali. Ma il nous in se stesso non è mai oggetto della ricerca, né come causa né come sostanza, giacchè veniva immediatamente inteso come garanzia della possibilità della ricerca, e poi articolato come metodo della ricerca stessa. In nome di questa concezione prettamente meccanica della natura, Anassagora inizia quella metodica demolizione delle superstizioni religiose che poi verrà proseguita dai sofisti e, forse, da Socrate: prodigi, segni celesti e simili, vengono ricondotti a fenomeni fisici prodotti da un concorso eccezionale di cause

59! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

naturali. Quando Socrate verrà accusato di aver negato la divinità dei corpi celesti, affermando che erano cose materiali e naturali (pietre arroventate o qualcosa del genere), potrà rispondere ironicamente al suo accusatore: “Par che accusi Anassagora”. Quelle dottrine erano ormai luogo comune in Atene. Sotto molti aspetti Anassagora appare come un pensatore profondo, quasi moderno in certe sue concezioni; infatti il suo discepolo Euripide dice: “Beato l’uomo che ha conquistato la sapienza nata dallo studio della natura; non reca male ad alcuno, azioni ingiuste non compie, ma esamina l’ordine immutabile della immortale natura, studia di che cosa è composta, come e perché. Non vi è posto nel suo cuore per azioni ingiuste.” La crisi metodologica delle scienze a partire dal tardo platonismo, il rifluire dell’eredità pitagorica ed empedoclea, un nous che non aveva la consistenza né della cosa né dell’idea, che non giustificava il mondo né a priori, come creatore, né a posteriori, come causa finale, il fatto che il metodo deduttivo pareva alle stesse scienze fisiche infinitamente più solido delle indicazioni ipotetiche e di metodo formulate dal maestro di Clazomene, e, non ultimo, la consolidata identificazione fra stato e religione mal tollerava lo spregiudicato empirismo del filosofo del nous,, fecero sì che la figura di Anassagora si eclissasse piano piano.

Fra le più antiche idee filosofiche che hanno cercato di dare una risposta alla domanda riguardante gli elementi fondamentali della materia, la teoria atomistica è certamente la più importante poiché, pur essendo priva di una base empirica al pari delle teorie antagoniste del tempo, con la sua geniale intuizione della discontinuità della materia rappresenta una sorprendente prefigurazione dei futuri sviluppi della fisica moderna. Gli atomisti, rispetto alle idee di Empedocle ed Anassagora, propongono una nuova soluzione: la materia non ha qualità, è omogenea, impenetrabile, indistruttibile e discontinua, cioè formata da parti non più divisibili dette atomi (dal greco non divisibili), di forma e grandezza diverse, separate dal vuoto assoluto. Mentre, concordano con il principio fondamentale dell’eleatismo che solo l’essere è; ma intendono riportare questo principio all’esperienza sensibile e servirsi di esso per spiegare i fenomeni. Così intendono l’essere come il pieno, il non essere come il vuoto e ritengono che il pieno e il vuoto sono i principi costitutivi di ogni cosa. Ma il pieno non è un tutto compatto, ma è formato da un numero infinito di elementi indivisibili.

L’atomismo rappresenta la riduzione naturalistica dell’eleatismo. Dell’eleatismo ha fatto propria la proposizione fondamentale: l’essere è necessario; ma ha inteso tale proposizione nel senso della determinazione causale. Parmenide esprimeva poeticamente il senso della necessità ricorrendo, per esempio, al fato. L’atomismo identifica la necessità con l’azione delle cause naturali. Dall’eleatismo, l’atomismo desume anche l’antitesi tra realtà e apparenza; ma quest’antitesi stessa viene portata sul piano della natura e la realtà di cui si parla è quella degli elementi indivisibili della natura stessa. Il risultato di queste trasformazioni, che va al di là delle intenzioni degli stessi atomisti, è l’avviamento della ricerca naturalistica a costituirsi come disciplina a sé e a distinguersi dalla ricerca filosofica come tale. La costituzione di una scienza della natura a disciplina particolare, quale appare in Aristotele, è preparata dall’opera degli

atomisti, che hanno ridotto la natura a pura oggettività meccanica, con l’esclusione di qualsiasi elemento mitico o antropomorfo.

Il più noto rappresentante della scuola atomistica fu Democrito (460 a.C.–360 a.C.), che sulla scia di Parmenide ed Eraclito, ritiene che il

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5:!

filosofo debba cercare di raggiungere la realtà autentica delle cose, conscio che la verità dimora nel profondo della natura. In Democrito esperienza e ragione si trovano in un rapporto di reciproca continuità e implicanza, infatti, la conoscenza parte dalla constatazione delle cose attraverso i sensi, si sviluppa mediante un’autonoma elaborazione intellettuale e logica dei dati, infine, si perviene ad una teoria in grado di spiegare ciò che i sensi si limitano a mostrare. Questo non significa che in Democrito vi sia già lo schema metodologico della scienza moderna. Come in tutti i Greci, anche negli atomisti il momento puramente razionale della ricerca sopravanza il momento sperimentale, in quanto in essi manca la nozione galileiana di esperimento e di verifica. Con gli atomisti abbiamo una sorta di “fisicizzazione” del binomio di essere e non-essere, in quanto essi identificano l’essere con il pieno e il non-essere con il vuoto. Il pieno è la materia, il vuoto è lo spazio in cui essa si muove.

Sviluppando un motivo già introdotto da Leucippo (V sec a.C.), Democrito cercò il fondamento materiale del cosmo in un indefinito numero di atomi invece che in un finito numero di elementi. Anche se molto originale, la teoria atomistica di Democrito può dirsi frutto maturo tanto della filosofia ionica, nelle omeomerie di Anassagora, come quella italica, nella dottrina pitagorica delle monadi.

Ma come si è giunti all’idea di atomo? Non certo su base sperimentale in senso moderno, essendo gli atomisti privi di strumenti scientifici appropriati. Il loro concetto è il frutto di una deduzione razionale, che discende da una riflessione sulla problematica della divisibilità sollevata da Zenone. Contro tale affermazione gli atomisti sostengono che la divisibilità vale solo in campo logico-matematico, ma non in quello reale, in quanto non è assolutamente possibile pensare di dividere all’infinito la realtà materiale manifestata dai sensi, perché altrimenti, la realtà si dissolverebbe nel nulla e quindi dalla materia si passerebbe alla non-materia. Ma se al fondo della natura vi fosse il nulla, non si capirebbe come dal nulla possa derivare la realtà concreta e materiale dei corpi. Di conseguenza, secondo Democrito, se si vuole spiegare razionalmente ciò che appare, bisogna teorizzare l’esistenza di costituenti ultimi della materia, ossia particelle indivisibili che rappresentano l'ultimo limite dove si arresta ogni possibile divisione dei corpi materiali. Pertanto, la genesi della materia va ricercata in questi enti primordiali eterni, immutabili e indistruttibili. Però va chiarito che, secondo Democrito, l’atomo non è tale per la sua piccolezza, ma proprio per la sua indivisibilità. Infatti, Democrito riteneva che esistessero anche alcuni atomi grandissimi, anzi “un atomo grande come un mondo “. Nulla vieta di pensare, per via geometrica, ad una infinita divisibilità, come facevano Anassagora e Zenone, ma l’atomo è tale propter soliditatem, come diceva Cicerone, cioè per la sua indivisibilità fisica. Il numero delle forme atomiche può essere infinito, “perché non v’è ragione che un atomo abbia una forma piuttosto che un’altra”. Forme diverse potrebbero render conto di varie proprietà chimiche o fisiche.

Gli atomi di Democrito sono anche qualcosa di nuovo rispetto ai punti-unità di Pitagora; questi punti-unità erano infatti dei puri concetti geometrici, mentre gli atomi sono delle nozioni fisiche. E fisico è pure il concetto dello spazio in cui Democrito li considera immersi: esso è il vuoto, cioè il non-essere di Parmenide, interpretato non più come la negazione metafisica di ogni essere, ma come la “mancanza di atomi”, la mancanza cioè di materia. Ma cosa significa che l’atomo è una nozione fisica? Non ovviamente che l’atomo fosse percepibile dai sensi, perché Democrito affermava che gli oggetti da noi percepiti sono aggregati di atomi; e nemmeno che l’atomo fosse raggiungibile con strumenti fisici, dato che la nozione di “strumento fisico”, capace di

6<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

accrescere la potenza dei nostri sensi, mancava quasi completamente ai greci del V secolo. Per dare un senso alla fisicità degli atomi democritei, non resta che un unico mezzo, inquadrarla nella generale esigenza razionalistica del nostro pensatore. L’osservazione ci fornisce sempre oggetti che possono essere suddivisi. Su questa base empirica, la ragione può compiere due postulazioni: o affermare che la divisibilità è proseguibile all’infinito, o affermare che incontra un limite. Le due postulazioni sono entrambe ragionevoli, tanto è vero che Democrito stesso non teme di far ricorso alla prima nelle sue indagini puramente matematiche. La prima, però, ci conduce a concepire l’essere come somma di infiniti zeri, e quindi fa assurdamente scomparire l’insuperabile barriera che nella realtà divide l’essere dal non-essere. Per evitare questa gravissima conclusione, questa illusoria riduzione dell’essere al non-essere, la ragione non ha che una via: respingere la prima postulazione e accogliere la seconda. L’atomo è il frutto di questa postulazione, e come tale è garantito da un complesso di argomenti rigorosamente razionali.

Per Democrito vi erano, dunque, due realtà: gli atomi ed il vuoto. Gli atomi sono insecabili a causa della loro durezza, non della piccolezza, formati tutti di eguale sostanza, e variano per la forma e le dimensioni e, nel raggrupparsi, per l’ordine. In che modo gli aggregati di atomi producono in noi le percezioni sensibili? Sulla base di ipotesi già espresse da Empedocle, ogni percezione è dovuta a contatto. Per esempio, la percezione di un corpo con la vista è dovuta ad un effluvio di atomi che partono da quel corpo e giungono agli occhi; ciò che esiste è soltanto questo urto; il colore non è che un effetto secondario dell’urto sull’organo sensoriale. In altri termini la forma e la grandezza degli atomi esistono per natura, per cui il peso e la durezza sono qualità reali dei corpi, cioè oggettive; le qualità sensibili della nostra esperienza (caldo, freddo, colore, suono, ecc.) sono soggettive, affezioni dell’individuo che le avverte e dipendono dalla forma degli atomi che in ciascun corpo prevalgono. In particolare la percezione dei suoni, grazie alla nuova concezione dell’aria “composta di particelle minute” che sorge con Democrito, veniva interpretata come vibrazioni dell’aria interposta fra la sorgente sonora e l’orecchio. Nonostante le loro benemerenze nel campo dell’acustica, i pitagorici non erano giunti a quella teoria della propagazione del suono, a cui Democrito perviene in base alla sua concezione atomica dell’aria, secondo una autorevole testimonianza (Ezio, Frammenti): “Democrito dice che l’aria è costituita da particelle di forme simili, e viene messa in movimento ondulatorio assieme ai frammenti di aria che provengono dalla voce”. Democrito spiegava il vario peso macroscopico dei corpi con la diversa mescolanza in essi di atomi e di vuoto, e, pare, attraverso una difficile interpretazione di qualche frammento scritto che ci è pervenuto, che intervenisse nella spiegazione anche il diverso peso degli atomi costituenti i corpi. La diversa durezza era spiegata con la diversa distribuzione degli atomi, per cui nel linguaggio moderno, diremmo che la durezza era una proprietà collegata con la struttura reticolare dei corpi. L’esistenza del vuoto, quell’assoluto non essere che Parmenide aveva dichiarato impensabile, diventa elemento necessario in questa visione e descrizione del mondo, altrimenti gli elementi della materia non potrebbero distinguersi l'uno dall'altro e formerebbero un tutto unico e continuo: "... non esistono che gli atomi e lo spazio vuoto: tutto il resto è opinione".

Nel concetto di Leucippo e Democrito, l’ipotesi atomica è necessaria per spiegare non soltanto le proprietà fondamentali della materia, ma anche per fornire una teoria cinetica del mondo e del suo divenire: il processo cosmico è originato dal moto degli

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6;!

atomi nel vuoto e dai loro urti. E in tale sistema cinetico tutto dipende da ragioni meccaniche, per cui il mondo è regolato dal più rigido determinismo.

Democrito, tenendo salda la geniale intuizione di Anassimandro, per cui l’alto e il basso hanno un significato relativo, rispetto alla Terra, pensa al vuoto come ad uno spazio geometrico, piuttosto che fisico, senza alto, né basso, né centro, in cui gli atomi sono dotati di movimento casuale ed eterno, ma, nonostante questo, il simile cerca il simile, così alcune combinazioni sono favorite rispetto ad altre. Ogni corpo, più o meno stabile e durevole, si origina e si disgrega a causa dell'aggregazione e della separazione delle particelle in collisione. Nella disgregazione, poi, nulla va perduto degli elementi reali (atomi) che compongono la materia. Una porzione, sia pur piccola, di spazio vuoto separa sempre due atomi distinti, anche allorchè sembrano inscindibilmente legati in un corpo solido. La rottura di tale corpo in due parti non è altro che l’accrescimento dello spazio vuoto interposto fra gli atomi che compongono le due parti. Il movimento degli atomi provoca inoltre le sensazioni fisiologiche: per esempio, la visione è provocata da particolari specie atomiche, dette "immagini", che uscendo dagli oggetti, dove esiste luce, passano attraverso l'organo della vista fino a interagire con gli atomi ignei dell'anima.

Gli atomisti riescono a superare la critica relativistica di Parmenide e Zenone definendo il moto in sé come moto “rispetto al luogo”. Aristotele nella Metafisica ci parla di questo movimento degli atomi rispetto al vuoto, affermando che gli atomisti hanno postulato che il vuoto ha una realtà al pari del pieno: “Leucippo e il suo seguace Democrito dicono essere elementi il pieno e il vuoto, dicendo l’uno l’essere, l’altro non-essere (dunque in polemica con Parmenide): il pieno e solido chiamano essere, il vuoto e inconsistente chiamano non essere; perciò dicono anche che il non-essere è altrettanto reale quanto l’essere, perché il vuoto non è meno reale del corpo”. Questa è un’idea che richiama lo spazio assoluto di Newton, le susseguenti concezioni di un etere che lo riempie, infine l’attuale concetto di spazio o campo metrico, come realtà fisica. Ma come è possibile spiegare il movimento degli atomi? A questo scopo Democrito non ritiene di dover ricorrere a qualche causa o principio esterno agli atomi stessi, come era per esempio il nous di Anassagora. Preferisce concepire il movimento come uno status naturale degli atomi, status che non necessita di spiegazioni ma serve invece a spiegare la formazione degli aggregati di atomi, cioè dei corpi, e le loro proprietà. Questo moto naturale degli atomi implica una prima veduta del principio di d’inerzia, che sarà formulato da Galileo nel XVII secolo (questo principio afferma, infatti, che il moto rettilineo uniforme non richiede la presenza di alcuna causa che lo provochi; solo dove si ha accelerazione deve esserci una causa che la produce). Aristotele, incapace di accogliere questa concezione vi ripugna, ma proprio lui nella Metafisica mostra chiaramente il pensiero di Democrito: “In quanto al moto, donde e come si trovi negli enti, anche costoro, non molto diversamente dagli altri, con leggerezza tralasciarono di indagare”. E ancora nella Fisica: “Inoltre (nel caso del vuoto) non vi sarebbe ragione perché un corpo in movimento debba fermarsi piuttosto qui che lì. Perciò o resterà immobile o si muoverà all’infinito, a meno che non sia impedito da un ostacolo più forte”. Questa sembra ad Aristotele una confutazione indiscutibile basata sul principio di ragion sufficiente (se un corpo si muove nel vuoto di moto uniforme, sia pure per un tempo brevissimo, per quale ragione non dovrà poi continuare all’infinito a muoversi così?). E invece non è altro che il principio d’inerzia: egli lo ha sotto gli occhi, ma non riesce ad afferrarne la verità.

Il caotico movimento degli atomi, simile al moto del pulviscolo atmosferico,

6=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

origina "gli infiniti mondi e tutte le cose", differenziate dalla qualità, tipo, forma e dimensione, e dalla quantità delle particelle materiali, che popolano lo spazio vuoto; pertanto Democrito ritiene che vi siano infiniti mondi che perpetuamente nascono e muoiono, intuizione grandiosa, ripresa poi da Giordano Bruno. Esisteranno mondi senz’acqua, oppure mondi con più soli o con più lune, ma anche mondi analoghi al nostro. Anche l’universo, preso nella sua totalità, risulta spazialmente infinito, poiché non è pensabile un limite oltre il quale non si possa procedere. Eterna come il movimento è pure la sostanza complessiva dell’universo, che non può né aumentare né diminuire, perché implicherebbe una creazione dal nulla o una dissoluzione nel nulla, per cui gli atomisti fanno proprio il postulato di origine eleatica secondo cui nulla viene dal nulla e nulla torna al nulla. Che non vi siano cause finali, ma solo una pura necessità meccanica che governa i fenomeni naturali, è una filosofia che Aristotele non cessa di rimproverare a Democrito, e che sembrerà irrazionale per secoli, finché non diverrà criterio metodico fondamentale della scienza moderna. Comunque è chiaro che Democrito tendeva a sopprimere le cause finali, e perciò le spiegazioni teleologiche, in ogni campo. Alla domanda “perché”? egli pensava che si dovesse rispondere non specificando a quale scopo accade un certo fatto, ma piuttosto “come” accade, ossia quali sono le cause meccaniche che lo hanno prodotto. Gli atomi in moto sono, secondo la teoria democritea, la totalità della natura pensabile, per cui, non solo non è necessario chiarire la causa di tale moto, come pretendeva Aristotele, ma, dal punto di vista della pura logica, è assurdo richiederla, ed è ciò che voleva dire Democrito quando asseriva che “non si dà principio (cioè causa) dell’eterno e dell’infinito”. In virtù di questo insieme intercollegato di teorie, l’atomismo rappresenta a tutti gli effetti una filosofia materialistica, in quanto la materia, insieme al vuoto, costituisce l’unica sostanza e l’unica causa delle cose. Ritenendo che le uniche realtà del mondo siano la materia, il movimento e le loro leggi, gli atomisti sono i primi a voler interpretare la natura con la sola natura, contrapponendo la necessità meccanica alla volontà degli dèi, per cui parte integrante di tale materialismo è il meccanicismo, per il quale tutto ciò che avviene nell’universo presuppone un sistema ben preciso di cause che lo abbia prodotto (casualismo). Un noto frammento di Leucippo recita: “nulla si produce senza ragione, ma tutto avviene per un motivo ed in forza della necessità”.

Tuttavia, poiché alla base del mondo non esiste nessuna forza intelligente e ordinatrice e nessun progetto, l’universo degli atomisti può dare l’impressione di essere sospeso al caso. Democrito stesso, affermando che tutto ciò che esiste è frutto del caso e della necessità, intende dire, molto probabilmente, che il cosmo, pur essendo il frutto di cause naturali ben precise, opera al di fuori di ogni programmazione o predeterminazione qualsiasi. Attesta Simplicio: “Secondo Leucippo, Democrito ed Epicuro il mondo non è animato, né retto dalla provvidenza, ma è composto di atomi di una natura priva di ragione”. Da questa panoramica visione del mondo di Democrito si nota la tendenza a unificare nella logica degli atomi ogni conoscenza (unità del sapere). Dai fenomeni naturali a quelli biologici, dall'astronomia all'etica tutto deriva dagli atomi. Forse, proprio questa teorizzazione riduzionistica rappresenta il motivo principale della forte opposizione contro le idee atomistiche. Per diversi secoli infatti la teoria di Democrito fu incessantemente contestata non solo dalle scuole filosofiche antagoniste (a cominciare dai platonici che la tradizione vuole abbiano fatto bruciare le opere di Democrito), ma anche da molti maestri delle singole discipline scientifiche,

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 64!

gelosi della specificità delle proprie ricerche e intolleranti che da un'unica matrice potesse nascere ogni conoscenza.

Nel XX secolo, cessata ogni forma di acritica esaltazione e di faziosa denigrazione, l’atomismo ha assunto una rilevanza oggettiva attestata da Bertrand Russel che scrive: “Il mondo degli atomisti rimane logicamente possibile ed è più vicino al mondo reale di quanto non lo sia il mondo di ogni altro filosofo antico” e da Ludovico Geymonat che afferma: “L’atomismo costituisce il patrimonio più prezioso che i Greci trasmisero nel campo delle interpretazioni generali della natura, alle epoche successive, ed ebbe una funzione determinante, nel XVI e XVII secolo, per la formazione della scienza moderna”.

2.8 Platone ed Aristotele Nel momento in cui fiorivano nelle città greche le forme più libere di governi popolari, la scienza non poteva conservare quel carattere aristocratico che aveva avuto nei primi secoli della civiltà ellenica. Non basta più che il filosofo comunichi a una piccola schiera di discepoli i risultati delle proprie investigazioni sulla natura delle cose. Il popolo, sempre di più coinvolto nella vita pubblica delle proprie città, vuole attingere anche alle fonti del sapere. E la scienza diventa una potenza sociale, un momento decisivo della politica. Ecco, quindi, che lo sviluppo di una forma di governo democratica attrasse ad Atene, nella prima metà del quinto secolo, un buon numero di matematici, molti dei quali erano ex membri della setta pitagorica, ora dispersa. Essi furono chiamati “sofisti” (ossia dotti o professori) poiché insegnavano ai propri allievi, dietro pagamento, come argomentare per affermarsi in un dibattito, usando gli argomenti logici della matematica. Ora, se i sofisti erano maestri e divulgatori di scienza, non è da aspettarsi di trovare in essi una filosofia o una dottrina uniforme; le più svariate idee potevano esprimersi nella loro propaganda intellettuale. Comunque, nel primo periodo, i sofisti più rappresentativi sono filosofi empiristi, antagonisti del razionalismo parmenideo.

Per uomini come Protagora (ca. 485-411 a.C.), Gorgia (ca. 485-376) e Prodico (ca. 460-380 a.C.), i maggiori esponenti della prima sofistica, la logica è una premessa, se non un indirizzo, necessaria per la formazione di un linguaggio filosofico e scientifico esatto, quale apparirà poi in Platone ed Aristotele. Per i sofisti ad ogni logos si contrappone un logos, e questi due logoi sono ben più che un semplice esercizio didattico, ma rappresentano la base dell’esame, dell’analisi di ogni situazione reale, lo spirito del ragionare che è sempre un dialogare, un perseguire, attraverso il discorso, non già il vero (non esiste un vero dato oggettivamente una volta per tutte), ma ciò che risulterà più alto, migliore, entro l’ambito di una ricerca sempre perfettibile. Forse impressionato dalla mutevolezza delle prospettive scientifiche del secolo precedente, Protagora, ponendo l’uomo al centro del proprio universo che fa dell’uomo “la misura di tutte le cose”, si professa “relativista”, per cui concepisce la verità come una forma di conoscenza sempre e comunque relativa al soggetto che la produce e al suo rapporto con l'esperienza. Non esiste un'unica verità, poiché essa si frantuma in una miriade di opinioni soggettive, le quali, proprio in quanto relative, finiscono per essere considerate comunque valide ed equivalenti. Questo relativismo investe tutti gli ambiti della

65! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

conoscenza, dall'etica alla politica, dalla religione alle scienze della natura. Questa posizione filosofica ha un riscontro nel pensiero moderno, in particolare nella posizione di Berkeley. Infatti la formula berkeleyana esse est percipi, si riduce in ultima analisi al concetto protagoreo dell’homo mensura.

Molti hanno avvicinato i sofisti ai positivisti ed empiristi del XIX secolo, e i moderni positivisti logici, al grido di “viva i fatti e abbasso la metafisica”, hanno combattuto la stessa battaglia: la verità metafisica che pretende di superare e contraddire il giudizio dei sensi.

La critica dei sofisti si esercitava anche nei confronti delle credenze morali e religiose e sugli istituti tradizionali della società greca. La discriminazione tradizionale fra “natura” e “apparenza” delle cose, trasferita dall’ordine fisico all’ordine sociale, acquista un nuovo significato, cui risponde una nuova antitesi: “per natura” e “per convenzione”. Agli occhi dei custodi della morale e della fede, o dei conservatori in genere, siffatte critiche minacciano di dissolvere ogni autorità e quindi la vita dell’intera società. Il turbamento morale portato dalla critica sofistica doveva suscitare la reazione più forte e decisiva nei centri tradizionalistici e conservatori di Atene, dove la scienza demolitrice era stata diffusa con l’educazione della gioventù nelle pubbliche discussioni. La divulgazione della scienza e della critica provocava la seguente reazione: l’indirizzo della filosofia veniva piegato verso i bisogni spirituali e morali del popolo.

Socrate (469 a.C.–399 a.C.) esprime questa reazione, ed è uno degli ateniesi più avversi ai sofisti, anche se con essi condivideva l’abilità nella discussione. Egli si interessò dei problemi relativi alle argomentazioni, ma più nel tentativo di scoprire come trovare se la conclusione di un’argomentazione sia vera, piuttosto che trovare se sia convincente. Paradossale fondamento del pensiero socratico è il "sapere di non sapere", un'ignoranza intesa come consapevolezza di non conoscenza definitiva, e quindi movente fondamentale del desiderio di conoscere. Il non sapere socratico, l’idea che la conoscenza scientifica non è episteme, sapere certo, ma doxa, sapere congetturale, che lo scienziato è cercatore non possessore della verità, sarà la tesi del fallibilismo di Popper.

Socrate non si interessò del mondo fisico, ma del mondo della società umana, per cui le sue idee ebbero poco a che fare con la scienza. Lo studio della fisica non lo interessava perché non aiutava nella comprensione dei concetti etici e di ciò che egli credeva fosse la realtà ultima; anzi rimproverava i naturalisti di spiegare i fenomeni “con aria, etere, acqua ed altre simili cose strane”, anziché cercare lo scopo di tutto ciò che è o accade. Comunque Socrate era propenso a prendere in considerazione una concezione meccanicistica della natura al fine di ricondurre a cause naturali i fenomeni fisici, se non altro per contrastare la visione magica e superstiziosa degli avvenimenti naturali. Si sa, però, che fu molto interessato al pensiero di Anassagora ma se ne allontanò per la teoria del Nous (Mente) che metteva ordine nel caos primigenio degli infiniti semi. Infatti, Socrate pensava che questo principio ordinatore dovesse essere identificato con il sommo principio del Bene, un principio morale alla base dell'universo, ma quando invece si accorse che per Anassagora il Nous doveva invece rappresentare un principio fisico, una forza materiale, ne fu deluso e abbandonò la sua dottrina. Con questo spirito teleologico, combattendo la spiegazione naturaluistica, Socrate si contrappone, più che alla particolare filosofia sofistica, alla scienza medesima.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 66!

Platone (427 a.C.–347 a.C.), derivando molti concetti dalla tradizione parmenidea e soprattutto da quella pitagorica, produsse una filosofia e una cosmologia solide e coerenti, di grande influenza e importanza per la scienza. Nella visione platonica la matematica rimane al centro della spiegazione del mondo e del pensiero, come già era tutto è numero di

Pitagora. Con la differenza che il ruolo dell’aritmetica viene ora preso dalla geometria. Platone codificò nel Timeo la nuova fede nella geometria del cosmo, anticipando in particolare la visione moderna che assegna configurazioni geometriche agli elementi chimici. E cercò, nella Repubblica e in altri dialoghi, di risolvere il problema di quale fosse la vera natura degli enti geometrici, che, secondo Platone, costituivano l’essenza dell’universo.

Platone, nella Lettera settima, difende con parole bellissime l’idea fondamentale che la verità non la conosciamo, ma possiamo cercarla e anche trovarla. La verità è celata, ma accessibile. Questo è il cuore dell’ideologia che guida la ricerca scientifica. Il metodo è la ricerca, l’osservazione, la discussione, il dialogo: “Dopo molti sforzi, quando nomi, definizioni, osservazioni e altri dati sensibili, sono portati in contatto e confrontati a fondo gli uni con gli altri, nel corso di uno scrutinio e un esame cordiale ma severo fatto da uomini che procedono per domande e risposte, e senza secondi fini, ecco che con un improvviso lampo brilla, per qualunque problema, la comprensione, e una chiarezza di intelligenza i cui effetti esprimono i limiti estremi del potere umano”. Platone non approfondisce propriamente il problema della scienza stessa, come possa fondarsi, ma ne coglie l’aspetto formale. E in questo senso il risultato della sua riflessione reca un enorme contributo alla filsoofia scientifica.

Platone divide il cosmo in due regioni separate e distinte: il mondo dell’essere ed il mondo del divenire. Considerava il mondo dell’essere perfetto, eterno, immutabile, dimora di quelle che egli chiamava “idee” o “forme”. Il mondo del divenire, l’imperfetto e mutevole mondo fisico, era composto di oscure, labili copie delle perfette forme del mondo delle idee. La matematica gli rivela concetti netti e precisi, universali, su cui si fondano dimostrazioni incrollabili, accettate da ogni personale razionale. La matematica di Platone, però, è la scienza dei numeri e delle figure, intesa nella sua purezza concettuale, non già al gruppo di regole pratiche usate nella vita quotidiana. In altri termini la matematica va intesa come scienza pura, cioè rivolta a rigorose considerazioni logiche operanti su concetti esattamente definiti, senza alcun appello alle corrispondenti nozioni empiriche. Questo concetto della matematica è stato sicuramente un contributo positivo in quanto ha portato lo studio dei numeri e delle figure ad un livello di mirabile purezza, anche se va sottolineata la netta frattura creata fra matematica e tecnica e l’illusione, scaturita da questa frattura, che la matematica possa raggiungere entità assolute.

Dunque il pensiero, la ragione, ci fa cogliere le forme reali, immutabili, di una realtà più vera che non quella sensibile, cioè le idee, oggetti reali, esistenti in sé e per sé. La conoscenza vera è quindi conoscenza di idee pure, esistenti realmente in un mondo celeste, superiore a quello in cui viviamo, al di là dell’esperienza sensibile. Il criterio della verità non può essere riposto nell’apparenza, nella sensazione, come volevano gli empiristi, ma piuttosto nella conoscenza razionale delle idee. È il celebre mito della caverna inteso a dimostrare che, nella vita terrena, noi non sperimentiamo il vero mondo delle idee, ma scorgiamo solo le loro ombre; non la realtà vera, ma una sua sbiadita copia.

67! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Platone ammette anche una conoscenza sensibile che presenta due gradi: uno inferiore (la congettura), e uno un po’ più elevato (la credenza). Ma con questo rimaniamo sempre nell’illusorio mondo dei sensi, che è quello della “caverna” e delle ombre. La scienza è posta al di sopra di tutto ciò, come conoscenza intellettuale. Anche la conoscenza intellettuale ha due gradi, esattamente come quella sensibile. Il grado inferiore è rappresentato dalla intelligenza, quello superiore dalla ragione. Questa distinzione ha grande importanza per comprendere il concetto che Platone si faceva della matematica: “Coloro che si occupano di geometria, di aritmetica, e di altre discipline del genere, suppongono certe ipotesi come cose evidenti a tutti. Prendono le mosse da tali presupposti, e procedono poi, nei loro ragionamenti, da una proposizione all’altra, e giungono così alla dimostrazione che si propongono”.

Se la matematica deve essere qualche cosa di più che un complesso di ipotesi, noi dobbiamo esser certi della esistenza di queste figure perfette, e questa certezza è raggiunta solo dalla ragione, svincolata da ogni suggestione del mondo sensibile, la quale vede queste figure, esistenti realmente in un mondo superiore, ultrasensibile: “La geometria, e le scienze che vi si connettono, sognano, rispetto all’esistente, ma è impossibile che lo vedano ad occhi aperti, finché debbono valersi di postulati, e tenerli per certi, senza tuttavia poterne rendere conto”. È colta la presenza di un processo ipotetico-deduttivo della matematica, ed è posto il problema del valore conoscitivo di tale scienza e del suo compito di mediatrice fra il mondo dei sensi e quello della pura ragione. Una volta riconosciuta nella teoria delle idee l’importanza della matematica per la sua intrinseca purezza, Platone doveva, tuttavia, negare ogni valore scientifico alla fisica in quanto concepita come studio dei fenomeni nel loro fluire empirico, e quindi manterrà la sua polemica e intransigenza contro tutte le ricerche compiute dai naturalisti greci del V secolo. E va notato che tali ricerche vengono da lui combattute proprio in ciò che, per la scienza moderna, esse hanno di più positivo, cioè nel loro presentarsi come tentativi di spiegare il corso dei fenomeni per mezzo di cause puramente fisiche e meccaniche. Alle ricerche meccaniche dei fisici, Platone contrappone una spiegazione matematico-finalistica della natura, che da sola permette di scoprire la ragione dei fenomeni in quella assoluta realtà che costituisce la loro essenza profonda, cioè l’archetipo cui essi devono sempre più approssimarsi. Da questo punto di vista l’antagonismo Platone-Democrito assume il carattere di un vero dramma del pensiero umano, e su di esso si innesterà anche la fisica aristotelica, anche con schemi diversi da quella platonica, ma con lo stesso odio contro ogni spiegazione puramente meccanicistica.

In questa separazione, tra il mondo dei sensi e quello delle idee, sta tutta la forza e la debolezza del platonismo visto sotto l’aspetto del pensiero scientifico. Forza, perché proprio da esso, a partire da Leonardo e continuando con Galileo, trarrà giustificazione il processo di idealizzazione astraente dei fisici-matematici, quel processo che consiste nel risolvere la natura nell’azione di alcune grandi leggi descriventi non pure e semplici estrapolazioni induttive, ma fenomeni standard, ridotti a condizioni e rapporti di ideale esattezza matematica, rispetto a cui le misure delle verificazioni empiriche rappresentano soltanto rozze approssimazioni. Sì che proprio dal platonismo trarrà origine uno degli aspetti più efficienti della scienza moderna, la costruzione di un’immagine ideale del mondo come trama e tessuto di relazioni matematiche astratte. Ma immensa debolezza scientifica, anzi vero e proprio atteggiamento antiscientifico, in quanto, perduto di vista, anzi deliberatamente negato, il carattere artificiale e funzionale

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 68!

di questa trama di rapporti puramente discorsivi, una volta deificato il discorso stesso, esso diviene un preteso vero dischiuso ai soli iniziati, di fronte al quale il mondo concreto dei fatti empirici decade a ombra e congettura, a opinione o a mito.

Vi sono aspetti della cosmologia di Platone, anche se apparentemente lontani dalla scienza, che furono della massima importanza per lo sviluppo del pensiero scientifico. Platone, nella sua lotta contro il materialismo e l’ateismo derivante dalla filosofia degli ionici, vuole sostituire le divinità olimpiche, di origine troppo popolare e ingenua e condannate dal progresso e incapaci di vivere nel nuovo clima intellettuale di Atene, con altre divinità atte a sfidare i progressi della scienza. Naturalmente occorreva dimostrare che i corpi celesti hanno un’anima, e un’anima divina; ma questo risultava facile per i voli metafisici per il fondatore dell’Accademia. Poiché solo i viventi hanno una capacità di auto-movimento, mentre la materia inanimata, in contrasto con Democrito, non era capace di ciò ed aveva bisogno di essere mossa da qualcosa che fosse fuori di lei. Inoltre, “la mole immensa” degli astri, unita alla regolarità dei loro movimenti, era una prova dello loro “intelligenza”: “… ciò che agisce sempre nello stesso modo, uniformemente e sotto l’influsso delle stessa cause, dovrebbe proprio per questo essere considerato come dotato di intelligenza, e ciò si applica specialmente agli astri … Che cosa potrebbe fare sì che una massa così grande (il Sole) si muova lungo la propria orbita, nell’esatto intervallo di tempo in cui essa compie regolarmente il suo percorso?” E ancora, in tarda vecchiaia, quando la propaganda culturale dell’Accademia aveva ottenuto il suoi effetti, Platone poteva affermare: “Oggi accade tutto il contrario di quando si riteneva che i corpi celesti fossero senz’anima, benché già allora si provasse una certa meraviglia nel considerarli, e, da parte di tutti coloro che li studiavano attentamente, si sospettasse ciò che oggi si ritiene come cosa certa, cioè il fatto che corpi inanimati, privi di intelligenza, non potrebbero mai attenersi con tanta esattezza a calcoli meravigliosi”. Infine, le relazioni che le stelle hanno con la musica, cioè le conclusioni cui erano giunti i pitagorici, sono assunte da Platone come ultime prove sicure del fatto che vi è un’intelligenza negli astri.

Platone, ovviamente ignorava il principio d’inerzia e le leggi meccaniche che sono alla base del moto dei corpi celesti, conoscenze che avranno compimento nel XVII secolo, da un’attenta osservazione dei fatti che appartengono al mondo sensibile, proprio quel mondo che Platone disprezzava. Nella sua opera, il Timeo, Platone espone questa sua visione cosmologica e tentando di risolvere la dicotomia tra il mondo dell’essere ed il mondo del divenire, trovando l’anello di congiunzione, quindi, nell’Anima del mondo. Questa è stata posta dal creatore (il demiurgo) nel mezzo di un universo sferico. L’Anima del mondo, mossa da se stessa, ha allora creato il cosmo eterno e lo ha dotato di un movimento perfetto, il movimento circolare. All’estremità circolare del cosmo vi è la perfezione, al suo centro la Terra, imperfetta. Dalla materia, originata dall’Anima del mondo, combinata con le idee è derivata la sostanza. Platone riconobbe come validi i quattro elementi di Empedocle ma li credeva composti da solidi regolari: il fuoco da piramidi, la terra da cubi, l’aria da ottaedri e l’acqua da icosaedri. Questi solidi sono tutti scomponibili in triangoli, che sono formati da linee, che a loro volta sono formati da punti derivanti da numeri i

69! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

quali sono simili alle idee. Platone fu anche il primo a sostenere l’opportunità di trovare un modello geometrico dell’universo fisico, un metodo che si doveva rivelare estremamente fecondo nello sviluppo dell’astronomia matematica.

Nel campo dell’ottica Platone ammise che dagli oggetti parta un fluido speciale che s’incontra con la “mite luce del giorno” che “liscia e densa” sgorga dalle nostre pupille. Se i due fluidi sono simili, incontrandosi “s’uniscono strettamente” e l’occhio riceve la sensazione visiva; ma se “la luce degli occhi” incontra un fluido dissimile, si estingue e più non riporta la sensazione all’occhio. Una conquista importante dovuta alla scuola platonica è la geometrizzazione dei fenomeni dipendenti dalla luce riflessa: per la prima volta troviamo esplicitamente affermata l’identità fra l’angolo di incidenze e quello di riflessione.

I risultati ed i fallimenti di Platone si possono vedere nell’opera del suo allievo, Aristotele (384 a.C.–322 a.C.), il quale comprese a fondo la dottrina di Platone, la rifiutò attraverso motivazioni cogenti e formulò proprie tesi alternative.

Aristotele critica la dottrina platonica delle idee, e nega che la pura forma possa avere esistenza a sé, in un mondo più elevato e reale di quello

dei sensi, e, sotto questo aspetto, la critica è certo in accordo con il senso comune. Nei confronti di Platone questa è, indubbiamente, una rivalutazione del mondo reale che si riflette profondamente sul generale atteggiamento scientifico di Aristotele.

Tra gli scritti di Aristotele interessano in modo particolare la fisica i seguenti trattati: Physica (8 libri), De coelo (4 libri), De generatione et corruptione (2 libri), Meteorologia (4 libri), e le raccolte Problemata e Mechanica. Attraverso queste opere, Aristotele realizza la prima grande sistematizzazione scientifica grazie alla quale costruisce l’impalcatura della scienza per circa duemila anni.

Aristotele tentò di fondare la fisica sull’osservazione e sull’esperimento, ritenendo, al pari di Platone, che la conoscenza sensibile del particolare è contingente, legata al tempo e allo spazio, mentre la conoscenza scientifica è assoluta, fuori del tempo e dello spazio. Ma le nozioni universali non sorgono in noi per reminiscenza, come insegnava Platone, ma per induzione dal particolare al generale, partendo dall’esperienza sensibile. L’osservazione assume, pertanto, una grande importanza nell’indagine scientifica del mondo, anche se la matematica diventa semplice strumento di minor rilievo e ben poco adoperato da Aristotele.

La conoscenza scientifica è per Aristotele conoscenza di cause, per cui il senso non è una semplice fonte di illusioni, anche se esso non riesce ad andare più in là della percezione; ma la ragione ha tuttavia il potere di intervenire attivamente in questa molteplicità di grezze percezioni, traendo da esse qualcosa di più alto, il concetto. Ma come si può passare dalle immagini offerteci dalle sensazioni al concetto universale? Si può dire che il concetto è contenuto “potenzialmente” nelle immagini, ma come diviene “attualmente” pensato da noi, nella sua purezza che trascende il sensibile? Aristotele pensa di risolvere questo problema ammettendo la presenza di un intelletto attivo (nous poieticos). Come la luce suscita il colore nell’oggetto sensibile, e la visione nell’occhio, così l’intelletto attivo suscita nell’immagine il concetto che vi era contenuto in potenza, concetto che viene così accolto e realizzato nel nostro intelletto. Ma questa concezione naturalistica soggiaceva a un più generale assioma teleologico (finalistico): ogni accadimento avviene per un fine determinato, e l’intero universo è il risultato di un disegno prestabilito. La concezione teleologica del mondo, esasperata da Aristotele sino

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6:!

ad ammettere una natura intelligente, fu una pietra angolare della sua visione scientifica dell’universo, ma anche il suo limite, tale da limitare la portata e la fecondità della sua indagine scientifica; infatti, la nascita della scienza moderna richiederà proprio l’abbandono completo della via platonico-aristotelica.

Aristotele accetta la teoria empedoclea dei quattro elementi (terra, acqua, aria, fuoco), interpretandoli però non tanto come corpi, quanto come modi di essere, e cerca poi di giustificare con argomenti a priori perché essi debbano essere proprio quattro. La terra è l’elemento freddo-secco, che tende verso il basso; essa deve essere controbilanciata dal suo elemento contrario, il fuoco, che è caldo-secco, e tende verso l’alto. Fra essi devono esistere altri due elementi con funzioni mediatrici: l’acqua, fredda-umida, e l’aria, calda-secca. Anche l’acqua tende verso il basso, ma meno della terra, visto che una pietra affonda. L’aria invece tende in alto, ma meno del fuoco, visto che una fiamma, pur stando nell’aria, tende sempre a salire. La terra ha il proprio luogo attorno al centro del mondo, coincidente con il centro del globo terrestre; il luogo dell’acqua è intorno al luogo della terra; poi viene il luogo dell’aria e attorno a questo il luogo del fuoco. L’insieme dei quattro luoghi forma il mondo sublunare. Sopra il luogo del fuoco si trova il cielo, formato dal quinto elemento, l’etere, un elemento perfetto, purissimo, imperituro, non trasformabile e non generabile. L’aggiunta di questo quinto elemento (quintessenza), viene giustificata da Aristotele in base ad un complesso di considerazioni molto generali sul moto, pertanto occorre accennare alla teoria aristotelica del moto.

La scienza aristotelica del moto, che dopo aver dominato la fisica per parecchi secoli, fu combattuta dal Rinascimento in poi e infine superata da Galileo. Il moto di Aristotele ha un’accezione molto più ampia di quella che, da Galileo in poi, ci è abituale. Aristotele intende per moto qualunque variazione quantitativa o qualitativa per cui un fenomeno si realizza, e per questa ampia accezione egli poteva dire che nella natura tutto è movimento e le sostanze in movimento, che sono percepibili con i sensi, costituiscono l’oggetto della fisica: l’essere in movimento è l’oggetto proprio della fisica e tale scienza diventa essenzialmente una teoria del movimento e le sostanze fisiche vengono distinte e classificate secondo la natura del loro movimento. Nella Metafisica Aristotele afferma: “La fisica è una scienza che si occupa di un certo genere di essere (essa ha infatti per suo oggetto quel genere di sostanza che ha in sè stessa il principio del movimento e della quiete…); la fisica non potrà essere se non attività contemplativa, ma contemplativa di quel genere di essere che ha la possibilità di muoversi, e di una sostanza che ha per lo più una sua forma, ma che, soltanto, non è separabile dalla materia” .

Aristotele ammette quattro tipi di movimento: il movimento sostanziale (cioè la generazione e la corruzione), il movimento qualitativo (cioè il mutamento o l’alterazione), il movimento quantitativo (cioè l’aumento e la diminuzione), il movimento locale (cioè il movimento propriamente detto inteso come variazione di posizione di un corpo rispetto ad altri al variare del tempo) al quale si riducono tutti gli altri movimenti. Il moto locale si distingue in moti naturali e quelli contro natura o violenti. Il moto naturale può essere: moto verso il basso o l’alto, che è caratteristico dei quattro elementi e moto circolare, caratteristico degli astri. Il moto verso il basso o l’alto ha in sé qualcosa di imperfetto, tendendo a seguire un cammino rettilineo che è figura meno perfetta del cerchio (perché il segmento rettilineo non rientra in sé, ma è delimitato da un punto iniziale e uno finale), e viene realizzato da quegli elementi (terra, acqua, aria, fuoco) che compongono le cose terrestri o sublunari e che possono

7<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

mescolarsi uno all’altro e mescolandosi dar luogo ad esseri mutabili, soggetti a corruzione e a morte. Il moto circolare, invece, è il più perfetto tra i moti in quanto geometricamente perfetto (non avendo né inizio e né fine), e deve quindi venire realizzato da un elemento eterno, immutabile, ingenerabile e incorruttibile, appunto l’etere. Se ne conclude che l’etere, di cui sono costituiti tutti i corpi celesti, deve risultare diverso dai quattro elementi empedoclei. I naturalisti del VI e V secolo, da Talete a Democrito, avevano basato le loro concezioni del mondo sull’ipotesi che cielo e terra fossero costituiti della stessa materia; ora invece Aristotele eleva una vera barriera tra mondo celeste e mondo sublunare, immaginandoli costituiti di elementi irriducibilmente diversi. In sostanza con Aristotele il mondo celeste e quello sublunare sono descritti da due fisiche diverse. Questa frattura dell’unità del mondo avrà un peso rilevantissimo sulle filosofie della natura, fino al sorgere del pensiero moderno

Per spiegare il movimento di questi elementi, Aristotele formula la teoria dei luoghi naturali. Ognuno di questi elementi ha nell’universo un suo luogo naturale; se una parte di essi viene allontanata dal suo luogo naturale (il che non può avvenire che con un moto violento, cioè contrario alla situazione naturale dell’elemento), essa tende a ritornarvi con un moto naturale. Ora, i luoghi naturali dei quattro elementi sono determinati dal loro rispettivo peso. Al centro del mondo c’è l’elemento più pesante, la terra; intorno alla terra ci sono le sfere degli altri elementi nell’ordine del loro peso decrescente: acqua, aria e fuoco. Difatti, la gravità di una pietra, ossia la sua tendenza a cadere verso il suo luogo naturale, la Terra, è solo un esempio di moto naturale e che quanta più sostanza è presente nel corpo più velocemente percorre la distanza che lo separa dal suo luogo naturale, ossia i corpi più pesanti cadono più velocemente di quelli leggeri, e non perché non riconoscesse la presenza della resistenza dell’aria, perché lo fece esplicitamente: più rarefatto è il mezzo più veloce è il movimento. Anzi, per questa ragione, secondo Aristotele, il vuoto non esisteva, perché nel vuoto la velocità avrebbe assunto un valore infinito all’istante, il che era assurdo.

Data la loro importanza nella storia del pensiero scientifico, occorre soffermarci sulle varie nozioni di causa. Se per Aristotele il moto è ogni mutamento in generale, inteso come passaggio da una potenzialità all’atto relativo, questo passaggio, però, esige un motore, ossia un ente più perfetto, più in atto, che con la sua presenza determina l’attuarsi della potenzialità, e la causa prima del divenire, del moto dell’universo è Dio. Perciò il moto è la risultante di quattro aspetti o momenti che Aristotele chiama cause: la causa materiale (la materia che si muove durante il movimento o mutamento), la causa formale (la forma o paradigma che dirige il movimento e in esso si attua), la causa efficiente o motrice (la forza che imprime il moto alle parti materiali del corpo che si muta), la causa finale (lo scopo o fine ultimo cui tende il movimento).

Proprio come un mezzo era necessario per l’esistenza del moto naturale, così doveva esserlo per il moto violento, come quello di un proiettile, la cui traiettoria era composta di tre parti: la prima rettilinea e obliqua, la terza rettilinea e verticale, la seconda circolare di raccordo tra le due. Ma come mai, una volta lanciato, il corpo si mantiene in moto? La causa non può essere nel corpo né nel proicente che lo ha abbandonato e non può più agire su di lui: dunque, la causa deve essere nel mezzo. E Aristotele escogita una bizzarra teoria (combattuta da Galileo, con il suo principio d’inerzia, e dai suoi contemporanei che dettero vita alla dinamica moderna) secondo la quale il proiettile muovendosi caccia l’aria dai luoghi che attraversa, facendo il vuoto; ma siccome la natura aborre il vuoto, l’aria entra impetuosamente nei luoghi svuotati

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7;!

dal passaggio del proiettile, imprimendo così un moto al proiettile stesso. Ne risulta una dinamica molto diversa dalla nostra. Nella dinamica aristotelica un corpo in moto è sempre sotto l’azione di una forza applicata al tempo e inversamente proporzionale alla resistenza del mezzo. Ne segue che nel vuoto, risultando nulla la resistenza del mezzo, la velocità sarebbe infinita, ossia il corpo avrebbe il dono dell’ubiquità. È una conseguenza talmente contraria al senso comune che Aristotele conclude essere impossibile il vuoto in natura.

FORZA E VELOCITA’ SECONDO ARISTOTELE

Così si esprime Aristotele nel suo libro Fisica:

“Se dunque il motore A ha mosso B lungo uno spazio C in un tempo D, allora nello stesso tempo la stessa forza A muoverà ½ B per uno spazio doppio in C, ed in ½ D muoverà ½ B per l’intero

spazio C”.

Che l’effetto di una forza sia per Aristotele una velocità, lo si deduce pure quando afferma che la velocità di caduta di un grave è proporzionale alla sua pesantezza: “se un certo peso percorre uno spazio in un certo tempo, un peso maggiore percorrerà lo stesso spazio in un tempo più breve, e il rapporto che hanno tra loro i due pesi sarà anche quello che avranno fra loro i due tempi; per esempio, se la metà peso copre una distanza in un tempo x, l’intero peso la coprirà in ½ x”.

Ad Aristotele era ben noto anche che la velocità di un grave durante la caduta va aumentando e interpretava questo fatto sostenendo che i corpi man mano che si avvicinano al loro luogo naturale si muovono più velocemente.

Gli argomenti che Aristotele porta a sostegno della tesi secondo cui lo spazio

vuoto non esiste sono vari. Infatti, posto che l’essenza dei luoghi naturali consista nell’alloggiare gli elementi, lo spazio non è concepibile come realtà a sé stante, indipendente dai corpi. Questa teoria dello spazio porta a negare non solo il vuoto intracosmico, cioè il vuoto fra oggetto e oggetto, ma anche il vuoto extracosmico, ossia il vuoto che ospiterebbe l’universo. Infatti, dal punto di vista aristotelico, se ha senso chiedere dove si trovi un oggetto, non ha senso chiedere dove si trovi il mondo. In altre parole, tutte le cose sono nello spazio, ma non l’universo. Infatti l’universo non è contenuto in alcunché, poiché esso è ciò che tutto contiene (dottrina che può sembrare astrusa ma che presenta affinità con il modello di universo proposto da Einstein). Queste speculazioni sullo spazio e sul vuoto differenziano Aristotele dagli atomisti, i quali avevano sostenuto che senza il vuoto non c’è movimento in quanto gli atomi non si potrebbero muovere se fossero pressati insieme senza intervalli vuoti. Aristotele ritiene invece che il movimento nel vuoto non sia possibile. Difatti nel vuoto non ci sarebbe né un centro, né un alto, né un basso; per conseguenza non ci sarebbe motivo per un corpo di muoversi in una direzione piuttosto che in un’altra e i corpi rimarrebbero fermi. In tutte queste argomentazioni, Aristotele, si avvale continuamente della teoria dei luoghi naturali, fondata sulla classificazione dei movimenti, e va tanto oltre da portare come argomento contro il vuoto quello che noi oggi chiamiamo principio d’inerzia. Nel vuoto, egli dice, un corpo o resterebbe in riposo o continuerebbe il suo movimento, finché non gli si opponesse una forza maggiore. Questo dovrebbe essere un argomento contro il vuoto, ma in realtà dimostra soltanto che Aristotele ritiene assurdo quello che è il primo principio della dinamica, cioè il principio d’inerzia. Per quanto riguarda il tempo, Aristotele afferma che esso si definisce solo in relazione al concetto di divenire, poiché in un ipotetico universo di entità immutabili la dimensione

7=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

tempo non esisterebbe. Sebbene il cosmo aristotelico sia più scientificamente fondato di quelli elaborati dai presocratici, vi è una marcata affinità, che consiste nel fatto che Aristotele completò le lacune e risolse i problemi posti da essi prima di lui. L’horror vacui sarà un cardine della fisica aristotelica e la polemica tra vacuisti e pienisti si protrarrà fino al Rinascimento scientifico.

La polemica di Aristotele contro il vuoto è uno dei cardini della sua fisica, ma, per quanto fondamentale, non ci dà tuttavia un’idea completa dell’opposizione tra la sua fisica e quella di Democrito. Tale opposizione si estende a tutti i più importanti problemi intorno alla natura: da quello del moto, alla molteplicità o meno dei mondi, dalla somiglianza o differenza tra mondo celeste e sublunare al problema di ridurre le differenze qualitative a differenze quantitative. Alla radice di tutte queste opposizioni di carattere scientifico stava però un’opposizione di carattere filosofico: mentre Democrito pretendeva di spiegare il mondo mediante l’uso di sole cause meccaniche (cioè con moti e urti di atomi), Aristotele attribuiva invece una funzione prevalente, nella spiegazione razionale, alla causalità finale. Per Democrito il fine resta necessariamente un problema, per Aristotele è invece principio di spiegazione.

Sebbene la dinamica aristotelica risulta sbagliata secondo le leggi della meccanica classica, ha comunque rappresentato il primo tentativo di costruzione di una teoria in sé coerente e generalizzata, ed esagerando un po’, ha rappresentato il punto di partenza da cui nascerà la fisica galileiana e newtoniana.

Più aderenti ai risultati moderni sono le ricerche di statica: vi è enunciata la legge di equilibrio di una leva, con un accenno a quello che sarà il principio dei lavori virtuali, e vi sono descritte la bilancia e la puleggia. Negli scritti di Aristotele, si trovano, inoltre, cenni all’energia cinetica, idee corrette sulla propagazione del suono attraverso l’aria, spiegazione dell’eco come fenomeno di riflessione, osservazioni sulla propagazione della luce. Nella spiegazione dei fenomeni visivi Aristotele non seguì né la teoria pitagorica dell’estromissione, né quella democritea dell’intromissione, ed alcuni storici interpretano un passo oscuro dell’opera De anima come un accenno a una teoria di propagazione della luce basata sulla modificazione del mezzo posto tra l’occhio e l’oggetto visto. È un complesso di idee e riflessioni che conferma come la fisica aristotelica fosse fondata sull’osservazione, e in parte sull’esperimento, seppur lontani dal significato che assumeranno nella fisica galileiana.

Aristotele formulò una cosmologia scientifica destinata a fornire la rappresentazione dell’universo per i successivi duemila anni. L’universo fisico, è, secondo Aristotele, unico, chiuso su stesso, limitato nello spazio ed illimitato nel tempo (Aristotele giustamente sottolineò che era una contraddizione logica immaginare, come aveva fatto Platone, che il mondo potesse essere creato ed eterno; deve invece o essere creato e destinato alla distruzione e, come credeva, essere sempre esistito ed eterno) ed è diviso in due regioni obbedienti a leggi fisiche diverse: i cieli formati dall’etere, inalterabili e incorruttibili, soggetti al moto circolare, il più perfetto dei moti, e dove la causa della regolarità e dell’eternità del moto degli astri va ricercata nel primo motore immobile che imprime il moto a tutte le sfere in cui sono incastonati gli astri e dove il Sole, le stelle, i pianeti, composti della quintessenza, splendono perché il moto delle loro sfere produce attrito con l’aria, quindi luce e calore; il mondo sublunare, il mondo del divenire, formato dai quattro elementi, nel quale le cose nascono, si corrompono e periscono e dove il moto degli oggetti è rettilineo o violento. Poiché nessuna cosa reale può essere infinita perché ogni cosa esiste in uno spazio, e ogni spazio ha un centro, un

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 74!

basso, un alto e un limite estremo e quindi nessuna realtà fisica è realmente infinita, la sfera delle stelle fisse segna i limiti dell’universo, limiti al di là dei quali non c’è spazio, per cui non possono esistere altri mondi al di là del nostro.

L’universo aristotelico è un meccanismo ingegnosamente costruito. Esso è costituito da una serie di sfere concentriche, la più esterna delle quali, il “primo mobile”, è fissa, mentre le sfere interne sono mosse dal “primo mobile”, salvo quelle vicino al centro, che sono di nuovo immobili. Queste sfere erano oggetti concreti, solidi, quelle che sarebbero diventate le sfere cristalline nel Medioevo, composte di sostanza perfetta, pura ed incorruttibile.

Ciò che mancò alla fisica aristotelica furono l’elaborazione analitica, la critica e la prudenza nella generalizzazione. Si potrebbe dire che la scienza moderna sperimenta con avvedutezza critica, e la scienza aristotelica sperimentava con ingenuità. Concretamente, la meccanica aristotelica non seppe fare astrazione e la fisica non intuì che nello studio dei fenomeni qualche artificio, diremmo oggi modello, può talvolta svelarci cose che la pura osservazione non ci consente di cogliere. Questi rilievi non sono ovviamente una spiegazione dell’insuccesso aristotelico nello studio della fisica, ma una constatazione dell’insufficienza dei suoi metodi di ricerca. Spiegare, invece, perché Aristotele e la sua scuola non abbiamo saputo o voluto astrarre e intuire, è ancora un problema irrisolto.

Alla luce delle nostre leggi fisiche (moto dei gravi di Galileo e leggi della dinamica di Newton), queste teorie non sono adeguate a spiegare il moto dei corpi, anzi Aristotele avrebbe considerato il nostro punto di vista troppo platonico perché vicino ad una trattazione del movimento come sarebbe potuta avvenire nel perfetto mondo delle idee. E per la stessa ragione Aristotele minimizzò il ruolo della matematica nella scienza fisica, perché la matematica si occupa della pura forma, mentre nel mondo fisico la forma è sempre congiunta con la materia.

Teofrasto (372 a.C.-287 a.C.), successore di Aristotele nella direzione del Liceo, impresse alla scuola un carattere prettamente scientifico, e mosse le prime serie obiezioni alla fisica aristotelica come al finalismo, ossia gli oggetti in natura non obbediscono alla tendenza verso un fine, alla natura dei moti celesti e terrestri, alla teoria degli elementi.

2.9 Prime conclusioni sull’idea di realtà Per gli eleati, come Parmenide, non si dà scienza razionale del sensibile, ma

soltanto di una realtà intelligibile o verità soggiacente ai fenomeni, immutabile ed estranea al loro processo. Vi è quindi una sola scienza, la geometria, che contempla i rapporti invariabili della materia estesa. All’opposto i sofisti Protagora e Gorgia, rivendicano il significato proprio della realtà precepita dai sensi, negando che esista al di là di questa una verità trascendente. La pretesa sostanza o natura delle cose è solo una vuota finzione dell’intelletto, priva di valore scientifico. Per superare questo netto contrasto tra razionalismo ed empirismo, bisogna accordare il razionale con il sensibile, il pensabile con il fenomenico, spiegandoli come apparenze di un mondo riconosciuto dal pensiero. Ogni costruzione razionale della scienza deve fare i conti con questa nuova esigenza. Democrito e Platone cercano di soddisfarla in maniera diversa.

75! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Democrito trova la ragione nel mondo perché gli elementi primi della realtà, gli atomi che si muovono nel vuoto, sono pure forme geometriche. Spiegare i fenomeni e conoscerne le vere cause, significa ridurli al meccanismo degli atomi mobili e urtantisi fra loro. L’oggetto della scienza, dunque, non è più la verità razionale che trascende la conoscenza sensibile, come per Parmenide, e nemmeno la semplice opinione, come suggerito da Protagora. Ma quella opinione che deve essere spiegata e dimostrata e rispondente a quella verità di cui esprime l’apparenza. L’idea che la scienza abbia per oggetto “l’opinione vera” si affaccia e viene discussa in diversi dialoghi di Platone, come nel Teeteto, dove si dice che: “la scienza è opinione vera accompagnata da ragione”. Con grande verosomiglianza, questa formula appartiene anche a Democrito, ed il concetto è assai vicino al “razionalismo sperimentale” che, nel pensiero moderno, si è elaborato attraverso la scuola di Galileo. A dire il vero, il nostro concetto include la possibilità di creare sperimentalmente il fenomeno in accordo con la previsione teorica, ed anche correggere le ipotesi adottate se sono in contrasto con l’esito dell’esperimento. Ma questo è soltanto uno sviluppo del motivo originale, e almeno per quanto riguarda la correzione o ricostruzione induttiva delle ipotesi dai fenomeni, non si può escludere che l’idea facesse parte della logica democritea. Ad una visione logica induttiva accenna Aristotele negli Analytica Posteriora, ove confuta coloro che attribuiscono alla dimostrazione un carattere relativo, ritenendo che i principi possano dimostrarsi dalle conclusioni, come queste da quelli. Riflettendo sullo spirito della fisica-matematica democritea, è assai plausibile che Aristotele criticasse proprio Democrito.

In Democrito il motivo razionalistico parmenideo, il pensiero criterio dell’esistenza, assume un significato più espressivo: ciò che è pensato deve esistere come parte della realtà universale. Quindi, nello spazio e nel tempo infinito debbono prodursi tutte le condizioni, e tutti gli ordini di fenomeni razionalmente possibili, così come tutte le forme geometriche dovranno trovarsi realizzate negli atomi. Così esisteranno “mondi con più soli e lune” e “atomi grandi come un mondo”. Questo passaggio dal pensiero alla realtà può sembrare ingenuo e meraviglioso, ma esprime la poesia dello spirito matematico: ciò che il matematico costruisce nella sua mente non deve essere pura astrazione, bensì rappresentazione di cose che corrispondono nella realtà; ritrovare nella natura le forme matematiche.

2.10 La scienza alessandrina

Alessandro Magno moriva nel 323 a.C. ancora giovane, ma il suo programma politico di ellenizzazione del suo vasto impero era stato raggiunto. Il trionfo di questa nuova civiltà universalistica coincise con la frantumazione delle forme istituzionali della Grecia classica e con la crisi definitiva delle sue città-stato. La Grecia della polis e della democrazia assembleare decade e la nuova realtà politica è costituita da una serie di monarchie assolute: al cittadino dell’età classica è ora subentrato il suddito dell’età ellenistica. Un mondo sociale del genere tende ovviamente a produrre una cultura a sua immagine e somiglianza, per cui i sovrani, per ragioni di prestigio e di dominio, amano atteggiarsi a mecenati del sapere. L’esempio più significativo è Alessandria d’Egitto, che sotto la sfarzosa dinastia dei Tolomei assurge a nuovo centro della cultura al posto di Atene. Ciò avviene soprattutto per opera del ministro Demetrio Falareo che invita ad

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 76!

Alessandria Stratone di Lampsaco che porta con sé parte del materiale e della biblioteca del Liceo.

Stratone (ca. 335 a.C.–ca. 269 a.C.) tentò di conciliare la fisica di Aristotele con l'approccio meccanicistico di Democrito, che negava l'esistenza di entità divine o spirituali, allo scopo di escludere la metafisica dal campo dell'indagine scientifica, per cui scrisse un trattato, Sul movimento, in cui studiò il fatto che: la velocità di un corpo che cade aumenta nel tempo e sembra farlo uniformemente durante la caduta (affermazione praticamente identica alla legge dei gravi di Galileo).

Nel trattato Problemi meccanici affrontò il problema se sia più facile muovere un corpo già in movimento o uno immobile, e problemi di statica. Stratone faceva uso della regola del parallelogramma delle forze o della velocità, in maniera piuttosto esplicita. Nella sua trattazione sul moto dei proiettili, non solo pone dei dubbi alla teoria di Aristotele, è presente una intuizione che un oggetto scagliato debba offrire una resistenza nella direzione da cui viene la spinta (oggi diremo che la forza di attrito si oppone al movimento creato d una forza motrice). Nel trattato De vacuo, pur negando il vuoto infinito di Democrito, ossia che lo spazio vuoto non si estendesse all’infinito all’infuori dei confini del mondo, ammette, contro Aristotele, la presenza di piccoli spazi vuoti entro la materia, il cosiddetto vuoto disseminato (vacuum intermixtum). Non accetta la teoria atomica, ma critica anche la teoria degli elementi di Aristotele; in particolare critica la teoria dei luoghi naturali degli elementi e la conseguente idea di leggerezza e peso assoluti: ogni corpo, anche il fuoco, pesa, e l’ascesa dei leggeri non è dovuta a una tendenza naturale, ma alla spinta dell’aria. Con una critica più radicale di quella di Teofrasto, Stratone si oppone al finalismo aristotelico, proclamando che i fenomeni fisici sono soggetti a cause meccaniche, non a cause finali.

Per fare di Alessandria il centro gravitazionale dei migliori intelletti dell’epoca, soprattutto scienziati e tecnici, Demetrio concepisce un progetto ambizioso, quello di riunire in un grande istituto per la cultura, sul modello dell’Accademia e del Liceo, tutto il materiale bibliografico reperibile in Grecia e in Asia. Nasce in tal modo la Biblioteca, che con i suoi settecentomila volumi-papiro, rappresenta la più grandiosa raccolta di libri del mondo antico. Per dare la possibilità agli scienziati di dedicarsi in maniera proficua agli studi, sorge accanto alla Biblioteca il Museo, una sorta di centro di studi e di ricerche, il quale contiene, tra l’altro, un osservatorio astronomico. Gli scienziati-professori della Biblioteca e del Museo sono stipendiati dallo stato e possono quindi dedicarsi con tranquillità alle loro investigazioni. Queste circostanze determinano una grande fioritura e un grande progresso delle discipline scientifiche, tra cui l’astronomia, la fisica e la matematica. Tutto questo rigoglio di discipline particolari si accompagna ad una forma di specializzazione, ossia alla divisione del sapere in una molteplicità di branche coltivate con competenza. Tuttavia, il mondo della scienza nell’età ellenistica presenta dei limiti: ha perduto la ricchezza e la complessa problematicità dell’età classica; vi è un evidente tendenza a sviluppare unicamente l’aspetto teorico della scienza, disprezzandone invece il momento teorico-applicativo; il sapere, non solo

scientifico, tende ad estraniarsi completamente dai rapporti sociali e si rivolge solo a cerchie ristrette di intellettuali o di aristocratici colti.

Tra i grandi scienziati convenuti ad Alessandria troviamo il grande Archimede (ca. 287 a.C.–212 a.C.). Per Archimede l’esperienza costituisce

77! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

solo il fondamento intuitivo di quei principi destinati poi a trovar giustificazione attraverso rigorosi procedimenti formali, per cui il siracusano è il padre di quella fisica-matematica che si affermerà solo con Galileo. L’astratta e vaga intuizione pitagorica dell’intima connessione tra i numeri e il mondo fisico diviene in Archimede un concreto esercizio di esperienza e di analisi, mediante il quale vengono dominati gli aspetti apparentemente irrazionali della realtà. Un particolare rilievo in questo processo acquista il ricorso ai procedimenti infiniti realizzati attraverso il metodo di esaustione, che costituisce il fondamento del calcolo infinitesimale.

Archimede è l’unico grande scienziato dell’età classica le cui scoperte abbiano prodotto significative applicazioni pratiche, di carattere ingegneristico. Senza dubbio l’aspirazione a dominare la natura è presente in Archimede, ma, a differenza di ciò che accadrà poi nella fisica nata dalla rivoluzione scientifica, si tratta qui di un dominio essenzialmente teoretico, nel quale le applicazioni pratiche assolvono il ruolo secondario di esemplificazione del potere della scienza. Archimede è il fondatore di due pilastri della fisica: la statica e l’idrostatica, sebbene le sue esposizioni siano d’andamento geometrico, fondate su postulati ricavati da esperienze da lui non descritte, ma che egli era solito eseguire.

I trattati di meccanica di Archimede riguardano soprattutto problemi di statica. Nell’Equilibrio dei piani provò la legge della leva in una serie di proposizioni di carattere rigorosamente geometrico e di grande eleganza matematica, che permette di introdurre l’importante concetto di lavoro meccanico, e inoltre prese in esame un ampio campo di problemi sul baricentro. Il primo e fondamentale postulato sull’equilibrio della leva recita: “Supponiamo che pesi eguali sospesi a distanza eguali conservino l’equilibrio. Pesi eguali sospesi a distanze diseguali non conservano l’equilibrio, ma il sistema si abbassa dalla parte del peso sospeso a maggiore distanza”. In questo scritto, oltre all’evidente chiarezza e accuratezza espositiva, compare un concetto fondamentale per la meccanica, il centro di gravità, e dalle ricerche baricentriche scopre il centro di gravità del triangolo. Collegata all’elaborazione di questo concetto è la scoperta di un altro fondamentale concetto della meccanica, quello del momento di una forza rispetto a una retta o a un piano.

Probabilmente, la più importante scoperta di Archimede è la legge riguardante la perdita di peso subita dai corpi immersi in un liquido:

PRINCIPIO DI ARCHIMEDE

Un corpo immerso in un liquido riceve una spinta dal basso verso l’alto uguale al peso del volume del liquido spostato.

Ma, quale sia stato il procedimento seguito da Archimede, è certo che il principio

d’idrostatica fu da lui scoperto sperimentalmente, sebbene nella sua opera d’idrostatica a noi pervenuta la trattazione sia condotta more geometrico, senza alcun accenno all’esperienza che l’ha preparata.

Un concetto assolutamente nuovo che compare nella sua opera sull’idrostatica e ignorato dai suoi predecessori, forse per l’influenza della fisica aristotelica, è il concetto di peso specifico relativo. Esso è così introdotto: ”Un corpo solido che ha eguale peso ed eguale volume di un liquido, immerso nel liquido, s’immergerà in esso in modo che nessuna parte della sua superficie emergerà dal liquido, né esso si abbasserà ulteriormente”. Nell’opera, Sui galleggianti, Archimede tratta le condizioni di

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 78!

galleggiamento dei corpi e in particolare le condizioni di equilibrio di un segmento retto di parabolide di rivoluzione, col metodo classico riportato ancora oggi dai trattati di meccanica. Archimede si interessò anche di Ottica, e tradizione vuole che avesse grandi capacità nella costruzione di specchi.

Nelle sue opere, Archimede operava con grandezze, non con corpi, dando perciò al suo lavoro un carattere puramente matematico, e quindi non legato al caso specifico ma cercando di generalizzarlo il più possibile.

Contemporaneo di Archimede fu Ctesibio (III sec. a.C.), fondatore in Alessandria della famosa scuola di meccanica dove si studiava la compressibilità dell’aria (pneumatica). Il dubbio frammento di Ctesibio pervenutoci descrive un organo idraulico formato da canne di varia lunghezza, messe in vibrazione da un soffio d’aria compressa per mezzo dell’acqua. La tradizione riferisce anche di altri contributi dati da Ctesibio alla meccanica pratica, come la pompa premente per pompare acqua, modificata poi dallo stesso Ctesibio in pompa da incendio e che fino al Rinascimento andò sotto il nome di ctesibia machina.

Ma se le opere di Ctesibio andarono perdute, ci possiamo formare un’idea della loro vastità dall’ampio trattato di meccanica del suo discepolo Filone di Bisanzio (280 a.C.–220 a.C.), nel quale descrive macchine guerresche, automi e un teatro automatico. Nel libro dedicato alla pneumatica sono descritti giocattoli automatici, vasi che emettono liquidi vari, fontane con animali che bevono e uccelli che cantano, tutte macchine dove si fa un uso intelligente della pressione atmosferica e della pressione del vapor d’acqua. Numerose sono anche le descrizioni di esperimenti fisici, come quello per provare che l’aria è un corpo, sebbene le interpretazioni siano in generale molto diverse dalle nostre e in gran parte errate.

Filone descrive anche il primo termoscopio che la storia ricordi, costituito da due sfere, una vuota e l’altra completamente piena d’acqua, collegate da un tubo. Esponendo la palla vuota al Sole, si vedrà l’aria gorgogliare nell’acqua dell’altra palla, perché, dice Filone, se la palla è riscaldata “una parte dell’aria inclusa nel tubo va fuori”. Se poi la palla si riporta all’ombra, l’acqua salirà nel tubo sino a cadere nell’altra sfera vuota: “Se poi riscalderai la palla col fuoco avverrà lo stesso fenomeno, e così se verserai acqua calda sopra la palla. E se invece la raffredderai verrà fuori”. E così, con questo esperimento si veniva a conoscenza del fenomeno della dilatazione termica dell’aria. Le conoscenze sperimentali di pneumatica induce la scuola alessandrina ad assumere nella polemica tra vacuisti, come gli atomisti, e i pienisti, come Aristotele, l’atteggiamento di Stratone: non si può avere il vuoto in grandi masse, ma solamente il vuoto disseminato, il vuoto, cioè, tra particella e particella di un corpo. Questo tipo di vuoto spiega la varia densità dei corpi, la compressibilità e l’elasticità dell’aria: quando si riduce un volume d’aria, le particelle si compattano, ma vengono così a trovarsi in una posizione forzata, dalla quale tendono a tornare alla posizione primitiva, e di qui la forza dell’aria compressa. Anche il fuoco agisce in modo simile insinuandosi tra le particelle.

La fama di Ctesibio e di Filone fu oscurata da Erone di Alessandria (10 a.C–70 d.C.), vero e proprio ingegnere nel senso moderno del termine piuttosto che puro scienziato come Archimede, forse perché l’abbondante produzione letteraria prodotta ci è giunta quasi per intero.

79! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

L’opera La Pneumatica, contiene una interessantissima introduzione teorica sulla natura fisica dell’aria, spiegando la comprimibilità dell’aria facendo ricorso alla sua struttura, adottando un atomismo modificato. Egli immagina che l’aria consista di minute particelle, tra le quali sono disseminate piccole quantità di vuoto; un vuoto esteso può esistere solo per l’applicazione di qualche forza, ma i vuoti discontinui possono esistere (ed effettivamente esistono) senza soluzioni di continuità tra le particelle dei corpi. Questi piccoli vuoti spiegano la trasparenza e la comprimibilità. Tale opera contiene soprattutto la descrizione di congegni meccanici, coma la prima macchina a vapore che abbia veramente funzionato, lontana progenitrice delle moderne turbine a reazione. Più scientifica è l’opera La Meccanica nella quale Erone giunse al principio che quanto più piccola è la forza che alza un dato peso, tanto più lungo sarà il tempo impiegato. C’è inoltre una trattazione esauriente della teoria delle macchine semplici, una prima enunciazione della composizione dei moti con la regola del parallelogramma delle forze, e in genere una buona teoria della composizione dei moti.

Come la meccanica, anche l’ottica ebbe un carattere sia matematico che sperimentale, ed Erone scrisse anche un libro, Catrottica, sulla teoria degli specchi e le loro applicazioni pratiche, dove introdusse una dimostrazione matematica della legge della riflessione, basata sul principio che la luce si muove sempre in linea retta. Infatti Erone, come quasi tutti i suoi contemporanei, credeva che la visione fosse dovuta all’emissione di raggi luminosi da parte dell’occhio umano e al ritorno di questi raggi all’occhio dopo la riflessione. Dalla Catrottica vale la pena citare la seguente proposizione, nella quale è possibile intravedere una qualche relazione con il principio di Fermat: “Dico che di tutti i raggi uscenti dallo stesso punto e riflessi nello stesso punto sono minimi quelli che negli specchi piani e sferici si riflettono ad angoli eguali;

viceversa, se questo accade, la riflessione avviene ad angoli eguali”.

Il più remoto documento che ci è noto sull’ottica è un trattato di Euclide (300 a.C.), l’Ottica, il quale segue la teoria platonica della visione, come risulta dal primo postulato dell’opera: “I raggi emessi dall’occhio procedono per via dritta”.

In Euclide, come in tutti i fisici greci, la visione era considerata un fenomeno globale: il senziente percepiva di colpo, con un processo unico, l’immagine di tutto il corpo osservato. Dal secondo postulato deriva il concetto di cono visivo (il punto di vista in senso traslato): “La figura compresa dai raggi visivi è un cono che ha il vertice all’occhio e la base al margine dell’oggetto”. Su questi postulati e insieme al terzo: “Le cose che vengono viste sono quelle sulle quali cadono i raggi visivi; le cose che non vengono viste sono quelle sulle quali i raggi visivi non cadono” Euclide definisce il processo visivo in modo geometrico e quindi trasforma problemi ottici in problemi geometrici. In sostanza, Euclide usa nell’Ottica esattamente lo stesso metodo che aveva usato negli Elementi, e giunger allo studio di problemi geometrici connessi con la postulata propagazione rettilinea della luce: ombre, immagini prodotte attraverso piccole fenditure, grandezze apparenti degli oggetti e loro distanza dall’occhio, i fenomeni presentati dagli specchi piani e sferici. Euclide si dimostra esperto delle leggi della riflessione, e molte conclusioni sono pienamente conformi con l’ottica moderna: negli specchi piani l’immagine è simmetrica all’oggetto rispetto allo specchio; negli specchi sferici l’immagine si vede sulla retta che congiunge il punto-oggetto al centro dello specchio; negli specchi convessi l’immagine si trova a minore distanza dallo specchio che l’oggetto, ed è più piccola.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7:!

La teoria pitagorica-euclidea è, quindi, una teoria matematica della visione, non una teoria fisica né fisiologica. L’aspetto geometrico della visione prevale sugli aspetti di natura fisica, fisiologica e psicologica e infatti Euclide, coerentemente, riduce l’occhio ad un punto. Euclide non si pone il problema della natura fisica della luce, né dell’anatomia e fisiologia dell’occhio ma offre una spiegazione geometrica della percezione dello spazio sviluppando una teoria strutturata in sette assiomi (o postulati) e nei teoremi (o proposizioni) che ne possono derivare. La definizione di raggio visivo come concetto privo di struttura fisica è una innovazione metodologica di grande rilievo, ma proprio perché non ha struttura fisica il raggio visivo non ha una relazione esplicita con la luce (anche se in alcuni proposizioni del suo trattato Euclide la nomina). Come si evince dalla parola “escono” del primo assioma, Euclide accoglie la teoria emissionista della visione, e poiché la modellazione geometrica dei raggi visivi prescinde dal verso, la spiegazione di Euclide delle leggi dell’ottica è corretta anche per i moderni per i quali l’andamento dei raggi è rovesciato. Se è vero che Euclide si sforza di accentuare il carattere geometrico della trattazione della visione, è pur vero che alcune conclusioni rivelano indubbiamente un’origine sperimentale. La settima premessa alla Catrottica, per esempio, descrive un esperimento sulla rifrazione che ancora oggi viene eseguito: “Se si pone un oggetto qualunque al fondo d’un vaso, e si allontana il vaso dall’occhio finché l’oggetto non si veda più, l’oggetto ritorna visibile a quella distanza, se si versa dell’acqua nel vaso”.

Euclide, alla luce dei risultati ottenuti e descritti, va posto sicuramente tra i più grandi fisici dell’antichità, avendo creato il modello di raggio luminoso rettilineo, fondamento dell’ottica geometrica, e di aver dato una spiegazione razionale della formazione delle immagini negli specchi.

Un affascinante esempio di ingegnosa astronomia geometrica fu il tentativo di Eratostene (276 a.C.–194 a.C.), amico di Archimede e maggior matematico che lavorasse al Museo di Alessandria, di determinare l’esatta grandezza della circonferenza della Terra, sulla cui sfericità, dopo Aristotele, nessuno dubitava.

2.11 Geocentrismo ed eliocentrismo

Nonostante il prevalente interesse dei greci per i concetti astratti nella matematica, non venne mai rifiutata la matematica applicata, soprattutto in campo astronomico. Infatti, i pitagorici prima, Platone poi, sostenevano che l’universo poteva essere compreso attraverso un modello matematico. I pitagorici, attraverso considerazioni di matematica mistica, consideravano l’universo di forma sferica, in cui il movimento dei pianeti, della Luna e del Sole erano periodici; però non fecero alcun tentativo per calcolare questa periodicità. La prima seria affermazione della possibilità di un modello matematico dell’universo fu di Platone. L’idea di

Platone derivava dalla sua fedele credenza che i pianeti dovessero muoversi in cerchi perfetti (perché i cieli di Platone, come quelli di Aristotele, erano più vicini alla

8<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

perfezione di quanto lo fossero le regioni terrestri) accoppiata con l’ammissione che, mentre il Sole, la Luna, i pianeti e le stelle sorgono e tramontano ogni ventiquattrore, i movimenti dei pianeti rispetto al riferimento delle stelle fisse erano notevolmente irregolari. Questo è particolarmente vero per i pianeti esterni (Marte, Giove, Saturno), dal momento che si muovono nelle loro orbite più lentamente di quanto si muova la Terra sulla sua, per cui questa li raggiungerà e li sorpasserà a intervalli regolari, facendo sì che le loro traiettorie sembrino fare un cappio su se stesse (fenomeno noto come moto retrogrado). Questo fenomeno ai tempi di Platone costituiva il principale problema da risolvere, e Platone si convinse che fosse possibile render conto di ogni irregolarità, “salvare i fenomeni” come si diceva, in termini di movimento perfettamente circolare: un problema difficile ma non di impossibile soluzione per il livello della matematica di allora.

La prima soluzione a questo problema, assai ingegnosa dal punto di vista matematico, fu escogitata nell’ambito dell’Accademia dal matematico Eudosso (408 a.C.–355 a.C.). Egli suppose che il movimento dei pianeti osservato poteva venir rappresentato matematicamente se vi fosse immaginato ogni pianeta come posto sull’equatore di un sfera rotante con velocità uniforme, i cui poli fossero trasportati da una sfera più ampia, rotante a sua volta sul proprio asse con velocità uniforme. Si assumeva che tutte le sfere avessero lo stesso centro, ma che i poli di ognuna fossero differenti e, di conseguenza, differenti fossero anche le loro rotazioni. Supponendo tre sfere per il Sole e la Luna, quattro per ogni pianeta e una per le stelle fisse, Eudosso fu in grado di rappresentare tutti i movimenti conosciuti dei corpi celesti, anche i movimenti retrogradi. Oggi il principio generale che sta alla base di tutte le teorie astronomiche è un principio dinamico (si veda la legge di gravitazione universale di Newton), ai tempi di Eudosso, mancando ogni nozione esatta di dinamica, tale principio non poteva essere che di carattere geometrico. Ciò ha fornito al sistema eudossiano l’aspetto di semplice modello teorico ideato per descrivere l’ordine dei fenomeni celesti, non per indicarcene le cause. Le sfere di Eudosso erano sfere matematiche, non materiali, e rappresentavano una descrizione matematica dei movimenti celesti, non un modello fisico. Il sistema di Eudosso rispondeva alle richieste di Platone ed aveva l’ulteriore vantaggio di sottolineare la posizione centrale della Terra.

Il grande merito di Eudosso è stato quello di liberare l’astronomia da ogni infiltrazione teologica, di averne fatto un sistema matematico del mondo, che oggi apparirebbe inidoneo a rendere conto dei molti fenomeni astronomici che si osservano, ma che nel IV secolo poteva a buon diritto venir considerato come una spiegazione abbastanza soddisfacente di gran parte dei dati osservativi. Per cui, ciò che conta, è il carattere scientifico della teoria ideata da Eudosso, la formulazione rigorosamente matematica data alle leggi astronomiche, il potente sforzo razionalistico che sorregge tale costruzione. Non sorprende che, considerando la sua credenza che vi fosse una profonda differenza tra il mondo matematico di pure forme ed il mondo fisico intermistione di forma e materia, Aristotele fosse turbato dal modo in cui Eudosso aveva risolto il

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 8;!

problema di Platone. Egli ne comprese la forza matematica, e approvò il mantenimento del movimento circolare, ma deprecò la sua struttura puramente matematica. Ciò di cui Aristotele aveva bisogno, era che le sfere concentriche di Eudosso conservassero la stessa forza esplicativa, anche se fossero state sfere materiali. Esse, evidentemente, avrebbero dovuto essere costituite da un materiale perfetto ed immutabile, adatto alla regione celeste, assolutamente trasparente, perciò invisibile: la quintessenza (più avanti chiamata cristallino). Le sfere corporee giravano perché il movimento circolare era il movimento naturale dei cieli. Ma la loro corporeità, insieme con la convinzione di Aristotele che l’universo dovesse essere studiato come un tutto, lo portò a concludere che queste sfere che determinano i movimenti planetari dovessero essere, in qualche maniera, fisicamente connesse.

Connettendo tutte le varie sfere inferiori al primum mobile (primo motore), Aristotele fu spinto a introdurre un gran numero di complicazioni e ad aumentare il numero totale di sfere, ma il suo sistema meccanico aveva il notevole vantaggio di offrire, per la prima volta, una rappresentazione dell’universo come un tutto con le sue parti interconnesse, ognuna delle quali seguiva la sua naturale, sebbene non matematica, legge.

Malgrado la sua meravigliosa simmetria, il sistema di Eudosso si trovò tuttavia, fin dall’inizio, di fronte ad una difficoltà insolubile, quella del diverso splendore dei pianeti ( specialmente di Marte e Venere) nei diversi periodi della loro rotazione. Tale variabilità non si conciliava con l’ipotesi della concentricità alla Terra delle sfere dei pianeti, perché questa ipotesi avrebbe comportato come conseguenza la costanza della loro distanza dalla Terra e quindi la costanza del loro splendore. Fu un discepolo di Platone, e contemporaneo di Eudosso, Eraclide Pontico (385 a.C.-322 a.C., o secondo altri 390 a.C.-310 a.C.), a superare questa difficoltà intuendo che il centro di rotazione dei pianeti dovesse essere il Sole e non la Terra; suppose pertanto che, mentre il Sole gira intorno alla Terra, i due pianeti in questione girino nello stesso senso intorno al Sole secondo sfere di raggio minore. Non ci sono notizie certe su come abbia risolto la questione per gli altri pianeti. Eraclide notò pure che se la Terra ruotasse sul proprio asse, si renderebbe conto del sorgere e del tramontare giornaliero dei pianeti e delle stelle fisse, che in questo caso sarebbero veramente fisse. L’astronomia di Eraclide, anche se meno rigorosa di quella di Eudosso, rivela un’orientazione nuova, un carattere che l’avvicina a concezioni molto più moderne. Tanto è vero che un sistema simile verrà ripreso da Tycho Brahe nel XVI secolo.

Ancora più tormentante è la storia di Aristarco da Samo (ca. 310 a.C.–ca. 230 a.C.), contemporaneo di Archimede, il quale non attribuì movimento alle stelle fisse e al Sole, ma affermò che la Terra gira intorno al Sole percorrendo un’orbita circolare, e, presumibilmente, pensava anche che la Terra ruotasse quotidianamente sul suo asse.

Aristarco scrisse un libro su questa ipotesi, come Archimede la chiamò: “La sua ipotesi è che le stelle fisse e il Sole rimangano immobili, che la Terra giri attorno al Sole seguendo la circonferenza di un cerchio, e che il Sole giaccia nel centro di tale orbita” ma è andato perduto. Non conosciamo gli argomenti con cui Aristarco arrivò alla sua ipotesi eliocentrica, ma dall’altra sua opera in nostro possesso vediamo tuttavia che egli procede con metodo rigorosamente scientifico, scindendo le proposizioni base del proprio ragionamento dalle deduzioni che ne discendono: le prime ricavate dall’osservazione, le seconde dedotte per via matematica. Lo scarso interesse per

8=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

l’ipotesi di Aristarco tra i suoi contemporanei decretò il fallimento di un’ipotesi ispirata e geniale ma non plausibile e non provata, di fronte a una forma di pensiero matematico e fisico, che si accordava con l’evidenza sensibile.

Le obiezioni scientifiche rivolte al modello eliocentrico erano più o meno quelle addotte nell’età moderna contro Copernico e Galileo: in parte di natura geometrica, in parte di natura fisica. Geometricamente risultava inspiegabile la presunta assenza di una parallasse delle stelle fisse, cioè il fatto che la loro posizione non sembra mutare attraverso il moto di rivoluzione della Terra (in realtà una parallasse esiste ed è possibile misurarla solo con strumenti raffinati non disponibile a quell’epoca). Da un punto di vista fisico sembrava impensabile che il moto rapidissimo della Terra, richiesto dalla teoria eliocentrica, non producesse su di noi effetti catastrofici. Appunto argomenti di questa natura inducevano gli astronomi del tempo a riaffermare il sistema geocentrico. Però, gli astronomi greci si resero conto di certe complesse variazioni periodiche nei movimenti di alcuni pianeti, che non potevano essere spiegate attraverso il sistema di sfere concentriche di Eudosso. Furono conseguentemente escogitati nuovi metodi matematici, provati con un tal successo su un sistema geostatico che non c’era bisogno di provare ad adattarli al sistema di Aristarco.

Il più fortunato espediente, associato al matematico Apollonio (262 a.C.–190 a.C.), fu la combinazione di cerchi conosciuti come epiciclo e deferente. Si considerava il pianeta come posto su una circonferenza di un piccolo cerchio l’epiciclo, il cui centro era posto sulla circonferenza di un cerchio più ampio, il deferente. Il centro del deferente poteva essere o la Terra o qualche altro punto, nel qual caso era eccentrico. Sia l’epiciclo che il deferente ruotavano attorno ai loro centri. E’ facile percepire che il pianeta seguirà un percorso a cappio, riproducendo il moto retrogrado richiesto. Inoltre, adattando sia le grandezze che le velocità dei cerchi ad ogni caso, si può ottenere una rappresentazione matematica del movimento dei pianeti.

Nel farsi sostenitore del modello geocentrico, Ipparco di Nicea (190 a.C.–120 a.C.), il più grande astronomo dell’antichità greca i cui lavori servirono da ispirazione all’ultimo dei grandi astronomi greci, Tolomeo, cercò di renderlo più rispondente alle osservazioni empiriche facendo ampiamente ricorso a due ingegnosi meccanismi: le sfere eccentriche e gli epicicli. Le sfere di Eudosso, come quelle di Aristotele, hanno tutte il loro centro nel centro della Terra. Attraverso il modello degli eccentrici la Terra è spostata fuori dal centro. La Terra non si trova più in C, centro esatto del cerchio di rivoluzione, ma in T, così che quando il pianeta è più vicino alla Terra (perigeo) appare più brillante e sembra muoversi più velocemente, mentre quando è più distante (apogeo) brilla meno, appare più piccolo ed è più lento. In tal modo i pianeti variavano periodicamente non solo la posizione rispetto agli altri corpi celesti, ma anche la loro distanza dalla Terra; il che spie gava il variare del diametro della Luna

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 84!

e della luminosità dei pianeti, particolarmente sensibile per Venere e Marte. Equivalente da un punto di vista geometrico è la teoria degli epicicli, vista già a proposito di Apollonio.

Al modello geocentrico fornì definitiva sistemazione Claudio Tolomeo (100-178 d.C. circa) L’opera di Tolomeo, Sintesi matematica, generalmente conosciuta come l’Almagesto (traduzione latina di una traduzione araba che significa “il più grande”), scritta intorno al 150 d.C., fu contemporaneamente la prima completa rappresentazione cosmologica dell’universo dai tempi di Aristotele e il primo trattato completo di astronomia matematica dopo Eudosso. E’ davvero il massimo lavoro astronomico sopravvissuto dall’antichità, ed espone in dettaglio i metodi geometrici per calcolare come si spostano in cielo il Sole, la Luna e i pianeti conosciuti. Il risultato è impressionante, ed è raggiunto con l’aiuto di tre espedienti principali: l’eccentrico, l’epiciclo e

l’equante. I primi due sono stati analizzati in precedenza, il terzo, l’equante, fu introdotto per giustificare le variazioni apparenti nel moto dei pianeti attorno alla Terra. Tolomeo sapeva come determinare un punto all’interno di un cerchio da cui la velocità del pianeta apparisse costante. Questa è ovviamente una costruzione matematica che equalizza i moti. Di qui il nome di equante per il punto T, che non è il solito centro di una qualche rivoluzione, ma un utile artificio geometrico.

La fisica di Aristotele costituisce lo sfondo dell’opera di Tolomeo, infatti conserva le sfere sublunari di Aristotele e la distinzione tra fisica celeste e fisica terrestre. Ma il sistema cosmologico che ne risulta è incompatibile con quello aristotelico, non solo perché geometricamente diverso, ma perché l’introduzione di epicicli ed eccentrici, nonché di altri più sottili artifici, come il punto equante, utilizzati per far quadrare la teoria con le osservazioni, fa sì che il modello, più che proporsi come una rappresentazione realistica, sembra, piuttosto, una finzione matematica. Tolomeo, infatti, considerava una singola costruzione alla volta, e operava come se tutti gli altri aspetti del moto del pianeta fossero irrilevanti al fine di quanto stava facendo. Nell’Almagesto non troviamo un insieme di costruzioni geometriche che sia in grado di giustificare tutti i movimenti di un pianeta contemporaneamente, e tanto meno del moto di tutti i pianeti. L’esortazione platonica, ricercare mezzi matematici di rappresentazione del moto osservato dei corpi celesti in termini di movimento circolare, non era mai stata prima seguita così completamente e accuratamente. Quando Tolomeo indica i cieli come divini e la scienza dei corpi celesti come qualcosa dotato di validità eterna esprime il comune sentire di molti astronomi dell’epoca, influenzati da Platone e dagli Stoici. Il riflettere sulla regolarità matematica dell’ordine planetario avrebbe ispirato l’uomo a stabilire una analoga armonia nel proprio animo.

Quali erano dunque le intenzioni di Tolomeo? Di sicuro non era alla ricerca di una teoria cosmologica completa. Sembrava invece convinto che il proprio lavoro fosse quello di “salvare le apparenze”, cioè “dare conto di come i corpi celesti apparissero”, e non di

85! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

offrire una spiegazione fisica del loro moto. Tolomeo non si pose mai il problema della realtà fisica delle sue costruzioni geometriche.

Tolomeo diede dei contributi importanti anche nell’ottica geometrica, attraverso l’opera l’Ottica, sulla scia della tradizione euclidea, ma a differenza di Euclide non si limita alla trattazione matematica ma descrive anche i processi fisici della visione e delle conseguenti illusioni ottiche. Come Euclide, però, anche Tolomeo segue la teoria platonica della visione. Di particolare importanza è lo studio della rifrazione della luce per i mezzi aria-acqua, aria-vetro, acqua-vetro, attraverso esperimenti realizzati con una apparecchiatura sostanzialmente uguale a quella elementare moderna. Tolomeo indica che la rifrazione avviene sempre, nel passaggio da un mezzo all’altro più denso, alla superficie di separazione dei due mezzi ed enuncia in maniera corretta la prima legge della rifrazione: il raggio incidente e quello rifratto si trovano in un piano perpendicolare alla superficie rifrangente (o al piano tangente nel punto d’incidenza). Sperimentalmente, poi, egli determina l’angolo di rifrazione in corrispondenza a vari angoli d’incidenza con risultati molto vicini a quelli oggi ottenuti. Secondo alcuni studiosi, la legge immaginata da Tolomeo per tali calcoli è la seguente: ρ=ai–bi2 dove ρ indica l’angolo di rifrazione, a e b sono costanti relative ai mezzi in esame.

Secondo Tolomeo l’immagine data per rifrazione è vista dall’occhio nell’intersezione del prolungamento del raggio incidente con la normale alla superficie rifrangente condotta dal punto-oggetto. Altro contributo importante all’ottica è lo studio accurato della rifrazione astronomica, e Tolomeo deduce correttamente che per tale effetto le stelle sono sopraelevate apparentemente, per cui saranno visibili all’orizzonte stelle che ancora non si sono levate e si vedranno stelle che sono già tramontate.

La teoria planetaria fu un importantissimo contributo della matematica alla comprensione della struttura e dell’armonia dell’universo. Il suo concetto basilare, che le apparenti irregolarità del movimento dei corpi celesti potessero essere ricondotte ad una legge matematica, era ardita ed audace. Gli astronomi greci, allora, cominciarono a misurare l’universo, e con ciò lo riducevano ancor di più ad una entità intelligibile passibile di venir trattata matematicamente.

2.12 La fine del mondo antico Il secolo di Euclide, Aristarco, Archimede, Eratostene, fu uno dei più brillanti periodi della scienza greca. Nello stesso periodo si svilupparono alcune filosofie individualistiche, come l’epicureismo, lo stoicismo, lo scetticismo e il neoplatonismo, che si avvicinavano a dottrine scientifiche o pseudoscientifiche. Caratteristico di tutte queste correnti filosofiche, ad eccezione del neoplatonismo, è l’empirismo: la nostra conoscenza ha inizio e fondamento nelle sensazioni, e che l'evidenza sensibile è in definitiva il massimo criterio di verità. Ma poi nell'intendere e nell’applicare questo criterio empiristico si trovano notevoli differenze. Il problema fondamentale è se, entro quali limiti, e con quale tecnica, si possa trascendere l'esperienza immediata per giungere a conoscenze generali intorno al mondo reale.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 86!

Lo stoicismo, fondato da Zenone di Cizio (336-335 a.C.–264-263 a.C.), poneva come fine della ricerca non la scienza, ma la felicità per mezzo della virtù, ma la scienza era necessaria per raggiungerla, per cui la fisica e la logica erano parte integrante della filosofia stoicistica. Il concetto fondamentale della fisica stoica è quello di un ordine immutabile, razionale, perfetto e necessario che governa e sorregge infallibilmente tutte le cose e le fa essere e conservarsi quelle che sono. Identificando Dio con il cosmo e con il suo ordine, la dottrina stoica è un rigoroso panteismo.

Alle quattro cause aristoteliche (materia, forma, causa efficiente e causa finale) gli stoici sostituiscono due principi: il principio attivo e il principio passivo, che sono entrambi materiali, e inseparabili l’uno dall’altro. Il principio passivo è la sostanza spoglia di qualità, cioè la materia; il principio attivo è la ragione, cioè Dio che agendo sulla materia produce gli esseri singoli. La materia è inerte, e , sebbene pronta a tutto, rimane immobile se nessuno la muove. La ragione divina forma la materia, l’avvolge e la compenetra e ne produce le determinazioni. La sostanza da cui ogni cosa nasce è la materia, il principio passivo; la forza da cui ogni cosa è fatta è la causa o Dio, il principio attivo. Da queste considerazioni deriva che gli stoici dettero grande importanza all’astrologia. Per loro era assolutamente ragionevole che ciò che accadeva nel macrocosmo (universo) dovesse influenzare il microcosmo (l’uomo).

Lo stoicismo sostenne anche la concezione dell’universo come un continuum, in diretta contraddizione con la dottrina atomistica. Infatti, secondo gli stoici, la sostanza attiva dell’universo è il pneuma (in greco: respiro, spirito) che tiene unite e vivifica tutte le cose; un miscuglio di fuoco e aria atto ad accentuare la caratteristica attiva degli elementi. Gli stoici furono influenzati dalla tecnica alessandrina, giacchè calore ed aria compressa erano i segreti principi animatori delle macchine ideate dagli ingegneri di Alessandria, e dalle osservazioni di Ctesibio o di Filone, che condussero appunto all’idea di pneuma. Come testimonia Plutarco: “La materia passiva è il substrato delle qualità, e queste qualità consistono in tensioni del neuma e dell’aria che ineriscono alle parti della materia e ne determinano la forma”. La tensione (pneumatica) è dunque la caratteristica essenziale di tale sostanza che, come l’etere della fisica posteriore, penetra ovunque e si estende per tutto l’universo. Gli stoici fissarono la propria attenzione su questo mezzo continuo e attivo, e furono così indotti a compiere una delle maggiori acrobazie concettuali della fisica antica.

Forse seguendo una incerta intuizione di Democrito, gli stoici portarono all’acustica il contributo più importante dopo quelli dovuti alla scuola pitagorica. Testimonia Ezio: “Gli stoici dicono che l’aria non è composta di particelle, ma è un continuo privo di spazi vuoti. Se è colpita da un impulso, produce onde circolari che avanzano in successione ordinata, finché tutta l’aria circostante risulta mossa, così come l’acqua di uno stagno è mossa da una pietra che cade in essa. Mentre però in tal caso il moto è circolare, l’aria si muove sfericamente. Noi udiamo perché l’aria interposta fra chi emette la voce e chi ode il suono colpito si spande secondo onde sferiche che toccano il nostro orecchio, così come le onde di uno stagno si espandono in cerchio allorché vi gettiamo un sasso”. La caratteristica tensionale del pneuma è ciò che consente alle onde di espandersi in un mezzo continuo illimitato. Se si tiene presente questa veduta della propagazione del suono è facile riconoscere un primo passo verso un concetto più generale che, nelle scienza ottocentesca, diverrà poi quello di un etere elastico, suscettibile di vibrazioni ondulatorie. Anche la teoria della visione degli stoici è legata alla presenza del pneuma. Dalla sede della coscienza il pneuma fluisce all’occhio e eccita l’aria adiacente, mettendola in

87! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

uno stato di tensione. Quando questa aria viene illuminata dal sole viene stabilito un contatto con l’oggetto visibile. L’anima esercita una “pressione” sulla pupilla attraverso il pneuma e l’aria si allarga a forma di cono fino all’oggetto. Ricorda Diogene Laerzio: “Secondo Crisippo la vista è dovuta al fatto che la luce si estende a cono fra l’osservatore e l’oggetto osservato. così il segnale viene trasmesso all’osservatore per mezzo dell’aria in stato di tensione, proprio come un bastone”. La teoria emissionistica è qui rifiutata, e quantunque una concezione diversa sia appena accennata, si può dire che comincia già il conflitto fra opposte vedute sulla natura della luce, che avrà tanta parte nello sviluppo della fisica moderna.

In definitiva, lo stoicismo, nonostante le sue geniali intuizioni fisiche, rappresentò una specie di pervertimento della scienza, non diversamente dal tardo platonismo, che doveva fare del misticismo dei numeri la chiave di una esperienza mistica.

La fisica di Epicuro (341 a.C.–271 a.C.), invece, a differenza dello stoicismo, ha lo scopo di escludere dalla spiegazione del mondo ogni causa soprannaturale e di liberare così gli uomini dal timore di essere alla mercé di forze sconosciute e di misteriosi interventi. Per raggiungere questo scopo, la fisica dev'essere: materialistica, cioè escludere la presenza nel mondo di ogni "anima" o principio spirituale; meccanicistica, cioè avvalersi nelle sue spiegazioni unicamente del movimento dei corpi escludendo qualsiasi finalismo.

Poiché la fisica di Democrito rispondeva a queste due condizioni, Epicuro la adattò e la fece sua con talune modificazioni. Infatti, le differenze fra la fisica di Democrito e quella di Epicuro sono parecchie. In primo luogo, Epicuro ritiene che gli atomi, pur essendo fisicamente od ontologicamente indivisibili, siano logicamente o mentalmente divisibili in frammenti o "parti" di grandezza inferiore - i cosiddetti «minimi» - i quali, a loro volta, non risultano più divisibili nemmeno dal punto di vista teorico. In secondo luogo, mentre Democrito aveva distinto gli atomi secondo «figura», «ordine» e «posizione», Epicuro li distingue per «figura», «peso» e «grandezza». L'introduzione del peso segna una spaccatura netta nei confronti di Democrito. Infatti, mentre per quest'ultimo gli atomi hanno come proprietà strutturale il movimento, il quale rappresenta un dato originario della materia, che non ha bisogno di essere dedotto, Epicuro per spiegare il moto ricorre invece al peso, il quale fa sì che gli atomi cadano nel vuoto in linea retta e con la stessa velocità. Da ciò la formulazione di un'idea completamente assente in Democrito, quella del clinamen. L’introduzione del clinamen

(termine latino con cui Lucrezio traduce il vocabolo greco parénklisis=deviazione, declinazione) o deviazione degli atomi dalla linea retta, venne escogitata da Epicuro per rendere possibile l'urto degli atomi. Infatti, se gli atomi cadono perpendicolarmente nel vuoto alla stessa velocità, ci si può chiedere perché gli atomi non cadano sempre per linee parallele (ovvero senza incontrarsi). Per risolvere la difficoltà, Epicuro parla di una declinazione casuale e spontanea degli atomi dalla loro traiettoria, grazie a cui avviene l'incontro, e perciò l'interazione, fra atomi. In questo modo nell’atomismo epicureo compare un importante aspetto della fisica moderna: l’indeterminismo. Lucrezio, nel suo capolavoro scientifico De rerum natura, lo esprime con queste splendide ed efficaci parole: “incerto tempore… incertisque loci” (in un luogo e un tempo del tutto incerti).

Tale dottrina non fu elaborata solo per ragioni fisiche, ma anche (e forse soprattutto) per ragioni etiche. Infatti, una fisica come quella dell'atomismo poteva portare diritto al determinismo e quindi alla negazione di ogni forma di libertà, invece,

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 88!

l'ipotesi della casualità degli incontri atomici finiva per introdurre, nella realtà, un elemento di indeterminazione e di spontaneità, conciliabile (almeno così sembrava) con l'agire libero e spontaneo dell'uomo.

Come gli Stoici, Epicuro afferma che tutto ciò che esiste è corpo perché solo il corpo può agire o subire un'azione. D'incorporeo, egli non ammette che il vuoto, ma il vuoto non agisce né patisce alcunché ma solo permette ai corpi di muoversi attraverso se stesso. Tutto ciò che agisce o subisce è corpo e ogni nascita o morte non è che aggregazione o disgregazione di corpi. Epicuro, perciò, ammette con Democrito che nulla viene dal nulla e che ogni corpo è composto di corpuscoli indivisibili (atomi) che si muovono nel vuoto. Nel vuoto infinito, gli atomi si muovono eternamente urtandosi e combinandosi tra loro. Le loro forme sono diverse; ma il loro numero, per quanto indeterminabile, non è infinito. Il loro movimento non ubbidisce ad alcun disegno provvidenziale, ad alcun ordine finalistico. Gli Epicurei escludono esplicitamente la provvidenza stoica e la critica a tale provvidenza costituisce uno dei temi preferiti della loro polemica. Eliminata dal mondo l'azione della divinità, non rimangono, per spiegare l'ordine di esso, che le leggi che regolano il movimento degli atomi. A queste leggi nulla sfugge, secondo gli Epicurei; esse costituiscono la necessità che presiede a tutti gli eventi del mondo naturale.

Un mondo è, secondo Epicuro, “un pezzo di cielo che comprende astri, terre e tutti i fenomeni, ritagliato nell'infinito”. I mondi sono infiniti; essi sono soggetti a nascita e a morte. Tutti si formano in virtù del movimento degli atomi nel vuoto infinito. Ma poiché Epicuro ritiene che gli atomi, in virtù del loro peso, cadano nel vuoto in linea retta e con la stessa velocità, in virtù dei loro urti e deviazioni casuali si aggregano e si dispongono nei vari mondi. Questa deviazione degli atomi è l'unico evento naturale non sottoposto a necessità. Essa, come dice Lucrezio, «spezza le leggi del fato», ed introduce nella natura stessa un fattore che nel linguaggio della fisica moderna si direbbe un “principio di indeterminazione”, e ciò consente di sfuggire ad un rigoroso determinismo delle leggi naturali, e a fondare quel libero arbitrio che consente di rispondere alla domanda: perché mai abbattere gli dèi e il fato, se dobbiamo poi farci schiavi di una dura necessità fisica che annulla la nostra libertà?

Diversamente da Democrito, Epicuro non aveva un preminente interesse per la ricerca naturalistica e, tanto meno, matematica, però, nella storia del pensiero scientifico Epicuro ci interessa soprattutto per lo sviluppo che dette all’idea di scienza come aspetto fondamentale della cultura. Per lui la scienza comincia a manifestare tutto il suo valore proprio per via di quegli aspetti che molti scienziati considerano meno importanti: la possibilità di formare una retta coscienza umana, di liberare lo spirito da superstizioni, di fornire una visione del mondo nella sua totalità, forse soltanto approssimata, ma penetrante e significativa. Per Epicuro è più importante la spiegabilità di un fenomeno che non la sua spiegazione.

Un empirismo ancora più rigido è quello degli scettici, che, svolgendo una libera critica dei criteri della verità, si oppongono a tutte le scuole dogmatiche dell'epoca, affermando che non si può in alcun caso sorpassare l'ordine dei fenomeni. L'unica conoscenza possibile è quella che registra connessioni costantemente verificabili tra cose sensibili, senza pretendere di risalire con ciò a realtà prime. Fondatore dello scetticismo fu Pirrone di Elide (ca. 365-275 a.C.), del quale Diogene Laerzio dice: “Riguardo a ciò che i dogmatici stabiliscono con il ragionamento, pretendendo di conoscere con certezza, noi ce ne asteniamo, dichiarando che tutto ciò non è manifesto a noi, e quanto

89! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

conosciamo sono solo le nostre impressioni … che questo ci appaia bianco lo diciamo come espressione di un nostro sentire, ma senza affermare che esso sia tale in realtà … Affermiamo ciò che a noi appare, non ciò che è l’essere in se stesso … essi (gli stoici) si attengono ai fenomeni, in quanto appaiono”. L’atteggiamento è quello di un positivista che si limita a registrare dei “protocolli” di ricerca, il principio è quello del “dubbio metodico” previsto dal metodo cartesiano.

Il massimo esponente dello scetticismo fu Carneade da Cirene (ca. 214-119 a.C.), pensatore lucido, che ha importanza notevole nella filosofia della scienza per aver enunciato una dottrina della scienza stessa come conoscenza probabile. Ogni dimostrazione logica deriva necessariamente da certe premesse. Per darle un fondamento indiscutibile, dovremmo risalire di premessa in premessa, ma si avrebbe, così, un regresso all’infinito, altrimenti occorrerebbe ammettere che le premesse possono essere dimostrate dalle conseguenze, e si cadrebbe in un circolo vizioso. La conseguenza, osserva Carneade, è che non possiamo mai avere una certezza, ma vi sono fatti più probabili di altri.

La corrente del neoplatonismo interessa alla storia della scienza per il suo concetto della natura, e per il modo impareggiabile di esprimere “le bellezze del mondo sensibile, le sue proporzioni, la sua regolarità”. I misticheggianti neoplatonici hanno un vivo senso della maestà della natura che li induce a cercare ansiosamente “la Bellezza da cui proviene questa bellezza”. Il massimo esponente del neoplatonismo è Plotino (204-270 d.C.). Tutta la sua visione morale è determinata dalla assoluta trascendenza platonica della vera realtà, che egli rinnova. Questa realtà divina si espande, si riversa sul mondo sensibile inferiore per emanazione, come il calore, la luce, il suono o l’acqua, che emanano dalla sorgente. L’intelletto emana dall’Uno (il Dio di Plotino), e nell’intelletto il mondo esiste come mondo delle idee, in senso platonico. L’anima emana a sua volta dall’intelletto, ed è l’unità di tutte le forze vitali che reggono l’universo concreto. Infine questa solida realtà, la natura, sorge dalla mescolanza della oscura materia conn le emanazioni dell’anima e dell’intelletto. La materia è la cupa prigione, priva di bontà e di realtà. Il compito dello spirito umano è quello di salire verso l’Uno attraverso i gradi ascendenti della virtù, della bellezza, della sapienza filosofica, dell’estasi.

L'Uno è la prima realtà sussistente. Esso non può contenere alcuna divisione, molteplicità o distinzione; per questo è al di sopra persino di qualsiasi categoria di essere. Il concetto di "essere" deriva infatti dagli oggetti dell'esperienza umana, ed è un attributo di questi, ma l'infinito trascendente Uno è al di là di tali oggetti, quindi al di là dei concetti che ne deriviamo, per cui Plotino pone l’Uno al di sopra dell'Essere a differenza non solo di Parmenide, ma anche di Aristotele e Platone. L'Uno “non può essere alcuna realtà esistente” e non può essere la mera somma di tutte queste realtà (diversamente dalla dottrina stoica che concepiva Dio immanente al mondo), ma è “prima di tutto ciò che esiste”. All'Uno quindi non si possono assegnare attributi. Ad esempio, non gli si possono attribuire pensieri perché il pensiero implica distinzione tra il pensante e l'oggetto pensato. Allo stesso modo, non gli si può attribuire una volontà cosciente, né attività alcuna. Se questa concezione conduce Plotino a vedute paradossali, come “Alcuni mali, ad esempio la povertà e la malattia, giovano a quelli che li subiscono”, è vero anche che infonde un senso maestoso alla natura, le cui bellezze sono anima e pensiero immanenti nella materia.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 8:!

A tanta raffinatezza, e dopo gli studi recenti possiamo anche dire modernità, di queste scuole filosofiche nel campo logico e metodologico, non corrisponde praticamente nulla nel campo della conoscenza scientifica della natura. La fisica stoica, estremamente composita ed eclettica, costruita sulla base di un apriorismo e di un mate-rialismo di dubbia lega, nei secoli successivi si corromperà al punto di farsi fondamento piuttosto della superstizione magica ed alchimistica che non della scienza. La fisica epicurea mostra mescolate stranamente volgari superstizioni e felici intuizioni scientifiche (per esempio, che il tuono e il fulmine sono due aspetti dello stesso fenomeno, ma vengono percepiti distintamente a causa delle diverse velocità del suono e della luce) ed il suo merito maggiore consiste nell'aver riproposta, e salvata per la posterità, la teoria atomica di Democrito.

9<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&!!!

Solo i cretini hanno una risposta

per ogni domanda

Vincenzo Pappalardo

!"#$%&'%#,%$(&%#

3.1 Roma e la scienza

La decadenza dello spirito scientifico è l’aspetto più rilevante della crisi della

cultura greco-romana, soprattutto perché palesa con la massima evidenza l’elemento più caratteristico di tale crisi: l’abbandono dell’atteggiamento razionale verso la realtà. Il processo di decadenza ha un andamento lento e progressivo e inizia all’incirca nella seconda metà del II secolo a.C. e raggiunge la piena maturazione nel IV e V secolo. Si assiste in questo periodo ad un impoverimento della ricerca originale, che si sposta verso altri campi (magia, alchimia, astrologia) in cui gli elementi fideistici e mistici prevalgono su quelli razionali. La ricerca scientifica subisce una stasi notevole e predomina un tipo di letteratura manualistica ed enciclopedica che tende più che altro a volgarizzare i dati conseguiti nelle varie scienze.

Durante il periodo ellenistico, i romani non si interessarono molto della scienza, intesa come strumento per capire la natura, ma delle sue applicazioni pratiche. Il greco rimase la lingua della parte orientale dell’impero, e anche nella parte occidentale il greco fu la lingua della cultura. Pertanto, il contributo specifico recato da Roma alla scienza greca-alessandrina è stato pressoché nullo. Catone, che faceva parte di quel folto gruppo di conservatori romani che avversavano l’introduzione a Roma della cultura greca, nei suoi celebri Precetti al figlio, scriveva: “E’ si bene avere notizie delle lettere greche, ma non studiarle a fondo. Razza cattivissima ed indocile è quella dei Greci, e fa conto che sia un profeta che ti dice questo: se, quando che sia, codesta gente ci darà la scienza, manderà tutto in rovina”.

Le cause dello sfacelo del pensiero scientifico durante l’impero romano vanno ricercate nella storia sociale stessa dell’impero, ossia in quella struttura schiavistica dell’economia che fa il vuoto tra il ceto dei contadini affamati ed analfabeti e il ceto degli alti funzionari dell’amministrazione civile e dell’esercito. Viene a mancare, quindi, quella classe agiata che coltivava la cultura come ad Alessandria o Atene. Inoltre, la plebeizzazione dell’impero avrà conseguenze culturali particolarmente gravi. Lentamente le vecchie classi aristocratiche scompaiono a tutto vantaggio di nuove forze

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 9;!

sociali e politiche, spesso di origine servile e a volte barbarica. Si tratta di uomini che non hanno vocazioni culturali, e né i tempi turbinosi e né la perenne instabilità economica e politica, permettono il formarsi di una nuova classe sociale aperta al rinnovamento culturale. Anzi, quando guardano alla cultura, sentono più il richiamo delle religioni, delle superstizioni magistiche che della scienza. Così, in una società in pieno sfacelo che preannuncia il medioevo, la scienza aveva perduto ogni rigore di analisi, veniva a confondersi con la superstizione. Nel frattempo, è vero, sarà sorta una nuova classe sociale, quella degli ecclesiastici, e in seguito dei monaci, capace di assumere la tutela e cultura del sapere; ma tale funzione verrà assunta troppo tardi, dopo che era avvenuta un’irreparabile distruzione del patrimonio culturale.

Però non si può dire che, preso complessivamente, l’atteggiamento del mondo romano sia stato ostile alla cultura greca, anzi l’impero sentì il dovere di sostituirsi ai sovrani ellenistici di Pergamo e di Alessandria mantenendo in vita le istituzioni culturali da questi fondate, e schiavi greci furono i precettori dei ricchi ragazzi romani. Attraverso queste istituzioni la cultura greco-ellenistica si diffonde in tutto l’occidente europeo divenendo, da allora e per tutti i secoli successivi, la cultura europea. Il contributo dei romani alla scienza in senso stretto, però, fu scarsissimo, assolutamente sproporzionato alla loro importanza politica.

Un esempio tipico di decadimento di ogni spirito di ricerca è rappresentato da Seneca (ca. 4 a.C.–65 d.C. ) con la sua opera Naturales Quaestiones, una raccolta di nozioni di seconda mano, messe insieme senza spirito critico, mescolate a riflessioni pseudofilosofiche. Pure in questa imbarazzante confusione di idee non manca qualche veduta notevole, come i passi dedicati alle comete che, contrariamente ad Aristotele che le considerava fenomeni metereologici che si producono nell’atmosfera fra la Terra e la Luna, Seneca considerava dei veri corpi celesti. Piuttosto che nei particolari delle osservazioni scientifiche, l’originalità di Seneca deve cercarsi nella comprensione storica e umanistica che egli ha della scienza, e nella fiducia che manifesta del suo progresso futuro. Nel seguente passo è molto evidente l’idea premonitrice e moderna di progresso, davvero notevole per il suo tempo: “La scienza è in continuo divenire, la verità è sempre in cammino, e il fascino del mistero ci mette sulla strada. Un giorno molti segreti saranno svelati con gli studi accumulati nei secoli. Una sola età non basta a risolvere tanti problemi delle cose celesti, fosse essa tutta dedicata al cielo. Verrà tempo in cui i posteri stupiranno che noi abbiamo ignorato fatti così chiari … Le grandi scoperte si fanno lentamente, ed occorre che non si arresti mai il lavoro dell’intelletto”.

In questa età di ristagno, dedita alla pratica, ma con gli occhi volti al passato, senza vere possibilità creatrici, i romani scrissero libri sull’agricoltura, sui macchinari, come fece Vitruvio (80/70 a.C.–23 a.C.) la cui opera Sull’architettura (tardo I sec a.C.) deriva soprattutto da fonti greche; ma, soprattutto, pullulò di dossografi e commentatori, come Diogene Laerzio (180-240 d.C.), i quali lasciarono molte testimonianze sui grandi pensatori del passato, testi preziosi per lo storico della scienza. I romani amavano le enciclopedie, agili compendi che fornissero facili sintesi di conoscenza greca. Queste enciclopedie non sono che centoni di notizie scientifiche non sempre criticamente vagliate e con l’aggiunta di poche osservazioni personali. Testi importantissimi come fonti storiche ma privi di interesse diretto. Uno dei più influenti fu quello di Varrone (circa 50 a.C.), i cui Nove libri sulle discipline contenevano sintesi

9=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

delle sette arti liberali (grammatica, retorica, logica, geometria, musica, aritmetica e astronomia).

Il più grande e senza dubbio il più famoso di tutti gli enciclopedisti romani fu Plinio il Vecchio (23 d.C.–24 agosto 79 d.C., durante l’eruzione del Vesuvio). La sua Naturalis Historia è una vasta compilazione che va dall’astronomia, alle invenzioni meccaniche, alla medicina, e non di rado le testimonianze in essa presenti sono preziose per conoscere le opinioni di autori greci le cui opere sono perdute. Purtroppo, però, in questa storia naturale manca quasi sempre ogni discernimento scientifico: il vero o il probabile si mescola all’inverosimile, e molto spesso non sono comprese le dottrine degli antichi che si pretende di riferire. Plinio, più un curioso di cose naturali che un vero indagatore, rappresenta bene la mentalità del tempo, che tende ad affrontare sempre più in modo letterario i problemi scientifici, limitandosi per lo più a riportare dati ed osservazioni altrui. La massa di notizie sugli argomenti più disparati risulta sempre più essere un mero affastellamento quantitativo che si accompagna ad una valutazione generica e non ben determinata. L’esaminare da vicino un problema particolare per analizzarlo nei suoi elementi e per collegarlo, mediante rapporti precisi, con schemi concettuali generali, che era stata la caratteristica essenziale della scienza greca, è un atteggiamento che tende ormai a scomparire. La mancanza di una vera cultura scientifica dell’autore non significa che la sua opera colossale sia priva di importanza; anzi occorre osservare che il suo enciclopedismo divulgativo rispondeva ad un bisogno sentito da uomini di limitate possibilità, e, per questo, dominò il medioevo fino all’inizio dell’età moderna.

Un'altra notevole opera, il dialogo De facie cernitur in orbe luna, è dovuta a Plutarco (50-125 d.C.). Il dialogo, ove sono evidenti le influenze stoiche, appare tuttavia illuminato da reminiscenze di sapienza presocratrica e pitagorica, notevoli in questa epoca di decadenza. Si tratta di uno dei pochi scritti in cui il Rinascimento poteva trovare un ricordo di Aristarco, prima che Copernico elaborasse la sua teoria eliocentrica. Un altro fatto importante è che, contrariamente ad Aristotele, Plutarco relativizza il concetto di centro, e nega perciò che un qualsiasi corpo, come la Terra, possa occupare il vero centro dell’universo: “Di che cosa si può dire che la Terra è al centro? Perché l’universo è infinito, e dell’infinito, che non ha principio né limite, non può darsi centro alcuno. Infatti l’idea stessa di centro implica quella di limite, e l’infinito invece è la negazione di ogni limite”. Plutarco sostiene, infine, riprendendo le idee degli ionici e di Anassagora, la natura terrestre della Luna e che le sue macchie sono valli profonde e poco illuminate, proprio come sulla Terra.

L’epicureismo si trasformò in un grande sistema cosmologico, con qualche reminiscenza delle cosmologie dei presocratici, ad opera del poeta romano Lucrezio (98 a.C.–55 a.C.) attraverso il poema De rerum natura. Il poema di Lucrezio ebbe grande influenza nel Rinascimento scientifico sia come tramite tra l’atomismo epicureo, sia perché dette una tradizione alle teorie materialistiche, sia, infine, nello spingere lo scienziato rinascimentale a liberarsi attraverso la scienza delle catene della religione. Il De rerum natura, dietro la forma poetica, nasconde un contenuto anticipatorio di tutta una serie di aspetti della scienza moderna. Innanzitutto, i versi I,54-61 costituisco l’abstract dell’intero poema, e si possono sintetizzare in un’unica parola: “riduzionismo”. Lucrezio intende ridurre il funzionamento dell’intero macroscosmo, uomo compreso, al comportamento microscopico dei cosiddetti stoicheia: una parola

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 94!

greca che significa “messi in fila”, o in “serie”, e indica gli “elementi ultimi” della materia. In sintesi gli “atomi” da cui tutto ha origine: “E’ per te che esporrò il supremo sistema celeste. Per te spiegherò i principi della Natura che regolano la nascita, la crescita, il sostentamento, la morte e la dissoluzione di tutte le cose. Per te parlerò di ‘materia generatrice’, di ‘semi delle cose’, di ‘corpi primordiali’: in breve, degli ‘atomi’ da cui tutto ha origine”. Se l’obiettivo del riduzionismo è la classificazione di questi “elementi ultimi” e di come essi si combinino per dar luogo a tutte le cose, esso viene condiviso da Lucrezio e dalle scienze moderne. A seconda dei casi, dunque, gli “elementi ultimi” di Lucrezio possono essere interpretati come le macromolecole della biologia, le molecole della chimica, gli atomi della fisica atomica e nucleare o le particelle della fisica subatomica.

I primi due libri del De rerum natura trattano della materia, dello spazio e del vuoto, secondo la teoria atomistica degli epicurei; il terzo libro si occupa dello spirito e dell’anima, formati anch’essi di piccoli atomi; il quarto libro tratta della teoria delle sensazioni, dovute a piccole immagini che si staccano dai corpi; il quinto libro si interessa di cosmologia, come la formazione del nostro mondo e la sua fine; infine, nel sesto libro troviamo la spiegazione di vari fenomeni meteorologici, come il fulmine, le nuvole, la pioggia, i terremoti, ecc. Accanto a molte osservazioni interessanti dal punto di vista scientifico, ce ne sono altre che anche la scienza moderna ha stentato ad acquisirle: il tempo non esiste in sé, ma noi ne deriviamo il concetto dal susseguirsi degli eventi; gli atomi, anche se di peso diverso, debbono cadere nel vuoto con uguale velocità; e lo stesso argomento che porta a tale conclusione (sono l’aria o l’acqua che producono il ritardo dei corpi più leggeri nella caduta) si estende anche a corpi qualsiasi: “Non può per contro, lo spazio vuoto impedire a nessuna cosa, in nessun momento, per nessun verso, che seguiti a cadere giù come chiede la sua natura, e per questo debbono gli atomi tutti nel vuoto immobile, se anche sono disuguali di peso, muoversi con la stessa velocità”. L’attrazione fra due corpi si può spiegare con la formazione di un certo vuoto fra i corpi stessi, per modo che la massa d’aria posta, per così dire, sulle loro spalle, li sospinge: “In effetti l’aria che sta loro intorno flagella tutte le cose”. Allo stesso modo, aggiunge Lucrezio, si spiegano i fenomeni comunemente osservati allorché tende a formarsi uno spazio vuoto: “Subito i più vicini fra gli atomi son trascinati nel vuoto, perché sospinti dagli urti di altri”. Contrariamente all’idea dell’horror vacui, tanto diffusa nell’antichità, questa spiegazione che troviamo per la prima volta in Lucrezio si richiama al concetto di una pressione esterna, e prelude, in un certo senso, le vedute del Torricelli sulla pressione atmosferica.

Dunque, non sono solo le generalità, le considerazioni filosofiche, oggi diremmo epistemologiche, a essere moderne in Lucrezio. Lo è anche una lunga lista di specificità, che costituiscono vere e proprie anticipazioni di alcuni momenti salienti dello sviluppo della scienza: lo spazio infinito e i mondi innumerevoli di Giordano Bruno, il principio d’inerzia di Cartesio, l’esperimento sul vuoto di Torricelli, la teoria cinetica dei gas di Maxwell, solo per citarne qualcuna. E fu lo stesso Maxwell a scrivere, in una lettera del 1866: “Le sue parole sono una così buona illustrazione della teoria moderna, che sarebbe un peccato che significassero qualcosa di diverso”. Per mostrare un esempio sorprendente riportiamo i seguenti versi del De rerum natura: “ E’ bene prestare attenzione ai corpuscoli che vedi agitarsi nei raggi del Sole: perché quel turbinio ti suggerisce che ci sono più cose al mondo, di quante ne appaiono a prima vista ai nostri sensi. Lì vedrai, infatti, un moto casuale di aprticelle che vanno da tutte le parti, ora qua e ora là, e questo moto visibile deve essere prodotto dagli urti degli atomi

95! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

invisibili”. Sebbene scorretta per il moto del pulviscolo atmosferico, la spiegazione di Lucrezio risolve correttamente l’enigma del moto browniano scoperto nel 1827 e risolto in maniera “lucreziana” da Einstein nel 1905.

La libera e coraggiosa filosofia di Lucrezio, come quella di Epicuro o di Democrito, non poteva trovare adepti né favori nel clima di attiva restaurazione religiosa voluto da Augusto, e continuato da altri imperatori; né tantomeno dopo il trionfo del cristianesimo. Dobbiamo alle scarse testimonianze, soprattutto alla polemica aristotelica contro Democrito, e ad una copia sopravvissuta del De Rerum Natura, la rinascita dell’atomismo nel basso medioevo, e poi la sua vigorosa ripresa nel Rinascimento, fino al giorno in cui Galileo si ispirò anche al pensiero del più antico maestro nella sua costruzione di una scienza moderna.

Il bilinguismo degli intellettuali romani faceva sì che vi fossero pochissime traduzioni di testi scientifici greci. Questo fatto doveva avere una dannosissima influenza quando, dopo il crollo dell’impero romano d’occidente, l’Europa diventò una regione di lingua esclusivamente latina, senza alcuna possibilità di contatto con la lingua greca e il mutamento intellettuale disponibile fu veramente povero. Questo fu, in parte, il diretto risultato di un crescente antiintellettualismo. Il romano aveva sempre guardato con sospetto l’intellettuale greco, intelligente ma incostante e incapace di governare e amministrare. Pensare piuttosto che agire, speculare piuttosto che applicare le conoscenze, tutto ciò sembrava del tutto alieno dallo spirito dei romani. Nessuna meraviglia, allora, che i Padri latini della chiesa cristiana fossero anch’essi contrari alla speculazione scientifica.

Naturalmente non mancarono contributi, seppur isolati, allo sviluppo delle scienze, attraverso la pubblicazione di storie e commenti, che contribuirono a conservare il pensiero greco e che ne beneficiarono soprattutto studiosi medievali e del Rinascimento, e quindi, anche nei suoi cinque secoli di decadenza, Roma non aveva rinunciato alla sua civilizzazione.

Uomini come Macrobio (V sec.) o Marciano Capella (ca. 365-440), che amavano i libri e la cultura, si sforzarono pateticamente di impedire la totale dispersione delle conoscenze in loro possesso che, del resto, erano già spurie. Pappo (circa 300 d.C.) compilò una Collezione matematica, resoconto sistematico della matematica e della meccanica, con alcuni contributi originali, e Proclo (410–485), che insegnò nell’Accademia ad Atene, scrisse un commento su Euclide, un misto di storia e filosofia della matematica con analisi di problemi matematici, e fu anche autore degli Elementi delle ipotesi astronomiche, che è un’introduzione alle opere di Ipparco e di Tolomeo, con interessanti dettagli matematici.

Il profondo rispetto per gli antichi portò a preservare la conoscenza del passato, e dovevano trascorrere molti secoli prima che nuovi scienziati potessero portare qualche grande contributo alla scienza o ristabilire la tradizione di progresso scientifico. Gli scienziati greci dell’era cristiana avevano garantito la conservazione della conoscenza, rinchiusa nell’idioma greco, ma disponibile per chiunque desiderasse fare lo sforzo di tradurla.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 96!

3.2 Il Cristianesimo: ragione e fede inconciliabili? La Grecia è stata veramente la culla della filosofia e della scienza. Per la prima volta, nel mondo occidentale essa ha intesa e realizzata la filosofia come indagine razionale: cioè come indagine autonoma, che riceve solo da sé il fondamento e la legge del suo sviluppo. La filosofia greca ha dimostrato che la filosofia non può essere che ricerca e che la ricerca non può essere che libertà. La libertà implica che la disciplina, il punto di partenza, il termine e il metodo della ricerca siano giustificati e posti dalla ricerca stessa, non già accettati indipendentemente da essa.

Il prevalere del cristianesimo nel mondo occidentale determinò un nuovo indirizzo della filosofia. Ogni religione implica un insieme di credenze, che non sono frutto di ricerca perché consistono nell'accettazione di una rivelazione. La religione è l'adesione a una verità che l'uomo accetta in virtù di una testimonianza superiore. Tale è infatti il cristianesimo. Ai Farisei che gli dicevano: “Tu testimoni di te stesso, quindi la tua testimonianza non è valida”, Gesù rispose: “Io non sono solo, ma siamo io e Colui che mi ha mandato” (Gv, VIII, 13, 16), fondando così il valore del suo insegnamento sulla testimonianza del Padre. La religione sembra perciò escludere nel suo stesso principio la ricerca e consistere anzi nell'atteggiamento opposto, dell'accettazione di una verità testimoniata dall'alto, indipendente da qualsiasi ricerca. Tuttavia, non appena l'uomo si chiede il significato della verità rivelata e si domanda per quale via può veramente intenderla, l'esigenza della ricerca rinasce. Riconosciuta la verità nel suo valore assoluto, quale viene rivelata e testimoniata da una potenza trascendente, si determina immediatamente l'esigenza, per ogni uomo, di avvicinarsi ad essa e di comprenderla nel suo significato autentico, per vivere veramente con essa e di essa. A questa esigenza solo la ricerca filosofica può soddisfare. La ricerca rinasce, dunque, dalla stessa religiosità per il bisogno dell'uomo religioso di avvicinarsi, per quanto è possibile, alla verità rivelata. Rinasce con un compito specifico, impostole dalla natura di tale verità e dalle possibilità che essa può offrire alla comprensione effettiva da parte dell'uomo; ma rinasce con tutti i caratteri che sono propri della sua natura e con tanta più forza quanto maggiore è il valore che si attribuisce alla verità in cui si crede e che si vuole far propria.

Dalla religione cristiana è nata così la filosofia cristiana, la quale si è assunto il compito di portare l'uomo alla comprensione della verità rivelata da Cristo, e gli strumenti indispensabili per questo compito li trovò già pronti nella filosofia greca. Le dottrine dell'ultimo periodo, prevalentemente religioso, della speculazione ellenica si prestavano ad esprimere in modo accessibile all'uomo il significato della rivelazione cristiana; e a tale scopo furono infatti utilizzate nella maniera più ampia.

Però il cristianesimo non è sorto come una filosofia e forse il suo ispiratore, Gesù di Nazaret nato sotto l’imperatore Augusto e morto al tempo dell’imperatore Tiberio, non voleva neanche fondare una nuova religione. I suoi discepoli dovevano aspirare non tanto a crescere nella conoscenza, quanto piuttosto a concepire la fede in lui.

Ragione e fede: due disposizioni interiori destinate a escludersi reciprocamente, o in grado di integrarsi? Il cristianesimo intendeva davvero offrire all’uomo e alle sue domande sulle realtà ultime delle risposte soddisfacenti, senza chiedergli come contropartita la rinuncia all’esercizio delle facoltà conoscitive? La stessa sapienza greca non ne aveva accettato la complementarietà?

97! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Chi, con particolare intensità, avvertì i dilemmi collegati al rapporto fra ragione e fede fu San Paolo (5-10 d.C.; 64-67 d.C.), che, in qualche momento della sua predicazione, sembrò convinto di poter contare sulla ragione umana per convertire le “genti”, in particolare, durante la missione ad Atene. Ma i risultati furono deludenti, tali da far scrivere nella Prima lettera ai Corinzi: ” … Io venni in mezzo a voi in debolezza e con molto timore e trepidazione; e la mia parola e il mio messaggio non si basarono sulla sapienza di discorsi persuasivi, ma sulla manifestazione dello Spirito e della sua potenza, perché la vostra fede non fosse fondata sulla saggezza umana, ma sulla potenza di Dio.” Secondo queste parole, la fede non solo nulla avrebbe in comune con la ragione, ma ad essa si contrapporrebbe. Eppure, nel momento in cui “l’apostolo delle genti” progetta di evangelizzare l’Occidente, si riaffaccia nei suoi scritti il tema della ragione come strumento valido per giungere fino a Dio. Lo si desume dalla Lettera ai Romani: “Ciò che di Dio si può conoscere è palese, avendolo Dio stesso manifestato. Sì, gli attributi invisibili di lui, l’eterna sua potenza e la sua divinità possono intuirsi dalla creazione del mondo, attraverso le sue opere, purché ci si faccia attenzione. Tutti sono dunque inescusabili. Pur conoscendo Dio, infatti, non gli hanno dato gloria, né gli hanno reso grazie come a Dio, ma hanno vaneggiato nei loro ragionamenti e si è ottenebrata la loro mente ottusa. Nel momento stesso in cui si dichiaravano sapienti, sono diventati stolti e hanno scambiato la gloria dell’incorruttibile Dio con l’immagine e la figura dell’uomo corruttibile, di uccelli, di quadrupedi, di rettili.” In queste parole si può individuare l’impianto di quella che verrà chiamata la prova cosmologica dell’esistenza di Dio, e si afferma una volta di più come San Paolo abbia posto con chiarezza la grande questione: come definire il rapporto fra ragione e fede?

Una volta postosi sul terreno della filosofia, il cristianesimo tenne ad affermare la propria continuità con la filosofia greca ed a porsi come l’ultima e più compiuta manifestazione di essa. Giustificò questa continuità con l’unità della ragione (logos), che Dio ha creata identica in tutti gli uomini di tutti i tempi e alla quale la rivelazione cristiana ha dato l’ultimo e più sicuro fondamento; e con ciò affermò implicitamente l’unità della filosofia e della religione. Era naturale che si tentasse da un lato di interpretare il cristianesimo mediante concetti desunti dalla filosofia greca e così di riportarlo a tale filosofia, dall’altro di ricondurre il significato di quest’ultima allo stesso cristianesimo. Questo duplice tentativo, che in realtà è uno solo, costituisce l’essenza dell’elaborazione dottrinale che il cristianesimo subì nei primi secoli dell’era volgare, periodo che va sotto il nome di patristica.

Sotto questo punto di vista, la dottrina fondamentale di Giustino (nato nel primo decennio II secolo e morto tra il 163 e 167) è che il cristianesimo è “la sola filosofia sicura ed utile” e che esso è il risultato ultimo e definitivo al quale la ragione deve giungere nella sua ricerca. Mentre per Ireneo (130-202) la vera conoscenza, o meglio la gnosi, è quella tramandata dagli apostoli. Ma questa conoscenza non ha la pretesa di superare i limiti dell’uomo. Dio è incomprensibile ed impensabile. Egli è intelletto, ma non è simile al nostro intelletto. È luce, ma non è simile alla nostra luce: “E’ meglio non saper nulla, ma credere in Dio e rimanere nell’amore di Dio, anziché rischiare di perderlo con ricerche inutili”.

Se la ragione non poteva esser d’aiuto, ma soltanto la fede, allora l’affermazione di Tertulliano (150–220 ca.) “credo perché assurdo”, cioè razionalmente assurdo, è eloquente. Il punto di partenza di Tertulliano è la condanna della filosofia. I filosofi

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 98!

sono i “patriarchi degli eretici”. La verità della religione, quindi, si fonda sulla tradizione ecclesiastica. “Se si cerca per trovare e si trova per credere, si pone termine, con la fede, ad ogni ulteriore ricerca e ritrovamento. Ecco il limite che il risultato stesso della ricerca stabilisce”. La ricerca esclude dunque il possesso e i possesso esclude la ricerca. In realtà Tertulliano era incapace di fermarsi sui problemi e di esaminarli in profondità. Il lavoro paziente e rigoroso della ricerca che nasca e si alimenti dalla fede, come si incarnerà in S. Agostino, non era nelle sue intenzioni, o forse nelle sue possibilità, per cui svaluta la ricerca di fronte alla fede. Tertulliano sfiora i problemi assumendo le posizioni più semplici ed estremiste, con suprema indifferenza verso ogni cautela critica e ogni esigenza di metodo. Nei confronti del criterio di Tertulliano, S. Agostino risulterebbe un eretico.

L’elaborazione dottrinale del cristianesimo, iniziata dagli apologisti per difendere la comunità ecclesiastica contro persecutori ed eretici, viene continuata e approfondita nei secoli successivi per una necessità interna. In questa successiva elaborazione domina l’esigenza di costituire la dottrina cristiana in un organismo unico e coerente, fondato su una solida base logica. La parte della filosofia diventa perciò sempre maggiore, per cui il cristianesimo si presenta come la filosofia autentica che assorbe e porta alla verità il sapere antico, del quale può e deve servirsi per trarre elementi e motivi della propria giustificazione. Il periodo che va dal 200 al 450 circa è decisivo per la costruzione dell’intero edificio dottrinale del cristianesimo.

In quest’ottica, il primo compito di Clemente Alessandrino (ca. 150-ca. 215) è quello di elaborare il concetto stesso di una gnosi cristiana. Non c’è dubbio che la conoscenza sia il termine più alto cui l’uomo possa giungere, ma la fede è condizione necessaria della conoscenza. La fede è così necessaria alla conoscenza come i quattro elementi sono necessari alla vita del corpo. Fede e conoscenza non possono sussistere l’una senza l’altra. Ma per giungere dalla fede alla conoscenza è necessaria la filosofia.

La dottrina di Origene (ca. 185-254), a differenza di Tertulliano, è il primo grande sistema di filosofia cristiana, nel senso di ricerca della verità, anche se si tratta, in questo caso, di verità rivelata. Nel prologo del De principiis afferma: “Gli apostoli … hanno lasciato a quelli dotati dei doni superiori dello spirito e specialmente della parola, della saggezza e della scienza, la cura di ricercare le ragioni delle loro affermazioni”. Il suo lavoro esegetico dei testi biblici tende a mettere in luce il significato nascosto e quindi la giustificazione profonda delle verità rivelate. Il passaggio dal significato letterale al significato allegorico delle sacre scritture è il passaggio dalla fede alla conoscenza. La fede, dunque, ricerca le sue ragioni e diventa conoscenza.

Per Basilio il Grande (ca. 331-379) la fede precede l’intelletto “Nelle discussioni

intorno a Dio deve essere assunta come guida la fede, la fede che spinge all’assenso più fortemente della dimostrazione, la fede che non è causata da necessità geometrica ma dall’azione dello Spirito Santo”. Per quanto riguarda le diverse fasi della creazione del mondo, Basilio utilizza le dottrine scientifiche dell’antichità, specialmente di Aristotele.

Come suo fratello Basilio, Gregorio di Nissa (335-395 ca.) afferma la distinzione tra la fede e la conoscenza e la subordinazione della seconda alla prima. La fede poggia sulla rivelazione divina e non ha bisogno della logica e delle sue dimostrazioni. Essa è il criterio di ogni verità e deve essere assunta come la misura di ogni sapere. Dal suo

99! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

canto, la scienza deve fornire alla fede le conoscenze naturali preliminari, quelle che nel Medioevo si chiameranno preambula fidei. In particolare, la dialettica fornisce il metodo per sistemare il contenuto della fede e costituisce lo strumento mediante il quale i principi della fede possono essere fondati e si può progredire verso la gnosi, se anche ciò va fatto con grande cautela ed in forma ipotetica. Gregorio mette in pratica questo procedimento di ricerca nella misura più estesa, come solo Origene prima aveva fatto, e continuamente fa appello, oltre che alla testimonianza della tradizione, a principi e dimostrazioni razionali. Il suo Discorso catechetico come il dialogo Sull’anima e sulla resurrezione sono interamente condotti con ricerca puramente razionale, e dove il dubbio viene assunto come un aiuto metodico della ricerca.

Gregorio rappresenta, con Origene, l’espressione massima della speculazione cristiana dei primi secoli. Il cristianesimo ha raggiunto con essa la sua prima sistemazione dottrinale, sul fondamento di un incontro sostanziale con la filosofia greca.

La speculazione teologica in S. Agostino (354–430), per la prima volta, cessa di essere puramente oggettiva, come si era conservata anche nelle più potenti personalità della patristica greca, per saldarsi all’uomo stesso che la istituisce. Per S. Agostino, il più colto di tutti i Padri latini della chiesa, la ricerca trova nella ragione la

sua disciplina e il suo rigore, ma non è esigenza di pura ragione. Tutto l’uomo ricerca, ogni parte o elemento della sua natura muove verso l’Essere che solo può dargli consistenza e stabilità. S. Agostino ripresenta alla speculazione cristiana l’esigenza della ricerca con altrettanta forza di quella con cui Platone l’aveva presentata alla filosofia greca. Ma a differenza di quella platonica, la ricerca agostiniana si radica nella religione, e attribuisce a Dio la sua iniziativa. Dio solo determina e guida la ricerca umana sia come speculazione sia come azione; e così la speculazione è nella sua verità fede nella rivelazione e l’azione è, nella sua libertà, grazia concessa da Dio. In sintesi la fede è al termine della ricerca, non al suo inizio. Certamente la fede è la condizione della ricerca, che non avrebbe né direttiva né guida senza di essa; ma la ricerca si rivolge verso la sua condizione e cerca di chiarirla con l’approfondimento incessante dei problemi che suscita. Perciò la ricerca trova il fondamento e la guida nella fede e la fede trova il consolidamento e l’arricchimento nella ricerca. La ricerca agostiniana si impone una disciplina rigorosa: non si abbandona facilmente a credere, non chiude gli occhi davanti ai problemi e alle difficoltà della fede, non tenta di evitarli e di eluderli, ma li affronta e li considera incessantemente, ritornando sulle proprie soluzioni per approfondirle e chiarirle. La razionalità della ricerca non è, per S. Agostino, il suo organizzarsi a sistema, ma piuttosto la sua disciplina interiore, il rigore del procedimento che non si arresta di fronte al limite del mistero, ma fa di questo limite e dello stesso mistero un punto di riferimento e una base. L’entusiasmo religioso, lo slancio mistico verso la verità non agiscono in lui come forze contrarie alla ricerca ma rinvigoriscono la ricerca stessa, le danno un valore e un calore vitale. Di qui deriva l’enorme potenza di suggestione che la personalità di Agostino ha esercitato non solo sul pensiero cristiano e medievale, ma anche sul pensiero moderno e contemporaneo.

In questa ricerca rigorosa e puntuale Agostino affronta il tema del tempo, uno dei concetti fondanti e più importanti della fisica. Alcuni padri della chiesa, per esempio Origene, ritenevano che la creazione del mondo fosse eterna non potendo essa implicare un mutamento nella volontà divina. Il problema si presente anche ad Agostino. Lo spunto per la riflessione sull’universo, sulla sua origine, sul tempo, è suggerito proprio

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 9:!

dalla Bibbia nel libro del Genesi, che comincia raccontando la nascita dell’universo: «In principio, Dio creò il cielo e la terra». «Ma come creasti il cielo e la terra?», si chiede Agostino. In polemica con il manicheismo e con la filosofia classica, che sostenevano l'eternità della materia, egli risponde: «Non avevi fra mano un elemento da cui trarre cielo e terra: perché da dove lo avresti preso, se non fosse stato creato da te per creare altro? Esiste qualcosa, se non perché tu esisti? Dunque tu parlasti, e le cose furono create; con la tua parola le creasti». Sottolineando il termine "parola", Agostino vuole indicare che Dio ha prodotto l'universo dal nulla (ex nihilo), con un atto intelligente e libero: la parola, infatti, è frutto della ragione e della volontà. L'indicazione biblica «in principio» non ha, secondo Agostino, valore di connotazione temporale. Indica piuttosto lo strumento di cui il Creatore ha voluto servirsi per dare l'esistenza a cielo e terra. Ormai, la categoria "tempo" è chiamata in causa, e tale concetto diviene acuto come non lo era stato nell’antichità classica, ad eccezione di Lucrezio per il quale il tempo non è nulla in sé ed è solo un’impressione suscitata dal succedersi degli eventi. Ed ecco la domanda successiva: «Che cosa faceva Dio prima di creare cielo e terra?». In effetti, più che di una domanda si tratta di un'obiezione, proveniente dai sostenitori dell'eternità dell'universo, neoplatonici compresi. Essa metteva in questione un punto nevralgico della dottrina cristiana: il dogma dell'immutabilità di Dio; ammesso un "prima" e un "dopo" rispetto alla creazione, nel passaggio da un momento all'altro il Creatore avrebbe dovuto necessariamente cambiare. Il punto debole del ragionamento "vecchio", secondo Agostino, consisteva nel non aver ben compreso «come nasce ciò che nasce da Dio e in Dio», ossia il concetto di creazione. In realtà, Dio è l’autore non solo di ciò che esiste nel tempo, ma del tempo stesso. Prima della creazione non c’era tempo, non c’era dunque un prima e non ha senso domandarsi cosa mai facesse Dio prima della creazione. L’eternità è al di sopra di ogni tempo: in Dio nulla è passato e nulla è futuro, perché il suo essere è immutabile e l’immutabilità è un presente eterno in cui nulla trapassa.

Agostino, mettendo in ridicolo l’idea di un Dio che aspetta per un tempo infinito in attesa del momento opportuno per creare l’universo, afferma quindi che: il mondo e il tempo hanno entrambi un unico inizio e che il mondo fu creato non nel tempo, ma insieme al tempo. Sono riflessioni che anticipano i risultati della moderna cosmologia: cosa c’era prima del big bang? La risposta è che non c’era nessun prima in quanto il tempo (e lo spazio) ha avuto inizio con il big bang. Sono riflessioni tanto più che notevoli se si pensa alle idee sul tempo del tutto erronee che vigevano ai tempi in cui Agostino viveva. Stranamente, questa profonda interpretazione della creazione venne in seguito rifiutata dalla Chiesa, che solo con il IV Concilio Laterano (1215) dichiarò erronea l’idea aristotelica dell’eternità dell’universo e stabilì il dogma dell’inizio temporale dell’universo. È a questo punto che si affaccia la questione centrale: “Non ci fu dunque un tempo, durante il quale avresti fatto nulla, perché il tempo stesso l'hai fatto tu; e non vi è un tempo eterno con te, perché tu sei stabile, mentre un tempo che fosse stabile non sarebbe tempo…” Ma che cosa è il tempo? Certamente, la realtà del tempo non è nulla di permanente. Il passato è tale perché non è più, il futuro è tale perché non è ancora; e se il presente fosse sempre presente e non trapassasse continuamente nel passato, non sarebbe tempo, ma eternità.

L’ultima grande figura della patristica è il papa Gregorio Magno (ca. 540-604), che cercò di conservare, in un periodo di decadenza totale della cultura, le conquiste dei secoli passati. Il tempo in cui visse sembrava la distruzione della cultura e di ogni civiltà

:<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

e preannunziare la fine del mondo: “Le città sono spopolate, i villaggi travolti, le chiese bruciate, i monasteri di uomini e donne distrutti, i campi abbandonati dagli uomini sono privi di chi li coltivi, la terra è deserta nella solitudine e nessun proprietario la abita, le bestie hanno occupato i luoghi che prima erano affollati di uomini. Io non so quello che accade nella altre parti del mondo. Ma nella terra in cui viviamo, la fine del mondo non solo si annunzia, ma già si mostra in atto”. La desolazione di una civiltà infranta e crollata non si poteva descrivere meglio.

Gli accesi dibattiti e controversie circa il problema di Dio, del tempo, della salvazione e del peccato, costituiscono, comunque, una prova incontrovertibile della grande vivacità di pensiero della patristica. Il discutere animatamente un problema, sviscerandone le più recondite difficoltà, il non accontentarsi delle soluzioni già possedute, ma cercarne altre sempre nuove, originali e più sottili, sono altrettanti segni di effettivo interesse culturale, di serio impegno di studio. Però si ha il più completo silenzio di fronte ai problemi connessi con le scienze naturali. Ciò non proviene affatto dal possesso sicuro dei risultati di tali scienze, ma dall’indifferenza di fronte ad essi; indifferenza che porterà a dimenticare via via le stesse conquiste del passato in questo genere di studi. Nelle Confessioni, Agostino afferma di voler conoscere soltanto Dio e l’anima ed assolutamente nulla di più. Questo pensiero esprime un atteggiamento generale dei padri della chiesa, e spiegano la sterilità scientifica di un movimento di pensiero per latri lati vivacissimo e non certo privo di originalità e di gusto per le sottigliezze. Qualche padre si occupa di filosofia della natura per combattere l’empio atomismo; qualche altro per commentare il racconto biblico della creazione. Ma il processo naturale, in sé, non presenta per loro alcun interesse: cercare le cause fisiche di un fenomeno fisico significa limitarsi alle alle “cause seconde” di questo fenomeno, fermarsi cioè a metà strada nella sua spiegazione, e quindi compiere un lavoro inutile, potendosi subito salire alla “causa prima”. È stata la completa svalutazione delle “cause seconde” a rendere impossibile, nella patristica, una scienza della natura, a svuotare di interesse ogni discussione che uscisse dall’ambito teologico-filosofico.

3.3 Conclusioni

L’accusa nei confronti della ragione fu più comune tra i Padri della chiesa latini

che non tra i Padri della chiesa greci, sebbene non fosse ignota anche all’Est. Questo è da attribuirsi soprattutto alla differenza del clima intellettuale tra la parte orientale dell’impero e quella occidentale. Mentre, infatti, la parte occidentale produceva enciclopedie di livello sempre più basso, ognuna più lontana della precedente dalle fonti originali, l’oriente produsse opere di livello piuttosto elevato, anche se il clima di declino non risparmiò neanche il mondo greco, come testimoniato da Erone e Tolomeo.

Nei primi tre secoli dell’era cristiana, quando l’impero romano sembrava esser così forte, era già diffuso uno spirito completamente alieno dalla ricerca intellettuale, uno spirito di misticismo e di disperazione. La maniera per raggiungere la tranquillità d’animo non fu più considerata il vivere in armonia con la società, ma il vivere in maniera tale che la propria anima potesse trovare la felicità eterna nella vita ultraterrena. In questo clima il cristianesimo, che aveva contribuito a formarlo, dapprima è nettamente ostile al pensiero pagano in generale, ed ha avuto la sua parte di

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :;!

responsabilità nella distruzione di testi e di istituti culturali, e solo in un secondo momento, dapprima in Oriente e successivamente in Occidente, si volge alla cultura scientifica e filosofica pagana forse non con maggior comprensione, ma certo con molto più rispetto. Però questo pensiero pagano viene rivalutato solo tecnicamente, nel senso che esso può fornire al teologo cristiano il linguaggio e le tecniche di esposizione del credo, e al cittadino cristiano dell’impero quelle conoscenze che lo rendano tecnicamente idoneo a occupare posti nella gerarchia amministrativa, nella scuola, eccetera. Condizioni necessarie affinchè il cristianesimo potesse aspirare a quel monopolio della religione e dell’istruzione e a quel prestigio sociale e politico cui da Costantino in poi punterà decisamente.

Per questo, da un dato momento in poi, soprattutto a partire dall’epoca delle invasioni barbariche, la chiesa muterà il suo primitivo atteggiamento nei riguardi del pensiero antico al punto di farsene gelosa custode, depositaria e interprete. Sì che da Carlo Magno in poi, la cultura, diremmo oggi laica (scientifica, letteraria, filosofica), e quella sacra sarà esclusivo monopolio degli ecclesiastici.

:=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&()!

Bisogna rendere ogni cosa il più semplice possibile, ma non più semplice di ciò che sia possibile.

Einstein

!"#$-'!%-.%#

4.1 La profonda crisi della civiltà occidentale Fra il VI e l’VIII secolo, in diretta corrispondenza al graduale abbassarsi del livello economico delle popolazioni ed alle sanguinose lotte combattute, pressocchè ininterrottamente, in quelle che erano state le maggiori province dell’impero, si ebbe nel mondo occidentale una disastrosa contrazione dell’interesse per qualunque genere di studi. Quanto ai popoli invasori, non erano in grado di apportare alcun autentico incremento alla vecchia e decadente civiltà dei paesi occupati, dato che la loro cultura era ancora molto simile a quella dell’epoca neolitica. Nel corso del VII secolo si verifica poi uno dei maggiori eventi storici dell’epoca in esame, ossia il rapido affermarsi e diffondersi dell’impero islamico. Se è vero che dopo il Mille i contatti con l’islamismo rappresenteranno per il mondo latino-occidentale uno dei più efficaci stimoli di rinascita economica e culturale, grazie anche al recupero del grande patrimonio scientifico-filosofico dell’antichità classica, è fuori dubbio che in un primo tempo la folgorante avanzata degli arabi segnò un ulteriore impoverimento dell’Europa. Le conseguenze furono gravissime: le città che avevano tratto prosperità dal commercio marittimo caddero in rovina e si spopolarono; l’industria perse alcuni fra i suoi più efficaci stimoli; nell’economia come nella cultura prevalse la tendenza a rinchiudersi entro zone ristrette, isolate dal resto del mondo. Col crescere del caos politico ed economico, diminuì pure la richiesta di manufatti, il che provocò un rapido decadimento della tecnologia in quasi tutti i suoi rami. In questa generale decadenza la cultura non potè fare altro che rifugiarsi in pochi monasteri, che, resistendo all’assalto dell’imperante barbarie, limitarono i loro sforzi al compito di salvare, almeno materialmente, qualcosa degli antichi tesori del pensiero.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :4!

4.2 Il salvataggio dell’antica sapienza e la riscoperta del passato

Date importanti sono il 596 quando papa Gregorio Magno invia in Gran Bretagna l’abate Agostino con quaranta monaci e gli avvenimenti che ruotarono attorno all’abate assunsero un significato fondamentale nella storia culturale dell’Europa medievale e il 669, quando papa Vitaliano pensò che fosse opportuno inviare in Inghilterra uomini forniti di un’elevata preparazione dottrinale. La lingua e la dottrina della chiesa di Roma, centro della cristianità, erano coltivate sul suolo inglese più e meglio che altrove, e proprio lassù, ai margini dell’Europa, ci si preoccupava di mettere in salvo quello che rimaneva del patrimonio della cultura classica. Se fino al IV secolo i Padri della chiesa s’erano chiesti che cosa fare per mantenere viva la fede cristiana nel contesto della cultura pagana trionfante, dopo la caduta dell’Impero romano d’Occidente (476), nell’età dei regni romano-barbarici (secoli V-VIII), un altro problema s’imponeva agli uomini di cultura: quali erano le opere da salvare e come custodire i tesori dell’antica sapienza? Troppo spesso l’ingenuità aveva preso il posto dello spirito critico e la mitologia il posto della scienza. Fu veramente un’avventura uscire da questa prigione d’ignoranza, tracciare il pensiero all’indietro e, da alcuni incerti frammenti, ripristinare lo specchio che riflettesse lo splendore dell’antichità.

Bisanzio, anche se non aveva molto migliorato la propria eredità, almeno l’aveva conservata. Aristotele, Euclide e Tolomeo non furono dimenticati. Le loro opere ancora esistevano, se solo l’occidente avesse potuto imparare a leggerle. La distanza e la frattura teologica tra la chiesa cattolica d’occidente e quella orientale ortodossa impedirono un libero scambio culturale. L’ignoranza linguistica e la povertà di sviluppi intellettuali resero l’Europa del tempo di Carlo Magno, e anche di molto tempo dopo, completamente incapace di recuperare ciò di cui mancava e che desiderava profondamente. Comunque, per fortuna, cominciarono a sorgere e presto si moltiplicarono i soggetti che dovevano rendersi protagonisti di questo salvataggio.

Benedetto da Norcia (480-547), tra i vari principi dettati nella sua Regola, pilastro del monachesimo occidentale, è inserito il lavoro nello scriptorium, dove pazientemente si trascrivevano i codici. E’ vero che i monaci, di regola, trascrivevano i libri in funzione della lectio divina (Bibbia, testi dei Padri della Chiesa, scritti agiografici e ascetici, decreti conciliari), ma escludere dalle biblioteche dei monasteri i classici della filosofia, della letteratura e delle scienze matematiche e fisiche sembrava eccessivo. Infatti, Aldelmo di Malmesbury (c. 639-709), vescovo di Sherborne, enumera in una lettera tra le materie da lui studiate l’aritmetica e l’astronomia.

Ultimi tesorieri delle bellezze di un mondo agonizzante furono alcuni scriptores vissuti nei regni romano-barbarici, ma con la mente e il cuore rivolti alla cultura antica. Il primo posto spetta a Boezio (476–525), che è il testimone più riconoscibile e autorevole della sapienza greca e latina negli anni immediatamente seguenti il crollo dell’Impero Romano d’Occidente. Boezio redasse, sulla base di Aristotele, Euclide ad altre fonti classiche, manuali di logica, astronomia e matematica destinati ad essere usati a lungo. Ma Boezio riprende ed approfondisce anche temi già affrontati da Agostino. Se il tempo appartiene all’universo fisico e obbedisce alle leggi della fisica, ne consegue che il tempo è compreso in quell’universo che Dio dovrebbe avere creato. Ma ha senso dire che Dio è causa del tempo quando la causa precede sempre l’effetto? La causalità è calata nel tempo: il tempo deve esistere prima che una cosa causi un’altra cosa. Se il

:5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

tempo non esiste, concepire un Dio che esiste prima dell’universo è assurdo, dato che non esiste né un prima né un dopo. Pertanto, secondo Boezio, Dio esiste al di fuori dello spazio e del tempo: esiste per così dire sopra la natura, e non prima di essa.

Nel VII secolo, Isidoro di Siviglia (ca. 560–636) creò con le sue Etimologie, un’enciclopedia di venti libri, un modello di molti compendi medievali di scienza, quasi fosse il distillato dell’antica sapienza, e la cultura occidentale deve considerarsi in debito verso il vescovo di Siviglia per la conservazione e la trasmissione del sapere antico. La stessa natura hanno gli scritti di Beda il Venerabile (674-735), che ha fornito al cattolicesimo inglese lo stesso armamentario intellettuale che Isidoro aveva fornito a quello spagnolo. Dal punto di vista filosofico Beda si ispira a S. Agostino, ed in particolare ritiene che la materia del mondo contenga i semi di tutte le cose e che da essi, come da cause primordiali, si sviluppino nel corso del tempo tutti gli esseri del mondo. Beda è un altro anello della catena attraverso la quale la cultura antica si trasmette al Medioevo.

I più importanti commenti su Aristotele furono scritti nel VI sec d.C. da Simplicio (ca. 490–ca. 560) e da Giovanni Filopono (490–570). Il commento di Simplicio fu letto moltissimo nell’Europa del XIII e XIV sec, e le sue opinioni su ciò che intendesse Aristotele furono spesso accolte come assolutamente autorevoli. Egli produsse anche una dettagliata trattazione del sistema astronomico a sfere concentriche e registrò lo sviluppo storico di vari aspetti della scienza aristotelica. Filopono, autore del primo abbozzo di uno dei concetti centrali della scienza moderna, fu più originale e meno incline di Simplicio a seguire Aristotele. Le sue opere furono meno conosciute, ma le sue idee sul movimento ebbero una profonda influenza sulla fisica del tardo Medio Evo.

Se il moto è intrattenuto dal mezzo, come può un corpo ruotare su se stesso, dal momento che non si muove attraverso un mezzo? E come possono più sfere dotate di moto di rivoluzione avere un movimento ora più rapido, ora più lento? Con questi argomenti Filopono respinse le idee di Aristotele sul vuoto e sul movimento, soprattutto la spiegazione del moto violento. Egli negò che il mezzo fosse responsabile della continuazione del movimento dopo l’impulso iniziale. Al contrario, egli credeva che il motore imprima al proiettile una certa forza o potenza di movimento, differente secondo la maggiore o minor velocità. La forza di movimento, chiamata impeto, va via via esaurendosi nel moto, talché, cessa il moto. Inoltre, sempre contro Aristotele, e invocando l’esperienza, Filopono nega anche che i corpi di maggior peso cadano più rapidamente di quelli più leggeri. Filopono criticò anche l’accento posto da Aristotele sulla necessità di un mezzo perché vi sia movimento e sostenne che il movimento è possibile anche nel vuoto.

Filopono può essere considerato il più grande meccanico tra Archimede e Buridano, e le sue idee erano talmente originali per l’epoca in cui visse e anticipatrici della meccanica seicentesca, che è stato considerato, con una certa esagerazione, un precursore di Galileo.

4.3 La scienza araba

La prima possibilità di rifornire gli sprovvisti scaffali delle librerie dei monasteri fu offerta dall’Islam, portatrice di uno spirito nuovo e ponendosi come intermediaria fra

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :6!

la cultura classica e il mondo moderno. E’ vero che nel 641 gli arabi del califfo Omar incendiarono la grande biblioteca di Alessandria, ma questo atteggiamento di ostilità alla cultura non durò a lungo; a mano a mano che i musulmani venivano a contatto con paesi di grande e antica civiltà, come Bisanzio, la Persia e l’Egitto, la loro civiltà cresceva. Feconda fu soprattutto la conquista della Persia, dove si erano incontrati ed avevano convissuto gli ultimi filosofi delle scuole pagane cacciati da Giustiniano, cristiani di correnti eterodosse, rappresentanti della vecchia sapienza asiatica, persiana e indiana.

Intellettualmente, l’Islam, come l’Europa, cercava la propria eredità in Grecia, il cui ricco patrimonio fu rielaborato in centri di ricerca sorti a Baghdad, Samarcanda, Cordova, per cui sorge un grande fervore per gli studi e tutti i libri di cui riescono a venire in possesso vengono letti e studiati avidamente, commentati, posti a confronto, tradotti in arabo, lingua che diviene, in tal modo, insieme al greco bizantino, una delle lingue dotte del Mediterraneo nel medioevo e maggior veicolo di scienza. Così dalla Persia alla Spagna si viene a formare e diffondere una nuova grande cultura, composita nelle sue origini, vivacissima di polemiche e di contrasti, ma nel complesso unitaria, destinata a divenire soffio vivificatore della morente civiltà europea. Il ceppo è ancora quello greco o greco-alessandrino e i grandi pilastri che reggono questa cultura sono Aristotele, Euclide, Tolomeo, che vengono letti e rielaborati. Così nella scienza araba finiva il pensiero scientifico antico e si preannunziava quello moderno.

La principale ragione del perché la scienza ebbe questa particolare fioritura nel

mondo arabo, va ricercata nel sostegno che le fu dato dai califfi. Il califfo al-Mamun (786-833) inviò a Bisanzio una missione per ottenere manoscritti originali e fondò una Casa della Scienza, un’istituzione che era dotata di un osservatorio astronomico. Anche al Cairo vi era un’accademia simile, fondata nel 966, sostenuta dall’astronomo e califfo Hakim, e dove nel suo osservatorio lavoravano alcuni dei più famosi astronomi e fisici dell’impero islamico. Il califfo di Cordova, al-Hakam, fu uno dei maggiori uomini di cultura del medioevo, e si racconta che la sua biblioteca contenesse quasi mezzo milione di volumi.

L’origine greca della scienza islamica spinge naturalmente i fisici arabi ad avviare la ricerca verso la meccanica e l’ottica, anche se i progressi veramente importanti saranno ottenuti soltanto nell’ottica. Nella meccanica generale gli arabi seguirono Aristotele, senza apportarvi variazioni di rilievo. Privi di idee teoriche nuove, i loro risultati si esaurirono nella costruzione di congegni meccanici. Nel X secolo si può registrare qualche contributo alla statica dei fluidi.

L’astronomo al-Nairizi (m. 922) scrisse un trattato sui fenomeni atmosferici; al-Razi (m. 923) introdusse l’uso della bilancia idrostatica per la determinazione dei pesi specifici; al-Biruni (973-1048), matematico e astronomo, determinò con notevole accuratezza il peso specifico di diciotto corpi e a lui si deve la spiegazione dei pozzi artesiani attraverso l’uso del principio dei vasi comunicanti. Al-Khazini (nato tra il 1115 e il 1121) scrisse un notevole trattato di fisica medievale, che contiene tavole di pesi specifici di solidi e liquidi, esperienze sulla gravità dell’aria, osservazioni di capillarità, l’uso di aerometri per la misura della densità dei liquidi.

Contemporaneo di al-Biruni fu il più grande scienziato arabo, Avicenna (980-1037). Nelle teorie fisiche in generale segue Aristotele, dal quale però si discosta in

:7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

qualche punto fondamentale, come nella teoria dei moti violenti. Con diversi argomenti egli rigetta la teoria aristotelica del moto intrattenuto dal mezzo, e, secondo Avicenna, il proicente imprime al mobile una forza, allo stesso modo come il fuoco imprime all’acqua il calore, e durante il moto la forza va gradualmente scemando sino ad annullarsi e così cessa il moto. Ma, mentre Filopono ammette la possibilità del vuoto, Avicenna, seguendo Aristotele, la nega, adducendo la ragione che, in assenza dell’ostacolo del mezzo, il moto nel vuoto persisterebbe indefinitamente, e la forza impressa dal motore al mobile non varierebbe e non si annullerebbe mai. Per parecchi secoli ancora il principio d’inerzia apparirà un assurdo. In ottica Avicenna, contro Euclide, spiega la visione sostenendo che il raggio luminoso va dall’oggetto all’occhio, e se la luce è dovuta all’emissione di particelle da parte della sorgente, diremmo oggi che ha una natura corpuscolare, la sua velocità può essere finita.

Il periodo più fulgido della fisica araba coincide con l’opera dell’egiziano Alhazen (ca. 965-1039), il più grande fisico dell’impero musulmano, e senza esagerare, di tutto il medioevo. Nel campo dell’ottica le sue teorie restano sostanzialmente quelle greche, esposte magistralmente nel Tesoro di ottica, capolavoro di letteratura scientifica, ma ricevono notevoli arricchimenti nel campo sperimentale; per esempio viene provata per via sperimentale, contro Tolomeo, che il rapporto tra angolo di incidenza e angolo di rifrazione non è costante, sebbene poi non si arriva a formulare correttamente la legge della rifrazione. Alhazen combatte la teoria di Platone, ripetuta da Euclide, secondo cui la visione sarebbe dovuta a raggi che partendo dagli occhi vanno agli oggetti, sostenendo, invece, con Democrito e Aristotele, che al contrario sono i raggi che partendo dagli oggetti arrivano all’occhio: “La visione avviene per raggi emessi dalla cosa vista all’occhio”.

A differenza di Euclide, per il quale la visione era un fenomeno globale, Alhazen polverizza questo processo globale in un’infinità di processi elementari con un’intuizione geniale: postula che a ogni punto dell’oggetto osservato corrisponda un punto impressionato nell’occhio. Ma per spiegare che non esistono direzioni privilegiate per vedere un oggetto, bisogna ammettere che da ogni punto partano infiniti raggi, e infiniti imboccano la pupilla. E, allora, come può a un punto dell’oggetto corrispondere un solo punto impressionato? Alhazen supera la difficoltà stabilendo che di tutti i raggi che penetrano nell’occhio, efficace è soltanto quello perpendicolare a tutte le tuniche oculari, da lui ritenute concentriche. Perciò impressiona la superficie anteriore del cristallino, sede, secondo Alhazen, della sensazione, il raggio che, partendo da ogni punto dell’oggetto osservato, passa per il centro geometrico dell’occhio. A questo punto si viene a stabilire un’esatta corrispondenza tra i punti dell’oggetto e i punti impressionati sulla faccia anteriore del cristallino e può enunciare: “La visione avviene per mezzo d’una piramide il cui vertice è nell’occhio e la base nella cosa vista ”. Non è ancora la spiegazione giusta ma rappresenta un enorme progresso rispetto a quella di Euclide.

Alhazen, per interpretare i fenomeni di riflessione e di rifrazione, istituisce un parallelo tra il moto dei proiettili e il moto della luce: come un corpo sferico, lanciato contro una superficie piana, si riflette ad angoli uguali, così la luce, dotata di moto velocissimo ma finito, si riflette ad angoli uguali quando incontra uno specchio. Anche

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :8!

per la rifrazione egli ricorre a modelli meccanici: se si lancia una palla di ferro contro tavolette sottili, in modo da perforarle, si vede la traiettoria della palla, dopo la perforazione, avvicinata alla normale.

L’originalità araba si scopre soprattutto nelle matematiche, dove hanno recato i maggiori contributi, in parte come approfondimento critico delle nozioni, ma principalmente come arricchimento dei contenuti e dei metodi. Basti pensare alla critica del quinto postulato di Euclide che doveva poi portare alla nascita delle geometrie non euclidee nel XIX secolo e che sono alla base della descrizione dello spaziotempo dell’universo einsteniano. Tra i numerosi trattatisti arabi di aritmetica e algebra un posto eminente è ricoperto dal persiano al-Khuwarizmi (morto nell’850), il cui Libro di algebra, tradotto in latino nel secolo XII, restò un testo fondamentale per la rinascita della matematica. Collegate alla matematica, oltre che fra loro, furono l’ottica e l’astronomia, nelle quali per molti secoli i maestri più famosi furono gli arabi. Ricercarono e tradussero l’Almagesto di Tolomeo, accettandone nel complesso le dottrine fondamentali ma arricchendone la parte osservativa. Gli astronomi tolemaici più celebri furono al-Battani, Abu ‘l-Wefa e Nasir ed-Din.

La scienza araba fu un complesso cosmopolita poiché non tutti coloro che contribuirono al suo sorgere erano musulmani: Avicenna era persiano; Averroè (1126-1198), il più grande filosofo islamico, era nato in Spagna, e secondo il quale non esiste una verità religiosa accanto ad una verità filosofica. La verità è una sola: il filosofo la cerca attraverso la dimostrazione necessaria, il credente la riceve dalla tradizione religiosa, ma non c’è contrasto tra le due vie, né dualismo nella verità. Il suo discepolo Maimonide (1135-1204) era ebreo, e sulle orme del suo maestro cerca di affermare la libertà del pensiero scientifico, ma si sforza anche di conciliare i sacri testi con Arsistotele (ad esempio: Dio creò dal nulla non solo la forma, ma anche la materia); ebreo era anche Mashallaha (morto intorno all’820), uno dei primi astronomi arabi; cristiano fu Yaqub Ishaq (800–873) che tradusse diversi libri di astronomia e di matematica. Ogni regione e nazione dell’Islam portò il suo contributo allo sviluppo della scienza e, in ultima istanza, alla vita intellettuale dell’Europa.

Così l’Europa cristiana dovette gradualmente riconoscere la superiorità dell’Islam nella filosofia, nella scienza e nella tecnologia. I cristiani divennero desiderosi di imparare dai musulmani ed ebrei soltanto quando diventarono indiscutibilmente i dominatori. Non fu prima del X e dell’XI secolo che la cristianità latina cominciò a rendersi conto che essa divideva una comune eredità intellettuale con il mondo islamico; e non prima del XII secolo furono fatti i primi tentativi di rendere disponibile questa eredità in lingua latina ed introdurre la scienza araba in occidente per opera di entusiasti traduttori come Abelardo di Bath (prima metà XI sec.) che tradusse gli Elementi di Euclide da una versione araba, ed alcuni altri lavori di matematici arabi, come le Tavole astronomiche di al-Khuwarizmi. Il più famoso di tutti i traduttori dall’arabo fu Gerardo di Cremona (morto nel 1187), che tra le moltissime opere tradotte ricordiamo vari scritti fisici aristotelici o pseudo-aristotelici (la Meteorologia, la Fisica, il De Coelo). Altri traduttori faranno conoscere altri tesori della scienza greca od araba, sì che il patrimonio di conoscenze scientifiche del medioevo verrà, nel giro di pochi decenni, a subire un vertiginoso aumento. La scienza che l’Europa assorbì rapidamente

:9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

nei secoli XII e XIII non era la scienza dell’antichità, ma quella araba, con i pregi ed i difetti che quattro secoli di pensiero islamico avevano innestato sul tronco greco. L’Europa fu capace di offrire nel giro di tre secoli (1050–1350) i tre centri, nel mondo, più intellettualmente stimolanti: Bologna, Oxford, Parigi. Fu un fantastico risultato culturale, più grande ancora di quello dell’Islam. Tuttavia, nonostante tutto questo, l’Europa medievale era ancora assai lontana dalla Grecia.

4.4 Il pensiero scolastico

Tenendo presente la crisi a cui era pervenuto il mondo latino-occidentale tra il VI e VIII secolo, bisogna riconoscere che l’assestarsi dell’ordine feudale nell’impero di Carlo Magno, con tutti i suoi limiti e difetti di struttura, rappresentò senza dubbio un fattore positivo. La metallurgia mostrò una certa ripresa, si svilupparono tecniche per la lavorazione del cuoio, venne potenziata l’edilizia, si diffuse l’utilizzazione dei mulini idraulici, ecc. E’ un lento risveglio delle più varie attività, indubbiamente circoscritte e mal coordinate fra loro, non ancora in grado di generare effettivi centri di potere, ma pur sempre capaci di far risorgere una certa fiducia nelle risorse dell’ingegno umano. È proprio questo nuovo clima generale ciò che caratterizza la cosiddetta “rinascita carolingia”, che malgrado i suoi limiti, non tardò a riflettersi favorevolmente anche nel campo degli studi. Infatti, il re dei Franchi, Carlo Magno, per contrastare il fenomeno dell’ignoranza dilagante, soprattutto tra i suoi funzionari, nel capitolare del 789 dispose che tutti i vescovadi, tutti i monasteri aprissero una scuola, dove i ragazzi di qualsiasi condizione potessero imparare, tra l’altro, il canto, l’astronomia, la grammatica, inclusa la letteratura. Fin dal 781 aveva dato l’esempio fondando la scuola palatina e affidandola ad Alcuino di York (735-804), uno straordinario maestro, organizzatore e trascinatore che seppe comunicare alla corte di Aquisgrana tutto l’entusiasmo racchiuso in queste sue parole: “Sorgerà in terra franca una nuova Atene più splendida dell’antica, poiché la nostra Atene, nobilitata dall’insegnamento di Cristo, supererà la sapienza dell’Accademia”.

L’intellettuale dell’età carolingia e del medioevo fu essenzialmente uomo delle istituzioni: della chiesa o della schola, tanto che verrà chiamato scholasticus. Siccome poi le scuole tra il IX e il XII secolo rimarranno come le aveva volute Carlo Magno, cioè monastiche ed episcopali, il sapere lì elaborato, o Scolastica, sarà vincolato all’autorità e alla tradizione.

L’origine e lo sviluppo della Scolastica si collegano strettamente alla funzione dell’insegnamento. Le forme fondamentali dell’insegnamento erano due, la lectio, che consisteva nel commento di un testo, e la disputatio, che consisteva nell’esame di un problema fatto con la considerazione di tutti gli argomenti che si possono addurre pro e contra. La connessione della Scolastica con la funzione dell’insegnamento fa parte della natura stessa della Scolastica. Ogni filosofia è determinata nella sua natura dal problema che costituisce il centro della sua ricerca; ed il problema della scolastica era quello di portare l’uomo alla comprensione della verità rivelata. Ora questo era un problema di scuola, cioè di educazione. La coincidenza tipica e totale del problema speculativo e del problema educativo giustifica pienamente il nome della filosofia medievale e ne spiega i tratti fondamentali.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ::!

In primo luogo la Scolastica non è, come la scienza greca, una ricerca autonoma che affermi la propria indipendenza critica di fronte ad ogni tradizione o autorità. La tradizione religiosa è, per essa, il fondamento e la norma della ricerca. La verità è stata rivelata all’uomo attraverso le Sacre Scritture e le definizioni dogmatiche che la Chiesa ha posto a fondamento della sua vita storica, per cui per l’uomo si tratta soltanto di accedere a questa verità e di comprenderla. In questo compito, naturalmente, l’uomo non può affidarsi alle sue sole forze, ma deve essere aiutato dalla tradizione religiosa, fornita dagli organi della chiesa, che è guida illuminatrice e garanzia contro l’errore, per cui l’orientamento intellettuale era per forza finalizzato verso la conoscenza religiosa. Nella Scolastica, dunque, l’autorità acquistò un peso tale da condizionare in misura determinante la ricerca. Le ragioni sono facilmente intuibili. Lo stesso Figlio di Dio, sapienza infinita, s’era fatto Parola, e quella Parola, che si identificava con la “verità tutt’intera”, era raccolta nelle Sacre Scritture. Ispirate dall’alto, esse erano affidate al magistero ecclesiastico perché le custodisse integre e le interpretasse autenticamente.

In secondo luogo lo scopo della Scolastica è quello di intendere la verità già data nelle rivelazione, non quella di trovare la verità. Perciò, come assume dalla tradizione religiosa la norma della ricerca, così assume dalla tradizione filosofica gli strumenti e il materiale della ricerca stessa. Essa vive sostanzialmente a spese della filosofia greca; prima la dottrina platonico-agostiniana, poi quella aristotelica le forniscono gli strumenti e il materiale della speculazione. La filosofia, come tale, è dunque per essa soltanto un mezzo, ancilla theologiae. Naturalmente, le dottrine e i concetti che vengono adoperati per questo scopo subiscono una trasformazione, non intenzionale, più o meno radicale del loro significato originario, e il più delle volte non ne ha neppure coscienza. Dottrine e concetti vengono tolti di peso dai complessi storici di cui fanno parte e considerati indipendenti dai problemi cui rispondono e dalla personalità autentica del filosofo che li ha elaborati.

In questa struttura formale del pensiero scolastico, e quindi di quello medievale, si riflette la stessa struttura sociale e politica del mondo medievale, che si afferma a partire dall’VIII secolo, quando, con la sparizione quasi completa degli scambi economici e culturali e la decadenza, o scomparsa, delle città, rimane in piedi un’economia rurale poverissima e chiusa. Questo è un mondo costituito come una gerarchia rigorosa sorretta da un’unica forza che dall’alto ne dirige e determina tutti gli aspetti. Il mondo è un ordine necessario e perfetto nel quale ogni cosa ha il suo posto e la sua funzione ed è mantenuta in questo posto e in questa funzione dalla forza infallibile che determina e guida il mondo dall’alto. Tutto ciò che l’uomo può e deve fare è conformarsi a quest’ordine. Le istituzioni fondamentali del mondo medievale, l’Impero, la Chiesa, il Feudalesimo, si presentano come i guardiani dell’ordine cosmico e gli strumenti della forza che lo regge. In un mondo siffatto, la ricerca scientifica, e filosofica in generale, non può desumere i suoi principi e la sua disciplina che dalle stesse gerarchie e leggi in cui si concreta l’ordine universale. In più, la scienza era guardata con sospetto, non soltanto perché attinta da fonti religiosamente sospette (musulmane e pagane), non soltanto per i pericoli di eresia che sembrava implicare a ogni passo, ma soprattutto perché minacciava di operare come elemento eminentemente dinamico, e quindi disturbatore dell’ordine costituito.

Ora, una gerarchia culturale così rigida e totalizzante comportava tre ordini di conseguenze:

;<<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

1) la risposta dell’uomo doveva essere improntata sul piano pratico all’obbedienza, sul piano teoretico alla fede (filosofia ancilla theologiae, serva della teologia);

2) la schola formerà insegnanti che dovranno trasmettere il più fedelmente possibile un sapere costruito una volta per tutte;

3) il tema del rapporto tra ragione e fede conserverà quella centralità che aveva occupato fin dal sorgere della patristica, passando dalla tesi della perfetta armonia, anzi dell’identità fra ragione e fede (prima scolastica secoli IX-XII), alle grandi sintesi fondate sulla distinzione fra ragione e fede, ma insieme sul loro reciproco accordo (aurea Scolastica secolo XIII), fino al divorzio della ragione dalla fede (crisi della Scolastica XIV secolo).

La massima figura del rinascimento carolingio fu Giovanni Scoto Eriugena (ca. 810-877), audace pensatore che si ricollega alla tradizione neoplatonica, e che è considerato il primo dei grandi scolastici. Per le sue ardite argomentazioni filosofiche entrò in conflitto con le autorità religiose. Per comprendere la questione dobbiamo tener presente che a quel tempo non c’erano ancora netti confini fra certe ammissioni teologiche e le corrispondenti ricerche filosofiche. La conseguenza fu che Scoto ritenne possibile sostenere la tesi, inammissibile per la chiesa anche ai nostri giorni, che ragione e rivelazione sono insieme fonti di verità, e come tali è impossibile che si trovino in conflitto; ove si manifestasse una apparente divergenza, ci si dovrebbe attenere alla ragione: “Noi dobbiamo seguire la ragione che cerca la verità e non è oppressa da alcuna autorità e in alcun modo impedisce che sia pubblicamente diffuso ed esposto ciò che i filosofi assiduamente cercano e laboriosamente giungono a trovare”. L’autorità delle Sacre Scritture è indubbiamente indispensabile all’uomo perché esse sole possono condurlo ai recessi segreti in cui abita la verità, ma il peso dell’autorità non deve in nessun modo distoglierlo da ciò di cui lo persuade la retta ragione. La dignità maggiore e priorità di natura spettano alla ragione, non all’autorità. La ragione è nata all’inizio dei tempi insieme alla natura, l’autorità è nata dopo. L’autorità deve essere approvata dalla ragione, la ragione non ha bisogno di essere appoggiata o corroborata da alcuna autorità. Questa decisa affermazione della libertà di ricerca, che fa di Scoto un superstite antesignano dello spirito filosofico dei Greci, non implica in lui nessuna limitazione o negazione della religione, giacché essa non si identifica con l’autorità, ma con la ricerca. Giovanni è, con questa visione, vicinissimo allo spirito della ricerca agostiniana, per il quale la fede è un punto d’arrivo più che un punto di partenza, è al termine della lunga e laboriosa via della ricerca, anziché all’inizio ed è piuttosto la direzione e la guida della ricerca anziché un limite o un impedimento.

Il suo capolavoro, il De divisone naturae, è il primo grande scritto speculativo del Medioevo, dove già si evidenzia e si manifesta il carattere della ricerca scolastica: il metodo aprioristico o deduttivo. Quel poco che nella sua opera può essere considerato scientifico è interessante. Anzitutto rifiuta l’idea aristotelica di una quinta essenza costitutiva dei corpi celesti, e si avvicina alla concezione degli antichi ammettendo che l’universo sia costituito dagli stessi elementi che vediamo sulla Terra (terra, acqua, fuoco, aria), e pertanto non è accettabile la divisione aristotelica fra mondo celeste e mondo sublunare. Cosa più notevole per il suo tempo, anche il suo sistema del mondo non è aristotelico, ma si avvicina, anzi sviluppa, il sistema eliocentrico di Eraclide Pontico. A differenza dell’antico pitagorico, egli suppone che, non solo Venere e Mercurio, ma anche Marte e Giove ruotino intorno al Sole. La sua convinzione dipende da una preferenza soggettiva, e non è legata a ragioni o a prove sperimentali; tuttavia è

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<;!

interessante notare che questo pensatore eterodosso, più volte censurato come eretico, poteva trasmettere a lontani posteri una luce di sapienza custodita faticosamente in un’epoca oscura.

La seconda metà del secolo XI ed il secolo XII sono in Occidente un periodo di fioritura intellettuale, ed un risveglio, seppur timido e impacciato, della cultura scientifica. La cultura cessa di essere il patrimonio delle abazie e l’insegnamento tende a organizzarsi nella forma che prenderà nel secolo XIII con le Università. Tutto ciò è dovuto alla rivoluzione agraria e alla rinascita delle città. Divenute centri di vita autonoma rispetto alla campagna, esse si svilupparono rapidamente come spazi di libertà, e di iniziativa che doveva portare frutti in ogni settore, da quello scientifico e culturale in generale, a quello sociale ed economico, distruggendo, così, il carattere esclusivamente feudale del precedente assetto economico-politico-culturale e portare nuove classi sociali alla ribalta della storia. Le schole furono affiancate da nuovi centri culturali, appunto le università. Nelle università gli insegnanti furono liberi di tener lezioni profonde quanto volessero nelle loro varie discipline, per cui l’università medievale fu un luogo di grande, seppur mai completa, libertà e sotto forma di ipotesi da proporre o di obiezioni plausibili, lo studioso medievale fu libero di discutere, sebbene non di proclamare come vere, quasi ogni concezione immaginabile sull’universo fisico.

La filosofia naturale toccava argomenti come la formazione, l’età e la durata dell’universo, entro il quale doveva trovar posto il paradiso e l’inferno, o la relazione delle stelle con la libertà del volere umano. Se non fosse stato guidato, il filosofo della natura avrebbe potuto seguire linee tematiche perniciose per la fede cristiana. Certamente non gli sarebbe stato permesso di affermare, con Aristotele, che l’universo è non creato o, con gli atomisti greci, che è il prodotto di fortuiti aggregati di atomi, per cui lo scienziato medievale deve seguire la fede anche quando va in direzione opposta a quella della ragione. Lo scienziato medievale ammetteva che alcune verità religiose erano e dovevano restare incomprensibili razionalmente, come i miracoli. In un certo senso, allora, egli adottò un doppio metro di valutazione: nei problemi verso i quali l’autorità cristiana era indifferente, tra cui venivano comprese la maggior parte delle questioni scientifiche, egli seguiva i dettami della ricerca razionale; sui problemi in cui solo il cristiano poteva avere una precisa posizione, il filosofo medievale accettava quella posizione con la forza di argomentazioni unite alla fede.

Questo periodo rappresenta la prima vera età della Scolastica che giunge alla consapevolezza del suo problema fondamentale: intendere e giustificare le credenze della fede. Alcuni credono di trovare la soluzione del problema affidandosi alla ragione e alla scienza che sembra più propria di essa, la dialettica; altri diffidano della dialettica e si appellano all’autorità dei padri della chiesa, limitando il compito della ricerca filosofica alla difesa delle dottrine rivelate. Di qui la polemica tra dialettici e teologi (antidialettici), che occupa l’XI secolo. In realtà anche i più ostili alla dialettica, anche gli assertori più rigorosi della superiorità della fede, non tralasciano la ricerca, propriamente scolastica, della via migliore per condurre l’uomo all’intelligenza dellaverità rivelata.

Fra i dialettici spicca la figura di Berengario di Tours (998-1088), che pone la ragione al di sopra dell’autorità ed esalta la dialettica al di sopra di tutte le scienze. Fondandosi su S. Agostino, considera la dialettica l’arte delle arti, la scienza delle

;<=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

scienze. Ricorrere alla dialettica significa ricorrere alla ragione; e chi non ricorre alla ragione, per la quale l’uomo è immagine di Dio, abbandona la sua dignità e non rinnova in sé di giorno in giorno l’immagine divina.

Contro i dialettici polemizza Pier Damiani (1008-1072), nel quale troviamo la totale assenza di speculazione sulla natura, riassunta nel detto “scientia inflat”, la scienza gonfia di orgoglio diabolico. Mentre la contemplazione di Dio, mettendo l’anima a contatto diretto con la verità, rende vana la scienza. Anzi, in senso nettamente antiscientifico, sostiene che Dio non è soltanto superiore alle leggi della natura, ma altresì a quelle della logica, che egli giudicava perniciosa e pericolosa.

Grande speculativo, tale da rappresentare la prima grande affermazione della ricerca nel Medioevo, fu invece Sant’Anselmo d’Aosta (1033-1109), che amava affidarsi alla ragione per sviluppare il discorso argomentativo. Non che intendesse distogliere l’attenzione da Dio, ma era convinto che l’uomo avesse a disposizione due distinte fonti di conoscenza, la ragione e la fede: “Né cerco di capire per credere, ma credo per comprendere. E anche questo credo: che se prima non crederò, non potrò capire”. La fede è il punto di partenza della ricerca filosofica. Non si può intendere nulla se non si ha fede; ma la fede sola non basta, occorre confermarla e dimostrarla, e questa conferma è possibile attraverso la ragione. Certo, se un contrasto apparisse tra fede e ragione,non bisognerebbe ammettere la verità del ragionamento, anche se questo sembrasse imbattibile. Ma Anselmo è intimamente sicuro che non può esserci un vero contrasto perché l’intelletto è illuminato dalla luce divina. È, in un certo senso, il punto di vista che oggi si potrebbe dire dell’idealismo assoluto, e che è, molto spesso l’opposto di quello seguito dall’uomo di scienza. Ma pensieri come questi fanno parte della storia della scienza in quanto esprimono in modo quasi perfetto il punto di vista contrario, prevalente durante tutto il medioevo.

Intorno alla creazione sono interessanti le idee di Anselmo, che da un lato si rifà alla creazione dal nulla di Agostino che richiama l’idea del big bang come origine dell’universo, dall’altro introduce l’idea della creazione continua che richiama alla mente la teoria dello stato stazionario (creazione continua di materia) degli anni cinquanta del XX secolo, teoria poi abbandonata perché in contrasto con evidenze sperimentali.

Poiché Dio è l’essere e le cose sono solo per partecipazione all’essere, ogni cosa deriva il suo essere da Dio. Tale derivazione è una creazione dal nulla. E difatti, le cose create non possono derivare da una materia. Questa a sua volta dovrebbe derivare da sé, il che è impossibile, o dalla natura divina. In questo caso, la natura divina sarebbe la materia delle cose mutevoli e soggiacerebbe alla mutevolezza di esse. Essa, che è il Sommo Bene, andrebbe in esse soggetta a mutevolezza e a corruzione; ma il Bene Sommo non può cessare di essere tale. La materia delle cose create non può essere né da sé né da Dio; non c’è dunque una materia delle cose create. Non resta allora che ammettere che esse sono create dal nulla. Contro l’interpretazione (che si trova in Eurigena) che il nulla da cui le cose derivano sia alcunchè di positivo, per esempio una causa materiale o una realtà potenziale, Anselmo ha cura di aggiungere che esso non è né una materia né altra cosa reale; e che l’espressione “creazione dal nulla” significa soltanto che il mondo prima non c’era ed ora c’è, in sostanza indica il salto dal nulla a qualche cosa. Il mondo è stato, tuttavia, razionalmente prodotto e niente può essere prodotto in tal modo senza supporre nella ragione di chi produce un esemplare della

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<4!

cosa da prodursi, cioè una forma, similitudine o regola di essa. Deve cioè esserci, nella mente divina, il modello o l’idea della cosa prodotta, come nella mente dell’artefice umano c’è il concetto dell’opera da prodursi: con la differenza che l’artefice ha bisogno di una materia esterna per effettuare la sua opera e Dio no, e che il primo deve ricavare dalle cose esterne il concetto stesso dell’opera, mentre Dio crea da sé l’idea esemplare.

La creazione dal nulla è appunto questa articolazione interiore della parola divina. Senza l’attività creatrice di Dio, nulla è nulla dura; Dio non solo porta all’essere le cose, ma le conserva e le fa durare continuando la sua azione creatrice. La creazione è continua. Da ciò segue che Dio è e deve essere dappertutto; dove egli non è, nulla è e nulla sta in piedi. Questo non vuol dire, certo, che egli sia condizionato dallo spazio e dal tempo. In lui non c’è un alto né un basso, né un prima, né un dopo; ma Egli è tutto in tutte le cose esistenti e in ciascuna di esse e vive di una vita interminabile che è tutta insieme presente e perfetta.

Un altro problema in cui si esercitò la sottigliezza degli scolastici è la celebre questione degli universali, lascito della filosofia antica di Platone e Aristotele, che gli scolastici hanno il merito di isolarla e di trattarla con spregiudicatezza e profondità. Il problema è sostanzialmente questo: i concetti universali (concetti di genere o di specie) usati nella vita comune, e nella scienza, corrispondono ad una vera realtà (tesi realista), o sono semplici parole, finzioni logiche, mediante cui indichiamo particolari gruppi di oggetti (tesi nominalista)? La mentalità realistica che pone come primo l’universale e da questo deduce il particolare, si può definire nel campo logico come deduttiva; mentre la mentalità nominalistica è induttiva. Naturalmente, la distinzione non deve avere carattere assoluto, perché l’induzione e la deduzione non si contrappongono come modi di pensare esclusivi l’uno dell’altro, ma piuttosto come due momenti di un unico processo nell’acquisto della conoscenza.

Il problema degli universali, con la disputa che ne seguì, significa perciò che diventa un problema, in primo luogo, la validità della conoscenza razionale; e in secondo luogo la struttura della realtà che quella conoscenza ha per oggetto. La possibilità di risolvere in senso nominalistico il problema degli universali equivale alla possibilità di ammettere che la realtà non sia costituita da forme universali che riproducono le idee archetipe e divine ma da cose o entità particolari che sono accessibili all’uomo nella sua esperienza quotidiana. In questo caso la mera conoscenza sensibile deve essere anteposta a quella razionale, e ciò spiega la maggiore attenzione prestata al mondo dell’esperienza e alle cose naturali che lo costituiscono. Il fatto nuovo della disputa degli universali è perciò la presenza dell’alternativa nominalistica che si chiamò ben presto la via moderna della logica in contrasto con la via antica del realismo.

La via moderna trovò alimento a partire dal secolo XII nello scritto di ottica De Aspectibus dell’arabo Alhazen, nel quale formulando una teoria generale della visione si poneva come forma fondamentale della conoscenza l’intuizione (intuitio) della cosa presente e si riteneva che tutte le proposizioni universali siano ricavate da essa con processo di generalizzazione. Da questo punto di vista, che sarà ripreso soprattutto da Ockham e dai suoi seguaci, l’universale è un segno delle cose e sta in luogo (supponit pro) di esse. A questo indirizzo il realismo (la via antica) contrapponeva la posizione classica della tradizione per cui l’universale è, oltre che conceptus mentis, l’essenza necessaria o la sostanza delle cose e l’idea di Dio.

L’antagonismo tra realismo e nominalismo, tra la via antica e la via moderna, è pertanto un antagonismo di fondo che trascende la portata delle sottili, astratte e spesso

;<5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

noiose dispute, cui dette luogo. Del realismo si può fare uso teologico e cosmologico, del nominalismo no. Perciò le correnti della scolastica che si ispirarono al realismo furono quelle intese a difendere la teologia e la concezione teologica del mondo. Quelle che si ispirarono al nominalismo si schierarono, in generale, contro la teologia e assunsero posizione critica nei confronti della concezione teologica del mondo, spingendosi talora fino a innovazioni ardite che costituiscono l’annuncio o la preparazione di nuove concezioni della natura e dell’uomo. S’intende quindi perché, sul finire della scolastica, il nominalismo ebbe la prevalenza: i problemi della teologia, respinti nel dominio della fede, non interessavano più la filosofia, che si volgeva ad altri campi, in cui si potevano ritenere più adatti e più efficaci i poteri razionali dell’uomo.

La prima fase della disputa degli universali fu provocata dal nominalista Roscellino (1050-1120), il cui merito principale, dal punto di vista scientifico, fu quello di non lasciar confondere e perdere nella filosofia la scienza sperimentale. La tesi di Roscellino sembra essere ispirata direttamente dalla logica di Boezio, e porta che le sostanze universali sono puri nomi, flatus vocis: “il colore non è altro che il corpo colorato …”

Chi, nella propria persona, attraverso manifestazioni di una sorprendente libertà di pensiero, riuscì a riassumere tutti i fermenti del secolo XII fu il nominalista Pietro Abelardo (1079-1142). Il centro del pensiero di Abelardo è l’esigenza del valore umano della ricerca, la necessità di risolvere in motivi razionali ogni verità che sia o voglia essere tale per l’uomo, di affrontare con le armi della dialettica tutti i problemi per portarli sul piano di una comprensione umana effettiva. Già la sua passione per la logica assumeva il tono di una sfida: “Ogni scienza è di per sé buona, anche quella che riguarda il male, e che non può mancare all’uomo giusto”. La ragione è per l’uomo la sola guida possibile; e l’esercizio della ragione, che è proprio della filosofia, è l’attività più alta dell’uomo. Pertanto, se la fede non è un impegno cieco che può dirigersi anche a pregiudizi e a errori, dev’essere essa stessa sottoposta al vaglio della ragione. Qui è la vera molla della ricerca di Abelardo. Anche la verità rivelata non è verità, per l’uomo, se non fa appello alla sua razionalità, se non si lascia intendere e far propria da lui.

Il prevalere della ricerca nella speculazione di Abelardo conferisce naturalmente alla ragione la preminenza sull’autorità e, nel tempo in cui solitamente l’ultima parola era affidata alle autorità, Abelardo risultò un personaggio originale, pericolosamente originale, in relazione al rapporto fra ragione e fede. La formula con cui si riassume il suo pensiero in proposito, “comprendo per credere” (intelligo ut credam), lo colloca agli antipodi rispetto a sant’Agostino e a sant’Anselmo. Naturalmente, Abelardo non voleva affatto ridurre la fede a dimostrazione razionale, ma difendeva il diritto dell’uso della ragione nella formazione del consenso della fede: “Quando ti si vuol persuadere che devi credere qualcosa, bisogna sottoporre ad esame razionale se è necessario credere oppure no”. Sotto questo aspetto è notevole la sua opera Sic et non (1121-22), anche perché ad essa risale il costume scolastico dell’argomentare con il metodo della quaestio, enunciando dapprima gli argomenti pro e contro una certa soluzione di un problema, e passando poi alla scelta di un partito e alla confutazione di quello opposto. Qui possiamo scorgere la fonte del successivo probabilismo, assai diffuso nel XIII e XIV secolo, che si esercita nell’esame della probabilitas di opposte proposizioni, sulla base delle ragioni, logiche, sperimentali o di autorità, che le rendono più o meno inverosimili. È un atteggiamento favorevole alla ricerca, che avrà risultati stimolanti per

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<6!

il progresso delle idee scientifiche nel periodo della tarda scolastica (secolo XIV), spingendo all’esame di vedute eterodosse, come lo stesso atomismo, e suggerendo di confrontare certe spiegazioni di Aristotele, ad esempio nel campo della fisica, con altre eventualmente meno autorevoli. Così, anche se ancor lontani dal darci una scienza moderna, tuttavia il nominalismo e il probabilismo concorreranno ad un risveglio della curiosità e delle discussioni su problemi scientifici nel secolo XIV. Furono questi orientamenti generali che portarono Abelardo alla condanna da parte del concilio di Soissons nel 1121, e vent’anni dopo, da quello del concilio di Sens. Però, la linea indicata da Abelardo, nel lungo periodo, risulterà vincente, tanto da portare alla grande stagione del tomismo. Il soffio della prima rinascita agricola e artigianale, che anima una rinnovata curiosità verso la natura, insieme ai contatti con la cultura araba e le vedute di Aristotele, determinano un fatto nuovo nella storia della cultura medievale: il risorgere dell’interesse per le scienze particolari, così evidente nella scuola di Chartres, prima ancora che alla corte di Federico II. Nello sfondo stanno anche le nuove vedute nominalistiche, anche se gli chartriani sono prevalentemente platonici, inclini al realismo, tuttavia il concettualismo di Abelardo, e la sua dottrina dell’astrazione, non potevano essere dimenticati. Aristotele e altri naturalisti erano studiati più dello stesso Platone e il loro platonismo era nuovo, giacché metteva capo alla ricerca di particolari cause e ragioni fisiche, non meramente ideali, e talvolta giungeva addirittura fino a confondersi con vedute di naturalisti presocratici. Dunque il secolo XII ci offre, con la scuola di Chartes, l’esempio di un nuovo interesse per il mondo della natura, riconoscendo addirittura una certa autonomia della natura nei confronti del suo stesso creatore. I temi di filosofia naturale, dunque, che i filosofi di Chartres preferirono, si riconnettono col tentativo di Abelardo di inserire il Timeo platonico sul tronco della teologia cristiana. Abelardo aveva identificato la platonica Anima del mondo con lo Spirito Santo. A questa identificazione i maestri di Chartres identificarono pure l’Anima del mondo con la Natura stessa. Con ciò, la natura diventa la forza motrice, ordinatrice e vivificatrice del mondo; e in questa azione acquista una dignità ed una potenza autonoma. La natura è detta la forza universale (vigor universalis) che non solo fa essere ogni singola cosa ma la fa essere quella che in particolare essa è. Quindi, riconoscendo alla natura questa dignità e autonomia, si rende così possibile spiegare la natura con la natura; e i filosofi di Chartres, utilizzando le fonti classiche e patristiche, ricorrono spesso e volentieri a dottrine epicuree e stoiche per le loro spiegazioni cosmologiche. Naturalmente l’utilizzazione di dottrine così eterogenee dà luogo a costruzioni concettuali confuse e poco rigorose che hanno scrso valore scientifico. Ma l’importanza di questi tentativi non è nei loro risultati, bensì piuttosto nell’indirizzo filosofico che delineano: un indirizzo deciso a tenere sempre in maggiore considerazione la natura e l’uomo, anche se la natura e l’uomo vengono concepiti, non in opposizione al trascendente, ma come manifestazioni del trascendente medesimo. L’indirizzo che trova nella scuola di Chartres la sua più ricca espressione filosofica era stato preparato, sin dal secolo precedente, da una certa ripresa delle conoscenze scientifiche dovuta soprattutto ai contatti con gli Arabi.

Il primo importante rappresentante della scuola di Chartres è Bernardo (1100-1169) che, introducendo l’atomismo come feconda idea di progresso elaborata nell’illuminismo greco, cercava di indicare all’Europa ancora ossequiente, un’età d’oro dell’uomo. Secondo Bernardo, è vero che rispetto ai giganti di quell’epoca, noi siamo

;<7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

nani, ma se, facendo tesoro della loro scienza, saliamo sulle loro spalle, vedremo ciò che essi non videro.

Giovanni di Salisbury (ca. 1110-1180) attraverso le sue opere offre un quadro vivace della cultura del tempo: “Il senso corporeo, che è la prima forza e il primo esercizio dell’anima, getta i fondamenti di tutte le arti, e genera i primi principi delle scienze”. L’intera dottrina di Giovanni è animata da uno spirito autenticamente critico, il suo scopo è quello di stabilire chiaramente i limiti e i fondamenti delle possibilità conoscitive umane, e ritiene che la ricerca, il più delle volte, si debba accontentare del probabile: “… in tutte le cose che possono essere per il filosofo oggetto di dubbio, non giuro affatto che è vero ciò che dico: ma, vero o falso che sia, mi contento della sola probabilità”. In sintesi, Giovanni preferisce dubitare intorno alle cose singole, piuttosto che esprimersi con certezza su ciò che è ignoto o rimane nascosto. Questo prudente atteggiamento viene giustificato da Giovanni con la limitazione propria della scienza umana, alla quale si sottraggono le cose future: “So con certezza che la pietra o la saetta che lancio verso le nuvole dovrà ricadere a terra, perché così esige la sua natura; ma tuttavia non so se essa possa soltanto ricadere in terra e perché: potrebbe infatti sia ricadere, sia no. Anche l’altra alternativa è vera, sebbene non necessariamente, come è vera quella che so che si verificherà … Di ciò che non è ancora, non c’è scienza, ma soltanto opinione”. Da ciò deriva che tutte le affermazioni che implicitamente ed esplicitamente concernono il futuro hanno valore probabile, non necessario, la loro probabilità è fondata sulla indeterminazione del loro oggetto ed è perciò ineliminabile. Tuttavia la conoscenza umana non può rimanere chiusa nel cerchio del probabilismo, per cui le sue limitate certezze devono pur poggiare su qualche punto fermo, che, secondo Giovanni, è rappresentato dai sensi, oltre che dalla religione e dalla fede. In germe, egli è dunque uno dei primissimi rappresentanti dell’empirismo che predominerà nel pensiero scientifico, filosofico, e nella mentalità inglese.

Guglielmo di Conches (1080-1145), pur partendo da posizioni platoniche, giunge ad una concezione atomistica secondo cui i quattro elementi empedoclei sono formati da particelle invisibili e indivisibili, che possono essere affermate solo dalla mente. La ragione di queste vedute eterodosse, connesse anche alla scienza araba, sta nel fatto che per i maestri di Chartres non solo Dio è importante come ordinatore del mondo, a causa degli eventi che vi si producono, ma esistono anche delle cause seconde, puramente naturali. È necessario conoscere questa cause fisiche per intendere i fenomeni, ed anche per risalire al “primo fattore”. Da ciò l’esigenza di una analisi più approfondita e razionale dei fenomeni.

Il più notevole rappresentante della scuola di Chartres è Gilberto Porretano (1070-1154) che definisce la fede come la “percezione, accompagnata dall’assenso, della verità di una cosa” e ritiene che la fede preceda la ragione nel dominio teologico, ma la segua nel dominio filosofico. Le cose create non hanno necessità vera e propria, giacchè in esse tutto è mutevole, quindi anche ciò che comunemente si ritiene necessario. La necessità c’è solo nelle cose divine e qui la fede precede la ragione. In esse non crediamo in quanto sappiamo, ma sappiamo in quanto crediamo (non cognoscentes credimus sed credentes cognoscimus). La fede, prescindendo completamente dai principi della ragione, giunge a comprendere non solo ciò cui la ragione umana non può giungere, ma anche ciò cui essa può giungere con i propri principi. Quindi la fede è considerata l’esordio non solo delle conoscenze teologiche ma di tutte le altre; essa è priva di qualsiasi

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<8!

incertezza ed è il fondamento fermissimo e certo anche delle conoscenze naturali. In base a questo presupposto Gilberto sostiene la stretta unione tra la ragione e la fede in tutta la ricerca filosofica: “Unisci la fede e la ragione affinchè per prima cosa la fede conferisca autorità alla ragione e poi la ragione conferisca assenso alla fede”. Se da un lato Gilberto considera intimamente unite la fede e la ragione, dall’altro lato intende distinguere nettamente il dominio delle discipline singole e in primo luogo quello della teologia da quello della filosofia. Questa distinzione non deve essere fondata su una diversità di attività o di atteggiamenti spirituali, ma soltanto su una diversità di principi oggettivi. Ogni scienza deve partire da fondamenti propri, da principi che sono specifici della scienza e inerenti al suo oggetto. Gilberto si vanta di aver fatto per la teologia ciò che è stato fatto per le matematiche, cioè di aver determinato i concetti e i principi fondamentali della scienza teologica.

All’indirizzo seguito dalla scuola di Chartres si connette l’opera di Alano di Lilla (1125-1202), nella quale viene abbandonata la pretesa d’intendere le verità di fede nella loro necessità, di dimostrarle come se fossero verità di ragione, pretesa che appare, per esempio in S. Anselmo. Ciò che è oggetto di fede non può essere compreso e quindi non è oggetto di scienza. “Niente si può conoscere, che non si possa intendere, ma noi non apprendiamo Dio con l’intelletto, dunque non vi è scienza di Dio. Siamo bensì indotti dalla ragione a presumere che c’è Dio, ma non lo sappiamo con certezza, bensì lo crediamo soltanto. Questa è fede; una presunzione che nasce da ragioni certe, ma non sufficienti a costituire scienza. Come tale, la fede è al disopra dell’opinione, ma al disotto della scienza”. La distinzione tra la scienza e la fede si è qui fatta chiarissima. La fede deve conservare il suo merito di conoscenza certa ma non dimostrativamente necessaria, quindi diversa dalla scienza.

Tuttavia Alano ha cercato di organizzare scientificamente la teologia proprio sul modello della scienza più rigorosa, la matematica. Nello scritto Regulae o Maximae theologicae ha formulato i principi della teologia, partendo dal presupposto che “ogni scienza si fonda sui suoi principi come sui propri fondamenti”; e ha quindi fissato le regole fondamentali della scienza teologica raccogliendo e sistemando i risultati della speculazione teologica precedente.

Avversari dei maestri di Chartres furono gli iperdialettici, avversi ad ogni tradizionalismo e alla venerazione degli antichi. Questi ebbero il merito di avvertire già, in un’epoca di limitata cultura, i pericoli insiti nella identificazione della rinascita della scienza con l’assorbimento passivo del pensiero degli antichi. Il loro fu uno dei più energici tentativi di svincolare la ricerca razionale da ogni schiavitù verso il passato, e per affermare, anche se in una maniera ancora ingenua, l’indinscibilità fra ricerca razionale e spirito di originalità.

La rinascita filosofica del XII secolo è anche una rinascita del misticismo. Più precisamente, quella rinascita rende possibile il riconoscimento della mistica come di una via autonoma per elevarsi a Dio, una via che in qualche caso è alternativa o rivale della ricerca razionale. Il misticismo fu inteso, quindi, da Bernardo di Clairvaux (1090-1153) come arma di combattimento contro ogni forma di filosofia, e tra i punti salienti della sua dottrina troviamo proprio la negazione del valore della ragione. Su questo punto Bernardo si pronuncia senza riserve contro la scienza. Il desiderio di conoscere gli appare “una turpe curiosità” e le discussioni dei filosofi come “loquacità piena di vento”.

;<9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Le due vie, quella mistica e quella della ricerca razionale, invece, in Ugo da San Vittore (1096-1141) si fondono armonicamente. Per Ugo la suprema ascesa mistica appare come il coronamento della paziente ricerca scientifica e filosofica. Infatti il suo atteggiamento di fronte alla scienza è decisamente opposto a quello di Bernardo. Nulla c’è di inutile nel sapere: “Impara tutto, vedrai poi che nulla è superfluo”. La stessa scienza profana è utile alla scienza sacra, alla quale è subordinata, e perciò, nella sua opera Didascalion, tratta delle nozioni scientifiche conosciute al suo tempo; e quindi, invece di contrapporle tra loro, cerca di stabilire un equilibrio armonico e di coordinarle in un unico sistema. In che modo? Le vie della ragione son date dalla natura, le vie della rivelazione dalla grazia. Per Ugo la scienza è anche la sola conoscenza necessaria, e questa necessità viene dalla logica che è il suo strumento indispensabile. Le scienze sperimentali, come la fisica, presuppongono le scienze puramente logiche, come la logica stessa e la matematica; giacchè l’esperimento è fallace e soltanto nella pura ragione è la garanzia indiscutibile della verità. Notevole è il fatto che la matematica e la fisica sono considerate scienze fondate sull’astrazione, ciò che ci avvicina ad un punto di vista nominalistico più che non platonico. La matematica considera distintamente gli elementi che nelle cose naturali si trovano confusi insieme; e così mentre in realtà la linea non c’è mai senza la superficie ed il volume, la ragione considera, nella matematica, la linea in se stessa, prescindendo dalla superficie e dal volume. Ciò perché la ragione spesso considera le cose, non come sono, ma come possono essere create, cioè non in loro stesse, ma in riferimento a se stessa. Allo stesso modo anche la fisica distingue l’uno dall’altro, per astrazione, gli elementi che, in realtà, si trovano mescolati nel mondo reale: terra, acqua, aria e fuoco; e giudica ogni corpo come un prodotto della composizione e della forza di tali elementi. Al pari degli antichi presocratici, egli ammette il principio di conservazione della materia, ma più importante è il fatto che ammette la composizione atomica dei quattro elementi, come molti rappresentanti della scuola di Chartres, ed è così uno dei primi, in Occidente, a richiamare l’attenzione su quella antica teoria, che, combattuta aspramente da pensatori ortodossi, sarà decisiva per la rinascita della scienza.

In questo fermento di rinascita filosofica non possiamo non considerare la reazione delle autorità ecclesiastiche verso la rinnovata conoscenza di Aristotele durante il secolo XII. La traduzione dei libri sconosciuti della Logica, della Fisica e della Metafisica, congiunta ai commenti e alle interpretazioni degli arabi, specie di Averroè e Avicenna, recavano un fermento di idee che facilmente conduceva a pericolose tendenze di pensiero, ad affermazioni temerarie, o addirittura a vere e proprie eresie. Mentre la diffusione della scienza araba, come abbiamo già trattato, produce un notevole allargamento della cultura scientifica medievale, gli effetti della diffusione dell’aristotelismo sono assai più profondi, in quanto fornirono i quadri mentali, i metodi logici e le categorie per tentare di sistemare, e quindi connettere, porre in relazione le une con le altre, disporre in ordine logico le varie scienze dell’epoca, in una vasta sintesi che andava dalle scienze empiriche della natura alla logica e fino alla metafisica. Finalmente, di fronte al misticismo e al simbolismo dominante nei periodi precedenti, l’empirismo di Aristotele costituiva un elemento di reazione ed un’apertura verso una mentalità più scientifica. La reazione delle autorità ecclesiastiche si manifesta attraverso numerose condanne, il cui scopo è di stabilire con precisione i confini fra il lecito e l’eretico nel campo del pensiero, ma che, specie in un primo momento, tendevano a gettare il discredito su tutta la dottrina dello Stagirita. Bisognerà aspettare

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<:!

il XIII secolo affinché l’aristotelismo venga considerato come uno dei fondamenti del dogma cristiano. Questa rivoluzione, come vedremo dopo, sarà opera soprattutto di Tommaso d’Aquino.

A tal riguardo è giusto ricordare Alberto Magno (1193 o 1206-1280), maestro di Tommaso d’Aquino, illustre docente della facoltà teologica di Parigi, che, traducendo direttamente Aristotele dal greco e commentandolo direttamente, cercò di liberare il pensiero aristotelico dalle incrostazioni di pensiero islamico, e comunque di tentare un accordo con il dogma cristiano. Alberto trova ed imbocca, per la prima volta, la via attraverso la quale i capisaldi del pensiero aristotelico possono servire per una sistemazione della dottrina scolastica che non tradisca né abbandoni i risultati fondamentali della tradizione. Appare chiaro, con Alberto, che l’aristotelismo non solo non rende impossibile la ricerca scolastica, cioè la comprensione filosofica della verità rivelata, ma costituisce il fondamento sicuro di tale ricerca e offre il filo conduttore che consente di legare insieme le dottrine fondamentali della tradizione scolastica. Il riconoscimento dell’aristotelismo come dell’autentica filosofia conduce Alberto a separare nettamente la filosofia stessa che procede per ragioni e sillogismi dalla teologia che si fonda sulla fede. Per la prima volta, nella scolastica latina, la separazione tra filosofia e teologia era fatta così nettamente. L’affacciarsi dell’autonomia della ricerca filosofica coincide in Alberto con l’esigenza di una ricerca naturalistica fondata sull’esperienza, perché soltanto l’esperienza, ossia le cose comprovate, dà la certezza su determinati fenomeni, giacchè intorno ad essi il sillogismo non ha valore.

Infatti, notevole risulta l’attività scientifica di Alberto, nella quale mostra un’indipendenza di giudizio e un’originalità di pensiero, dovute alla libertà di lavorare su fonti arabe e greche. Egli è, almeno in questi campi, un empirista, dal momento che sono materie interamente fondate sull’esperienza, dove non bisogna aver fretta di concludere, e nelle quali comunque le conclusioni generali non sorpassano il piano dell’empiricamente osservabile. Per questo egli non temeva che la scienza naturale potesse porsi in contrasto con la teologia avendo un diverso piano di validità. Ovviamente le opere di Alberto Magno restano ad un livello prescientifico, alla luce della scienza moderna e prescindendo dalla prospettiva storica, e i limiti sono quelli di tutto il pensiero scientifico del medioevo. Non si tratta di una accettazione servile di errori dovuta all’autorità di Aristotele (ipse dixit), né di apriorismo concettuale che rifiuti di guardare al grande spettacolo della natura, ma i limiti sono proprio nella struttura formale dell’aristotelismo: in un linguaggio che non è scientifico, ma ancora teologico, in categorie che sono metafisiche, in metodi discorsivi, come il sillogismo (sia quello deduttivo che induttivo) che non si adattano all’elaborazione di nozioni scientifiche. E poiché il pensiero medievale non riuscirà a rompere questi meccanismi mentali, ecco che il suo compito si ridurrà a quello di elaborare delle nozioni prescientifiche che, comunque, risulteranno preziose per la formazione della scienza moderna. La scienza deve operare mediante nozioni di carattere esplicativo-descrittivo, ossia tali che spieghino in quanto descrivono e descrivano in quanto spiegano. Né la mera raccolta di osservazioni empiriche, né la mera spiegazione mediante concetti che non descrivano un processo effettuale possono costituire sapere scientifico.

In realtà, nonostante le proibizioni, Fisica e Metafisica continuavano ad essere studiate e l’averroista Sigieri di Brabante (ca. 1226-1283) poteva affermare l’eternità e la necessità del mondo, ciò che bastava a sconvolgere i fondamenti del dogma cattolico.

;;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Averroè aveva una fiducia nella concordanza fra scienza e fede, e sosteneva che quest’ultima esprime, in modo più immediato e direttamente accessibile, ciò stesso che la filosofia spiega con metodo più elaborato, secondo le lunghe vie dell’esperienza e del ragionamento logico. Il patrimonio delle concezioni dogmatiche cristiane è, però, profondamente diverso da quello delle islamiche. Ad esempio il concetto di eternità dell’universo ha ben altro rilievo agli occhi di credenti il cui testo sacro è il Genesi. Perciò Sigieri deve trasformare le vedute di Averroè sui rapporti fra scienza e fede, sostenendo non già un semplice e fiducioso parallelismo, ma piuttosto una specie di convivenza pacifica fra conoscenza razionale e dogma. Si perviene, pertanto, alla teoria della doppia verità: come cattolico Sigieri ammette la preminenza indiscutibile, la verità assoluta del dogma, ma come filosofo ritiene di poter discutere a fondo ogni problema sulla natura e sul cosmo, cercando di raggiungere conclusioni in accordo con il raziocinio e con l’evidenza dei fatti, senza preoccuparsi delle affermazioni dogmatiche che conservano la loro propria validità, sorrette dalla fede.

Per ogni aspetto del pensiero medievale la grande sintesi fu quella di Tommaso d’Aquino (1225–1274), senza dubbio il più eminente degli scolastici, il quale gettò le basi del moderno aristotelismo in Europa, e che assunse il compito di adattare alla coscienza cristiana la metafisica aristotelica. Alle esigenze della Chiesa, Aristotele rispondeva particolarmente su tre punti: a) la sua scienza della natura, anziché ispirarsi

a un concetto propriamente meccanico, introduce una considerazione finalistica; b) la circostanza che un autore pagano fosse riuscito a concepire un Dio supremo motore del mondo, ma separato da questo, mostrava che la ragione naturale non è necessariamente condotta alle conclusioni panteistiche dell’eresia mistica, contro cui urgeva allora combattere; c) il sistema chiuso dell’enciclopedia aristotelica offriva un corpo di dottrine da assimilarsi come un tutto, in modo da escludere la libera discussione delle questioni particolari, rimettendo in ogni caso il giudizio all’autorità del maestro: così l’ortodossia estendeva virtualmente il suo dominio alla universalità dello scibile, e tendeva a evitare il progresso delle ricerche secondo indirizzi più pericolosi.

Il sistema tomistico ha la sua base nella determinazione rigorosa del rapporto tra la ragione e la rivelazione. All’uomo, che ha come suo fine ultimo Dio, il quale eccede la comprensione della ragione, non basta la sola ricerca, scientifica o filosofica, fondata sulla ragione. La ragione naturale si subordina alla fede, e non può dimostrare ciò che è di pertinenza della fede. Ma la rivelazione non annulla né rende inutile la ragione, in quanto anche la dottrina rivelata può essere non soltanto creduta, ma sviluppata mediante la ragione in maniera scientifica. Le scienze, infatti secondo Tommaso, sono di due tipi: alcune procedono da principi conosciuti attraverso ragionamento logico come l’aritmetica e la geometria; altre procedono da principi conosciuti alla luce di una scienza superiore, come l’ottica che si basa completamente sulla geometria. Non diversamente può essere considerata e trattata come scienza la sacra dottrina, benché essa accolga i suoi principi per fede dalla rivelazione. Però la ragione ha la sua verità propria. I principi che le sono intrinseci e che sono verissimi, in quanto è impossibile pensare che siano falsi, le sono stati infusi da Dio stesso, che è l’autore della natura umana. Pertanto, la verità di ragione non può venire in contrasto con la verità rivelata: la verità non può contraddire alla verità. Quando un contrasto appare, è segno di non verità rivelate, ma di conclusioni false o almeno non necessarie: la fede è la regola del corretto procedere della ragione.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;;!

Il carattere astrattivo del processo della conoscenza, e quindi la teoria dell’astrazione, è l’aspetto più interessante e originale della teoria della conoscenza tomistica, che comunque è ricalcata, nel suo complesso, su quella aristotelica. Se l’anima è in qualche modo tutte le cose, perché tutte le conosce, Tommaso dice: “Se l’anima è tutte le cose, è necessario che essa o sia le cose stesse, sensibili o intellegibili - nel senso in cui Empedocle affermò che noi conosciamo la terra con la terra, l’acqua con l’acqua, e così via – o sia le specie delle cose stesse. Ma certo l’anima non è le cose, giacchè, per esempio, nell’anima non c’è la pietra ma la specie della pietra”. Ora la specie (eidos) è la forma della cosa. Dunque “l’intelletto è una potenza ricettiva di tutte le forme intellegibili e il senso è una potenza ricettiva di tutte le forme sensibili”. Sicchè il principio della conoscenza è: “l’oggetto conosciuto è nel soggetto conoscente in conformità della natura del soggetto conoscente”. Il processo attraverso il quale il soggetto conoscente riceve l’oggetto è l’astrazione. Tra i sensi corporei che conoscono la forma unita alla materia e gli intelletti angelici che conoscono la forma separata dalla materia, l’intelletto umano occupa una via di mezzo. L’intelletto può conoscere le forme delle cose solo in quanto sono unite ai corpi e non (come Platone voleva) in quanto ne sono separate. Ma nell’atto di conoscerle, le astrae dai corpi stessi; il conoscere è quindi un astrarre la forma dalla materia individuale, e così trarre fuori l’universale dal particolare, la specie intelligibile dalle immagini singole. Allo stesso modo in cui possiamo considerare il colore di un frutto, prescindendo dal frutto, senza perciò affermare che esso esista separato dal frutto, così possiamo conoscere le forme o specie universali delle cose prescindendo dai principi individuali a cui vanno unite, ma senza pretendere che esse esistano separatamente da questi. L’astrazione non falsifica dunque la realtà. Essa non afferma la separazione reale della forma dalla materia individuale, consente soltanto la considerazione separata della forma; e tale considerazione è la conoscenza intellettuale umana. È da notare che questa considerazione separa la forma dalla materia individuale, non dalla materia in generale; giacchè altrimenti noi non potremmo intendere che le cose siano costituite anche di materia. Secondo Tommaso “La materia è duplice, cioè comune e signata o individuale; comune, come la carne e le ossa, signata come questa carne e queste ossa. L’intelletto astrae la specie della cosa naturale dalla materia sensibile individuale, ma non dalla materia sensibile comune. Per esempio, astrae la specie dell’uomo da queste carni o da queste ossa che non appartengono alla natura della specie, ma sono parti dell’individuo, dalle quali quindi si può prescindere. Ma la specie dell’uomo non può essere astratta per opera dell’intelletto dalle carni e dalle ossa in generale”. Risulta da ciò che per Tommaso il principium individuationis, ciò che determina la natura propria di ciascun individuo e quindi la sua diversità dagli altri, non è la materia comune (e infatti tutti gli uomini hanno carni e ossa e quindi non si diversificano in questo), ma la materia signata, ossia “la materia considerata sotto determinate dimensioni”. Così un uomo è diverso dall’altro non perché è unito ad un corpo, ma perché è unito a un determinato corpo, diverso per dimensioni, cioè per la sua posizione nello spazio e nel tempo, da quello degli altri uomini. Risulta pure da questa dottrina che l’universale non sussiste fuori delle singole cose, ma è reale solo in esse. L’universale è l’oggetto proprio e diretto dell’intelletto. Per il suo stesso funzionamento, l’intelletto umano non può conoscere direttamente le cose singole. Difatti esso procede astraendo la specie intelligibile dalla materia individuale; e la specie, che è il prodotto di tale astrazione, è lo stesso universale. La cosa singola non è dunque conosciuta dall’intelletto se non indirettamente, per una specie di riflessione. Siccome l’intelletto astrae l’universale dalle

;;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

immagini particolari e non può intendere nulla se non volgendosi alle immagini stesse, esso conosce indirettamente anche le cose particolari, alle quali le immagini appartengono. Da queste considerazioni deriva che la conoscenza umana si svolge per atti successivi, che si seguono nel tempo, e questo procedere è il ragionamento, e la scienza che si viene così costruendo per successivi atti di affermazione o di negazione è la scienza discorsiva. La conoscenza umana è dunque conoscenza razionale, e nel suo carattere raziocinativo sta anche la possibilità dell’errore.

In conclusione, ogni conoscenza trova, secondo Tommaso, un adeguato fondamento nell’essere, e ciò accade anche per la stessa matematica, che pur è il frutto di un’astrazione particolarmente spinta. Anche ai concetti di tale scienza corrisponde infatti qualcosa di reale; per esempio, ai concetti geometrici di cerchio e triangolo corrisponde un’effettiva forma circolare o triangolare dei corpi.

Comunque, Tommaso, nelle sue argomentazioni, sia filosofiche che teologiche, utilizza una rigorosità scientifica notevole che ci permette di cogliere una straordinaria apertura mentale, tipica dello scienziato moderno, con tutti i limiti storici e temporali. Con riferimento alla scienza fisica, però, Tommaso non portò alcun nuovo contributo anche se si sforzò di renderla un sistema coerente con la filosofia. A questo fine egli preparò commenti su quattro trattati scientifici di Aristotele, compresa la Fisica. Per quanto riguardava la scienza, la sintesi tomista fu naturalmente una sintesi puramente logica che non migliorò sotto nessun aspetto la descrizione dell’universo. Così la grande autorità dell’Aquinate confermò la tendenza medievale ad assimilare la filosofia naturale alla metafisica e alla teologia, e rendere lo studio della natura un puro esercizio intellettuale, condotto con appropriati strumenti logici. In realtà, il suo eccezionale risultato fu di rimuovere le ultime discrepanze tra la concezione cristiana del mondo e quella della scienza aristotelica.

L’effetto dell’introduzione dell’aristotelismo nella scolastica dimostrò la chiara delimitazione dei campi rispettivi della ragione e della fede. La ragione è il dominio delle verità dimostrate, perciò delle dimostrazioni necessarie e dei principi evidenti che sono a fondamento di esse; la fede è il dominio delle verità rivelate, prive di necessità dimostrativa e di evidenza immediata. Questa distinzione verrà mantenuta saldamente in tutta la storia ulteriore dell’aristotelismo. Ma l’opera di Tommaso non si era fermata al riconoscimento di questa distinzione, aveva avuto anzi la pretesa di procedere molto al di là di essa, stabilendo nel contempo l’impossibilità di un qualsiasi contrasto tra i due campi d’indagine: “Poiché solo il falso è contrario al vero, come appare evidente, a vista, dalle loro stesse definizione, è impossibile che la verità della fede sia contraria a quei principi che la ragione naturalmente conosce”.

Dopo Tommaso, l’altra svolta della scolastica è dovuta a Giovanni Duns Scoto (1265-1308). Si tratta di una svolta decisiva, che doveva rapidamente condurre la scolastica alla fine del suo ciclo e all’esaurirsi della sua funzione storica. Anche questa svolta è determinata dall’aristotelismo, ma in questo caso l’aristotelismo è lo spirito di un sistema, non un sistema. Per Tommaso l’aristotelismo è una dottrina che bisogna correggere e riformare, per Duns Scoto è la filosofia stessa, che bisogna riconoscere e far valere in tutto il suo rigore per circoscrivere in giusti limiti il dominio della scienza umana. Per Tommaso si tratta di far servire l’aristotelismo alla spiegazione della fede cattolica, per Duns Scoto si tratta di farlo valere come principio che restringe la fede nel suo proprio dominio, che è quello pratico. L’ideale di una scienza assolutamente necessaria, cioè interamente fondata sulla dimostrazione, e il procedimento critico,

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;4!

analitico e dubitativo costituiscono l’espressione della fedeltà di Duns allo spirito dell’aristotelismo.

Duns cerca di fondare il valore della conoscenza scientifica sul riconoscimento dei suoi limiti, ed in ciò ci ricorda Kant, e il valore della fede sulla sua diversità di natura dalla scienza. Duns ha desunto da Aristotele e dai suoi interpreti arabi l’ideale di una scienza necessaria, costituita interamente da principi evidenti e da dimostrazioni razionali. Ma per primo egli si avvale di questo ideale per restringere e limitare il dominio della conoscenza umana. Il suo alto concetto della scienza si unisce in lui con il riconoscimento dei limiti rigorosi della scienza umana. Ciò che non è dimostrabile non è necessario ma contingente, perciò arbitrario o pratico, cioè fede. Perciò Duns si è preoccupato di far valere il suo alto ideale della scienza come criterio per la discussione dei problemi filosofici e teologici del tempo, per determinare la parte che in essi esattamente spetta alla scienza e la parte che spetta alla fede, per circoscrivere la fede in un dominio diverso, che è quello pratico (“La fede non è un abito speculativo, né il credere è un atto speculativo, né la visione che segue al credere è una visione speculativa, ma pratica”) e per assegnare tale dominio alla teologia, posta al rango di una scienza sui generis diversa dalle altre e senza nessun primato sulle altre. La sua opera De primo principio si apre con una preghiera a Dio che è nello stesso tempo la professione dell’ideale scientifico di Duns Scoto: “Tu sei il vero essere, Tu sei tutto l’essere; questo io credo, questo, se mi fosse possibile, vorrei conoscere. Aiutami, o Signore, nel ricercare quella conoscenza del vero essere, cioè di Te, che la nostra ragione naturale può attingere”. Duns non chiede a Dio un’illuminazione soprannaturale, una conoscenza compiuta in verità e in estensione, ma solo quella conoscenza che è propria della ragione umana naturale. Pur nei suoi limiti, questa è la sola conoscenza possibile, la sola scienza per l’uomo. Tutto ciò che trascende i limiti della ragione umana non è più scienza, ma azione o conoscenza pratica, concerne il fine cui l’uomo deve tendere o i mezzi per raggiungerlo o le norme che, in vista di esso, vanno seguite, non la scienza.

La dottrina della conoscenza di Scoto è fondamentalmente di ispirazione aristotelica. In essa domina il concetto aristotelico dell’astrazione, anzi l’astrazione diventa una forma fondamentale della conoscenza, la stessa conoscenza scientifica. Tale è il significato della distinzione tra conoscenza intuitiva e conoscenza astrattiva: “Vi può essere una conoscenza dell’oggetto che astrae dalla sua esistenza attuale e vi può essere una conoscenza dell’oggetto in quanto esiste e in quanto è presente nella sua esistenza attuale”. La scienza astrae dall’esistenza attuale del suo oggetto, altrimenti ci sarebbe e non ci sarebbe, a seconda dell’esistenza o non esistenza dell’oggetto e così non sarebbe perpetua ma seguirebbe il nascere e il perire di esso. D’altronde, se il senso conosce l’oggetto nella sua esistenza attuale, deve anche conoscerlo allo stesso modo l’intelletto, che è potenza conoscitiva più alta. Duns chiama astrattiva la prima conoscenza, perché astrae dall’esistenza o non esistenza attuale dell’oggetto; intuitiva la seconda in quanto mette direttamente in presenza dell’oggetto esistente e lo fa vedere come è in se stesso. Duns Scoto si è servito così del concetto aristotelico dell’astrazione per determinare i due gradi fondamentali della conoscenza indipendentemente dalla distinzione tradizionale di sensibilità e ragione. La conoscenza astrattiva è la conoscenza dell’universale ed è propria della scienza. La conoscenza intuitiva, che non è propria soltanto della sensibilità ma appartiene anche all’intelletto, è la conoscenza dell’esistenza come tale, della realtà, in quanto essere o presenza attuale. Si tratta di due forme o gradi della conoscenza che non corrispondono a due organi o facoltà diverse (come la sensibilità e l’intelletto) perché possono essere e sono anche di un organo solo e

;;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

precisamente dell’intelletto. È evidente infatti che ai sensi è data la conoscenza intuitiva, ma non quella astrattiva; mentre all’intelletto appartengono entrambe.

4.5 Declino dell’influenza di Aristotele

Nel secolo XIV assistiamo ad un rinnovamento del sapere scientifico e ad una avversione rispetto al corpus dottrinario dell’aristotelismo, che in mano ai fondatori della scienza moderna, costituirà un raffinato strumento di analisi del linguaggio. Alcuni cristiani averroisti cominciarono a manifestare insoddisfazione verso le interpretazioni canoniche del pensiero di Aristotele, anche alla luce del fatto che il mondo greco non si era sottomesso ad Aristotele senza resistenze. Pertanto, vi furono personalità che si opposero all’oscurantismo e usarono l’argomento che procurò per secoli credito alla scienza: Dio aveva creato l’universo ed era giusto conoscere la sua opera al fine di ammirare la sua maestà.

Comunque, una prima reazione all’avanzare della corrente aristotelica la troviamo nella scolastica latina ad opera di Grossatesta (che esamineremo più avanti) e nel francescano Bonaventura ( 1221-1274), secondo il quale Aristotele è un filosofo, non il filosofo; è un autore delle cui affermazioni ci si può servire all’occorrenza, non l’incarnazione stessa della ragione umana. Bonaventura dichiara preliminarmente la superiorità della fede sulla scienza, e ritiene che sia maggiore la certezza della verità della fede rispetto a quella della scienza. Rispetto alle altre verità, la fede possiede una certezza di adesione maggiore della scienza e la scienza una certezza di speculazione maggiore della fede. La scienza elimina il dubbio, come appare chiaro soprattutto nella conoscenza degli assiomi e dei primi principi, ma la fede fa aderire il credente alla verità senza essere distolto da argomenti dimostrativi o speculativi. In nessun caso, dunque, la scienza può fare a meno della fede. La più notevole concessione di Bonaventura all’aristotelismo è nella teoria della conoscenza. Alla questione se ogni conoscenza deriva dai sensi, egli risponde di no: bisogna ammettere che l’anima conosce Dio, se stessa e tutto ciò che ha in sé senza l’aiuto dei sensi esterni. Ma dall’altro lato bisogna ammettere che l’anima non può fornire da sola l’intera conoscenza. Il materiale di questa conoscenza deve necessariamente pervenirle dall’esterno, attraverso i sensi.

Come Grossatesta, Bonaventura elabora una dottrina fisica che è una teoria della luce. La luce non è un corpo, ma è la forma di tutti i corpi. Se fosse un corpo, poiché è proprio di essa moltiplicarsi da sé, bisognerebbe ammettere che un copro possa moltiplicarsi senza aggiunta di materia; questo è impossibile. La luce è la forma sostanziale di ogni corpo naturale. Tutti i corpi ne partecipano più o meno; e a seconda che ne partecipano hanno maggiore o minore dignità e valore nella gerarchia degli esseri. Essa è il principio della formazione generale dei corpi stessi; la loro formazione speciale è dovuta al sopraggiungere di altre forme, elementari o miste. Questo implica che nella costituzione di un copro possono entrare più forme, che coesistano nel corpo stesso (principio della pluralità delle forme sostanziali). La forma comune della luce, infatti, coesiste in ciascun corpo con la forma propria del corpo.

Guglielmo di Ockham (1280–1349) è l’ultima grande figura della scolastica e come prima personalità dell’età moderna inaugurò la cosiddetta via dei moderni, con una

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;6!

clamorosa rottura sul tema fondamentale del rapporto fra ragione e fede, fino a proclamarne l’incompatibilità. Questa scelta lo portò a una critica del sapere tradizionale, in particolare della grande sintesi di Tommaso, quindi alla formulazione di tematiche nuove che resteranno al centro del dibattito durante l’età moderna e oltre.

Il problema fondamentale, dal quale la scolastica era sorta e della cui incessante elaborazione aveva vissuto, l’accordo tra la ricerca filosofica e la verità rivelata, viene da Ockham per la prima volta dichiarato impossibile e svuotato di ogni significato. Con ciò la scolastica medievale chiude il suo ciclo storico; la ricerca filosofica diventa disponibile per la considerazione di altri problemi, primo fra tutti quello della natura, cioè del mondo al quale l’uomo appartiene e che può conoscere con le sole forze della ragione. Il principio di cui Ockham si è servito per portare a compimento la dissoluzione della scolastica, iniziata comunque già con Duns Scoto, è il ricorso all’esperienza posta come fondamento di ogni conoscenza e a rigettare al di fuori di ogni conoscenza tutto ciò che trascende i limiti dell’esperienza stessa. Il valore dell’esperienza era stato riconosciuto dalla tradizione francescana e aveva trovato, come vedremo in seguito, affermazioni solenni in Grossatesta e in Ruggiero Bacone; ma Ockham si rifà, oltre che a questa tradizione, alla scienza del suo tempo e soprattutto all’ottica di Alhazen, dalle cui opere desume l’impostazione fondamentale del suo empirismo. Come Duns Scoto si era servito dell’ideale aristotelico della scienza come di una forza limitatrice e negatrice del problema scolastico, così l’empirismo, pur noto ed accettato da molti scolastici, solamente con Ockham diviene la forza che determina il crollo della scolastica. All’empirismo, che è il fondamento della sua filosofia, Ockham giunge muovendo da una esigenza di libertà che è il centro della sua personalità: “Le asserzioni precipuamente filosofiche, che non concernono la teologia, non devono essere da nessuno condannate o interdette solennemente, giacchè in esse chiunque deve essere libero di dire liberamente ciò che gli pare”.

Lo stesso empirismo conduceva Ockham ad una considerazione approfondita della natura, giacchè la natura non è che l’oggetto dell’esperienza sensibile. Ockham considera la natura come il dominio proprio della conoscenza umana; l’esperienza cessa di avere il carattere iniziatico e magico che ancora conservava nella maggior parte delle menti dei pensatori medievali e diventa un campo di indagine aperto a tutti gli uomini, in quanto tali. Questo atteggiamento gli consente la massima libertà di critica di fronte alla fisica aristotelica. Attraverso tale critica si aprono numerosi spiragli verso la nuova concezione del mondo, che la filosofia del Rinascimento doveva difendere e far sua. Le possibilità che Ockham scopre diventeranno nel Rinascimento affermazioni risolute e costituiranno il fondamento della scienza moderna. Egli fu anche un forte sostenitore dell’unità della natura, un principio al quale faceva spesso ricorso Newton, da cui deriva che effetti uguali richiedono cause uguali. Partendo da tale principio, Ockham mette in discussione la differenza di sostanza tra i corpi celesti e i corpi sublunari, e quindi l’esistenza di una fisica celeste e una terrestre, stabilita dalla fisica aristotelica. Contro Aristotele, Ockham ammette e difende la possibilità di più mondi. L’argomentazione di Aristotele che, se ci fosse un mondo diverso dal nostro, la terra di esso si muoverebbe naturalmente verso il centro e si congiungerebbe con la nostra, e così tutti gli altri elementi si ricongiungerebbero alla propria sfera formando un unico mondo, è combattuta da Ockham con una negazione delle determinazioni assolute dello spazio ammesse da Aristotele. Un mondo diverso dal nostro avrebbe un altro centro, un’altra circonferenza, un alto e un basso diversi, i movimenti degli elementi sarebbero dunque diretti verso sfere diverse e non si verificherebbe la congiunzione

;;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

prevista da Aristotele. Questa relatività delle determinazioni spaziali dell’universo sarà uno dei capisaldi della fisica del Rinascimento. Infine Ockham ammette e difende la possibilità che il mondo sia stato prodotto ab aeterno. Egli non lo afferma esplicitamente, ma si limita a sgombrare la via dalle obiezioni possibili. All’obiezione che se il mondo fosse eterno si sarebbe già verificato un numero infinito di rivoluzioni celesti, il che è impossibile perché un numero reale non può essere infinito, Ockham risponde che come in un continuo ogni parte, aggiunta all’altra, forma un tutto finito, pur essendo le parti stesse infinite, così ciascuna rivoluzione celeste, aggiunta alle altre, forma sempre un numero finito, sebbene nel loro insieme le rivoluzioni celesti siano infinite. Ockham è consapevole che l’eternità del mondo implica la sua necessità, giacchè ciò che è eterno non può essere che prodotto necessariamente. Egli sa pure che l’eternità del mondo esclude la creazione, perché questa implica la non esistenza della cosa anteriormente all’atto della sua produzione. Ma ritiene, ciò nonostante, che l’eternità stessa sia altamente probabile, data anche la difficoltà di concepire l’inizio del mondo nel tempo. La pluralità dei mondi, la loro infinità ed eternità sono dunque possibilità, che per opera di Ockham si aprono alla ricerca filosofica. Nel Rinascimento queste possibilità diverranno certezze, e la visione del mondo, che Ockham aveva intravista, verrà allora riconosciuta come la realtà stessa del mondo.

L’altro tratto caratteristico dell’empirismo di Ockham è la sua dottrina dell’induzione. Mentre per Aristotele l’induzione è sempre induzione completa, che fonda sull’accertamento di tutti i casi possibili l’affermazione generale, per Ockham l’induzione si può effettuare anche sulla base di un unico esperimento, ammettendo il principio che cause dello stesso genere hanno effetti dello stesso genere. Ockham ha così indicato nel principio dell’uniformità causale della natura il fondamento di qull’induzione scientifica che sarà teorizzata per la prima volta nell’età moderna da Bacone.

L’impostazione secondo cui è illusorio pensare che si possa costruire la fisica o la filosofia della natura con il metodo deduttivo e che solo l’esperienza, cioè solo l’osservazione del dato concreto e la sua descrizione, fornisce il sapere scientifico, e la grande attenzione al ragionamento induttivo, portò Ockham al principio di economia o regola del rasoio. Ossia, dovendo basare le spiegazioni scientifiche dei fenomeni fisici sull’esperienza, va sistematicamente evitato il ricorso a entità inutili, come concetti astratti, essenze, nature, forme, giacchè: "entia non sunt multiplicanda sine necessitate" (Non bisogna aumentare senza necessità gli elementi della questione), o "pluralitas non est ponenda praeter necessitatem" (non si deve imporre la pluralità oltre il necessario). In altri termini: le spiegazioni dovrebbero sempre essere le più semplici possibili. Si tratta di un principio metodologico che sta alla base del pensiero moderno: all'interno di un ragionamento o di una dimostrazione vanno ricercate la semplicità e la sinteticità; tra due teorie entrambe capaci di spiegare un gruppo di dati occorre scegliere quella più semplice e dotata di un minor numero di ipotesi, “tagliando via” quella più lunga e involuta. Tra le varie spiegazioni possibili di un evento, è quella più semplice che ha maggiori possibilità di essere vera.

Infine, Ockham desume da Duns Scoto la dottrina della conoscenza, in particolare la distinzione tra conoscenza intuitiva e conoscenza astrattiva, interpretando la conoscenza intuitiva nel senso empiristico che ad essa aveva dato nel De Aspectibus lo scienziato arabo Alhazen nella sua analisi della visione. La conoscenza intuitiva è quella con la quale si conosce con tutta evidenza se la cosa c’è o non c’è e che consente all’intelletto di giudicare immediatamente della realtà o irrealtà dell’oggetto. La

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;8!

conoscenza intuitiva, inoltre, è quella che fa conoscere l’inerenza di una cosa ad un’altra, la distanza spaziale e qualsiasi altro rapporto tra le cose particolari.

Dopo di Ockham, la Scolastica non ha più grandi personalità né grandi sistemi. Il suo ciclo storico appare concluso ed essa vive dell’eredità del passato. La Scolastica conservava la sua struttura esteriore, il suo procedimento caratteristico, il suo metodo di analisi e di discussione. Ma questa struttura formale si rivolgeva contro il suo stesso contenuto, mostrando l’inconsistenza logica o l’infondatezza empirica di quelle dottrine che avevano costituito la sostanza della sua tradizione secolare. Tuttavia a misura che i problemi tradizionali si svuotavano del loro contenuto, si andava rafforzando l’interesse per quei problemi della natura che già avevano avuto parte così notevole nella speculazione di Ockham. Nel logorio cui l’occamismo sottoponeva l’intero contenuto della tradizione scolastica, nuove forze andavano maturando, forze che trovarono la loro esplicazione nella scienza rinascimentale.

Prima di Occam, come dopo di lui, vi furono altri filosofi che avanzarono critiche

più radicali alla scienza peripatetica, negandone la teoria del movimento. Il principio indispensabile di Aristotele, che nessun essere non vivente può muoversi da solo, non sembrava vero per oggetti già in movimento. Aristotele aveva spiegato queste discrepanze considerando il mezzo (aria o acqua) come motore, ma queste spiegazioni erano state considerate sempre insoddisfacenti e rappresentavano il punto debole della fisica aristotelica.

Le intuizioni fisiche di Ockham, che sono il punto di partenza della meccanica e dell’astronomia moderne, vengono riprese da un certo numero di seguaci. Le due principali figure dell’occamismo, di questo movimento di critica della fisica peripatetica furono entrambi francesi: Giovanni Buridano (1290/?1300–1360 ca.) e Nicola Oresme (1323 – 1382) ed entrambi possono essere considerati precursori della fisica moderna. Nelle loro mani, la teoria dell’impeto, cioè del movimento continuato, demolì le tesi di Aristotele, ed essi la estesero anche al movimento delle sfere celesti. Essi argomentarono che il Primo Motore dell’universo (la nona e ultima sfera) che la teoria di Aristotele richiedeva per muovere le otto sfere che portavano i corpi celesti osservabili, era sovrabbondante, poiché se queste sfere erano state poste in rotazione al momento della creazione e non incontravano nessuna resistenza, il loro impeto le avrebbe spinte a ruotare per sempre.

In questo, come in altri contesti, Buridano sostenne sempre che l’impeto fosse distrutto solo dalla resistenza e dall’attrito con i corpi in movimento normalmente incontrati. Altri, invece, supposero che l’impeto si dissipasse spontaneamente come il calore, al quale era paragonato. Era generalmente riconosciuto che l’impeto di un dato corpo fosse proporzionale sia alla sua velocità iniziale sia al suo peso. Vi fu un’altra applicazione della teoria dell’impeto che ebbe grande importanza. La fisica aristotelica non aveva mai indicato una chiara ragione del perché un corpo che cade aumenti la sua velocità, sebbene il fenomeno fosse ben noto. Qui vi era un altro caso di movimento senza un motore apparente, un caso posto da Aristotele nella classe dei fenomeni naturali provocati dalla disposizione di alcuni oggetti a ritornare liberamente ai loro luoghi. Ma non era chiaro perché la natura costante di un corpo dovesse esser la causa di un effetto che varia l’accelerazione di caduta, giacché questa sembra contravvenire al principio che ogni effetto è proporzionale alla sua causa, ogni velocità, come pensava Aristotele, alla forza motrice applicata. La teoria dell’impeto spiegava l’accelerazione in

;;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

una maniera nuova, meccanica: nel primo breve istante di tempo la sua natura spingeva un corpo pesante libero a muoversi un po’; alla fine di questo istante, esso avrà acquistato un impeto che lo spingerà a muoversi durante il secondo istante alla stessa velocità, ma poiché la sua natura lo spinge a cadere, esso cadrà ora più velocemente che nel primo istante, e così via.

Questo è il punto in cui la trattazione medievale del movimento si avvicinò di più all’affermazione che una forza costante produce un’accelerazione costante. Poteva un tal moto accelerato esser descritto matematicamente, proprio come è possibile descrivere in questa maniera un moto uniforme? La trattazione dei corpi in movimento non uniforme era una nuova impresa che richiedeva la trattazione matematica di una quantità che variava in maniera continua. Buridano espone le obiezioni alla fisica di Aristotele, e la dottrina dell’impetus, con una ricchezza, anche di argomenti sperimentali, ignota ai suoi predecessori. Eccone qualche esempio: “La prima esperienza è quella della trottola o del tornio del fabbro; questo corpo gira a lungo, eppure non esce affatto dal luogo che occupa, sicché l’aria non si sposta per riempire qualche spazio che esso lascia vuoto”. “Seconda esperienza: si lanci un giavellotto che abbia all'estremità posteriore una punta acuta come quella dell'estremità anteriore. Esso si muove come un giavellotto comune, avente una sola punta; eppure l'aria che lo segue non potrebbe certo spingerlo con forza, dato che la punta posteriore tende anch'essa a tagliare l'aria”. “Terza esperienza: una barca spinta rapidamente contro la corrente di un fiume, non si arresta mai di colpo, e continua a muoversi per un bel tratto anche quando si cessa di spingerla. Eppure il barcaiolo che vi sta sopra, in piedi, non si sente affatto spinto posteriormente dall'aria, anzi sente che l'aria fa resistenza al moto del suo corpo... Con la vostra mano vuota voi potete muovere l'aria molto più velocemente che se voi teneste in mano una pietra che vi ripromettete di gettare: supponiamo dunque che quest'aria, grazie alla velocità del suo moto, abbia impeto bastante per muovere rapidamente un sasso: allora spingendo quest'aria verso di voi con la stessa velocità io dovrei darvi una spinta assai impetuosa e sensibile; ma ciò non si verifica affatto... “.

A Oresme si deve dare merito per avere adoperato per la prima volta una rappresentazione grafica corrispondente al nostro uso delle coordinate, costruendo il diagramma della velocità in funzione del tempo. Questo diagramma gli consente di stabilire che nel moto uniformemente vario con velocità nulla lo spazio percorso è uguale a quello che nello stesso tempo percorrerebbe un corpo dotato di moto uniforme con la velocità acquisita dopo il tempo t/2. Appartengono ad Oresme anche alcune interessanti considerazioni geometriche su una serie di moti uniformi..

Nicola d’Oresme esaminò anche il tema del movimento della Terra, trattandolo alla stregua di una questione ipotetica e fece notare che se ruotasse su se stessa tutti i fenomeni astronomici avrebbero potuto venir spiegati altrettanto bene che nel modo tradizionale, cioè con la Terra ferma al centro dell’universo; tuttavia respinse questa tesi per la ragione decisiva che la Bibbia parla della Terra come immobile. Data la concezione medievale che la ragione poteva indurre in errore, quale era la miglior difesa contro il cadere in tali errori in quelle questioni sulle quali Dio non aveva detto nulla? Una usuale risposta moderna a questa domanda è: fare esperimenti. Anche se nel medioevo la sperimentazione non fu trascurata, ma di fatto il filosofo naturale nel medioevo fu per la maggior parte meno interessato ai particolari dell’universo che a concezioni generali di esso. Non è esagerato dire che il medioevo studiò la scienza come se fosse teologia e la Fisica di Aristotele come se fosse la Bibbia. Il fatto di base è che

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;:!

l’Europa del XII secolo era assolutamente carente di uomini in grado di criticare la scienza di Aristotele come vorrebbe uno scienziato moderno. Non mancò invece del tutto di validi filosofi che, di fronte alla scienza aristotelica, si chiedevano non “E’ vera?”, ma piuttosto “Queste teorie sono coerenti?”. Il tentativo di rispondere a queste domande aveva prodotto, verso la fine del medioevo, una vasta mole di commenti, e anche un po’ di scienza.

Nicola d’Autrecourt (morto dopo il 1350), discepolo di Buridano, ha esercitato su alcune categorie della fisica tradizionale, quali quelle di sostanza e causalità, una radicale critica chiarificatrice. Il punto di partenza di questa critica è che esistono solamente due tipi di proposizioni enuncianti conoscenze valide: le proposizioni analitiche, fondate sull’evidenza del primo principio (principio di non contraddizione), e le proposizioni empiriche, che enunciano fatti, fondate sull’evidenza dei cinque sensi. Ora, il nesso causa-effetto non è mai dato come un nesso analitico: perché in tal caso la proposizione enunciante l’esistenza dell’effetto sarebbe implicata in quella enunciante l’esistenza della causa, e allora nel passaggio dalla causa all’effetto non si verificherebbe nulla di nuovo, cioè non ci sarebbe un effetto. D’altra parte, il nesso causa-effetto, come tale, non è neppure mai dato come fatto di esperienza, ciò che è dato sono successioni ordinate di fenomeni che si seguono secondo un certo ordine empirico, ed è appunto in questo senso, e solo in questo senso, che si può parlare propriamente di cause ed effetti.

Ma la stessa critica si applica ugualmente anche al concetto di sostanza; questa infatti è una specie particolare di causa, quella che si suppone star dietro o sotto le qualità sensibili delle cose, producendole o causandole continuamente (così il colore è un effetto che si suppone causato da certe peculiarità della sostanza colorata). Queste analisi delle due categorie fondamentali della fisica aristotelica aprono la strada a quella che ne sarà l’interpretazione per opera dei creatori della scienza moderna, nella quale il rapporto causa-effetto si risolverà in una serie di fenomeni, in un processo di eventi successivi nel tempo, il che porterà, per esempio, all’eliminazione degli astri come possibili cause di eventi sulla terra (mancando la possibilità di assegnare anelli intermedi nella catena del presunto processo casuale che dovrebbe andare dall’astro alla cosa terrena), e all’eliminazione delle cause finali (il cui rapporto con l’effetto non è rappresentabile come un processo di eventi successivi nel tempo). Intanto, accanto alla teoria dell’impetus, sebbene in via puramente dialettico-probabilistica e come mera alternativa alla concezione della fisica aristotelica, si andava elaborando un’altra dottrina della filosofia della natura: la teoria atomica, destinata ad avere grandi sviluppi nei secoli successivi. La critica alle due categorie fondamentali della fisica aristotelica, sostanza e casualità, che d’Autrecourt aveva elaborato, comportava che la realtà, fisica e psichica, veniva dissolta in un fascio di apparizioni fenomeniche, le uniche, in ultima analisi, di cui possiamo ragionevolmente aver qualsiasi certezza. Ora, questo fascio di fenomeni che è la realtà, e i mutamenti che vi avvengono, trova secondo Nicola, una miglior spiegazione ove si concepiscano tutti i fenomeni, quali la luce, come movimenti di particelle o atomi. Nicola, però, non arriva a concepire meccanicamente le leggi di tali movimenti e sembra attribuirle a disposizioni innate degli atomi stessi.

Un’altra idea che affiora attraverso i commenti e le dispute sulla fisica di Aristotele è l’idea di gravità, la quale già era al centro di molti problemi tecnici dell’epoca. Tra i vari problemi relativi alla gravità aventi un particolare interesse per i

;=<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

successivi destini della dinamica è quello della velocità di caduta di un grave, problema che sarà risolto pienamente solo da Galileo. Alberto di Sassonia (1316-1390) presenta due ipotesi tra le quali rimane incerto: che la velocità di caduta sia proporzionale al tempo della caduta oppure che essa sia proporzionale agli spazi percorsi. Nicola d’Oresme propendeva per la prima, quella che attraverso l’opera di Galileo si imporrà nella fisica moderna.

Contemporanea e rivale della scuola di Parigi, i cui maggiori rappresentati furono Buridano e Oresme, fu la scuola di Oxford. Appena fondata, siamo nel 1209, fu chiamato a insegnarvi Roberto Grossatesta (ca. 1168–1253), considerato da molti il vero introduttore in Occidente di Aristotele, che unì ai suoi interessi logici un più sviluppato empirismo. La sua originalità consiste nell’aver affermato il principio secondo il quale lo studio della natura deve essere fondato sulla matematica, principio che sarà affrontato da Galileo con maggior rigore e profondità e che costituisce il fondamento della scienza moderna: “L’utilità dello studio delle linee, degli angoli, delle figure è grandissima, giacchè senza di esse è impossibile conoscere nulla della filosofia naturale. Esse valgono assolutamente in tutto l’universo e nelle parti di esso”. In queste parole sembrano riecheggiare quelle di Galileo, espresse qualche secolo più tardi nel suo lavoro Il Saggiatore:“La filosofia è scritta in questo grandissimo libro, che continuamente ci sta aperto innanzi agli occhi (io dico l'Universo), ma non si può intendere se prima non s'impara intender la lingua, e conoscer i caratteri ne’ quali è scritto. Egli è scritto in lingua matematica, e i caratteri son triangoli, cerchi, cd altre figure geometriche, senza i quali mezzi impossibile a intenderne umanamente parola; senza questi è un aggirarsi vanamente per un oscuro labirinto”. Inoltre Grossatesta esprime esattamente la legge di economia che regola i fenomeni naturali, quale sarà poi affermata da Galilei: ogni operazione della natura si verifica nel modo più determinato, più ordinato, più breve che ad essa è possibile.

Dobbiamo a lui anche il primo sforzo per orientare la ricerca filosofica verso la scienza, per trovare un principio unico di spiegazione dell’universo fisico, che secondo Grossatesta va ricercato nella lux, che erroneamente pensa si propaghi con velocità infinita in tutte le direzioni, se non incontra ostacoli. Ne deduce matematicamente la forma sferica dell’universo e giunge ad identificare la luce con lo spazio stesso. Quantunque privi, naturalmente, dei concreti significati scientifici che oggi li accompagnano, le sue idee sono curiosamente vicine a quelle della relatività e della teoria dei campi. Come conseguenza della identificazione fra spazio e quella forma prima della materia prima che è la lux, Grossatesta giunge alla conclusione, molto suggestiva per lo sviluppo della scienza fino a Galileo, che lo studio geometrico dello spazio possa offrire lo strumento atto a penetrare i più intimi segreti della natura.

La particolare rilevanza di Grossatesta è legata anche al suo profondo interesse per il controllo delle teorie scientifiche. Soltanto quando tali proposizioni si fossero dimostrate vere sarebbe stato possibile conoscere le vere cause delle cose. Così egli riconobbe il carattere formale delle dimostrazioni in fisica matematica, cioè derivazioni da appropriate definizioni e assiomi. Tuttavia, nella scienza, tutte le proposizioni non hanno questa verità formale, di conseguenza Grossatesta sostenne che tali proposizioni dovevano esser verificate in rapporto all’esperienza. Grossatesta precisò ulteriormente che le proposizioni dovrebbero anche essere sottoposte alla prova di falsificazione da parte dell’esperienza, metodo d’indagine che Popper nel XXI secolo svilupperà in profondità e che diventerà strumento indispensabile per la ricerca scientifica. Sebbene

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=;!

fornisse pochi esempi pratici dell’uso delle sue idee sul metodo scientifico, egli scrisse un libro sull’arcobaleno in cui avanzava l’ipotesi che l’arco colorato potesse esser provocato dalla rifrazione della luce solare in una nuvola.

Roberto Grossatesta si può considerare come l’iniziatore del movimento che, contro l’influenza dell’aristotelismo, si fa promotore di un risoluto ritorno al platonismo agostiniano, e che avrà come suo carattere costante l’interesse per il mondo naturale, fatto oggetto di una ricerca che non si appaga dei testi aristotelici, ma intende procedere, in piena autonomia, con il ragionamento e con l’esperienza.

Ruggero Bacone (ca. 1214-1292), il più illustre discepolo di Grossatesta, è stato considerato come il precursore del metodo sperimentale in virtù del titolo De scientia sperimentali dato alla sesta parte dell’opera Opus majus. Ma in Bacone il vocabolo ha accezione molto più ampia dell’attuale. Egli, infatti, dice: ”L’esperienza è duplice: una attraverso i sensi esterni … ma questa esperienza non basta all’uomo, perché non certifica pienamente sulle cose corporali, e nulla tocca delle spirituali. Quindi occorre che l’intelletto dell’uomo si giovi di altro e perciò i santi patriarchi e profeti, che per primi dettero al mondo le scienze, ricevettero illuminazioni interiori e non si attenevano soltanto al senso”. Da questo passo si deduce che Bacone fu soprattutto un teologo, di molto ingegno, spesso d’indipendente giudizio, ma rimasto legato ai suoi tempi, con le credulità e le limitazioni proprie dell’epoca. La quinta parte dell’Opus majus è quella che più direttamente interessa la fisica in quanto è completamente dedicata all’ottica. La trattazione è tutta basata sull’opera di Alhazen, con piccole aggiunte e qualche applicazione. Espone la proprietà dei cristalli convessi, e ne indica l’uso come microscopi. Accenna anche alla possibilità di un telescopio, quattro secoli prima di Galileo. Notevole è il fatto che Bacone, oltre a sostenere la velocità finita della luce, sostenga anche che essa non è emanazione di particelle, ma propagazione di moto. Naturalmente si esagera quando si dice che questa vaga intuizione è un’anticipazione della teoria ondulatoria della luce.

Con tali ricerche bene si ricollega il criterio generale del filosofo che la scienza debba procedere dal ragionamento collegato con l’osservazione e l’esperienza. Dopo la pubblicazione dell’Opus Maius, Bacone ebbe a soffrire 12 anni di carcere. Il cattolico francescano illuminista credeva in buona fede di allargare il pensiero religioso, penetrando in campi di ricerca che erano stati fin allora vietati e maledetti. In effetti, la libertà coraggiosa con cui Bacone insegna ad affrontare la ricerca del vero, contiene un implicito rovesciamento del criterio che S. Agostino stesso aveva predicato, condannando la libertà dell’errore come “triste morte dell’anima”.

Alla scuola di Oxford appartenne Guglielmo Heytesbury (ca. 1315-1371), autore di trattati diffusissimi. Heytesbury ha l’esatto concetto di accelerazione positiva e negativa, conosce la regola di Oresme relativa allo spazio percorso in un moto uniformemente accelerato e sa che nella prima metà del tempo lo spazio percorso è la terza parte di quello percorso nella seconda metà. Quest’ultimo teorema sarebbe stato esteso da un altro maestro della scuola, Guglielmo Colligham, con la proposizione che gli spazi percorsi in tempi eguali successivi crescono come la serie naturale dei numeri dispari.

Mentre la scuola di Parigi non esitava a opporsi ad Aristotele, la scuola di Oxford cercava soprattutto un’interpretazione matematica della sua fisica. Tommaso Bradwardine (ca. 1290–1349) è il più importante esponente di questo indirizzo. Nel suo

;==! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Tractatus proportionum egli tenta di dare una formulazione matematica della legge aristotelica del moto uniformemente accelerato, sostituendo la legge del moto di Aristotele:

con una nuova:

Bradwardine ebbe il merito di avere introdotto il concetto che la resistenza del mezzo cresce rapidamente con la velocità, e insieme ad altri della sua scuola, fu il primo a distinguere tra le cause del movimento (dinamica) e la descrizione del movimento (cinematica).

Queste ricerche sul movimento portarono la fisica medievale al suo vertice e fornirono un fertile terreno intellettuale al XVII secolo. Quantunque contenessero importanti idee di matematica pura, fu soprattutto il loro uso della matematica in una teoria scientifica ad essere cruciale, perché conduceva, in definitiva, alla rovina dell’intero sistema di Aristotele. Tuttavia questa vivacità del XIV secolo mancò il suo risultato. Le sue nuove idee e i suoi nuovi argomenti furono un corollario della concezione del mondo di Aristotele: esse non l’avevano sostituita. E per un’ottima ragione: i filosofi matematici medievali prestavano molta attenzione agli astratti movimenti delle sfere, senza considerare molto la reale traiettoria dei corpi celesti. Essi non affermarono che i loro teoremi cinematici si applicavano ai movimenti dei corpi reali, rendendosi magari conto che in molti casi questo non era possibile. Dedussero, correttamente, le conseguenze che dovrebbero seguire da certe supposizioni, ma non scoprirono se queste supposizioni fossero fisicamente valide o no. Così il trecento indebolì di poco l’autorità delle concezioni di Aristotele.

Il mondo medievale riconquistò la scienza greca, imparando molto più di quanto i romani avessero mai conosciuto. Aveva fatto di Aristotele il suo maestro in logica, fisica e cosmologia e aveva preparato nuove capacità, mettendo in discussione lo stesso Aristotele, che avrebbero reso l’uomo capace di esplorare il mondo e la natura più profondamente e ampiamente di prima, mentre nello stesso tempo poneva le basi di un nuovo approccio intellettuale alla scienza.

4.6 La ricerca scientifica medievale

Contemporaneamente agli sviluppi del pensiero scientifico teorico, dal secolo XII in poi si vengono sviluppando varie forme di ricerca le quali, o perché già formalmente scientifiche o per gli orizzonti che apriranno alla fisica, hanno comunque un notevole rilievo per gli sviluppi successivi.

Una scienza in particolare, oltre alla matematica, si affaccia sulle soglie della scienza moderna, ed è la meccanica, distaccata dalla cultura universitaria e fiorisce a contatto immediato con bisogni pratici e non sente minimamente l’influsso delle grandi correnti filosofiche. È giunto fino a noi un corpus di scritti medievali di meccanica, costituito da un gruppo di manoscritti del secolo XIII e da due edizioni a stampa del secolo XVI, che sono dovuti non a filosofi o professori universitari ma a tecnici preoccupati soprattutto di problemi inerenti alla scienza delle costruzioni. Il problema fondamentale è la traduzione in sede tecnica di un problema largamente discusso nelle università commentando la fisica aristotelica: il problema della gravità. Da un punto di

RFV /∝ 10)R/Flog(V ∝

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=4!

vista tecnico riguardava l’equilibrio dei pesi e dello scarico degli stessi nel caso di masse pesanti gravanti su costruzione date. Tale problematica era particolarmente legata all’architettura dell’epoca nel trapasso dall’arte romanica all’arte gotica. Con ciò venivano poste le basi di un importante capitolo della meccanica razionale, la teoria del moto e dell’equilibrio dei gravi lungo un piano inclinato.

Il precursore di Leonardo (XIII secolo) (anonimo autore di un trattato di meccanica utilizzato da Leonardo da Vinci nelle sue speculazioni meccaniche) trova in proposito un’importante relazione matematica, che, perfezionata nei secoli seguenti, costituirà uno dei princìpi fondamentali della statica moderna: due pesi, i quali scendono da bande opposte di due piani inclinati formanti tra loro un certo angolo, si fanno equilibrio quando sono proporzionali alle lunghezze dei piani inclinati stessi. Questo materiale di osservazione, elaborato alla luce della nuova matematica, costituirà il primo capitolo della fisica moderna.

Il punto più alto dell’ottica medievale fu raggiunto da Teodorico di Friburgo (m. 1311) che portò diversi esperimenti a sostegno della sua teoria che l’arcobaleno è causato da due rifrazioni e una riflessione sulla superficie di gocce di pioggia sferiche, e della sua spiegazione dei colori, presa da Averroè, come varie misture di luce e di oscurità.

Il magnetismo è il solo ramo della fisica interamente d’origine medievale e il primo trattato di magnetismo, De magnete, è dovuto a Pietro Peregrino di Marincourt (XIII sec.) Nel trattato s’insegna che i quattro caratteri distintivi del buon magnete sono: colore, peso, facoltà d’attrarre, tesatura compatta e senza bolle. Sono tutti caratteri, a eccezione del peso specifico, ritenuti ancora oggi buoni indizi per riconoscere la qualità del magnete. Inoltre, s’insegnano i metodi sperimentali per trovare la polarità del magnete, compresa la legge basilare che “poli eguali si respingono, poli opposti si attraggono”, a magnetizzare il ferro per contatto, a descrivere il fenomeno d’induzione magnetica e l’esperienza della calamita spezzata. Da questa ordinatissima trattazione sperimentale Peregrino passa, come se fosse un trattatista moderno, alla speculazione teorica, chiedendosi quale sia la causa dell’azione magnetica. Confutata la teoria dei suoi tempi che attribuiva l’orientamento dell’ago alle grandi miniere di magnetite che sarebbero esistite nelle regioni del polo nord, Peregrino sostiene che il cielo influenza il magnete in modo che ogni punto del cielo induce un punto analogo sulla sfera magnetica; ne segue che un magnete sferico equilibrato sul suo asse polare ruoterà sul suo asse, secondo il moto del cielo. Questa teoria fa intravedere l’origine astrologica e magica dello studio del magnetismo. Infine nel trattato si affrontano le applicazioni tecniche delle proprietà magnetiche, come la descrizione di un primitivo grafometro magnetico per mezzo del quale è possibile determinare l’angolo azimutale del Sole o di una stella all’orizzonte e la bussola a perno.

;=5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&()!

I grandi spiriti hanno sempre incontrato violenta opposizione da parte delle

menti mediocri

Einstein

/$(&-0!$%#-#,!&(0*!$-&)%##

5.1 Umanesimo e Rinascimento: anticipazioni del moderno

Convenzionalmente si fa cominciare nel secolo XV (1453: fine dell’impero romano d’Oriente, oppure 1492: scoperta dell’America) l’Età moderna, però i secoli XV e XVI, nei quali l’umanesimo e il rinascimento si sviluppano, dal punto di vista sociale non contengono sostanziali novità rispetto all’ultimo medioevo, se non nell’accentuarsi e nell’intensificarsi dei cambiamenti in atto.

La crisi politica e sociale che domina la fine del medioevo raggiunge il culmine; la rivoluzione borghese giunge al suo apice fuori dall’Italia, mentre in Italia l’impeto della borghesia si viene arrestando. Perciò è in Italia che inizia l’era moderna, ma verrà portata a termine altrove, in Francia, in Germania, nei Paesi Bassi e in Inghilterra. Sulla crisi della società feudale, della chiesa e dell’impero si sviluppano, in Italia e altrove, nuove potenze politico-economiche: i prìncipi, che riescono, attraverso la formazione di ingenti patrimoni personali e con l’appoggio dei ceti di plebei arricchiti, cioè la borghesia mercantile, a prendere nelle proprie mani l’esercizio dei poteri politici effettivi, esautorando le vecchie classi dirigenti. Ma mentre in Italia il principato non riesce ad evolversi a monarchia vera e propria, a divenire forza centripeta capace di convogliare intorno a sé tutto un movimento culturale, politico ed economico, altrove, soprattutto in Francia e in Inghilterra, questo avviene, e il principato diventa monarchia assoluta e nasce lo stato moderno. In conseguenza di ciò, la chiesa perde quell’egemonia sulla cultura, lungamente detenuta nel passato, che ora si trasferisce ai laici, ovvero alla borghesia cittadina, per cui l’aspetto più notevole dei secoli XV e XVI è proprio il formarsi di una cultura laica. I prìncipi e i ricchi mercanti si trasformano in mecenati del sapere, concedendo protezione e stipendi ad artisti, letterati, filosofi e scienziati, che neppure formalmente appartengono al clero. Si diffondono le Accademie, veri centri di studio e di ricerche sia lettarario-filosofiche che scientifiche, come quelle di Firenze, Padova e Napoli, per cui i centri del sapere e della diffusione della conoscenza non sono

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=6!

più, o per il momento solamente, i monasteri o le università ecclesiastiche. Questo spiega anche come molti studiosi e dotti ecclesiastici di questo periodo obbedissero ad ispirazioni culturali laiche, ad una cultura nettamente estranea alla tradizione scolastica medievale. Si tratta oramai di una libera cultura, liberamente elaborata da studiosi non controllati, che, grazie anche all’evoluzione della stampa e alla formazione di grandi biblioteche pubbliche, si diffonde, fuori dei veicoli tradizionale della scuola, attraverso libri accessibili a molti lettori non aventi qualifiche accademiche.

Il nuovo movimento di pensiero espresso da questa cultura, movimento che si pone di fronte alla tradizione delle scuole medievali fino a fermarla per sempre e a sostituirla nella storia del pensiero vivo, prende il nome di Umanesimo e Rinascimento. Queste denominazioni, più che due periodi successivi, indicano due tendenze in contrasto che dominano la scena della cultura nei secoli XV e XVI: di indirizzo retorico-filologico la prima, naturalistico-scientifico la seconda; notando però che tra l’una e l’altra gli scambi e i contatti furono molti e a volte molto vicini. E soprattutto hanno in comune lo stesso spirito di libertà, attraverso cui l’uomo rivendica la sua autonomia di essere razionale e di riconoscersi profondamente inserito nella storia e nella natura, che diventano adesso i suoi regni terreni da governare.

5.2 L’Umanesimo L’aspetto più notevole dell’Umanesimo è il culto dei classici, sia latini che greci,

che, rispetto al Medioevo, si fa più esteso dal punto di vista quantitativo e più intenso e fervido, per non dire entusiastico e perfino fanatico, dal punto di vista qualitativo. Per gli umanisti la conoscenza degli antichi era più elevata di quella da loro posseduta, ed il progresso corrisppondeva ad un risveglio, una rinascita, del sapere classico.

La filologia è la scienza sovrana degli umanisti, e penetra quasi tutti i campi della cultura, e si configura come uno strumento di indagine capace di liberare il rigoroso discorso dei grandi esponenti della scienza antica dalle alterazioni della Scolastica, anche se si corre il rischio di risolversi in un’opera di esercizio filologico sui testi della scienza classica. Gli umanisti, opponendo la retorica e l’eloquenza alla logica formale pura dell’ultima scolastica, danno origine al problema che da Bacone arriverà fino a Newton, e cioè di ottenere al posto di un discorso meramente formale che si esauriva interamente sul piano del linguaggio, forme di aggregazione che più direttamente portassero sulle cose e permettessero quindi un discorso che, fondato sull’esperienza, potesse da questa giungere alla formulazione di verità generali non astrattamente metafisiche o formalmente logiche, ma tali da garantire possibilità all’intervento attivo dell’uomo nella natura.

Il primo annunzio della rinascita è in Dante Alighieri (1265-1321), uomo non solo di grandissima cultura, ma anche di straordinaria intelligenza matematico scientifica. Nel medioevo il campo scientifico e umanistico fiorirono sul medesimo terreno culturale, e per gran parte della storia successiva medievale l’orizzonte culturale rimase sostanzialmente uno e privo di fratture. In particolare la scienza e la letteratura nacquero sulle

medesime basi: la curiosità nei confronti del mondo che ci circonda, il desiderio mai appagato di raggiungere la piena verità, lo stupore nei confronti dei meccanismi di

;=7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

straordinaria precisione e bellezza che regolano l’universo. In natura il bello è anche armonioso, è anche geometrico, e ciò che desta stupore è anche scientificamente preciso e perfetto, e sono proprio questi meccanismi fisici-matematici che portano a stupirsi. Indagare il bello e l’incredibile attraverso i sentimenti che questi suscitano, o attraverso le regole che li generano, differisce solo perché in un caso sono indagate le conseguenze, nell’altro le cause. Gli oggetti di studio sono complementari ma le sensazioni da cui derivano sono le stesse. Piacere estetico, curiosità e ammirazione riempiono il lavoro tanto dello scienziato quando del poeta. Per quanto riguarda i metodi di espressione di queste sensazioni, tanto lo scienziato quanto il poeta utilizzano un linguaggio di grande potenza. Il poeta condensa concetti e sentimenti in parole che evocano visioni, e che formano versi per i quali molto spesso è necessario darsi schemi quasi scientifici, metrici e di resa espressiva. Lo scienziato dal canto suo si trova a destreggiarsi con un linguaggio altrettanto sintetico, potente ed espressivo, il linguaggio della matematica. In una formula sono compresse leggi che, per la loro verità inconfutabile e per il loro significato denso di conseguenze, sembrerebbero pronte a esplodere da un momento all’altro. Ma la ragione ultima, e forse più importante, che spinge tanto il poeta che lo scienziato ad indagare, seppur con strumenti espressivi diversi, sulla natura è il piacere intellettuale, la forza propulsiva dell’immaginazione, che lancia la ragione a una corsa senza fine (e che sia immaginazione artistica o matematica poco cambia). E’ l’uomo razionale che si pone di fronte allo spettacolo dell’universo e cerca di carpirne i segreti più nascosti. E quali armi intellettuali usa per tale indagine? L'osservazione, la logica e

il ragionamento sono i punti cardini di fronte ai fenomeni che Dante osserva nel viaggio ultraterreno attraverso L’Inferno, Il Purgatorio ed Il Paradiso. Dante è, dunque, poeta e scienziato, perchè ha saputo cogliere ed interpretare originalmente il potere immaginifico e metaforico delle scienze.

Certo, Dante è uomo di cultura scientifica medievale e scolastica, un'epoca in cui la scienza era ben diversa dalla nostra: non si basava esclusivamente su leggi matematiche, come sarà da Galileo Galilei in poi, ma su meditazioni ed elaborazioni filosofiche nelle quali si mescolavano la Teologia, la Filosofia Scolastica, la Fisica Aristotelica, l'Astrologia, l'Alchimia, la Magia, insieme al grande retaggio della matematica e della fisica greche. Ma la sua opera poetica nasce e vive in un clima nuovo ed annunzia gli aspetti fondamentali del Rinascimento.

Se Dante è ancora dottrinalmente legato al Medioevo, Francesco Petrarca (1304-1374) si stacca anche dottrinalmente da quel mondo e inizia in pieno l’Umanesimo. La polemica che egli condusse contro l’averroismo, con le armi della sapienza classica e cristiana, segna appunto quel distacco. La diffusione dell’averroismo, con il crescente interesse che suscitava per l’indagine naturalistica, sembra a Petrarca che distragga pericolosamente gli uomini da quelle arti liberali, che sole possono dare la sapienza necessaria per conseguire la pace spirituale in questa vita e la beatitudine eterna nell’altra. Secondo Petrarca, quasi tutte le conoscenze che quegli indagatori naturalisti giungono a possedere si rivelano false all’esperienza. Poiché lo sbocco del Rinascimento è la nascita della nuova scienza della natura, la polemica contro la scienza da parte di Petrarca è stata interpretata come la difesa della trascendenza religiosa e della sapienza rivelata contro la libertà della ricerca scientifica. Ma non dimentichiamo che l’animo di Petrarca rimane ancora diviso tra l’ammirazione per la natura e l’ammonimento della sapienza. Combattono nel suo spirito l’uomo medievale, chiuso nell’esasperata volontà di salvezza eterna, e l’uomo moderno amante della natura.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=8!

Gli umanisti, però, non furono passivi ripetitori della sapienza antica e fu presente, nei loro scritti, una costante polemica non solo contro la “barbarie” degli Scolastici, ma anche contro i pericoli della ripetizione e del classicismo. La contrapposizione della aemulatio alla imitatio divenne il grido di battaglia di molti intellettuali europei da Angelo Poliziano (1454-1494) a Erasmo da Rotterdam (1469-1536). Nella cultura umanistica è in realtà presente un forte contrasto fra “la venerazione per gli antichi” (che conduce al classicismo) e una difesa della eguaglianza dei “moderni” che anticipa alcune delle tesi avanzate, nel corso del Seicento, nella disputa sugli antichi e sui moderni. I testi riscoperti dagli Umanisti, nel corso del loro grandioso ed esaltante lavoro di ritrovamento, di raccolta, di commento, non si configuravano come semplici documenti. Quegli antichi testi contengono conoscenza: sono direttamente utili alla scienza e alla sua pratica. La diffusione di edizioni fatte direttamente sugli originali greci, di traduzioni non più fondate (come nel Medioevo) su traduzioni arabe di opere greche, ebbe effetti decisivi sugli sviluppi del sapere scientifico.

5.3 Il Rinascimento Il Rinascimento presenta insieme e profonde affinità e profondi contrasti con

l’Umanesimo. Lo stesso intenso e amoroso studio dei classici, la stessa tendenza a riconnettersi alla tradizione antica, lo stesso, ed anzi più accentuato spirito laico e borghese. Però, nel momento stesso in cui fanno ricorso ai testi dell'antichità, filosofi come Bacone e Cartesio negano il carattere esemplare della civiltà classica e respingono non solo la pedante imitazione e la passiva ripetizione ma anche quella aemulatio, sulla quale avevano insistito i migliori fra gli umanisti, appare ad essi qualcosa che non ha più senso. Avendo a disposizione soltanto gli occhi, gli antichi non potevano spiegare la Via Lattea diversamente da come fecero. Il fatto che conosciamo oggi la natura più di quanto essi la conoscevano, ci consente di “adottare nuovi pareri senza ingiuria e senza ingratitudine”, per cui “senza contraddirli, possiamo affermare il contrario di ciò che essi dicevano”. Nelle pagine di Bacone, di Cartesio, di Galilei l'impresa scientifica si configura come un avventura intellettuale che implica la capacità di guardare il mondo senza più bisogno di guide o autorità. Il terreno stesso di una contesa con gli antichi viene rifiutato con decisione: “chi è troppo curioso delle cose del passato diventa, per lo più, molto ignorante delle presenti” afferma Cartesio e lo spirito degli uomini che vissero nell'antica Grecia appare a Bacone “angusto e limitato”. La imitatio sembra non avere altra giustificazione che la pigrizia degli uomini, si fonda sul bisogno, che in essi è presente, di delegare ad altri le loro capacità razionali. Anche la scoperta di nuove terre, come l’America, e l’allargamento dei confini del mondo avevano dato modo di sperimentare la limitatezza delle dottrine degli antichi. Si fa sempre più chiaro che la filosofia e la scienza degli antichi non sono raccolte di verità immutabili ed eterne, ma sono invece prodotti storici, legati ad un tempo e ad un luogo determinati.

Quindi, soprattutto nel campo del pensiero scientifico, le differenze tra Rinascimento ed Umanesimo sono molte e profonde. In generale, salvo pochi spunti e pochi aspetti, come movimento complessivo l’Umanesimo è stato antiscientifico: per i suoi stessi interessi letterari, per le sue simpatie verso l’eredità della via antiqua della scolastica medievale, esso ha costituito piuttosto una remora allo sviluppo del pensiero

;=9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

scientifico. Invece, in questo campo, il Rinascimento è stato nettamente progressivo, anzi ha fornito le premesse culturali da cui è scaturita la Rivoluzione scientifica e quindi la scienza moderna. E ciò soprattutto per il suo esplicito agganciarsi alle correnti più progressive della tarda scolastica, alla via moderna degli Occam, Alberto di Sassonia, Buridano, sia per la concezione empirico-probabilistica della scienza, sia per quanto riguarda l’emancipazione della fisica aristotelica.

Il tratto più caratteristico della civiltà rinascimentale consiste nell’elaborazione di una nuova immagine dell’uomo e della sua vita. In questo campo, la frattura con il Medioevo è netta: mentre il Medioevo pensava che l’uomo fosse parte di un ordine cosmico già stabilito, che egli doveva semplicemente riconoscere intellettualmente e seguire nella condotta pratica, il Rinascimento ritiene che l’uomo debba costruire il proprio destino, adoperando la propria ragione e seguendo la propria libertà di pensiero. Non che l’uomo rinascimentale sia ateo o irreligioso, tutt’altro, il Rinascimento riconosce nell’uomo “fabbro della propria sorte” l’immagine e il riflesso della potenza creatrice di Dio. Infatti, la nuova visione attivistica dell’uomo, l’interesse per la natura e la rivendicazione dell’autonomia della ricerca che il Rinascimento afferma con forza costituiscono i pilastri della civiltà occidentale moderna, e non solo nel campo scientifico.

L’uomo rinascimentale è ministro e interprete della natura ed è il vertice della piramide della natura. L’uomo contempla nella natura quelle forme razionali che trova, del resto, nella sua stessa mente. L’imitazione della natura che è il canone sia della scienza che dell’arte rinascimentale non è dunque un rispecchiar passivo o un copiare meccanico: è il farsi della natura, le cui forme razionali si esplicano attraverso l’attività della mente umana (scienza) ed è l’attuarsi nella natura del disegno umano, il che l’uomo può fare grazie alla sua stessa essenziale naturalità (arte). Di qui la stretta unità di scienza, tecnica e arte che permette ad uomini come Leonardo di essere insieme scienziato, ingegnere e pittore.

5.4 La filosofia rinascimentale della natura La scienza è l’ultimo e più maturo risultato del naturalismo del Rinascimento.

L’indagine scientifica, così come si doveva annunciare nelle intuizioni di Leonardo e nell’opera di Galilei, era un’indagine fondata sull’osservazione e sull’esperimento. E l’osservazione e l’esperimento non sono cose che possono essere soltanto annunciate e programmate, non possono restare alla fase di semplici idee; devono essere effettivamente intraprese e condotte a termine, e ciò è possibile solo se sono sorrette da un interesse vitale. E questo interesse può essere costituito soltanto dalla convinzione che l’uomo è saldamente piantato nel mondo della natura e che i suoi poteri conoscitivi più efficaci e più propri sono quelli che derivano appunto dal suo rapporto con la natura. E rivolgersi all’esperienza sensibile, interrogarla e farla parlare è la sola via che conduce a spiegare la natura con la natura, cioè che non fa ricorso a principi estranei alla natura stessa. Questa autonomia del mondo naturale, che è il presupposto di ogni indagine scientifica sperimentale, è l’aspetto fondamentale della filosofia scientifica rinascimentale che cerca d’intendere ogni aspetto della natura nei suoi elementi costitutivi e nel suo valore intrinseco. Sicchè da un punto di vista generale si può dire

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=:!

che il Rinascimento ha posto le condizioni necessarie per lo sviluppo di un’indagine sperimentale della natura e cioè:

1. che l’uomo non è un’ospite provvisorio della natura, ma un essere naturale lui stesso, che ha nella natura la sua dimora;

2. che l’uomo, come essere naturale, ha sia l’interesse sia la capacità di conoscere la natura;

3. che la natura può essere interrogata e compresa solo con gli strumenti che essa stessa fornisce all’uomo.

La riduzione naturalistica viene così condotta al suo punto estremo: la natura non ha niente a che fare con gli aspetti spirituali dell’uomo; è un insieme di cose che si muovono meccanicamente e le leggi che regolano il meccanismo sono quelle della matematica. La scienza riduce la natura a pura oggettività misurabile, la stacca dall’uomo e la apre al suo dominio. Queste considerazioni, ovviamente, non possono dar ragione di tutte le caratteristiche che hanno determinato la nascita della scienza moderna. Queste caratteristiche, comunque, si possono riscontrare all’interno dell’umanesimo rinascimentale stesso. Il primo di essi è fornito proprio da quel “ritorno all’antico” che è la tendenza propria dell’umanesimo. Il ritorno all’antico produsse la reviviscenza di dottrine e di testi che erano stati per secoli trascurati, come le dottrine eliocentriche dei pitagorici e le opere di Archimede, e spesso fornirono l’ispirazione e lo spunto per nuove scoperte scientifiche. Dall’altro lato, l’aristotelismo rinascimentale, mentre provocava una nuova e più libera lettura di Aristotele, elaborava efficacemente, in polemica con le concezioni teologico-miracolistice, il concetto di un ordine naturale immutabile e necessario, fondato sulla catena causale degli eventi. Questo concetto entrò a costituire lo schema generale dell’indagine scientifica. La magia, che il Rinascimento aveva portato alla luce, accettata e diffusa, contribuì a determinare il carattere attivo e operativo della scienza moderna. Infine dal platonismo e dal pitagorismo antico la scienza derivava l’altro suo presupposto fondamentale, sul quale insisteranno Leonardo, Copernico e Galileo: la natura è scritta in caratteri matematici e il linguaggio proprio della scienza è quello della matematica. In tutti questi fattori che, con vario peso e in modi vari, condizionano e contribuiscono alla nascita della scienza moderna, il Rinascimento è presente, direttamente e indirettamente, in qualcuno dei suoi aspetti essenziali. Certamente tra quei fattori possono, e devono, essere incluse le critiche che gli scolastici del XIV secolo (Ockham, Buridano, Oresme) avevano rivolto ad alcuni punti fondamentali della fisica aristotelica, come il movimento. Tali critiche derivano, e non bisogna dimenticarlo, proprio dall’orientamento empiristico che Ockham aveva fatto prevalere nell’ultima scolastica.

Una delle figure più famose di maghi fu Teofrasto Paracelso (1493-1541), ma alcune esigenze da lui accennate ne fanno un anticipatore del metodo scientifico. L’uomo è stato creato per conoscere le azioni miracolose di Dio, per cui il suo compito è la ricerca. Ma la ricerca deve connettere insieme l’esperienza e la scienza per giungere a una conoscenza vera e sicura. Teoria e pratica devono procedere parallelamente e d’accordo, giacchè la teoria non è che una pratica speculativa e la pratica non è che la teoria applicata. Non si può prestar fede ad un esperimento senza scienza; ma chi possiede la scienza, oltre l’esperimento, sa anche perché un fenomeno debba verificarsi

;4<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

in un modo o nell’altro e può prevederne le conseguenze. La ricerca, intesa come unità di teoria e di esperimento, sarà la parola della nuova scienza. Ma questa ricerca ha in Paracelso un carattere magico.

In Italia Gerolamo Fracastoro (1478-1553), invece, tratta il tema della simpatia universale delle cose che è il fondamento della magia. Nella sua opera De sympathia et antipathia, egli spiega l’universale influsso reciproco delle cose con la dottrina empedoclea dell’attrazione tra simili e le repulsione tra i dissimili. Ma per spiegare la modalità di quest’influsso, Fracastoro ricorre alla dottrina atomistica e ai flussi degli atomi. Egli tiene fermo il principio aristotelico che nessuna azione può avvenire se non per contatto; quando perciò i simili non si toccano e non si muovono per natura l’uno verso l’altro, è necessario per spiegare la loro simpatia che dall’uno all’altro si verifichi un flusso di corpuscoli che trasmetta l’azione (questa teoria ci ricorda quella del modello standard secondo cui le forze si trasmettono grazie a particelle mediatrici).

La natura come un tutto compiuto che si trasforma, e si sviluppa incessantemente per virtù di forze immanenti, l’indagine naturale considerata come uno strumento fondamentale per portare a compimento il progetto di instaurare il regno dell’uomo nel mondo, sono le idee che animano l’opera di Telesio (1509-1588) che, nella sua opera La natura secondo i propri principi, enuncia la teoria secondo cui l’uomo, per conoscere la natura, deve ascoltarne i ritmi e indagarne le leggi interne. In altre parole la natura va studiata iuxta propria principia e non secondo concetti precostituiti, come quelli di atto, di potenza, ecc. che traggono origine dal nostro intelletto, anziché dalla natura stessa; in sostanza l’uomo non deve più imporre alla natura le sue leggi, ingabbiandola nei propri schemi concettuali, ma deve cercare di leggerne i princìpi nascosti che ne regolano la vita; ma come: i princìpi del mondo fisico sono spiegabili solo attraverso i princìpi sensibili, stabilendo così l’equazione fra “ciò che la natura stessa manifesta” e “ciò che i sensi fanno percepire”. Proprio da questo metodo scaturisce il suo empirismo. L’uomo per conoscere la natura non deve far altro che far parlare, per così dire, la natura stessa, affidandosi alla rivelazione che essa fa di sé a lui in quanto è parte di essa. L’uomo può conoscere la natura solo in quanto è, lui stesso, natura. La sensibilità non è altro che l’autorivelazione della natura a quella parte di sé, che è l’uomo. Telesio giunge così alla fecondissima idea di una spiegazione della natura per mezzo della natura, senza ricorso a princìpi estranei ad essa, affermando, in sostanza, l’autonomia e l’oggettività della natura, aprendo la strada alla rivoluzione scientifica di Galileo.

I nuovi concetti che Telesio introduce nella spiegazione dei processi naturali e che oppone alla forma e alla materia prima di Aristotele, sono la massa materiale e la forza. La massa materiale è diversa dalla materia di Aristotele, perché non è astratta potenzialità, bensì qualcosa di più concreto, qualcosa di indistruttibile che “non avendo facoltà di agire e di generarsi, non può né aumentare né diminuire”. La massa materiale è identica sugli astri e sulla Terra e la sua caratteristica fondamentale è quella di occupare delle porzioni di spazio pur senza identificarsi con lo spazio, visto che, come vedremo, Telesio ammette l’esistenza di uno spazio assolutamente vuoto. Mentre la materia è unica le forze, invece, sono due: una dilatante, che chiama calore, ed una restringente, che chiama freddo. Calore e freddo sarebbero, dunque, non proprietà della materia, ma energie che la mettono in moto; esse sono imponderabili perché penetrano in qualunque punto, tuttavia non possono agire senza massa corporea. L’analogia di queste due forze con l’amore e l’odio di Empedocle è evidente. Tutte queste riflessioni

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;4;!

richiederebbero una nuova fisica, che sarà costruita solo alcuni decenni dopo la morte di Telesio. La sede del calore è il Sole, mentre la sede del freddo è la Terra. Sole e Terra vengono ad essere così i due corpi elementari che non mutano, mentre tutti gli altri corpi sono soggetti al divenire. Su questo punto è evidente il legame di Telesio con la concezione tradizionale del cosmo, e, diversamente da ciò che farà Bruno, non abbraccia ancora la concezione copernicana né si rende conto della sua importanza scientifica e filosofica. Anche la matematica, secondo Telesio, deve fondarsi sull’esperienza, e non venire pensata come una costruzione aprioristica di concetti che l’intelletto imporrebbe, dall’alto, ai dati empirici.

Sarebbe vano cercare notevoli scoperte scientifiche nelle opere di Telesio, piuttosto, notevole per l'indirizzo culturale e metodologico che le ispira è la polemica antiaristotelica, la tendenza a risalire ai naturalisti presocratici, ad affermare che il conoscere deve fondarsi sulla esperienza, e che non dobbiamo andare in cerca di cause finali, di ragioni teleologiche tratte dal di fuori del mondo fisico. Questa critica all’aristotelismo investe tutti i punti, anche quelli fondamentali. Aristotele aveva considerato Dio come il motore immobile del cielo. Telesio ritiene che l’azione di Dio non possa essere ristretta a spiegare un fatto determinato o un determinato aspetto dell’universo. Deve essere invece riconosciuta come assolutamente universale e presente in tutti gli aspetti dell’universo, come fondamento o garanzia di quell’ordine che assicura la conservazione di tutte le cose. Dio dunque non può essere invocato come causa diretta e immediata di un qualsiasi evento naturale; è semplicemente il garante dell’ordine dell’universo. E come tale la sua azione si identifica con quella delle forze autonome della natura. Telesio da un lato mantiene fermamente il principio dell’autonomia della natura contro la stessa dottrina aristotelica del primo motore; dall’altro, come farà Cartesio, vede nell’azione divina la garanzia dello stesso ordine naturale.

Risultati specificatamente scientifici raggiunti o accettati da Telesio sono: il moto come fondamento dei fenomeni naturali; l’ammissione che nulla si crea e nulla si distrugge; eliminazione delle intelligenze motrici; opposizione all'idea aristotelica dell'orrore del vuoto, sostenendo che lo spazio è un essere di per sé stante (assoluto), distinto dalla materia, e identico in ogni suo punto sicché è da respingere la fisica di Aristotele che spiega gli accadimenti naturali mediante una tendenza degli elementi al loro luogo naturale; e ciò è assurdo perché ogni luogo dello spazio si comporta indifferentemente verso ogni materia: “il luogo... rimane perpetuamente il medesimo, ed è in grado di accogliere senza il minimo indugio tutti gli oggetti che vanno ad occuparlo”.

5.5 Aristotelismo e platonismo A questo punto è necessario dare uno sguardo alle scuole di pensiero, o dir si

voglia filosofie, del Rinascimento. Dal secolo XIV al XVI le due filosofie che tengono il campo sono l’aristotelismo e il rinascente platonismo; il primo diffuso prevalentemente nelle università sia ecclesiastiche che laiche, il secondo, invece, in ambienti eminentemente laici come le accademie.

L’aristotelismo umanistico e rinascimentale, che ha il suo principale centro a Padova, però, per il suo dogmatismo ed eccessivo formalismo dialettico, l’idolatria per

;4=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Aristotele, rispetto alla scienza, rappresenta un grande ostacolo al progresso del sapere scientifico. All’aristotelismo rinascimentale faceva difetto quel riconoscimento della naturalità dell’uomo e dei suoi mezzi di conoscenza, che è la condizione necessaria e indispensabile di ogni indagine sperimentale della natura. Sotto questo aspetto, l’aristotelismo non poteva fornire alla scienza alcun impulso innovatore. Solo la ribellione rinascimentale potè realizzare il mutamento radicale di prospettiva da cui nacque l’indagine scientifica e la nuova concezione del mondo. Questa concezione, alla quale contribuirono ugualmente platonici come Cusano, filosofi naturalisti come Telesio e Bruno, scienziati come Copernico e Galileo, è l’antitesi precisa di quella aristotelica. Il mondo non è una totalità finita e conclusa ma un tutto infinito e aperto in ogni direzione. L’ordine di esso non è quello finalistico ma quello causale: non consiste nella perfezione del tutto e delle parti ma nella concatenazione necessaria degli eventi. La conoscenza umana del mondo non è un sistema fisso e concluso, ma il risultato di tentativi sempre rinnovati che devono continuamente essere sottoposti a controllo. Lo strumento di questa conoscenza non è una ragione soprannaturale e infallibile, ma un insieme di poteri naturali fallibili e correggibili.

Tuttavia, l’aristotelismo ha avuto indubbi meriti scientifici. Gli aristotelici, vedendo nell’aristotelismo il modello della scienza naturalistica e quindi la rinascita dell’indagine della natura, di fronte alle superstizioni e all’irrequieta anarchia degli empiristi platonici, hanno avuto il merito di aver elaborato una concezione della natura come un complesso di eventi e fenomeni tenuto insieme da un’interna razionalità tale da inquadrare in uno schema razionale la molteplicità degli aspetti.

Nel contesto aristotelico padovano è degno di nota Jacopo Zabarella (1533–1589) che mostrò chiaramente come le ipotesi siano formulate per indagare i fenomeni, e vengano confutate o confermate osservando se gli effetti da esse dedotti si verifichino o meno, anticipando il metodo scientifico che Bacone e Galileo porteranno a compimento più tardi: “...quando noi concepiamo qualche ipotesi sulla materia siamo in grado di ricercare e di scoprire in essa qualcos’altro; là dove non facciamo nessuna ipotesi non scopriremo mai nulla… L’altro aiuto, senza il quale il primo non sarebbe sufficiente, è il confronto della causa scoperta con l’effetto attraverso cui è stata scoperta, non certo con l’intera conoscenza che questa è la causa e quello l’effetto, ma unicamente comparando questa con quello. E’ così che avviene che siamo gradualmente condotti alla conoscenza delle condizioni di quella cosa…”. Esponendo la logica aristotelica, ma in realtà criticandola dall’interno, Zabarella distingue chiaramente il metodo deduttivo da quello induttivo. Assegna il primo alla matematica, il secondo alle scienze empiriche, ed afferma che: “la scienza non ha altro metodo conoscitivo all’infuori di quello dimostrativo (deduttivo) o risolutivo (induttivo)”. Egli compie un passo innanzi ancor più significativo allorché, proprio come farà più tardi Galileo, lega intimamente induzione e deduzione in un unico processo metodico. Nel nel caso delle scienze della natura, egli dice: “per via della debolezza del nostro spirito non conosciamo i principi da cui bisognerebbe prendere le mosse per la dimostrazione; e siccome non possiamo assumere come punto di partenza ciò che non è noto, dobbiamo necessariamente seguire un'altra strada, grazie alla quale, per via del metodo risolutivo [induttivo], perveniamo a scoprire i principi. Mediante tali principi possiamo infine dimostrare i fenomeni, e i singoli effetti naturali “. Questo è, come vedremo, il metodo sperimentale (non già la semplice raccolta di esperienze) seguito da Galileo. Esso procede dai singoli fatti alle ipotesi generali, per poi dedurre

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;44!

altri fatti particolari, che possano fornire la prova delle ipotesi stesse. Ne sia o meno consapevole lo Zabarella, questo è anche un ritorno alla intuizione democritea della circolarità del metodo. In questa sintesi di induzione e deduzione (o induzione dimostrativa come dice Zabarella), non occorre esaminare all'infinito i casi particolari “giacché il nostro intelletto, esaminati alcuni casi, scorge subito il nesso essenziale, e trascurando molti altri casi secondari, forma l’universale”. Il fine del momento induttivo e l'inventio, la scoperta dei principi fondamentali, delle leggi universali. La vera conoscenza teoretica, la scientia, è raggiunta attraverso il completamento del circolo, che ci riconduce nuovamente ai fatti, assunti quali prove di quelle leggi, riscattati dalla loro empirica frammentarietà, coordinati nella universalità propria del pensiero. Questa inductio demonstrativa di Zabarella è il massimo vertice che la critica interna di Aristotele raggiunge dal punto di vista metodologico.

Gli esempi con cui Zabarella cerca di chiarire il suo discorso del metodo sono tratti dalla metafisica o da testi di Aristotele; solo occasionalmente dalla ricerca scientifica. Sarà invece il grande fisico toscano, Galileo, che trasformerà nella sua intima essenza il metodo dell'induzione dimostrativa e che lo renderà fecondo connettendolo alle esatte misure, al potere illuminante della logica cognizione geometrica. Zabarella ignora queste possibilità, a cui dobbiamo la vera nascita della scienza moderna, anche se le sue intuizioni di teorico sono ammirevoli, come quando giunge a rilevare, in parte, il momento “economico “ della scienza, messo in luce solo grazie ai teorici di fine ottocento, come Mach, in poi: “Il criterio grazie al quale si ordina ogni scienza o disciplina, non è tratto dalla natura stessa delle cose di cui esse si occupano, ma è stabilito, piuttosto, in modo che la nostra conoscenza risulti più certa e facile. Invero noi ordiniamo una scienza in questo o in quel modo non perché tale sia il naturale ordine delle cose da indagare, cioè l'ordine che esse hanno in sé, indipendentemente dal pensiero. Il nostro scopo è, invece, che tale scienza possa venire appresa meglio, e più facilmente, da tutti”.

Il platonismo, enormemente diffuso in tutta l’Europa e come centro ideale l’Accademia fiorentina, pur essendo in sé più vago, più letterario, più logicamente inconsistente dell’aristotelismo, e quindi assai più lontano dalla mentalità scientifica, tuttavia è stato molto più fecondo per lo sviluppo della scienza moderna che non il pensiero dei peripatetici. Paradossalmente ciò è dovuto al fatto che i platonici muovono da autorità, come Platone, le quali non presentano dottrine scientifiche, o ne presentano poche e frammentarie, ossia non legate a nessun sistema scientifico complessivo, e pertanto i loro seguaci moderni sono liberi di speculare su problemi scientifici; d’altro canto, gli aristotelici si trovano di fronte al pesante fardello dell’eredità di Aristotele. Un esempio è il problema del moto dei proiettili, per il quale la teoria neoplatonica dell’impetus si rivelerà molto più feconda di quella aristotelica; così come, in seguito, Fracastoro e Copernico tenteranno entrambi di liberarsi dall’astronomia tolemaica: ma il peripatetico Fracastoro non potrà raggiungere la concezione rivoluzionaria del platonico Copernico, proprio perché legato all’ortodossia della scuola aristotelica.

Ma la maggior fecondità del platonismo deriva dalla metafisica naturalistica. La natura è governata dalla sfera delle ragioni eterne, immutabili, che costituisce il pensiero o logo divino. Perciò l’universo fisico, nonostante la sua apparente caoticità e irrazionalità, obbedisce a una legge, a un ritmo che vi introduce ordine ed armonia, tuttavia questa legalità rimane trascendente alla natura stessa. Questo significa che l’uomo deve scoprirla attraverso la congettura nascente della ricerca empirica.

;45! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Il massimo umanista neoplatonico fu il cardinale Niccolò Cusano (1401-1464), il cui punto di partenza è una precisa determinazione della natura della conoscenza, modellata sulla conoscenza matematica. La possibilità della conoscenza risiede nella proporzione tra l’ignoto e il noto. Si può giudicare di ciò che ancora non si conosce solo in relazione a ciò che già si conosce; ma questo è possibile soltanto se ciò che ancora non si conosce possiede una certa proporzionalità, ossia omogeneità, con ciò che si conosce. La conoscenza è tanto più facile quanto più vicine sono le cose che si ricercano a quelle conosciute; e per esempio, in matematica, le proposizioni che più direttamente derivano dai primi principi di per sé notissimi, sono le più facili e note, mentre meno note e più difficili sono quelle che si allontanano dai primi principi. Da ciò deriva che quando quel che è ignoto e si cerca non ha alcuna proporzione con le conoscenze in nostro possesso, sfugge ad ogni possibilità di conoscenza e non rimane che proclamare di fronte ad esso la propria ignoranza. Anche se incline ad un misticismo matematico, Cusano non è alieno da spunti critici, che lo conduce fino alla profonda intuizione della coincidenza degli opposti, ad esempio fra retta e circolo di raggio infinito, la quale si verifica in Dio. Dio, come aveva detto Duns Scoto, è l’infinito, e tra l’infinito e il finito non c’è proporzione. L’uomo può indefinitivamente avvicinarsi alla verità per gradi successivi di conoscenza; ma poiché questi gradi saranno sempre finiti e la verità è l’essere nel suo grado infinito, la verità sfuggirà necessariamente allo sforzo diretto di comprenderla. Perciò Dio è inafferrabile in termini logici ed è possibile coglierlo solo per via intuitiva. Tra la conoscenza umana e la verità c’è lo stesso rapporto che intercede tra i poligoni inscritti e circoscritti e la circonferenza: aumentando indefinitivamente i lati da tali poligoni, essi si avvicineranno indefinitivamente alla circonferenza, ma non si identificheranno mai con essa. Da queste considerazioni scaturisce il concetto della Docta ignorantia, che è il titolo di una delle sue opere maggiori, come ignoranza consapevole, che lascia intravedere un contenuto più profondo di quello offerto dalla conoscenza positiva. La conoscenza non è mai certa, ma solo ipotetica. Lo spirito procede dal semplice fatto alle ragioni, ma poiché queste sono infinitamente lontane si ha un moto progressivo, una ricerca altrettanto infinita che è l’essenza della spiritualità. Cusano non si stanca di ripetere in varie forme questo suo concetto nuovo, oggi acquisito ad ogni teoria del conoscere: “ … il santo non sapere è il più ambito nutrimento del mio spirito … “. Ma per questo l’intelletto deve discendere “nelle specie sensibili … e tanto più profondamente penetra in esse, tanto più le specie vengono assorbite nella sua luce, perché l’alterità intelligibile si risolva e si acquieti nell’unità dell’intelletto”. La ricerca empirica e la scienza sono così avvalorate come atti essenziali della vita dello spirito. Questo riconoscimento dell’ignoranza, questo sapere di non sapere, collega Cusano direttamente alla sapienza antica di Pitagora e Socrate. Il principio della dotta ignoranza conduce Cusano ad una nuova concezione del mondo fisico, la quale da un lato si ricollega alle ricerche di Ockham, dall’altro prelude direttamente alla nuova scienza di Copernico, Galilei e Keplero. In primo luogo il riconoscimento del limite proprio della realtà e del valore del mondo porta Cusano a negare che una parte di esso, quella celeste, possegga una perfezione assoluta e sia quindi ingenerabile e incorruttibile. La dottrina di Aristotele, che la filosofia e scienza medievale aveva fatta propria, di una separazione tra la sostanza celeste o etere, dotata di movimento circolare perfetto, e la sostanza elementare dei corpi sublunari soggetti alla nascita e alla morte, dottrina già messa in dubbio da Ockham, viene

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;46!

definitivamente distrutta da Cusano. Egli infatti non può riconoscere a nessuna parte del mondo il privilegio della perfezione assoluta: tutte le parti del mondo hanno lo stesso valore e tutte si avvicinano più o meno alla perfezione, ma nessuna la raggiunge perché essa è propria e soltanto di Dio.

Come Ockham stesso, rifiuta la assolutezza delle determinazioni spaziali, e l'esistenza di un centro dell'universo, giungendo anch'egli ad affermare l'infinità. Anche qui siamo alla coincidenza degli opposti come relatività dello spazio. La Terra non è dunque al centro dell’universo, perciò non può essere priva di movimento. Il nostro pianeta si muove, come altri corpi “anche se noi non ce ne avvediamo, perché il moto [che è relativo] non può essere avvertito altro che mediante il confronto con altri corpi”. Il movimento che la anima è circolare sebbene non sia, perfettamente circolare, nel senso tende alla circolarità, giacchè la circolarità perfetta non è presente nelle cose create. La Terra non è sferica sebbene tenda alla sfericità, per le stesse ragioni addotte per il suo movimento. Ma questo non implica che essa non sia una nobile stella, che ha luce, calore, influenza diversa da quella delle altre stelle. La generazione e la corruzione che si verificano sulla Terra, si verificano probabilmente anche negli altri astri, che, forse, sono abitati da esseri intellettuali di una specie diversa dalla nostra. Il Sole non è diverso dalla Terra da un punto di vista fisico. Secondo Cusano, se un uomo si trovasse al di fuori della Terra, la vedrebbe risplendere come il Sole. I movimenti che si verificano sulla Terra, come in ogni altra parte dell’universo, hanno lo scopo di salvaguardare e garantire l’ordine e l’unità del tutto. In vista di questo scopo, i corpi pesanti tendono alla terra, i corpi leggeri verso l’alto, la terra tende alla terra, l’acqua all’acqua, l’aria all’aria, il fuoco al fuoco, il movimento del tutto tende per quanto è possibile al movimento circolare. Qui è forse la prima formulazione del principio di gravità

Sempre pronto ad afferrare promettenti novità scientifiche, Cusano accoglie, e cerca di sviluppare, la teoria dell'impeto che i filosofi della scuola occamistica, come Buridano, avevano formulato per spiegare il movimento dei cieli e quello dei proiettili, negando il principio aristotelico che il motore deve accompagnare il mobile nella sua traiettoria, e riconoscendo così quella legge d’inerzia, esplicitata in maniera rigorosa e formale da Galilei più tardi, che è uno dei fondamenti della meccanica moderna.

La concezione del mondo usciva completamente rinnovata dall’opera di Cusano, e molte delle sue idee furono riprese da Leonardo per fondare la meccanica.

Così, mentre l’organicismo aristotelico non permette una visione articolata del divenire della natura che possa risolversi in concrete ricerche e spiegazioni sperimentali, il platonismo e il naturalismo che lo continua non riescono a immaginare un vero e proprio sistema della natura concepito come reticolato di cause fisiche. In queste due correnti la ricerca si frammenta in un fecondissimo caos di ricerche, ipotesi, invenzioni, ma anche pregiudizi scientifici, ma che sarà ricca di spunti per la rivoluzione scientifica che sta per venire.

;47! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&()!

Il processo di una scoperta scientifica è un continuo conflitto di meraviglie.

Einstein

"(#,!.%"/1!%&-#0*!-&)!2!*(##

6.1 Introduzione Il risultato ultimo del naturalismo del Rinascimento è la scienza. In essa confluiscono: le ricerche naturalistiche degli ultimi scolastici, come Ockham, che avevano rivolto il loro interesse alla natura distogliendolo dal mondo soprannaturale ritenuto ormai inaccessibile alla ricerca umana; l’aristotelismo rinascimentale che aveva elaborato il concetto dell’ordine necessario della natura; il platonismo antico e nuovo che aveva insistito sulla struttura matematica della natura; la magia che aveva messo in luce e diffuso le tecniche operative dirette a subordinare la natura all’uomo; infine, la dottrina di Telesio che aveva affermato l’autonomia della natura, l’esigenza di spiegare la natura con la natura. Da un lato, tutti questi elementi sono integrati dalla scienza mediante la riduzione della natura a pura oggettività misurabile: a un complesso di forme o cose costituite essenzialmente da determinazioni quantitative e soggette quindi a leggi matematiche. Dall’altro lato, gli stessi elementi sono purificati dalle connessioni metafisico-teologiche che li caratterizzavano nelle dottrine cui originariamente appartenevano. Così la scienza elimina i presupposti teologici cui rimanevano ancorate le indagini degli ultimi scolastici; elimina i presupposti metafisici dell’aristotelismo e del platonismo ed infine elimina il presupposto animistico su cui si fondavano la magia e la filosofia di Telesio. In questa direzione, e con queste premesse, la scienza era pronta a fare il grande balzo. I tempi erano maturi per la Rivoluzione Scientifica.

6.2 Leonardo da Vinci: precursore della scienza moderna

In Leonardo da Vinci (1452-1519) troviamo una prima, seppur approssimativa, intuizione del concetto moderno di scienza. Nella sua

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;48!

indagine scientifica utilizza molto materiale che gli proviene dal medioevo, come i testi di Buridano o di Alberto di Sassonia, ma a differenza dei pensatori medievali, Leonardo, uomo del rinascimento, non muove più dal generico empirismo, bensì da un deciso orientamento sperimentalistico, per il quale la “sperienzia” è divenuta ricerca attiva ed operativa, un progettare e lavorare con macchine e strumenti per produrre gli effetti previsti e correggere le previsioni mediante gli effetti realmente conseguiti. Secondo la sua concezione, la scienza si basa su due pilastri essenziali ed ineliminabili: l’esperienza e la ragione. “Sapienzia è discepola della sperienzia” e “intendi ragione e non ti bisogna sperienzia”.

Lo studio della natura muove dalle esperienze alle loro ragioni, cercando di cogliere nelle ragioni il dinamismo motore e creatore della natura. Considerazioni e valutazioni che sono già le premesse delle moderne dottrine metodologiche nel campo scientifico. Per Leonardo la matematica è il fondamento di ogni certezza, per cui fa suo l’autentico spirito di Platone: “Non mi legga, chi non è matematico, nelli mia principi”. E quindi l’esperienza ed il calcolo matematico rivelano la natura nella sua oggettività, cioè nella semplicità e nella necessità delle sue operazioni. La natura si identifica con la stessa necessità del suo ordinamento matematico: “La necessità è tema e inventrice della natura, è freno e regola eterna”. In queste parole è riconosciuta chiaramente l’essenza ultima dell’oggettività della natura: quella necessità che ne determina l’ordine misurabile e si esprime nel rapporto causale tra i fenomeni. Proprio questa necessità esclude ogni forza metafisica o magica, ogni interpretazione che prescinda dall’esperienza e che voglia sottoporre la natura a principi che le sono estranei. Questa necessità infine si identifica con la necessità propria del ragionamento matematico, che esprime i rapporti di misura costituenti le leggi. Intendere la “ragione” della natura significa intendere quella proporzione che non si trova solo nei numeri e nelle misure, ma anche nei suoni, nei pesi, nei tempi, negli spazi e in qualunque potenza naturale. Fu appunto l’identificazione della natura con la necessità matematica che condusse Leonardo a fondare la meccanica e a metterne in luce i principi: “O mirabile e stupenda necessità, tu costringi con la tua legge tutti li effetti, per brevissima via, a partecipare delle lor cause e con somma e irrevocabile legge ogni azione naturale con la brevissima operazione a te obbedisce”.

Leonardo ha un concetto dell’esperienza già molto vicino a quello di Galileo, però delle ragioni ha idee ancora vaghe e confuse, per non dire approssimative, avvolte nelle nebbie del platonismo. Ragione ora significa ratio, ossia rapporto matematico che sottende gli aspetti sperimentalmente misurabili dei fenomeni; ora invece significa un modello e paradigma ideale, che regge la natura dal di fuori come un “timone”; ora forse una qualità occulta (poiché egli afferma esistere infinite ragioni che “non furono mai in sperienzia”); ora un’anima o spirito, o una causa finale antropomorficamente concepita. Inutile dire poi che non si trova nessuna intuizione del modo come si possano metodicamente connettere e intercambiare “esperienze” e “ragioni”, per cui bisogna aspettare Galileo. Una cosa è certa, Leonardo arriva più vicino al pensiero scientifico moderno di quanto vi si avvicinarono grandi naturalisti del tardo Rinascimento come Telesio e Bruno.

Leonardo è considerato il più grande inventore che la storia ricordi, e a lui si devono invenzioni in tutti i campi della tecnica, dall’idraulica, alla meccanica, all’ottica, alla pneumatica, all’acustica. Ma quali sono le idee di Leonardo nel campo della fisica teorica? In idrostatica conobbe il principio dei vasi comunicanti con liquidi di diversa densità e il principio fondamentale d’idrostatica, detto oggi principio di Pascal. A

;49! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Leonardo dobbiamo la teoria del moto ondoso del mare, anzi considera il moto ondulatorio il più diffuso moto naturale, per cui questo rappresenta il più universale concetto fisico che abbia elaborato. Per Leonardo luce, suono, colore, magnetismo, odore e persino il pensiero si propagano per onde: “il moto è causa d’ogni vita”.

Attraverso lo studio del volo umano, la sua più superba scoperta, Leonardo riconosce che la compressione dell’aria sotto le ali produce la forza che noi oggi chiamiamo sostentatrice, studia la resistenza dell’aria e l’importanza dinamica del centro di gravità; ed è questo consapevole metodo d’indagine scientifica il massimo merito di Leonardo. Gli studi di meccanica conducono Leonardo a occuparsi dei centri di gravità di figure piane e solide, trovando così il centro di gravità di un tetraedro, e quindi di una qualunque piramide. Anzi, a questa scoperta aggiunge un elegante teorema: le congiungenti i vertici di un tetraedro con i centri di gravità delle facce opposte passano per uno stesso punto, centro di gravità del tetraedro, che divide ogni congiungente in due parti di cui quella verso il vertice è tripla dell’altra. È questo il primo risultato che la scienza moderna aggiunge alle ricerche baricentriche di Archimede.

Leonardo apprese la scienza meccanica da varie fonti, Aristotele, Archimede, Erone, ed era a conoscenza delle teorie cinematiche e dinamiche della scuola di Oxford e Parigi; ma andò oltre ampliando il concetto di momento di una forza rispetto a un punto, scoprendo in due casi particolari il teorema di composizione dei momenti e applicandolo alla risoluzione di problemi di composizione e scomposizione delle forze. Dal cosiddetto “precursore di Leonardo” impara le condizioni di equilibrio di un copro appoggiato su un piano inclinato, ma li supera scoprendo il teorema: un copro appoggiato su un piano orizzontale è in equilibrio se il piede della verticale condotta per il suo baricentro è interno alla base di appoggio. Infine, è il primo a studiare l’influenza dell’attrito sulle condizioni di equilibrio.

Più discutibili sono i contributi di Leonardo alla dinamica, ed è poco convincente la tesi secondo cui abbia intravisto il principio d’inerzia nel seguente pensiero: “Ogni moto attende al suo mantenimento, overo ogni corpo mosso sempre si move in mentre che la impressione de la potentia del suo motore in lui si riserva”. Infatti, le prime due frasi, se fossero in sé compiute, esprimerebbero il principio d’inerzia, ma l’ultima frase, che è parte integrante del pensiero, riduce fortemente la generalità delle affermazioni precedenti e sembra ricondurre il pensiero di Leonardo alla teoria dell’impeto di Buridano.

Sostanzialmente la dinamica leonardesca è aristotelica, sia pure completata dalla teoria dell’impeto: in particolare aristotelica è la relazione tra forza e moto e la conseguente proporzionalità tra peso e velocità di caduta dei corpi. Non ci sono dubbi, invece, sul fatto che Leonardo intuì il principio di azione e reazione in alcuni casi particolari, senza assurgere alla generalità di enunciazione che avverrà solo con Newton. Ne fanno fede alcune citazioni dal Codice atlantico: “Tanta forza si fa colla cosa in contro all’aria, quanto l’aria contro alla cosa”; “Tanto fa il moto dell’aria contro alla cosa ferma, quanto il moto del mobile contro all’aria immobile”. L’ultimo pensiero dimostra che Leonardo intuì anche la relatività del moto.

Leonardo, che aveva lunga pratica della bilancia, scoprì non solo il peso dell’aria, ma anche la variazione di pressione atmosferica. Interessandosi di ottica, dette la prima descrizione ricca di particolari della camera oscura e osservò il rovesciamento delle immagini, concludendo: “E così fa dentro la popilla”. Inoltre, scoprì il fenomeno di persistenza delle immagini e osservò che ciascuno dei due occhi vede un’immagine

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;4:!

diversa dei corpi rilevati; tentò d’interpretare, con un’accurata osservazione sperimentale, l’azzurro del cielo.

Dall’ottica è facile passare all’acustica, perché non mancano le analogie tra i due ordini di fenomeni. E le osservazioni di Leonardo sull’acustica sono molteplici: conosce la legge di riflessione del suono e il conseguente fenomeno dell’eco; sa che il suono si propaga in tempo e vorrebbe sfruttare la circostanza per calcolare la distanza alla quale avviene un tuono; fa esperimenti sui fenomeni di risonanza. Riconosce che le onde acquee prodotte dalla caduta di un sasso sono trasversali, così come lo sono, per analogia, anche le onde sonore e luminose.

La ricerca di Leonardo, che è straordinariamente ricca di intuizioni e di geniali vedute, non oltrepassa mai il piano degli esperimenti curiosi per giungere a quella sistematicità che è una delle caratteristiche fondamentali della scienza moderna. La sua indagine, sempre oscillante fra l’esperimento e l’annotazione, appare frantumata e polverizzata in una serie di brevi note, di osservazioni sparse, di appunti scritti per sé medesimo in una simbologia spesso oscura e volutamente non trasmissibile. Sempre incuriosito da un problema particolare, Leonardo non ha alcun interesse a lavorare a un corpus sistematico di conoscenze e non ha la preoccupazione, che è anch'essa una dimensione fondamentale di ciò che chiamiamo scienza, di trasmettere, spiegare e provare agli altri le proprie scoperte. E tuttavia non va dimenticato che si ritrovano di continuo nei frammenti di Leonardo, affermazioni che torneranno a circolare con forza, in contesti diversi, entro la cultura moderna: l'idea di un necessario congiungimento fra la matematica e l'esperienza; la polemica fermissima contro le vane pretese dell'alchimia; l'invettiva contro “i recitatori e i trombetti delle altrui opere”; la protesta contro il richiamo alle autorità che è propria di chi usa la memoria invece che l'ingegno; l'immagine di una natura che è una catena mirabile e inesorabile di cause.

L’influenza di Leonardo sull’ulteriore sviluppo della scienza si ritrova in tre grandi scienziati del Cinquecento: Nicolò Tartaglia, Girolamo Cardano, Giovan Battista Benedetti.

Noto soprattutto come grande matematico, Nicolò Tartaglia (ca. 1499–1557) esordisce con un’opera, La nova scientia, nella quale tratta il moto dei proiettili, ed è contenuta l’importante scoperta: la gittata massima di un proiettile d’artiglieria si ha quando l’arma è inclinata di 45° sull’orizzonte. Praticamente aristotelica è la traiettoria dei proiettili, ma Tartaglia avverte che nessuna parte di essa nei moti non verticali può essere rettilinea, in senso geometrico: “per causa della gravità che si ritrova in quel tal corpo, la quale continuamente lo va stimolando, e tirando verso il centro del mondo”.

Nell’opera Quesiti et invenzioni diverse viene ampliata la dinamica trattata nella sua prima opera. Tartaglia dà la definizione esatta di peso accidentale, ossia, nella discesa per piani inclinati, la componente del peso del corpo nella direzione del piano inclinato, è proporzionale al peso del corpo per la proiezione sulla verticale della lunghezza del piano inclinato o di una sua parte unitaria.

Più importante ancora è il contributo che egli reca alla costituzione del principio di relatività, così importante nella discussione dei massimi sistemi astronomici. Quantunque tale principio fosse ancora da stabilire, egli vi reca già una prima pietra, osservando che la forza di gravità agisce fin dall'inizio della traiettoria, su di un proiettile lanciato orizzontalmente, determinando un moto di caduta, minimo nei primi istanti, che si compone con la rapida corsa orizzontale, incurvandola. Appunto perché minimo esso era rimasto inavvertito da Aristotele, e dai suoi seguaci, i quali

;5<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sostenevano, per contro, che la rapida corsa del proiettile impedisce alla gravità di agire, la annulla, per così dire. Da Aristotele in poi nessuno aveva osato mettere in discussione il principio, secondo cui un proiettile lanciato orizzontalmente con grande velocità non risente l'azione della gravità, finché la velocità dura, giacché la stessa violenza del moto gli impedisce di cadere. Solo quando il moto si “illanguidisce” il corpo cade per azione del proprio peso, e ciò appare conforme ai risultati di una esperienza (superficiale) la quale dimostra che la traiettoria è sensibilmente curva solo verso la parte finale. Il fatto che “l'azione di una forza è indipendente dallo stato di quiete o di moto del corpo su cui la forza agisce” fa parte oggi del cosiddetto secondo principio fondamentale della dinamica, ma si riscontra già, anche se in forma non così generale, nel Tartaglia. Come dimostra una facile riflessione questo principio si connette anch’esso al principio di relatività, e, per conseguenza, all’idea del moto della Terra. Da ciò l’importanza di questo contributo del Tartaglia.

Anche Girolamo Cardano (1501–1576), grande rivale di Tartaglia, si occupò dell’equilibrio sul piano inclinato nell’Opus novum de proportionibus, giungendo alla conclusione che il peso accidentale è proporzionale all’angolo d’inclinazione del piano inclinato sul quale il corpo si appoggia, invece che al seno dell’angolo, come aveva dimostrato Tartaglia.

Cardano ebbe mente universale alla quale nessun ramo dello scibile fu precluso. Tra tante opere scritte, oltre a quella sopra menzionata, alla fisica interessa il De rerum varietate, che costituisce la più ampia enciclopedia delle scienze fisiche e naturali del Cinquecento. Fra i tanti argomenti trattati, trova posto e sviluppo anche la dinamica, che oscilla tra quella aristotelica e la medievale dell’impeto. Cardano ritiene il proiettile messo in moto da una virtù del proicente, che vi rimane impressa come il calore nell’acqua, ma l’agitazione dell’aria, di effetto modesto al principio del moto, lo accelera quando il proiettile ha raggiunto una certa velocità. La traiettoria del proiettile è aristotelica, ma la parte centrale non è un arco di cerchio, come avevano creduto Leonardo e Tartaglia, ma una linea.

Cardano effettua anche interessanti studi sul moto dei pendoli, giungendo alle seguenti osservazioni: i pendoli risalgono alla stessa altezza da cui sono scesi nelle successive oscillazioni; un pendolo più lungo si muove più lentamente di un pendolo più corto, perché, a parità di lunghezza dell’arco percorso, si solleva verticalmente di meno. Importanti sono i contributi all’idrodinamica, e contro la credenza del tempo, Cardano osserva che in un condotto d’acqua fluente l’acqua non risale all’altezza da cui è scesa, ma a un’altezza minore, e tanto minore quanto più lungo è il condotto; osserva pure che non tutti gli strati d’acqua di un fiume hanno eguale velocità, ma sono più veloci gli strati superficiali.

Giovan Battista Benedetti (1530–1590) ebbe come precettore Tartaglia che gli inculcò l’amore per la scienza. La più importante scoperta di Benedetti è una dimostrazione volta a provare, contro Aristotele, che: “due corpi della medesima forma e della stessa specie tra loro eguali o diseguali, per eguale spazio, nello stesso mezzo, si muovono in egual tempo”. Va osservato, tuttavia, che la conclusione è valida per corpi della “stessa specie”, non per corpi qualunque, e si ha l’impressione che, a suo parere, i corpi, a parità di condizioni, cadano nello stesso mezzo con velocità proporzionali alle loro densità. Il ragionamento che portò Benedetti a dimostrare il suo teorema fu accolto

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;5;!

da Cardano e successivamente fu fatto proprio da Galileo che tolse la restrizione dell’eguaglianza di materia.

Benedetti può essere anche considerato come il più autorevole predecessore di Galileo nella scoperta del principio d’inerzia, visto che vi accenna più volte nel suo capolavoro Diversarum speculationum mathematicarum et physicarum liber, dove trattando dei moti rotatori, dice: “qualunque corpo grave, mosso secondo natura o per violenza, naturalmente tende alla rettilineità del cammino”. L’affinamento di questo concetto lo conduce a spiegare l’accelerazione del moto di un corpo sotto la continua azione di una forza costante, sicché nei gravi cadenti il progressivo aumento di velocità è dovuto all’accumularsi degli effetti prodotti dalla stessa causa del moto, e non già al progressivo aumento di peso, come diceva Aristotele. Gli stessi concetti li applica al moto rotatorio, riconoscendo che la tendenza delle parti di un corpo rotante ad allontanarsi dall’asse di rotazione non è un carattere intrinseco di questi moti, come s’era ritenuto fin dall’antichità greca, ma una conseguenza della propensione di ogni corpo mosso di proseguire il moto in direzione rettilinea.

Un problema, menzionato negli scritti di Leonardo, era divenuto argomento di disputa negli ambienti umanistici del Rinascimento: cosa succede a un grave lasciato cadere e che raggiunge il centro della Terra? Secondo i peripatetici il grave si fermerebbe di colpo, mentre secondo Cardano e Tartaglia ciò era ritenuto assurdo. Benedetti sciolse il problema nel seguente modo: in analogia con il moto pendolare, il grave si sarebbe mosso di moto oscillatorio smorzato e dopo molte oscillazioni si sarebbe fermato nel centro.

Tutti gli altri contributi di Benedetti alla fisica si trovano nel già citato suo capolavoro, di carattere antiaristotelico (basterebbe a provarlo la piena adesione al sistema eliocentrico: “secondo la bellissima opinione di Aristarco da Samo, egregiamente espressa da Nicola Copernico, contro la quale proprio a nulla valgono le ragioni esposte da Aristotele e neppure quelle di Tolomeo”) come lo studio dell’equilibrio di un liquido in due tubi verticali comunicanti, di sezione diversa e nell’enunciato del paradosso idrostatico: la pressione dipende solo dalla profondità alla quale essa viene misurata e non dalla forma del recipiente che contiene il fluido, sfiorando l’invenzione del torchio idraulico.

Il paradosso idrostatico fu enunciato, forse in maniera indipendente da Benedetti ma in modo più chiaro ed esplicito, anche da Stevino (1548–1620), uno dei più originali scienziati della seconda metà del Cinquecento. Il più grande titolo di merito di Stevin in fisica è l’originale dimostrazione della legge di equilibrio di un corpo appoggiato su un piano inclinato, fondato sul postulato dell'impossibilità del moto perpetuo. Si abbia un triangolo ABC il cui lato BC sia disposto orizzontalmente. Una specie di catena, che appoggiata su di esso lo avvolge come in figura, dovrà certamente rimanere in equilibrio, altrimenti si avrebbe un moto perpetuo. Supponiamo ora che venga tagliata la parte BC che pende soltanto. Le rimanenti parti della catena AB ed AC non risentiranno alcuna influenza per effetto del taglio, e rimarranno ugualmente in equilibrio. Come la figura mostra chiaramente, ciò significa che, ad esempio, un peso doppio fa equilibrio ad un dato peso, quando è doppia la lunghezza AB del piano inclinato su cui esso agisce (purché i piani inclinati abbiano la stessa altezza AH). In altre parole: la forza agente su un grave appoggiato su di un piano inclinato è

;5=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

inversamente proporzionale alla lunghezza del piano stesso. Da ciò, e attraverso considerazioni matematiche, si deduce pure il principio di decomposizione di una forza in due componenti normali tra loro.

6.3 La Rivoluzione Scientifica: una moderna visione del mondo

La scienza moderna, come la grande fioritura umanistico-rinascimentale del XV e XVI secolo, non nasce nel vuoto come abbiamo già visto, ma in un preciso contesto storico, caratterizzato dai mutamenti di struttura dell'economia europea e dal nuovo tipo di società venutosi a delineare all'inizio dell’età moderna. Infatti, la formazione di stati cittadini e nazionali, parallelamente al consolidarsi della civiltà urbano-borghese, produce un sistema di vita più complesso e dinamico, che provoca una serie concomitante di esigenze e di bisogni sociali. In particolare, l'imponente struttura organizzativa delle monarchie europee e lo spirito imprenditoriale e affaristico dei ceti mercantili si traduce in maggiori richieste tecniche.

Allestire eserciti sempre più potenti e fornirli di un adeguato armamento, ampliare le città con costruzioni e con capolavori architettonici, migliorare le vie di comunicazione, solcare gli oceani con navi sempre piu resistenti e veloci, arginare, incanalare e bonificare le acque, estrarre metalli, lavorare i vetri e le stoffe, stampare libri, ecc., presuppongono ad una sequela di cognizioni di balistica, metallurgia, architettura, carpenteria, cartografia, arte mineraria, idraulica, tipografia, ecc. . A loro volta, queste ultime implicano più approfondite conoscenze di matematica, fisica, astronomia, geografia, ecc., ossia più nozioni scientifiche. La saldatura fra scienza e società moderna passa dunque, sin dall'inizio, attraverso i nuovi bisogni, concretizzati nelle nuove esigenze tecniche, che fungono da stimolo per la creazione di un sapere oggettivo capace di permettere all'uomo un efficace orientamento nel mondo.

Se l’affermarsi della civiltà urbano-borghese e lo sviluppo della tecnica, rappresentano la molla storico-sociale della Rivoluzione Scientifica, la cultura rinascimentale rappresenta il terreno storico-ideale in cui è germogliata la scienza moderna.

In primo luogo il Rinascimento, con la laicizzazione del sapere e la rivendicazione della libertà della ricerca intellettuale, ha tracciato la strada maestra della scienza. In secondo luogo, il Rinascimento, attraverso il recupero della sapienza antica e delle relative traduzioni di opere scientifiche, ha riscoperto dottrine e figure che erano state trascurate per secoli, come la dottrina atomistica e Democrito, le teorie eliocentriche dei Pitagorici, gli studi di Archimede, che saranno fecondi di idee per la nascita e lo sviluppo della moderna fisica. In terzo luogo, il Rinascimento, in virtù del suo naturalismo imperniato sulla rivalutazione della natura e sulla convinzione che l’uomo ha tutto l’interesse a conoscerla, ha posto le condizioni mentali di fondo per uno sviluppo più vasto dell’indagine naturale. In questo contesto, l’aristotelismo rinascimentale ha il merito di aver difeso i diritti della ragione indagatrice e di aver elaborato quel concetto di un ordine naturale e immutabile, fondato sulla catena causale degli eventi, che rappresenta uno dei presupposti chiave, anche se molto incompleti, della scienza moderna. Infine, il Rinascimento, rinverdendo il platonismo e il pitagorismo ha offerto alla scienza la convinzione che la natura è scritta in termini

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;54!

geometrici, per cui l’unico linguaggio atto ad esprimerla è quello rigoroso della matematica.

Con il termine Rivoluzione scientifica intendiamo alludere a quella profonda trasformazione concettuale che si verificò in Occidente nel Seicento, in relazione al modo di studiare la natura e di intendere la funzione della scienza. Tale Rivoluzione, pur preceduta durante il Rinascimento da significative innovazioni nel campo della tecnica e da una mutata prospettiva di pensiero, tuttavia si realizzò pienamente nel Seicento, in particolare tra il 1543, anno di pubblicazione del capolavoro copernicano De revolutionibus, e il 1687, anno in cui Newton pubblicò i Principia mathematica. Nel Seicento, inoltre, operarono i cosiddetti padri fondatori della scienza moderna: Keplero, Galileo, Bacone, Cartesio, Newton. Nel Seicento si sono poste le basi per lo sviluppo non solo di alcune scienze particolari come la fisica e l’astronomia, ma anche della nuova immagine del mondo e della funzione sociale della scienza. Essa, infatti, prima mise in crisi e, poi, fece crollare definitivamente quel grandioso edificio di teorie che per due millenni, a partire da Aristotele, aveva assicurato all’uomo dei solidi punti di riferimento, fissi e immodificabili. Proprio la radicale messa in discussione delle conoscenze tradizionali, della mentalità ad esse sottesa e la lenta sostituzione con un nuovo modello conoscitivo, sperimentale e rigoroso allo stesso tempo, rappresenta il cardine attorno cui ruota la Rivoluzione scientifica.

Il teatro privilegiato in cui la Rivoluzione scientifica mosse i primi significativi passi, prima di passare a Londra e a Parigi, fu Padova, nella cui università, di ispirazione aristotelica, insegnarono sia Copernico che Galileo.

Prima di analizzare nel dettaglio gli aspetti salienti della Rivoluzione scientifica, dobbiamo delineare lo schema concettuale che sta alla sua base e chiarire la funzione che essa ha svolto nella storia della cultura e della civiltà. Dalla Rivoluzione scientifica in generale emergono i seguenti punti, che sono in rapporto soprattutto con il nuovo modo di intendere la natura e il suo studio:

1. la concezione della natura come ordine oggettivo e casualmente strutturato di relazioni governate da leggi, svincolata del tutto da ipoteche di carattere metafisico:

a) La natura è un ordine oggettivo, poiché essa, scientificamente parlando, costituisce un oggetto i cui caratteri non hanno niente a che fare con la dimensione spirituale, e quindi con i fini, i bisogni e i desideri dell'uomo. L'universo della scienza si configura come un ordine programmaticamente spogliato di ogni attributo, valore o qualità umana; infatti, solo spersonalizzando la natura, e quindi espellendo l'uomo dalla fisica, risulta possibile studiare scientificamente la realtà effettiva del mondo circostante.

b) La natura è un ordine casuale, poiché in essa nulla avviene a caso, ma tutto è il risultato di cause ben precise, intendendo per causalità, secondo le precisazioni di Galileo, un rapporto costante e univoco fra due (o più) fatti, dei quali dato l'uno (o gli uni) è dato anche l'altro (o gli altri) e tolto l'uno (o gli uni) è tolto anche l'altro (o gli altri). Tuttavia, delle quattro cause riconosciute da Aristotele (formale, materiale, efficiente, finale), l'unica scientificamente ammessa è quella efficiente. Infatti alla scienza non interessa (o non è dato conoscere) il perché finale o lo scopo dei fatti, ma solo la loro causa efficiente ossia le forze che li producono.

;55! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

c) La natura è un insieme di relazioni e non un sistema di essenze, poiché lo sguardo del ricercatore non è fisso sui principi sostanziali occulti e inverificabili che stanno al fondo della realtà, ma sulle relazioni causali riconoscibili che legano i fatti. Ad esempio, allo scienziato non importa mettere in luce la sostanza di un fatto come il fulmine, ma solo di chiarire i rapporti di causa ed effetto che lo congiungono con altri fatti (le scariche elettriche, il tuono, ecc.).

d) I fatti sono governati da leggi poiché essendo causalmente legati fra loro obbediscono a delle regole uniformi, che rappresentano i modi necessari o i principi invarianti attraverso cui la natura opera. Di conseguenza, dal punto di vista scientifico, la Natura finisce per essere nient'altro che l'insieme delle leggi che regolano i fenomeni e li rendono prevedibili.

2. La concezione della scienza come sapere sperimentale-matematico e intersoggettivamente valido, avente come scopo la conoscenza progressiva del mondo circostante attraverso l’osservazione sistematica dei fenomeni e il controllo dei suoi risultati e il suo dominio a vantaggio dell’uomo, sganciata definitivamente dall’autorità degli antichi:

a) La scienza è un sapere sperimentale poiché si fonda sull'osservazione dei fatti e perchè le sue ipotesi vengono giustificate su base empirica e non puramente razionale. Tuttavia l'esperienza di cui parla la scienza, come vedremo più analiticamente in Galileo, non è una semplice e immediata registrazione di fatti, subito inquadrata in una teoria generale, bensì una costruzione complessa, su base matematica, che mette capo all’esperimento, cioè ad una procedura appositamente costruita per la verifica delle ipotesi.

b) La scienza è un sapere matematico che si fonda sul calcolo e sulla misura, poiché la fisica, nello sforzo di darsi una veste rigorosa, procede ad una matematizzazione dei propri dati, racchiudendoli in formule precise. Pertanto, la "quantificazione" si configura come una delle condizioni imprescindibili dello studio della natura e come uno dei punti di forza del nuovo metodo inaugurato da Galileo, che alla deduzione matematica, come si vedrà, assegna un ruolo basilare nella stessa scoperta scientifica.

c) La scienza e' un sapere intersoggettivo, poiché i suoi procedimenti vogliono essere pubblici, cioè accessibili a tutti, e le sue scoperte pretendono di essere valide, ossia controllabili, in linea di principio, da ognuno. In tal modo, la scienza moderna si stacca nettamente dalla magia e dalle discipline occulte, che, presupponendo una concezione "sacerdotale" o "iniziatica" del sapere, considera la conoscenza come patrimonio di una cerchia ristretta di individui, che lavorano in segreto senza esibire alla luce del sole i metodi delle loro ricerche. Da ciò l'equazione scienza=sapere universale, che da Galileo in poi ha costituito uno dei suoi principali motivi di vanto.

d) Il fine della scienza è la conoscenza oggettiva del mondo e delle sue leggi, in quanto più riesce ad essere "neutrale" e "disinteressata", ossia libera da schemi antropomorfici e sganciata da preoccupazioni estranee, e quindi capace di scoprire le relazioni autentiche tra i fenomeni, tanto più la scienza va incontro a quel fondamentale interesse umano che è dominio dell'ambiente circostante. Infatti, conoscere le leggi della natura vuol dire, nel contempo, poterla

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;56!

controllare e dirigere a nostro vantaggio. Di conseguenza il baconiano “sapere è potere” esprime tutta l'umanità della scienza, cioè il suo evidente collegamento con il soggetto concreto che la istituisce.

Nel corso del Seicento, come abbiamo rilevato, furono messe in discussione alcune delle idee su cui si era retta la scienza antica e che per millenni erano state alla base delle credenze degli uomini. L'epicentro della crisi si localizzò nel campo dell'astronomia. Copernico, Keplero, Galileo e Newton attaccarono il principio secondo cui la Terra era immobile al centro dell'universo, ipotesi che faceva da sfondo, ad esempio, all'immagine dell'universo di Dante nella Divina Commedia, immagine dell'universo che aveva mutuato dalle dottrine dell'astronomo Tolomeo che agli inizi dell'era cristiana aveva sistematizzato, seguendo la fisica di Aristotele, le conoscenze circa la struttura dell'universo. Il suo sistema, definito geocentrico perché poneva la Terra al centro dell'universo, presentava un indubbio fascino sia teorico che estetico: in esso, tutto rispondeva ad un ordine perfetto. La centralità della Terra assumeva, inoltre, un significato metafisico, in quanto esprimeva la dignità e la grandezza dell'uomo. Tra Cinquecento e Seicento, grazie alla nuova mentalità sperimentale e all'impiego di più rigorosi calcoli matematici, si giunse a dover riconoscere che l'errore consisteva nel modello stesso, incapace di spiegare i fenomeni astronomici. Gli esiti del processo di demolizione del vecchio sistema geocentrico possono così sintetizzarsi:

a) la Terra non viene più ad occupare la posizione centrale nell'universo, né risulta essere immobile;

b) la distinzione aristotelica tra una fisica celeste, caratterizzata dal movimento circolare dei corpi, ritenuto perfetto, e una terrestre (o sublunare), caratterizzata dai movimenti imperfetti, viene abbandonata, in quanto priva di fondamento. Galileo poteva puntare il suo cannocchiale al cielo senza il timore di violare la sacralità delle sfere celesti, e poteva osservare, ad esempio, che la luna presentava una superficie non liscia né uniforme né perfettamente sferica, ossia una natura proprio come la Terra;

c) una volta abbandonata la teoria secondo la quale il mondo era racchiuso in un orizzonte limitato dalle stelle fisse, l'universo veniva ad assumere i caratteri dell'infinità, proprio come era apparso a Giordano Bruno.

L'abbattimento del sistema geocentrico ad opera dei massimi pensatori del Seicento comportò non soltanto la scomparsa di un'ipotesi millenaria di fisica, ma anche la crisi definitiva del vecchio impianto epistemologico. Si capisce, allora, il motivo per cui il bersaglio polemico degli scienziati e filosofi che aderirono alla nuova scienza non fosse tanto Tolomeo quanto Aristotele, come è bene espresso nel seguente passo di Bacone tratto da La confutazione delle filosofie: “Se vorrete darmi ascolto, non solo rifiuterete la dittatura di quest'uomo (Aristotele) ma anche quella di un qualunque uomo presente e futuro; seguiamo gli uomini quando pensano rettamente cosi come conviene a esseri chiaroveggenti e non in tutte le loro affermazioni indiscriminatamente, come farebbero i ciechi ….. Liberate infine voi stessi; donatevi alla realtà delle cose e non siate schiavi di un sol uomo”.

Nella vigorosa battaglia per l’affermazione del nuovo modo di concepire la scienza, gli scienziati devono combattere anche contro il sapere magico, che aveva trovato grande seguito nel Rinascimento, anche se, in qualche modo, la scienza nascente

;57! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

e la magia hanno in comune lo stesso desiderio di dominare la natura, pur utilizzando strumenti diversi. La magia considera il mondo come un organismo vivente e senziente, che il mago deve trasformare attraverso procedure miracolistiche tenute celate ai più. Al contrario, la scienza non ammette segreti, si schiera contro l'idea della presenza di qualità occulte nella natura e contro le procedure ritualistiche e iniziatiche, affermando la possibilità di conoscere la natura per tutti gli uomini dotati di ragione. È questo il senso della feroce polemica di Bacone contro i più noti rappresentanti della magia, come Paracelso, che viene definito come un: “fanatico accoppiatore di fantasmi … che, confondendo le cose divine con quelle naturali, il profano con il sacro, le eresie con le favole, [ha] profanato sia la verità umana sia quella religiosa”.

Di qui l'insistenza da parte di Bacone e di Cartesio sul tema del “metodo” necessario per additare agli uomini la via da percorrere per ricercare la verità nelle scienze. Pertanto, i pilastri della nuova concezione della scienza possono essere così riassunti:

1. tutti gli uomini possono naturalmente accedere alla verità della scienza, usando in modo appropriato la propria ragione. Dunque, contro il sapere magico, gli artefici della Rivoluzione scientifica, affermano che la conoscenza non è una prerogativa di pochi eletti o illuminati, ma l’attributo fondamentale dell’umanità, ed in questa direzione va interpretato lo sforzo di costruire un linguaggio universale, modellato su quello della matematica;

2. i metodi e le procedure per accedere alla verità sono rigorosi, ma semplici, chiari ed evidenti, a differenza dei procedimenti occulti dei maghi e delle complicate argomentazioni degli aristotelici. Il linguaggio dello scienziato moderno è, in linea di principio, comprensibile ad un pubblico più vasto di quello tradizionale dei dotti, ed è per questo motivo che Galileo e Cartesio si serviranno della lingua italiana e francese per quelle opere destinate, per il loro contenuto scientifico, anche al vasto pubblico di lettori che non conosceva il latino;

3. si stabilisce una stretta connessione tra il sapere e il potere, al fine di sottrarre la scienza e la tecnica al controllo dei maghi e riportarle alla loro essenziale funzione, cioè quella di migliorare le condizioni di vita degli uomini.

Con l'affermarsi della nuova fisica, si fa strada nel Seicento una visione del mondo che viene definita, con un termine desunto dalla lingua greca, “meccanicismo” (in greco mechanè=macchina). Con l'espressione meccanicismo si indica, in primo luogo, la dottrina che considera la natura come una macchina. Il modello di macchina ritenuto più perfetto dagli scienziati del Seicento era l'orologio, che, per la sua meccanica di movimento, rappresentava la metafora per descrivere e interpretare il mondo fisico. Cartesio dice chiaramente che l’ universo fisico (compresi il corpo animale e quello umano) può essere paragonato ad una grande macchina, priva di anima, governata dalle leggi dei corpi (=estensione) che sono in movimento. Schematizzando al massimo, possiamo affermare che la concezione meccanicistica della natura, diametralmente opposta all’antica concezione finalistica di Aristotele, poggia sui seguenti presupposti:

a) la natura non è né un organismo vivente né l'immagine di Dio: essa è materia, cioè estensione (res extensa). A tal proposito, Cartesio è estremamente chiaro: “Col termine natura non intendo affatto qualche divinità o qualche tipo di potenza immaginaria; ma mi servo di questa parola per indicare la materia stessa”;

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;58!

b) gli attributi fondamentali della materia sono l'estensione e il movimento. La concezione della materia come estensione conferisce un carattere "geometrico" alla fisica moderna. La materia ha le stesse caratteristiche dell'estensione: è divisibile all'infinito e può assumere tutte le forme (figure) immaginabili. Le sue particelle si muovono nello spazio, dando origine a corpi con differenti configurazioni;

c) le leggi che governano il movimento della materia sono, pertanto, determinabili con precisione matematica;

d) per spiegare la struttura dell'universo occorre costruire un "modello", costituito solo da elementi quantitativi e interpretabile, dunque, attraverso la geometria;

e) il mondo fisico, essendo unicamente estensione e movimento, è costituito solo dalle cosiddette qualità oggettive (la figura dei corpi, la loro grandezza, il luogo da essi occupato, il loro movimento). Le altre qualità, come il colore, il calore, l'odore, il sapore, ecc., sono semplicemente "soggettive", in quanto dipendono dal soggetto senziente. Il movimento di un corpo esiste indipendentemente dal soggetto che lo percepisce (qualità oggettiva dei corpi), mentre l'odore non esiste senza il soggetto che lo percepisce.

Attraverso la distinzione tra qualità oggettive e soggettive la scienza moderna portava a compimento il processo di "oggettivazione" e di "matematizzazione" della natura, ormai sottratta ad ogni istanza di carattere antropomorfico. Su questa scia, il meccanicismo diviene il modello interpretativo non solo della fisica, ma anche della biologia e della psicologia.

Le condizioni socio-culturali, i mutamenti politici ed economici, le maggiori richieste nel campo della tecnica, ed altre motivazioni che si potrebbero aggiungere, sono necessarie e sufficienti a spiegare la nascita della scienza moderna? Certamente sono necessarie ma non sufficienti, in quanto senza menti geniali, creative e controcorrente, capaci di tradurre in atto le possibilità implicite nelle condizioni citate e di sintetizzarne e realizzarne gli spunti mediante una metodologia corretta, la scienza moderna non sarebbe mai nata. Di conseguenza, è doveroso dare debito spazio e merito alla genialità, pur tenendo presente che hanno operato all’interno di ben determinate e favorevoli circostanze storico-culturali.

6.4 La Rivoluzione astronomica e la nuova immagine dell’universo

La Rivoluzione astronomica, con cui prende avvio la Rivoluzione scientifica, rappresenta uno degli avvenimenti culturali più importanti della storia dell’Occidente, che hanno maggiormente contribuito al passaggio dall'età antico-medioevale all'età moderna. Tale rivoluzione comincia con Copernico, dando così inizio ad un processo di pensiero che ha coinvolto, al tempo stesso, astronomia e le scienze fisiche, filosofia e teologia. Di conseguenza, l'intricato processo che porta alla Rivoluzione astronomica, intesa soprattutto come un passaggio “dal mondo chiuso all'universo infinito”, non è soltanto un fatto astronomico e scientifico, ma anche un appassionante avvenimento filosofico, poiché ha finito per mutare la visione complessiva del mondo che per secoli era stata propria dell'Occidente, segnando in profondità la cultura moderna. Per comprendere in modo adeguato la Rivoluzione astronomica risulta indispensabile

;59! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

richiamare alla mente i punti essenziali di quel millenario “sistema del mondo” che va sotto il nome di universo aristotelico-tolemaico, alla cui distruzione dettero contributi decisivi Copernico, Brahe, Keplero, Galilei, Bruno.

La cosmologia greco-medioevale concepiva il mondo come sostanzialmente: unico, chiuso, finito, fatto di sfere concentriche, geocentrico e diviso in due parti qualitativamente distinte, soggette a leggi fisiche diverse. L'universo aristotelico-tolemaico è unico in quanto pensato come il solo universo esistente, e ciò soprattutto in virtù della teoria dei luoghi naturali secondo cui ogni materia possibile deve trovarsi concentrata in un determinato posto; chiuso poiché immaginato come una sfera limitata dal cielo delle stelle fisse (cui, in seguito, era stato aggiunto il nono cielo e il primo mobile), oltre il quale non c'era nulla, neanche il vuoto, poiché Aristotele riteneva che ogni cosa è nell'universo, mentre l'universo non è in nessun luogo, potendoci essere luogo e spazio solo in relazione ai corpi. Fuori del cosmo si trovava soltanto Dio, secondo la teologia cristiana che aveva fatto proprio tale sistema astronomico. Essendo chiuso, l’universo era anche finito, in quanto l'infinito, aristotelicamente parlando, appariva soltanto un'idea e non una realtà attuale. Tale universo era fatto di sfere concentriche, intese non come puri tracciati matematici, in senso moderno, ma come qualcosa di solido e di reale, le cosiddette sfere cristalline, su cui erano incastonate le stelle e i pianeti. Si avevano così, oltre alla sfera delle stelle fisse, i cieli di Saturno, Giove, Marte, Mercurio, Venere, Sole e Luna. Al di sotto di quest’ultima stava la zona dei quattro elementi, con la Terra immobile e al centro di tutto (geocentrismo). Il mondo aristotelico-tolemaico era inoltre pensato come “qualitativamente differenziato in due zone cosmiche distinte soggette a leggi fisiche diverse”: una perfetta e l'altra imperfetta. La prima era quella dei cieli del cosiddetto “mondo sopralunare”, formato di un elemento divino, l’etere, incorruttibile e perenne, il cui unico movimento era di tipo circolare e uniforme, senza principio e senza fine, eternamente ritornante su se stesso. La seconda zona era quella del cosiddetto “mondo sublunare”, formato dai quattro elementi (terra, acqua, aria e fuoco), avendo ognuno un suo luogo naturale e dotato di un moto rettilineo (dal basso verso l’alto o viceversa), che avendo un inizio e una fine dava origine ai processi di generazione e corruzione.

Questa visione astronomica appariva conforme non solo al senso comune, e alla sua quotidiana constatazione dell’immobilità della Terra e del moto dei cieli, ma anche alla mentalità metafisica prevalente, portata a concepire il mondo come un organismo gerarchico e finalisticamente ordinato e disposto. La teologia patristica e quella scolastica avevano poi ulteriormente cristianizzato e sacralizzato questa cosmologia, intrecciandola con le dottrine della creazione, dell'incarnazione e della redenzione, che presupponendo la Terra come sede privilegiata della storia del mondo e l'uomo come fine della creazione (antropocentrismo) ben si conciliavano con la centralità spaziale riconosciuta alla Terra (geocentrismo). La testimonianza dei sensi, l’autorità di Aristotele, i teoremi della metafisica e la parola divina della Bibbia avevano quindi finito per convergere in una comune attestazione della validità assoluta del sistema aristotelico-tolemaico.

Semplificando molto le cose, è possibile tentare di elencare i presupposti che fu necessario abbattere e abbandonare per costruire una nuova astronomia e una nuova fisica:

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;5:!

1. La distinzione di principio tra una fisica del mondo celeste e una fisica del mondo terrestre, che risultava dalla divisione dell'universo in due sfere, l'una perfetta, l'altra soggetta al divenire.

2. La convinzione (che conseguiva da questo primo punto) del carattere necessariamente circolare dei moti celesti.

3. Il presupposto dell'immobilità della Terra e della sua centralità nell'universo che era confortato da una serie di argomenti dall'apparenza irrefutabile e che trovava conferma nel testo stesso delle Scritture.

4. La credenza nella finitezza dell'universo e in un mondo chiuso che è legata alla dottrina dei luoghi naturali.

5. La convinzione, strettamente connessa alla distinzione fra moti naturali e violenti, che non ci sia bisogno di addurre nessuna causa per spiegare lo stato di quiete di un corpo, mentre, al contrario, ogni movimento deve essere spiegato o come dipendente dalla forma o natura del corpo o come provocato da un motore che lo produce e lo conserva.

6. Il divorzio, che si era andato rafforzando, fra le ipotesi matematiche dell'astronomia e la fisica.

Nel corso di circa cento anni (all'incirca fra il 1610 e iI 1710) ciascuno di questi presupposti venne discusso, criticato, respinto. Ne risultò, attraverso un processo difficile (a volte tortuoso), una nuova immagine dell'universo fisico destinata a trovare il suo compimento nell'opera di Newton. Ma si trattò di un rifiuto che presupponeva un radicale rovesciamento di quadri mentali e di categorie interpretative, che implicava una nuova considerazione della natura e del posto dell'uomo nella natura.

Agli inizi del XVI secolo furono proposti diversi sistemi nuovi, ma quello che doveva dare inizio alla rivoluzione scientifica, all’atto di nascita di una nuova età e di una rivoluzione intellettuale, era il sistema eliocentrico proposto da Nicolò Copernico (1473–1543). Il prete polacco, che aveva studiato a Padova, Ferrara e Bologna, era un acuto matematico, più che un

astronomo, e la sua forza stava nella padronanza della geometria celeste, e su questa padronanza egli basò le proprie tesi. La gran parte della sua opera, il De Revolutionibus, è astronomia tolemaica capovolta. Su di uno sfondo platonicheggiante, affermava l’armonia generale della natura e quindi la necessità che questa ottenesse i suoi effetti mediante le vie più semplici, per cui riteneva la dottrina tolemaica troppo complessa e artificiosa per descrivere correttamente il moto degli astri per cui comprese che quella sfera assegnata da Tolomeo a ogni pianeta e al Sole non faceva altro che riflettere il reale movimento della Terra. Da questo cambio, che fu per lui di carattere essenzialmente geometrico, Copernico credeva che derivasse una teoria plausibile, poiché era valida, coerente e ordinata, al contrario dei sistemi geocentrici, che apparivano incoerenti, non armoniosi e disordinati, e quindi falsi. Dopo tanti secoli l’eliocentrismo, già proposto dai pitagorici e Aristarco da Samo, tornava ad imporsi, ma questa volta definitivamente e spazzando via la secolare cosmologia aristotelica.

La teoria eliocentrica è una delle più sconcertanti scoperte nella storia della scienza perché è in conflitto con l’esperienza quotidiana ed ha messo in crisi la stessa nozione di conoscenza basata sui sensi e ha aperto un nuovo modo di interpretare il mondo, fondato sul ragionamento matematico. Questo è il perché il 1543, l’anno in cui comparve l’opera di Copernico De Revolutionibus Orbium Coelestium (Sulle rivoluzioni

;6<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

delle sfere celesti), è assunto come la data in cui l’umanità varcò la soglia della Rivoluzione Scientifica.

Malgrado la eccezionale importanza della sua audace supposizione sulla immobilità del Sole, Copernico fece soltanto il primo passo verso una rivoluzione scientifica. E come Copernico, molti altri furono guidati da una rinnovata concezione di un ordine del mondo di stampo platonico invece che aristotelico, caratterizzato dall’armonia e fondato su ordinate relazioni matematiche. Gli astronomi medievali, arabi e cristiani, si consideravano soddisfatti di qualsiasi modello geometrico che potesse “salvare i fenomeni”, mentre Copernico affermava che tutti questi modelli erano artifici in quanto la vera geometria dei cieli si sarebbe riconosciuta per “l’inalterabile simmetria delle sue componenti”.

Le sette petitiones che dovevano dar luogo ad una nuova astronomia sono:

1) Non esiste un solo centro di tutti gli orbi celesti o sfere (ci sono, a differenza che in Tolomeo, due centri di rotazione: la Terra che è il centro di rotazione della Luna, il Sole che è al centro della rotazione degli altri pianeti);

2) Il centro della Terra non coincide con il centro dell'universo, ma solo con il centro della gravità e della sfera della Luna (questa petitio riapriva il problema di una spiegazione della gravità);

3) Tutte le sfere ruotano attorno al Sole (che è dunque eccentrico rispetto al centro dell'universo);

4) Il rapporto fra la distanza Terra-Sole e l'altezza del firmamento è minore del rapporto fra il raggio terrestre e la distanza Terra- Sole. Quest'ultima è pertanto impercettibile in rapporto all'altezza del firmamento (se l'universo ha così grandi dimensioni, non avverrà che il moto della Terra dia luogo ad un moto apparente delle stelle fisse);

5) Tutti i moti che appaiono nel firmamento non derivano da moti del firmamento, ma dal moto della Terra. Il firmamento rimane immobile, mentre la Terra, con gli elementi a lei più vicini (l'atmosfera e le acque della sua superficie) compie una completa rotazione sui suoi poli fissi in un moto diurno;

6) Ciò che ci appare come movimenti del Sole non deriva dal suo moto, ma dal moto della Terra e della nostra sfera con la quale ruotiamo attorno al Sole come ogni altro pianeta. La Terra ha, pertanto, più di un movimento;

7) L'apparente moto retrogrado e diretto dei pianeti non deriva dal loro moto, ma da quello della Terra. Il moto della sola Terra è sufficiente a spiegare tutte le disuguaglianze che appaiono nel cielo (i moti retrogradi dei pianeti diventano moti apparenti, dipendenti dal moto della Terra).

L’universo di Copernico fu tipicamente greco, il mondo che avrebbe costruito Tolomeo se avesse seguito Aristarco. Modellandosi su Tolomeo, Copernico ricalcolò tutti gli elementi del suo universo in base alle osservazioni soprattutto greche, ed in parte arabe e fatte da lui stesso, raggiungendo risultati che corrispondevano strettamente a quelli dell’Almagesto, salvo che ora, per la prima volta, venivano date le grandezze relative delle orbite. Come conseguenza naturale dell’adattamento, l’ordine dei pianeti, a partire dal Sole e secondo

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;6;!

l’aumento dei periodi di rivoluzione, diventò: Mercurio, Venere, Terra, Marte, Giove, Saturno. Credendo che l’equante di Tolomeo fosse un artificio perché rendeva i moti circolari non uniformi rispetto al centro geometrico, Copernico fu indotto a introdurre un certo numero di sfere più piccole per render conto delle apparenti variazioni nella velocità del pianeta quando viene visto dal centro della sua sfera. Ma Copernico era convinto che il suo sistema corrispondesse alla realtà? Certamente il libro venne letto come se sostenesse una concezione realistica e venne inevitabilmente respinto dai più. Il copernicanesimo fu soffocato dall’indifferenza di dotti e ignoranti, e quindi da una tradizione della fisica, come una teoria che postulasse una pura assurdità.

Tuttavia, questa nuova visione prospettica del cosmo, pur essendo di per sè rivoluzionaria, non scalzava dalle fondamenta la vecchia immagine dell'universo, in quanto il cosmo di Copernico rimaneva simile a quello degli antichi. L'astronomo polacco, ad esempio, concepiva ancora l'universo come sferico, unico e chiuso dal cielo delle stelle fisse. Inoltre accettava il principio della perfezione dei moti circolari uniformi delle sfere cristalline, pensate ancora come entità reali e incorruttibili. Il motivo stesso per cui, secondo Copernico, il Sole è al centro dell'universo ricorda le spiegazioni aprioristiche della scienza antica: dovendo illuminare il cosmo, è soltanto dal centro di questo che il sole può svolgere nel miglior modo la sua funzione. Eppure, i vari elementi di conservazione ancora presenti in Copernico non eliminano la portata oggettivamente innovatrice della sua opera e il suo coraggio di uomo pronto a sfidare, in nome della scienza, dottrina e pregiudizi secolari. Però, il suo sistema astronomico richiedeva una nuova cosmologia e una nuova fisica, perché il movimento della Terra sconvolgeva le categorie di Aristotele e il suo intero sistema. La dicotomia tra i corpi celesti perfetti e la regione sublunare corrotta andò distrutta quando la Terra stessa divenne un pianeta, e fu cambiata la natura stessa del movimento. Fu assai meno significativo il fatto che la dimora dell’uomo cessasse di essere il centro dell’universo rispetto allo scardinamento di quell’intero ordine intellettuale. Non è chiaro quanto Copernico percepisse di questa situazione. Egli non s’impegnò molto per adattare la cosmologia e la fisica al nuovo sistema. Soltanto quando parlò della gravità aggiunse qualcosa di più: “la gravità non è altro che una tendenza naturale immessa dal Creatore nelle parti dei corpi al fine di fonderle insieme in forma di sfera, e di contribuire così alla loro unità e integrità. E noi possiamo credere che questa proprietà sia presente anche nel Sole, nella Luna e nei pianeti …”. Copernico non giustificò né spiegò questa affermazione, decisamente antiaristotelica e antiscolastica, così importante per il futuro, da attribuire a tutta la materia una misteriosa tendenza o forza intrinseca. Tuttavia, senza questo principio, che colloca Copernico tra i pensatori moderni, il suo sistema sarebbe stato un’assurdità.

A smorzare l'effetto dirompente della nuova dottrina contribuirono però alcuni fattori. Innanzitutto, il teologo luterano Andreas Osiander (1498-1552) premise al capolavoro di Copernico, senza il consenso del suo autore, una prefazione anonima dal titolo Al lettore sulle ipotesi di quest'opera. In essa Osiander sosteneva la natura puramente ipotetica e matematica della nuova dottrina astronomica, affermando che essa era un puro strumento di calcolo atto, come si disse, a “salvare le apparenze o i fenomeni”, senza alcuna pretesa di rispecchiare la realtà autentica del mondo. Ovviamente questa posizione, che venne scambiata come propria di Copernico, attutiva di parecchio la nuova ipotesi e tradiva il vero pensiero dell'astronomo polacco, persuaso, per quel che

;6=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ne sappiamo, che la sua teoria non fosse una semplice, sia pur funzionale, ipotesi matematica, ma la riproduzione fedele della struttura reale del cosmo, ossia non uno dei tanti modelli possibili dell'universo, ma il sol vero. In secondo luogo, la teoria copernicana stentò ad affermarsi perché la supposta semplicità di essa nei confronti di quella tolemaica non era sempre tale, anzi in qualche caso essa risultava persino matematicamente più complessa e incapace di dar ragione di alcuni movimenti celesti. Inoltre, essa si scontrava con ardue questioni di fisica, che la scienza del tempo non era preparata a risolvere e che sembravano quindi irrimediabilmente a sfavore della nuova teoria.

Tipici, in questo senso, taluni quesiti anticopernicani messi a punto dagli Aristotelici: 1) se la Terra si muove, perchè essa non provoca il lancio di tutti i suoi oggetti mobili lontano dalla superficie terrestre?; 2) se la Terra si muove, perchè non solleva un vento così forte da scuotere cose e persone?; 3) se la Terra si muove da ovest a est, un sasso lanciato dall'alto di una torre dovrebbe cadere ad ovest di essa, poiché la torre durante la caduta deve per forza essersi spostata ad est. Ma perché ciò non si verifica e il sasso continua a cadere approssimativamente ai piedi della perpendicolare della torre? Questi e altri argomenti verranno risolti scientificamente soltanto da Galileo. Gli ostacoli maggiori al successo del copernicanesimo non proverranno tuttavia dal settore scientifico, bensì dal settore religioso e filosofico.

Maggior successo arrise, per il momento, all'astronomo danese Tycho Brahe (1546-1601), ideatore del cosiddetto sistema ticonico, ossia di un sistema cosmologico misto, a metà strada fra i due opposti di Tolomeo e di Copernico. Tale sistema, simile a quello che nell'antichità aveva formulato Eraclide Pontico, sosteneva che i pianeti girano attorno al Sole, mentre il Sole gira a sua volta attorno alla Terra, che rimane al centro dell'universo, e in questo modo veniva salvata tutta la geometria del sistema copernicano anche abbandonando il suo postulato

eliocentrico. Furono le osservazioni della grande cometa del 1577 il vero motore per lo sviluppo del sistema di Tycho. Osservò il nuovo fenomeno con attenzione, da grande astronomo qual era, e scoprì che la cometa aveva una parallasse troppo piccola per collocarla nella zona sublunare. Allora la cometa doveva trovarsi nelle regioni eteree, come fu poi confermato dalla comparsa di altre comete. Ecco le parole di Tycho: “Tutte le comete da me osservate si muovono nelle regioni eteree del mondo, e mai nell’aria al di sotto della Luna, come Aristotele e i suoi seguaci hanno cercato di farci credere, senza una ragione, per tanti secoli”.

Questo modello astronomico ebbe migliore accoglienza di quello copernicano, perchè pur conservandone molti vantaggi matematici, era sostanzialmente conservatore, almeno per quanto riguarda la posizione della Terra, e quindi sembrava escludere ogni ragione di conflitto con le Sacre Scritture. Tuttavia, l’astronomo danese, fu anche audace dal punto di vista concettuale asserendo, al contrario di Aristotele e di Copernico, che non vi sono sfere celesti solide, che le comete sono corpi celesti reali e che i cieli mutano. Infine, fu il primo a proporre per un corpo celeste, le comete, una traiettoria “ovoidale, ossia una traiettoria che non fosse né circolare, né ottenibile dalla composizione di cerchi. E Keplero volgerà l’attenzione proprio alla figura proposta da

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;64!

Tycho per cercare una traiettoria non circolare per Marte e che lo condurrà alla sua legge sulle orbite ellittiche dei pianeti.

Verso la fine del secolo XVI avvenne un mutamento. I seguaci del sistema copernicano avevano cominciato a sostenere che se la fisica di Aristotele ostacolava il sistema eliocentrico, allora questa doveva venire rimpiazzata da una fisica che fosse più in accordo con esso.

Giovanni Keplero (1571-1630), assistente di Brahe, non si chiese se il sistema copernicano potesse esser vero, ma cosa più importante, cercò di scoprire perché dovesse esser vero. La ricerca di Keplero fu una strana combinazione di speculazione platonica di origine pitagorica e fisica. Egli desiderava trovare nell’architettura dei cieli sia una chiara armonia matematica, sia una spiegazione fisica del perché esistesse una tale armonia. Così Keplero fu insieme l’ultimo degli astronomi puramente matematici che cercavano di definire i movimenti celesti con linee e curve, e il primo a ideare una meccanica celeste che non fosse una semplice ipostatizzazione della geometria. Tuttavia, nel suo primo libro, Il Mistero cosmografico (1596), è il primo tema a esser dominante. In tale opera esaltava liricamente la bellezza, la perfezione e la divinità dell'universo e vedeva in esso l'immagine della trinità divina. Al centro del mondo starebbe il Sole, immagine di Dio Padre, dal quale deriverebbero ogni luce, ogni calore e ogni vita. Il numero dei pianeti e la loro disposizione intorno al Sole obbedirebbero ad una precisa legge di armonia geometrica. I cinque pianeti costituirebbero infatti un poliedro regolare e si muoverebbero secondo sfere inscritte o circoscritte al poliedro delineato dalla loro posizione reciproca. In quest’opera egli attribuiva il movimento dei pianeti ad una loro anima motrice o all'anima motrice del Sole. Una concezione piuttosto stravagante, tuttavia l’idea che vi fosse una qualche correlazione tra le grandezze di queste orbite era fondata.

Ma lo stesso sforzo di trovare nelle osservazioni astronomiche la conferma di questi “filosofemi” pitagorici o neoplatonici lo condusse ad abbandonarli. Nei suoi scritti astronomici e ottici, al posto delle intelligenze motrici pose forze puramente fisiche; ritenne il mondo necessariamente partecipe della quantità e la materia necessariamente legata ad un ordine geometrico. Rimase però sempre fedele al principio in base al quale l'oggettività del mondo è nella proporzione matematica implicita in tutte le cose. Era questo lo stesso principio che aveva animato Leonardo.

Venti anni dopo, nel libro Armonia del mondo (1619), Keplero enunciò la legge:

TERZA LEGGE DI KEPLERO

I cubi dei diametri delle orbite sono proporzionali ai quadrati dei loro tempi di rivoluzione:

Da questa legge seguiva che sarebbero stati possibili molti sistemi solari, e non

uno soltanto come egli pensava nel 1596. Da allora il suo pensiero era maturato ed era entrato in possesso delle osservazioni di Ticho Brahe. Cominciò a lavorare sul classico problema dell’astronomia: la determinazione delle orbite. Avendo fortunatamente cominciato con Marte, la cui orbita è la più eccentrica di tutte eccettuato Mercurio, Keplero trovò per prima cosa che i piani di tutte le orbite passavano per il Sole, confermando la sua attribuzione di un significato fisico ad esso come centro del sistema,

23TD ∝

;65! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

mentre per Copernico il Sole non aveva questa proprietà. Allora, considerando le velocità di un pianeta in punti diversi dell’orbita, scoprì la sua seconda legge:

SECONDA LEGGE DI KEPLERO

Il raggio vettore che unisce il Sole con il pianeta spazza aree dell’orbita equivalenti in tempi uguali.

Fino a questo punto, Keplero, da buon pitagorico e come tutti i suoi predecessori,

aveva concepito le orbite come circolari, ed un’altra ipotesi era inconcepibile. Cercando ora di definire questo cerchio, e in particolare di trovare un centro di moto uniforme al suo interno, trovò che la sua seconda legge, l’orbita circolare e i dati osservativi erano reciprocamente inconciliabili. Dopo anni di vani calcoli egli si imbattè nella risposta, la cosiddetta prima legge:

PRIMA LEGGE DI KEPLERO

Le orbite descritte dai pianeti intorno al Sole sono ellissi, di cui il Sole occupa uno dei fuochi.

Tutto questo lavoro Keplero lo

espose nella sua Astronomia nuova, o fisica celeste (1609). Con queste leggi le maggiori difficoltà della dottrina copernicana e le obiezioni relative al cattivo accordo tra teoria ed osservazioni venivano superate.

Keplero fu costantemente influenzato dalla necessità di fornire ad ognuna delle sue ipotesi una plausibile spiegazione fisica. Alla maniera aristotelica, immaginò che i pianeti venissero spinti da una forza irradiata dal Sole in rotazione e poiché questa decresceva con la distanza, i pianeti esterni venivano spinti più lentamente. Per render conto delle loro orbite ellittiche Keplero postulò una forza magnetica polarizzata tra il Sole e ogni pianeta; all’afelio il pianeta era respinto dal Sole, mentre nel perielio, girando verso di questo l’altro polo, era di nuovo attratto. In questo modo Keplero, influenzato dall’opera di Gilbert, formulava per primo l’ipotesi dell’esistenza di una forza fisica, di natura magnetica, simile all’attrazione terrestre. Ma questa concezione presentava non poche difficoltà per la meccanica del tempo, per cui verrà combattuta dai primi fisici moderni, a cominciare da Galileo. Solo Newton, mutando l’attrazione magnetica in attrazione gravitazionale, riuscirà ad imporla come base della fisica astronomica. Le leggi di Keplero rappresentarono l’atto di nascita della meccanica celeste ma la loro interpretazione richiedeva una teoria dinamica della quale lo stesso Keplero era del tutto sprovvisto, perché sotto questo aspetto stava ancora ad Aristotele.

Il secondo momento della Rivoluzione astronomica, ma anche il più radicale, è opera di Giordano Bruno (1548–1600), il filosofo che con la sua audacia intellettuale ha definitivamente superato il mondo degli antichi e prospettato le linee fondamentali di quello dei moderni. Come si è visto, il mondo di Copernico, a parte l'eliocentrismo, è ancora fondamentalmente un mondo del passato, poiché nel quadro geometrico

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;66!

tracciato nel De Revolutionibus non solo l'universo continua a fare tutt'uno con il sistema solare, pensato con un suo centro intorno al quale ruotano sfere solide e reali, ma risulta limitato dall’ultima sfera del mondo “contenente se stessa e tutte le cose”. Di conseguenza, sebbene Copernico dica in un passo di lasciare “alle discussioni dei filosofi” il problema dell'infinità del cosmo, di fatto il suo universo è ancora finito, anche se egli ha notevolmente ampliato il cielo delle stelle fisse, affermandone l'incommensurabilità e immensità. Pertanto, la rivoluzione copernicana avrebbe rischiato di fermarsi a metà strada senza l'ulteriore apertura del cosmo.

Come sappiamo, l'idea della pluralità dei mondi e dell’infinità del Tutto ebbe origine presso i Greci, in particolare fu postulata da Democrito e difesa appassionatamente da Lucrezio nella sua opera De Rerum Natura. Ma la scienza greca aveva accettato il modello aristotelico di un mondo finito ed aveva respinto le concezioni infinitistiche degli atomisti, mentre nel Medioevo, il rigetto totale dell'atomismo e la sua assimilazione a filone eretico della cultura, avevano decretato la definitiva sconfitta di ogni immagine astronomica alternativa a quella sanzionata dalla chiesa.

I primi dubbi intorno alla cosmologia finitistica greco-cristiana si possono ritrovare nell'ultima Scolastica, nell'occamismo, in Nicola Cusano ed in due studiosi del Cinquecento, Stellato Palingenio (ca. 1500-1543) e Thomas Digges (1546-1595).

Bruno, riprendendo Lucrezio e forzando in maniera creativa Cusano, giunge ad una nuova visione dell'universo, che, si badi bene, non deriva da osservazioni astronomiche o calcoli matematici, in cui il filosofo fu poco versato e tecnicamente poco competente, bensì da una intuizione di fondo del suo pensiero, quella circa l'infinità dell'universo, alimentata dal copernicanesimo. L'idea che l'astronomo polacco fa balenare dinnanzi alla fervida immaginazione di Bruno, dando corpo alla sua preesistente intuizione dell'infinito, è la seguente: se la Terra è un pianeta che gira attorno al Sole, le stelle che si vedono nelle notti serene e che gli antichi immaginarono attaccate all'ultima parete del mondo, non potrebbero essere tutte, o almeno in gran parte, immobili soli circondati dai rispettivi pianeti? Per cui l’universo, anziché essere composto da un sistema unico, il nostro, non potrebbe ospitare in sè un numero illimitato di stelle-soli, disseminate nei vasti spazi del firmamento e centri di rispettivi mondi? Di fronte a questi interrogativi Bruno, pur ammettendo che “non è chi l'abbia osservato”, conclude razionalmente che: “Sono dunque soli innumerabili, sono terre infinite, che similmente circuiscono quei soli, come veggiamo questi sette circuire questo sole a noi vicino”. Tuttavia questa convinzione, sebbene tragga la sua forza dal copernicanesimo, di cui il filosofo vuole sprigionare tutta la portata rivoluzionaria, viene immediatamente trasportata dal piano astronomico a quello metafisico. Infatti, nella mente vulcanica di Bruno, immaginazione, astronomia e filosofia formano un tutt'uno, da cui scaturisce la medesima conclusione dell'infinità dell'universo, che viene dedotta dal principio teologico, già presente nell'ultima Scolastica, secondo cui il mondo, avendo la sua causa in un Essere infinito, deve per forza essere infinito. In altre parole, la creazione, per essere perfetta e degna del Creatore, deve essere, essa stessa, infinita e straripante di vita. Da questa asserzione-chiave Bruno deriva il nuovo quadro dell'universo.

Le tesi cosmografiche rivoluzionarie dell’età moderna presenti in Bruno si possono così sintetizzare:

;67! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

1) Infinità dell’universo; 2) Pluralità dei mondi e loro abitabilità; 3) Identità di struttura fra cielo e Terra; 4) Geometrizzazione dello spazio cosmico.

La prima tesi è l’idea madre che sta alla base di tutte le altre e implica la distruzione dell'idea secolare dei confini del mondo, cui lo stesso Copernico, come si è visto, era rimasto fedele, perché l'universo è aperto in ogni direzione e le supposte stelle fisse si trovano disperse in uno spazio senza limite; un universo incostante e in eterno divenire dove vi è la negazione dell’armonia delle sue componenti a cui, invece, restarono sempre legati sia Galileo che Keplero. È anche l'idea prediletta di Bruno, quella che lo infiamma di un'ebbrezza filosofica, che lo riempie di entusiasmo e di passione, portandolo a ritenere l'universo senza limiti dai caratteri divini: infinito lo spazio, infiniti i mondi, infinite le creature, infinita la vita e le sue forme, ecc. Dalla Ceneri delle ceneri: “... il mondo essere infinito, e però non essere corpo alcuno in quello, al quale semplice mente convenga esser nel mezzo, o nell'estremo, o tra quei due termini. […] Cotal spazio lo diciamo infinito, perché non v’è ragione, convenienza, possibilità, senso o natura che debba finirlo. [...] La terra dunque non è assolutamente in mezzo de l’universo [...] Cosi si magnifica l'eccellenza di Dio, si manifesta la grandezza dell’imperio suo: non si glorifica in uno, ma in Soli innumerevoli; non in una terra, in un mondo, ma in duecentomila, dico in infiniti”.

La seconda tesi, connessa alla prima, implica la moltiplicazione all'infinito dei corpi che "corrono" per il cielo, ossia il concetto di una pluralità illimitata di sistemi solari, che Bruno ritiene popolati da creature viventi, senzienti e razionali.

La terza tesi, già presente negli atomisti e in Cusano, implica il superamento del dualismo astronomico tolemaico fra mondo sopralunare e mondo sublunare e l'unificazione del cosmo in una sola, immensa regione. Infatti si sbaglia, dice Bruno, a voler distinguere fra una parte più nobile e una meno nobile dell'universo, poiché procedendo tutto dall'unica mente e dall'unica volontà di Dio resta preclusa ogni discriminazione gerarchica fra le varie zone del creato.

La quarta tesi, strettamente intrecciata alla terza, considera lo spazio come qualcosa di unico e di omogeneo, ossia di fondamentalmente simile a sé stesso in tutto l'universo: “Uno è il loco generale, uno il spacio immenso che chiamar possiamo liberamente vacuo”. Per Bruno la sede più naturale dell'universo copernicano è infatti il vuoto infinito di Democrito e di Lucrezio, immaginato come un immenso contenitore, ripieno soltanto di etere, che “alloggia” le cose. Da qui la geometrizzazione dello spazio, che sostituisce quello aristotelico, finito e gerarchicamente differenziato di luoghi naturali, con uno spazio di tipo euclideo, omogeneo e infinito. In quanto tale, lo spazio del mondo è acentrico, poiché in esso non esiste alcun punto assoluto di riferimento (sopra, sotto, destra, sinistra, ecc.), essendo i riferimenti sempre relativi fra astro e astro.

È facile riconoscere in queste tesi, seppur giustificate teologicamente e prive di riscontro sperimentale, l'universo secondo la visione moderna e, sebbene sia stato e continui ad essere comunemente associato al nome di Copernico, sia in realtà opera di Bruno. Da un lato ciò può sembrare un paradosso: Bruno usa un armamentario concettuale del passato e parte da intuizioni extrascientifiche per approdare a risultati radicalmente nuovi e proiettati verso la scienza del futuro. Dall'altro lato, tutto questo conferma pienamente la già citata tesi dei filosofi e degli storici della scienza odierni: e cioè che le novità rivoluzionarie, nella scienza, derivano talora da complessi mentali e da intuizioni extrascientifiche, che diventano scientifiche quando trovano una legittimazione sperimentale, così come avverrà più tardi per le tesi bruniane.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;68!

Ciò nonostante, queste tesi apparvero soltanto il frutto di una mente esaltata. Anche i più grandi astronomi del tempo, Tycho Brahe, Keplero e Galileo, le accolsero freddamente o le rifiutarono in gran parte, respingendo soprattutto l'idea della pluralità dei mondi e dell'infinità dell'universo. Ciò non avvenne soltanto per ragioni di correttezza metodologica, ossia perchè le tesi di Bruno trascendevano il campo dell'astronomicamente affermabile (per quei tempi), ma anche perché le tesi del filosofo apparivano oggettivamente troppo rivoluzionarie per i padri stessi dell'astronomia moderna.

Ben più netta fu la reazione degli ambienti legati alla religione e alla vecchia cultura, che fin dalla comparsa del capolavoro di Copernico erano apparsi preoccupati dalle nuove idee astronomiche e ci volle un certo arco di tempo affinché si percepissero chiaramente le novità implicite nelle nuove dottrine astronomiche. Infatti, le idee copernicane prima e quelle di Bruno dopo, non coinvolgevano soltanto la massima autorità filosofico-scientifica del passato (Aristotele), ma anche la parola di Dio (la Bibbia). Infatti non era difficile appellarsi a numerosi passi delle Scritture in cui era evidente il presupposto geocentrico. Ad esempio, nell'Ecclesiaste (1,4-5) si legge: “Una generazione va e una generazione viene/eppure la terra rimane sempre al suo posto”; nel Giosuè (10,12) si trovano le celebri parole: “Fermati, o Sole … “ e nei Salmi (104) sta scritto: “Sulle sue basi fondasti la terra, / e starà immota negli evi degli evi”.

La chiesa cattolica, all'inizio, non si mosse. Forse perché alle prese con i problemi ben più urgenti derivanti dal dilagare dell'eresia protestante. Forse perché l'universo di Copernico, presentato da Osiander come pura ipotesi, a parte l'eliocentrismo era ancora il cosmo degli antichi e poteva anche essere conciliato—vedi Tycho Brahe—con quello di Tolomeo. O forse, più profondamente, perché essa non si rese subito conto delle gigantesche potenzialità rivoluzionarie contenute nel copernicanesimo. Difatti è soltanto dopo che Bruno avrà tratto tutte le sue radicali conclusioni cosmologiche che la chiesa, preoccupata, giungerà a mettere all'indice le opere di Copernico (1616), iniziando il duro scontro con Galileo. Infatti, il passaggio copernicano da un sistema geocentrico ad uno eliocentrico appariva assai meno grave e foriero di problemi del passaggio bruniano da un sistema eliocentrico ad uno acentrico e da un mondo chiuso ad un universo infinito.

In particolare, la teoria di una pluralità di mondi abitati tendeva a suscitare delle difficoltà in relazione al dogma di tutti i dogmi: l'Incarnazione. La seconda persona della Trinità si era dunque incarnata di volta in volta su infiniti pianeti? Vi erano dunque tanti cristianesimi quanti i mondi? E inoltre non si era sempre detto, Bibbia alla mano, che i cieli sono stati fatti per l'uomo? Quindi se l'ipotesi della molteplicità e abitabilità dei mondi era esatta, alcune verità bibliche dovevano per forza essere abbandonate o essere interpretate in altro modo. Questa serie di interrogativi, o altri analoghi, possedevano in realtà, nell'Europa cristiana del tempo, una forte valenza emotiva e intellettuale, che spiega resistenze e reazioni del mondo religioso contro i propugnatori di una visione cosmologica che aveva oggettivamente i tratti dell’eresia, e di cui il bruciato vivo Giordano Bruno era il demoniaco emblema.

Eppure, nonostante reazioni e scossoni vari, la nuova cosmologia finì per affermarsi, e ciò non accadde certo grazie alla scienza, che per lungo tempo non possedette adeguati strumenti di verifica del nuovo quadro cosmologico, ma per uno dei tanti paradossi di cui è piena la storia, e quella visione che aveva suscitato odio e disprezzo per Bruno finì per affermarsi proprio grazie agli argomenti teologici già

;69! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

delineati dal Nolano. Infatti, l'angoscia cosmica e le difficoltà religiose furono superate in virtù dell'idea secondo cui un universo infinito risultava più adatto a rispecchiare l'infinita potenza di Dio. Se i cieli e la terra narrano la gloria del loro Creatore, che cosa meglio di un cosmo infinito si prestava a celebrarla e magnificarla in tutta la sua grandezza? Tramite l'opera di filosofi, scrittori e poeti tale convinzione finì per radicarsi nella mentalità comune e per costituire l'asso vincente dei fautori della nuova astronomia.

L'eresia bruniana si era dunque capovolta in convincente ortodossia, spianando la strada al suo completo assorbimento nella cultura ufficiale. Si noti tuttavia come la chiesa, nonostante tutto ciò, abbia continuato per circa due secoli a diffidare del copernicanesimo (nel 1757 venne ritirata la condanna contro gli scritti copernicani, nel 1822 venne permessa la stampa dei libri insegnanti il moto della Terra e nel 1835 venne tolto l'indice al De Revolutionibus).

I cinque schemi cosmografici che abbiamo trovato in Bruno più tardi hanno finito per essere convalidati, almeno in parte, anche sul piano scientifico. L'inesistenza delle muraglie celesti, la pluralità dei mondi, l'identità della struttura fra cielo e Terra e l'omogeneità dello spazio cosmico saranno assunte nel corpo dell'astronomia scientifica, della quale rappresenteranno la cornice di fondo e la base per ulteriori scoperte. Nonostante la mancata certificazione scientifica della tesi dell'esistenza di altri esseri viventi e dell'infinità spaziale dell'universo, la visione bruniana dell'universo fu accettata in blocco entrando a far parte, implicitamente o esplicitamente, della mentalità moderna, celebrando i suoi maggiori trionfi nell'Ottocento. Un colpo decisivo a questo quadro cosmologico verrà soltanto dalla fisica del Novecento, in particolare da Einstein, che è tornato a riproporre l'idea di un universo finito attraverso la possibilità dell’energia-materia di incurvare lo spazio-tempo per cui il mondo sarebbe illimitato ma finito. Sul problema dell'infinità del mondo la scienza contemporanea è dunque paradossalmente tornata a proporre un modello che appare più vicino a quello di Aristotele e Tolomeo che a quello di Bruno, anche se la questione deve tuttora ritenersi scientificamente aperta.

Prima di passare ad esaminare l’opera di Galileo e il suo decisivo contributo alla nascita della scienza moderna, dobbiamo accennare ad un importante pensatore e ai suoi risultati ottenuti nel campo scientifico. Si tratta di William Gilbert (1544–1603), filosofo inglese del magnetismo, autore di un’opera importante il De Magnete.

Era noto come l’ago magnetico della bussola segnasse il polo nord magnetico, ma la navigazione oceanica aveva rivelato anche un altro fatto curioso: mutando il punto della Terra in cui si trovava la bussola, l’ago andava soggetto a declinazione (rispetto alla direzione) e ad inclinazione (rispetto alla parallela al piano del quadrante della bussola). Per spiegare questi fenomeni Gilbert, ispirandosi a Peregrino, si foggia un magnete a forma di sfera, la terrella, e con un piccolo ago magnetico imperniato che va poggiando sulla superficie, studia le proprietà magnetiche della terrella e trova che esse corrispondono alle proprietà magnetiche della Terra, sicché, conclude, che la Terra stessa è un grande magnete, affermando anche che la sua rotazione assiale era una necessaria conseguenza fisica della sua sfericità magnetica. Questa concezione aveva un'importanza che andava ben oltre la pura nozione tecnica: era la prima volta che si aveva l'ardire di paragonare un fenomeno sperimentato nell'angusto laboratorio dell'uomo a un fenomeno cosmico. Un colpo gravissimo era così inferto al millenario mito che contrapponeva il mondo sublunare ai cieli, perchè la concezione di Gilbert

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;6:!

veniva in ultima analisi a dire che i fenomeni del cosmo si studiano con gli stessi metodi che valgono per i fenomeni di scala umana.

Ma la parte dell'opera che sembrò allora più rivoluzionaria fu l'ultima, il libro VI, nella quale non solo Gilbert dà la sua piena adesione al sistema copernicano, ma tenta di dimostrare la rotazione della Terra intorno al proprio asse con argomenti magnetici. L'atteggiamento risolutamente copernicano di Gilbert ebbe una profonda influenza sulla formazione di molti contemporanei, come Galileo e Keplero. Ma quando Gilbert tentò di dare una teoria del magnetismo, si abbandonò a congetture di filosofia naturale e, partendo dall’esperienza da lui compiuta che il ferro portato ad alta temperatura perde il potere di calamita, fece dipendere l’attrazione magnetica dal freddo in confronto del caldo dei corpi non magnetici. Egli, dopo una lunga e oscura disquisizione, concluse che non gli sembrava affatto assurda l'opinione di Talete, che concesse un'anima al magnete, mostrando in questa occasione di non essersi ancora liberato dai concetti magici. Da questo miscuglio di rozza filosofia naturale e di raffinata mentalità sperimentalistica emergono alcuni concetti di fondamentale importanza: intanto l’idea stessa di una fisica terrestre; e poi l’idea di un campo di forza in generale e della possibilità di determinarne le strutture; e finalmente l’idea dell’attrazione e di forze attrattive che, già largamente diffusa nel Medioevo per opera di alchimisti, fisici e maghi naturali, acquista qui per la prima volta dignità scientifica.

Con Gilbert ha origine la scienza elettrica, praticamente rimasta sino al Seicento alle conoscenze di Talete, cioè al fatto che l'ambra strofinata attira le pagliuzze. Ci si può chiedere come mai una proprietà così comune sia stata attribuita per tanti secoli soltanto all'ambra. Una delle ragioni fondamentali dev'essere stata il fatto che l'elettrizzazione per strofinio degli altri corpi è talmente debole che l'effetto sfugge, senza l'aiuto di qualche dispositivo sensibile che ne consenta il rilevamento. Forse intuì questo fatto un nostro celebre poeta scienziato, Fracastoro, che nel suo De sympathia et antipathia rerum, descrisse un dispositivo costituito da una sbarretta sospesa a una punta a mo' d'ago magnetico, col quale egli constatò che l'ambra non attira soltanto i fuscelli e le pagliuzze, ma anche l'argento.

Ma se Fracastoro non andò più oltre nella sua indagine sperimentale, Gilbert capì l'aiuto che gli sarebbe venuto dal dispositivo di Fracastoro, che senz'altro fece proprio e usandolo nelle sue sistematiche ricerche, descritte nel secondo capitolo del libro del De magnete. Con l'impiego di questo primo elettroscopio, Gilbert provò che attira non soltanto l'ambra strofinata, ma anche il diamante, lo zaffiro, il carbuncolo, l'opale, l'ametista, il berillo, il cristallo, il vetro, lo zolfo, la ceralacca, il salgemma, la pietra speculare, ecc. E ciascuno di questi corpi chiamò “corpo elettrico”.

Dopo così abbondante messe sperimentale, Gilbert tenta una teoria dell'attrazione dei corpi elettrici. Egli rigetta le due spiegazioni che si davano nel XVI secolo per l'attrazione dell'ambra. L'una affermava che il calore ha la proprietà d'attrarre e che l'ambra attira perché è riscaldata dalla frizione. Ma già Benedetti aveva dimostrato che proprietà del calore è il rarefare e il condensare, non l'attrarre. Gilbert ripete le considerazioni di Benedetti, aggiungendo che se proprietà del calore fosse l'attrazione, tutti i corpi riscaldati dovrebbero attrarre, e non soltanto l'ambra. L'altra teoria aveva una tradizione illustre, perché era stata professata da Lucrezio: gli effluvi emessi dall'ambra strofinata producono la rarefazione dell'aria, onde le pagliuzze sono spinte dall'aria più densa nel vuoto parziale prodotto dagli effluvi. Ma se fosse così, osserva lo scienziato inglese, anche i corpi caldi e le fiamme dovrebbero attrarre e un corpo

;7<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

elettrizzato dovrebbe attrarre la fiamma d'una candela cui fosse vicino, mentre non solo non la piega, ma in sua presenza perde la sua virtù.

La critica di Gilbert è senza dubbio acuta, ma la teoria che egli propose non si presentava più verosimile di quelle che egli combatteva. Secondo Gilbert, tutti i corpi deriverebbero da due soli elementi primi, l'acqua e la terra; quelli che derivano dall'acqua hanno proprietà d'attrarre, perché l'acqua emette effluvi speciali che “simili a braccia distese” afferrano il corpo e lo portano alla fonte della loro emissione, e, avendolo compenetrato e quasi uncinato, lo trattengono abbracciato, finché non s'illanguidiscono e, snervati, abbandonano la preda; e così via con discorsi di questo genere negli altri casi, e stupisce che lo scienziato inglese, mentre bandisce il fluido magnetico, ricorra poi a un fluido elettrico. Nello stabilire la distinzione tra l'attrazione magnetica e quella elettrica (distinzione gia posta da Cardano, mentre anteriormente i due fenomeni si ritenevano della stessa natura), Gilbert osserva un altro fatto importante: difficilmente si riescono a elettrizzare con lo strofinio i corpi umidi, mentre l'umidità non impedisce l'attrazione del magnete.

Per concludere, dalle mani di Gilbert la scienza elettrica, anteriormente limitata a un unico fatto curioso, esce arricchita di numerosi fenomeni nuovi, di osservazioni preziose, di una tecnica strumentale che per sé stessa è un nuovo capitolo di scienza: Gilbert meriterebbe il titolo di “padre dell'elettricità”.

6.5 Galileo Galilei: il padre della scienza moderna

Il primo risultato storicamente decisivo dell'opera di Galileo Galilei (1564–1642) è la difesa dell'autonomia della scienza, cioè la salvaguardia dell'indipendenza del nuovo sapere da ogni ingerenza esterna. A differenza di altri dotti del tempo, che avevano scelto di non sfidare le autorità costituite, soprattutto ecclesiastiche, e che tenevano celate le loro scoperte o

ne facevano partecipi solo i colleghi, e in modo strettamente tecnico, Galileo intuisce che la battaglia per la libertà della scienza era una necessità storica di primaria importanza, in cui ne andava del futuro stesso dell'umanità. Da ciò la sua lotta, che riguardò sostanzialmente due fronti: l'autorità religiosa, personificata dalla chiesa, e l'autorità culturale, personificata dagli Aristotelici.

La Controriforma aveva stabilito che ogni forma di sapere dovesse essere in armonia con la Sacra Scrittura, nella precisa interpretazione che ne aveva fornito la chiesa cattolica, per cui il credente, alla luce della nuova scienza, doveva accettare non solo il messaggio religioso e morale ma qualsiasi affermazione scritturale della Bibbia. Galileo, scienziato e uomo di fede, pensava invece che una posizione del genere avrebbe ostacolato il libero sviluppo del sapere e danneggiato la religione stessa, che, rimanendo ancorata a tesi dichiarate false dal progresso scientifico, avrebbe inevitabilmente finito per squalificarsi dinanzi agli occhi dei credenti. Di conseguenza, nelle cosiddette Lettere copernicane, Galileo affronta il problema dei rapporti fra scienza e fede, pervenendo al seguente schema di soluzione.

La Natura (oggetto della scienza) e la Bibbia (base della religione) derivano entrambe da Dio, questa come “dettatura dello Spirito Santo”, quella come “osservatissima esecutrice degli ordini di Dio”. Come tali, esse non possono oggettivamente contraddirsi fra loro. Eventuali contrasti fra verità scientifica e verità

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;7;!

religiosa sono quindi soltanto apparenti (Galilei rifiuta esplicitamente la teoria della doppia verità) e vanno risolti rivedendo l'interpretazione della Bibbia, che è stata scritta in un linguaggio antropomorfico e relativo alle cognizioni del popolo ebraico di millenni prima; in più la Bibbia non contiene principi che riguardano le leggi di natura, che seguono un corso inesorabile e immutabile, senza doversi piegare alle esigenze umane, ma verità che si riferiscono al destino ultimo dell'uomo, premendo ad essa d'insegnarci “come si vadia al cielo, e non come vadia il cielo”.

In conclusione, se la Bibbia è arbitra nel campo etico-religioso, la scienza è arbitra nel campo delle verità naturali, in relazione alle quali non è la scienza che deve adattarsi alla Bibbia, ma l'interpretazione della Bibbia che deve adattarsi alla scienza. L'errore dei teologi consiste dunque nella pretesa che la Scrittura faccia testo anche riguardo alle conoscenze naturali, dimenticando che in questo campo “ella dovrebbe esser riserbata nell'ultimo luogo”, e che quando la Bibbia appare in contrasto con la scienza, essa va adeguatamente reinterpretata, andando al di là del “nudo senso delle parole”. Si noti come la posizione galileiana, che inizialmente non poteva non apparire eretica, è convergente con la tesi protestante del “libero esame”, abbia finito per imporsi non solo alla cultura laica, ma alla chiesa stessa, che con il tempo è pervenuta a riconoscere l'autonomia operativa della scienza nel campo delle conoscenze naturali, dimostrandosi eventualmente disposta a reinterpretare la lettura dei testi biblici in conformità con la scienza.

Indipendente dall'autorità religiosa della Bibbia, la scienza deve esserlo altrettanto nei confronti di quella culturale di Aristotele e dei sapienti del passato. Galileo mostra grande stima per Aristotele, che assegnava all’esperienza un ruolo basilare per la conoscenza umana, e per gli altri scienziati antichi, per cui il suo disprezzo colpisce piuttosto i loro infedeli discepoli, soprattutto gli Aristotelici contemporanei, che, anzichè osservare direttamente la natura e conformare ad essa le loro opinioni, si limitano a consultare i testi delle biblioteche, vivendo in un astratto “mondo di carta”, con la convinzione che “il mondo sta come scrisse Aristotile e non come vuole la natura”.

Un altro risultato storicamente importante dell'opera di Galileo, che fa di lui il padre della scienza moderna, è l'individuazione del metodo della fisica, ossia del procedimento che ha spalancato le porte ai maggiori progressi scientifici dell'umanità, da Newton ad Einstein fino ai giorni nostri. Tutta l’opera di Galileo è stata guidata da una forte consapevolezza metodica, grazie alla quale il sapere assume un carattere aperto e progressivo, non un patrimonio definito, chiuso entro l’armatura di un sistema dove per correggere un errore occorre mettere in crisi tutto il sistema, ma un conoscere che cresce su se stesso, indefinitamente passibile di modificazioni, correzioni e ampliamenti con il crescere dell’esperienza e il crearsi di nuovi strumenti per l’indagine della natura. E quando si dice che Galileo fu il fondatore del metodo sperimentale, non bisogna intendere che a lui si debba l'introduzione dell'esperimento come mezzo d'indagine, perché la pratica dell'esperimentazione non s'era mai spenta dall'antichità classica a lui. Ma in Galileo la sperimentazione si arricchisce di alcuni aspetti peculiari, che la fanno apparire nuova. Essi sono: il ripudio del principio d'autorità (vedi Aristotele); lo studio fenomenico, cioè descrittivo della natura, con l'analisi del come i fenomeni avvengono, senza chiedersi perché accadano; l'abbandono d'ogni causa occulta e dell'interpretazione antropomorfa della natura; la fede nella semplicità della natura che segue semplici leggi matematiche.

;7=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Tuttavia, in Galileo, non vi è una teoria organica del nuovo metodo scientifico, poiché egli, tutto preso dalle sue ricerche concrete di fisica e astronomia, applica il metodo, più che teorizzarlo filosoficamente. Ciò nonostante, nelle sue opere si trovano disseminate talune preziose osservazioni metodologiche e alcuni tentativi di scandire o sintetizzare il procedimento della scienza. Ad esempio nel Saggiatore, nel Dialogo e nei Discorsi, Galileo tende ad articolare il lavoro della scienza in due parti fondamentali:

1. il momento risolutivo o analitico che consiste nel risolvere un fenomeno complesso nei suoi elementi semplici, quantitativi e misurabili, formulando un'ipotesi matematica sulla legge da cui dipende;

2. momento compositivo o sintetico che risiede nella verifica e nell'esperimento, attraverso cui si tenta di comporre o riprodurre artificialmente il fenomeno, in modo tale che, se l'ipotesi supera la prova, risultando quindi verificata, essa venga accettata e formulata in termini di legge, mentre, se non supera la prova, risultando smentita o falsificata, venga sostituita da un'altra ipotesi.

Questo schema, pur descrivendo in modo formalmente corretto il procedimento della fisica sperimentale (osservazione dei fenomeni, misurazione matematica dei dati, ipotesi, verifica, legge), appare un po' generico e incapace di far comprendere le vie concrete e i modi originali seguiti da Galileo nelle sue scoperte. Di conseguenza, data l'importanza dell'argomento, risulta indispensabile scavare più a fondo. Nella lettera a Cristina di Lorena (granduchessa di Toscana), Galileo scrive: “Pare che quello degli effetti naturali o la sensata esperienza ci pone dinanzi agli occhi o le necessarie dimostrazioni ci concludono, non debba in conto alcuno esser revocato in dubbio”. Questo passo è altamente significativo, poiché in esso Galileo ha racchiuso il cuore stesso del suo metodo e la strada effettivamente seguita nelle sue scoperte. Con l'espressione “sensate esperienze”, che letteralmente significa “esperienze dei sensi”, con primario riferimento alla vista, Galileo ha voluto evidenziare il momento osservativo-induttivo della scienza, preponderante in talune scoperte (come quelle relative ai corpi celesti). È questo il momento più comunemente noto del metodo scientifico, denominato appunto “sperimentale”. Con l'espressione “necessarie dimostrazioni” Galileo ha voluto evidenziare il momento raziocinativo o ipotetico-deduttivo della scienza, preponderante in altre scoperte (ad esempio quella sul principio d'inerzia o sulla caduta dei gravi). È questa la parte più affascinante e decisiva del metodo galileiano. Le “necessarie dimostrazioni”, letteralmente “matematiche dimostrazioni”, sono i ragionamenti logici, condotti su base matematica, attraverso cui il ricercatore, partendo da una intuizione di base e procedendo per una supposizione, formula in teoria le sue ipotesi, riservandosi di verificarle nella pratica. In altre parole, intuendo e ragionando lo scienziato, anche sulla scorta di pochi dati empirici, perviene talora a delle ipotesi mediante cui deduce il comportamento probabile dei fatti, che in seguito si propone di verificare.

Tipica, in questo senso, è la via seguita da Galileo nell'intuizione teorica del principio di inerzia, da lui riportata in modo minuzioso e suadente in un passo del Dialogo: “Immaginiamo una superficie piana, pulitissima come uno specchio e di materia dura come l'acciaio, e che fusse non parallela all'orizzonte, ma alquanto inclinata, e che sopra di essa voi poneste una palla perfettamente sferica e di materia grave e durissima, come, verbigrazia, di bronzo”. Come deduciamo si comporterà tale palla? Starà ferma o si muoverà? Anche senza fare l'esperimento concreto, argomenta Galileo, sappiamo che si muoverà lungo la superficie. E se ipotizziamo mentalmente

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;74!

che sia tolta anche l'azione frenante dell'aria e di altri possibili “impedimenti esterni ed accidentarii”, come pensiamo si comporterà? Ovviamente: “ella continuerebbe a muoversi all'infinito, se tanto durasse la inclinazione del piano e con movimento accelerato continuamente; che tale è la natura dei mobili gravi, che vires acquirant eundo [acquistano forza muovendosi]: che quanto maggior fusse la declivita, maggior sarebbe la velocità”. Sostituendo poi la superficie inclinata con una orizzontale, si potrà anche dedurre che la medesima palla “perfettissimamente rotonda”, se fosse spinta sul medesimo piano “esquisitamente pulito”, continuerebbe indefinitamente il suo moto, ammesso che lo spazio “fosse interminato” e che non intervenisse una forza esterna a variarne o arrestarne il moto. Procedendo teoricamente e giustificando tramite un esperimento "ideale" una propria intuizione, Galileo è quindi pervenuto ad una basilare scoperta fisica.

La compresenza, nella visione metodologica di Galileo, delle “sensate esperienze” e delle “necessarie dimostrazioni” ha fatto sì che nella storiografia del passato Galileo sia stato presentato talora come un sostanziale "induttivista", cioè come un ricercatore che dall'osservazione instancabile dei fatti naturali perviene a scoprire le leggi che regolano i fenomeni; oppure, al contrario, come un convinto "deduttivista", più fiducioso nelle capacità della ragione che in quelle dell'osservazione. In realtà Galileo è tutte e due le cose insieme. Certo, in Galileo vi è talora, sia nella prassi concreta della scoperta scientifica, sia nella sua consapevolizzazione metodologica, un'innegabile prevalenza del momento sperimentale, osservativo-induttivo, oppure di quello teorico, ipotetico-deduttivo. Ma questa alternata prevalenza dell'induzione sperimentale sulla deduzione teorica o viceversa, che si può riscontrare nei testi di Galileo, esprime il legame indissolubile dell’induzione e della deduzione nella scienza galileiana. Innanzitutto, le “sensate esperienze” presuppongono sempre un riferimento alle “necessarie dimostrazioni”, in quanto vengono assunte e rielaborate in un contesto matematico-razionale e quindi spogliate dei loro caratteri qualitativi e ridotte alla loro struttura puramente quantitativa. In secondo luogo esse, sin dall'inizio, sono “cariche di teoria”, in quanto illuminate da un'ipotesi che le sceglie e le seleziona, fungendo, nei loro confronti, da freccia indicatrice e setaccio discriminatore. È vero, ad esempio, che Galileo scoprì ignoti fenomeni astronomici basandosi sul senso della vista, potenziata dal telescopio, ma la decisione stessa di studiare i cieli e di puntare il cannocchiale su determinati fenomeni e di interpretarli in un certo modo deriva dalla preliminare accettazione dell'ipotesi copernicana. Anche le “certe dimostrazioni” presuppongono sempre un loro implicito od esplicito richiamo alle “sensate esperienze”. Innanzitutto l'esperienza fornisce la base e lo spunto per le ipotesi, poiché le stesse intuizioni geniali non nascono nel vuoto, ma a contatto con l'osservazione e lo studio dei fenomeni. In secondo luogo, intuizioni e ipotesi, che costituiscono il momento teorico delle scienze, acquistano validità solo per mezzo della conferma sperimentale.

Certo, non sempre è possibile una verifica diretta di un principio, tuttavia, risulta pur sempre possibile una verifica indiretta delle conseguenze che vengono dedotte dall'accettazione del principio. In altre parole, non è necessario che tutte le proposizioni della teoria risultino aderenti ai fatti; è necessario invece che tutti i fatti del campo di fenomeni studiati risultino inquadrabili nella teoria. Per esempio, il principio di inerzia, sebbene non sia constatabile empiricamente, spiega con esattezza i movimenti che si constatano in natura. Si aggiunga inoltre che, tramite opportuni accorgimenti, risulta possibile, in laboratorio, avvicinarsi indefinitamente alla sua verifica.

;75! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Ciò che si sta dicendo sulle “necessarie dimostrazioni” permette anche di afferrare meglio i rapporti e le differenze fra matematica pura e teoria fisica. La matematica costituisce, per Galileo, la logica della fisica. Mentre la logica tradizionale, di tipo sillogistico, pur essendo utile per conoscere se i discorsi procedono in maniera logicamente coerente, non serviva ad intuire nulla di nuovo, la matematica si pone come uno strumento di scoperta scientifica, poiché essa, con i suoi calcoli e le sue deduzioni, permette di avanzare nuove ipotesi sui fenomeni. E questo giustifica l'enorme importanza che le matematiche rivestono per la fisica. Infatti, grazie alla Rivoluzione scientifica, la più astratta delle scienze trova applicazioni sorprendenti, divenendo il linguaggio e il metodo di lavoro della scienza. Tuttavia, mentre la matematica pura non ha bisogno, per esser vera, di venir controllata dall'esperienza, la deduzione matematica, in fisica, ha valore scientifico solo se trova riscontro nella realtà che viene indagata.

Tutto questo discorso sulle relazioni intercorrenti fra ragionamento e attestazione dei sensi, teoria ed esperimento, matematica pura e fisica, che costituisce il nodo centrale del metodo galileiano, trova la sua più chiara e compiuta espressione nella lettera scritta a Pietro Carcavy il 5 giugno 1637, forse il più prezioso documento che possediamo circa il metodo di Galileo: “Io argomento ex suppositione, figurandomi un moto verso un punto, il quale partendosi dalla quiete vada accelerandosi, crescendo la sua velocità con la medesima proportione con la quale cresce il tempo; e di questo tal moto io dimostro concludentemente molti accidenti; soggiungo poi che, se l'esperienza mostrasse che tali accidenti si ritrovassero verificarsi nel moto dei gravi naturalmente descendenti, potremmo senza errore affermare questo essere il moto medesimo che da me fu definito e supposto; quando che no, le mie dimostrazioni fabbricate sopra la mia supposizione, niente perdevano della sua forza e concludenza; si che come niente progiudica alle conclusioni dimostrate da Archimede circa la spirale il non ritrovarsi in natura mobile che in quella maniera spiralmente si muova. Ma nel moto figurato da me è accaduto che tutte le passioni che io ne dimostro, si verificano nel moto dei gravi naturalmente discendenti”. Da queste note sul metodo emerge chiaramente come in Galileo i concetti di esperienza e di verifica assumano un significato inconfondibile e originale rispetto al passato. Infatti, l'esperienza di cui parla il Pisano non è l'esperienza immediata, ma il frutto di una elaborazione teorico-matematica dei dati, che si conclude con la verifica. Di conseguenza, l'esperienza ordinaria è qualcosa di ancora ben lontano dalla scienza di Galileo. In primo luogo, perché l'esperienza quotidiana può essere ingannevole, tanto è vero che Galileo ha dovuto battagliare tutta la vita contro le apparenze immediate dei fenomeni, che sembravano attestare tesi opposte a quelle della scienza, ad esempio che la Terra stia ferma e che i corpi cadano con velocità differenti. In tal modo, con Galileo comincia ad affermarsi quel divorzio fra mondo della fisica e mondo comune, che è una caratteristica della scienza moderna.

In secondo luogo, l'esperienza, di per sé, non ha valore scientifico se non viene legittimata dall'esperimento, al punto che si può dire che l'esperienza, scientificamente intesa, è l'esperimento. Analogamente, la verifica di cui parla Galileo non è quella immediata dei sensi, che può confermare teorie erronee, bensì la verifica come procedura complessa, intenzionalmente volta a produrre delle condizioni adeguate affinché un certo evento possa prodursi. Infatti, essendo ogni fenomeno una realtà complessa, soggetta a molte influenze, lo scienziato deve cercare, ad arte, di riprodurlo in modo semplificato, astraendo il più possibile dalle circostanze disturbanti, come ad esempio l'attrito. Detto in termini galileiani: “quando il filosofo geometra [il fisico

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;76!

matematico] vuol riconoscere in concreto gli effetti dimostrati in astratto, bisogna che diffalchi gli impedimenti della materia; che se ciò saprà fare, io vi assicuro che le cose si riscontreranno non meno aggiustatamente che i computi aritmetici”. In tal modo, lo scienziato è costretto a trovare condizioni su misura, che spesso non sono mai presenti nella realtà immediata, ma solo in un laboratorio scientifico, e talora neanche in un laboratorio reale, ma solo in uno ideale (come succede ad esempio per il principio di inerzia). Da ciò il ricorso ai celebri esperimenti mentali, consistenti nel fatto che Galileo, non avendo talora la possibilità di effettuare la verifica delle proprie teorie, soprattutto per mancanza di strumenti tecnici adeguati, è costretto a ricorrere ad una sorta di fisica ideale, non solo per formulare le ipotesi, ma anche per verificarle. Egli suppone, infatti, l'assenza di forze, immagina piani perfettamente levigati, si raffigura il movimento nel vuoto, ecc. Esperimenti mentali che saranno lo strumento straordinario per Einstein per elaborare la sua rivoluzionaria teoria della relatività.

Ciò che si è detto sinora serve a far risaltare ancora di più i limiti della scienza antica rispetto a quella galileiana. Se da un lato gli antichi erravano per eccesso di teoria e di deduttivismo in quanto pretendevano di spiegare i fenomeni concreti partendo da principi generali astratti, dall'altro lato sbagliavano per troppa aderenza alla realtà, cioè per una passiva accettazione dei fenomeni come appaiono a prima vista, senza sottoporre l'esperienza ad una approfondita critica teorica. Inoltre, la scienza antica di tipo aristotelico non faceva uso della matematica e lo stesso platonismo, cui va riconosciuto il merito di aver tenuto viva l'idea di una costituzione matematica dell'universo, si fondava più su una matematica magico-metafisica, consistente nel far corrispondere simbolicamente numeri e figure geometriche a determinati fenomeni, che su una matematica scientifica, basata sulla misurazione e sul calcolo dei dati. Ma il limite più grave della scienza antica risiedeva nella mancanza del controllo sperimentale. Infatti, non sottoponendo le proprie teorie e induzioni a quella prova del fuoco che è il "cimento" di tipo galileiano, essa non poteva mai verificare le proprie affermazioni, rimanendo obbligata a muoversi perennemente sul piano dell'astratto e del non controllabile, senza riuscire a trovare la via di quella feconda compenetrazione fra ragione ed esperienza che costituisce la forza del metodo galileiano, la cui originalità più grande consiste proprio nell'aver saputo riunire in sè il momento osservativo e induttivo della ricerca, rappresentato dalle “sensate esperienze”, con quello teorico e deduttivo, rappresentato dalle “necessarie dimostrazioni”, e nell'aver saputo sintetizzare in modo mirabile ragione e sensi, osservazione e raziocinio, teoria ed esperimento, induzione e deduzione, matematica e fisica.

Con il suo metodo Galileo perviene a quella struttura concettuale che costituisce lo schema teorico della scienza moderna: la natura è un ordine oggettivo e causalmente strutturato di relazioni governate da leggi e la scienza è un sapere sperimentale-matematico intersoggettivamente valido. In particolare, contro ogni considerazione finalistica e antropomorfica del mondo, Galileo afferma che le opere della natura non possono essere giudicate con un metro puramente umano, cioè sulla base di ciò che l'uomo può intendere o di ciò che a lui torna utile. Pertanto, non dobbiamo cercare perché la Natura opera in un certo modo (causa finale), ma solo come opera (causa efficiente). Analogamente, contro ogni fisica essenzialista che pretenda di spiegare i fatti in base alle essenze, o alle virtù, (l'essenza del moto, la virtù del calore, ecc.), Galileo ribatte che lo scienziato deve esclusivamente occuparsi delle leggi che regolano i fatti, ossia delle verificabili costanti di comportamento attraverso cui la natura agisce.

;77! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

La struttura concettuale del metodo galileiano si presenta come una costruzione autonoma che vale di per sé, indipendentemente da possibili giustificazioni filosofiche. E però, Galileo, pur non essendo un filosofo e pur non avendo mai proceduto ad una fondazione sistematica del proprio metodo, si è ispirato, in concreto, ad alcune idee generali, di tipo filosofico, attinte per lo più dalla tradizione o da dottrine contemporanee, ma originalmente rielaborate e atteggiate. La fiducia galileiana nella matematica, ad esempio, viene incentivata e convalidata al tempo stesso dalla dottrina platonico-pitagorica della struttura matematica del cosmo, ossia dalla persuasione che la natura del mondo sia di tipo geometrico, per cui solo chi conosce il linguaggio matematico risulta in grado di decifrarla. Secondo Galileo la fisica matematica non si applicava a un qualche ideale (platonico) o arbitrario (medievale) stato di cose, poiché, a patto che la rappresentazione matematica sia sufficientemente complessa, il fisico può farla corrispondere alla realtà in modo quanto vuole esatto. Galileo afferma il primato non solo epistemologico ma anche ontologico della matematica, nel senso che il mondo in sé è ontologicamente, strutturalmente geometrico. Il grande libro della natura è aperto davanti ai nostri occhi, e ognuno può leggerlo, ma occorre essere matematici, poiché esso è scritto in lingua matematica, e le lettere dell’alfabeto di questa lingua sono figure geometriche, e in questo senso Galileo si proclama pitagorico.

Ma, fuori di metafora, ciò significa una geniale ed energica ripresa della teoria atomistica. Il mondo è costituito da atomi, corpuscoli o particelle indivisibili, differenti tra loro soltanto per determinazioni geometrico-meccaniche. Gli atomi sono l’alfabeto di cui è composto il libro della natura. Gli eventi fisici si riducono quindi a moti di atomi, e leggi di natura, in cui si modella matematicamente il moto di questi atomi, si applicano primariamente ai corpuscoli. In ultima analisi, quindi, le curve fisiche diventano curve geometriche; i corpi reali si comportano come solidi geometrici; lo spazio vuoto ha le proprietà della geometria di Euclide. Da il Saggiatore: “La filosofia è scritta in questo grandissimo libro, che continuamente ci sta aperto innanzi agli occhi (io dico l'Universo), ma non si può intendere se prima non s'impara intender la lingua, e conoscer i caratteri ne’ quali è scritto. Egli è scritto in lingua matematica, e i caratteri son triangoli, cerchi, cd altre figure geometriche, senza i quali mezzi impossibile a intenderne umanamente parola; senza questi è un aggirarsi vanamente per un oscuro labirinto”. Il privilegiare gli aspetti quantitativi del reale e la riduzione dell'oggetto scientifico a struttura matematicamente trattabile viene corroborata dal ricorso all'antica distinzione atomistico-democritea fra proprietà oggettive e proprietà soggettive dei corpi. Le prime caratterizzano i corpi in quanto tali, inseparabili dai copri stessi, e sono tutte di natura geometrico-quantitativa: forma, dimensioni, moto, tempo, quiete, distanza, numero; le seconde, invece, non sono caratteri oggettivi dei corpi, sebbene siano prodotti da essi, ed esistono solo in relazione ai nostri sensi, ossia dipendono dalla costituzione fisico-psichica del soggetto che conosce ed esperimenta.

Tuttavia Galileo, almeno a quanto ci risulta, va più in là di Democrito, tentando di costruire una fisica delle sensazioni, appunto sulla base della teoria corpuscolare. Le qualità sensibili, per esempio l'odore e il sapore, i rumori e i suoni, dipendono dal modo in cui le particelle dei corpi (o almeno gruppi di particelle che si staccano dai corpi) agiscono meccanicamente sulla particolare e determinata struttura dei nostri organi di senso. Così l'odore è determinato da sciami di corpuscoli che colpiscono le nostre innervature olfattive, il sapore da corpuscoli abbastanza sottili da penetrare nei pori degli organi del gusto ecc. Soltanto, Galileo si arresta di fronte alle qualità visive che dipendono dalla luce. Il fatto che egli pensi che la propagazione della luce è istantanea

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;78!

(che la luce si propaghi a velocità finita fu stabilito dal Romer nel 1676) lo rende molto esitante ad attribuirle natura corpuscolare, o comunque materiale, sebbene intuisca chiaramente questa dottrina, perciò la fisica della visione gli riesce oscura e poco scientifica. Comunque, attraverso questa fisica delle sensazioni la distinzione tra qualità vere e qualità soggettive, che in Democrito (almeno cosi come ci e pervenuta) rischiava di essere addirittura contraddittoria, diventa plausibile. Ma resta comunque una dottrina metafisica, fondata sull'assunzione della realtà ontologica di un piano ideale della natura.

La credenza nella validità del rapporto causale e delle leggi generali scoperte dalla scienza, basate sul principio che a cause simili corrispondano necessariamente effetti simili, viene suggerita e avvalorata dalla persuasione dell'uniformità dell'ordine naturale, che seguendo un corso sempre identico a se stesso risulta necessario e immutabile come una verità geometrica. La fiducia nella verità assoluta della scienza viene confortata mediante la teoria secondo cui la conoscenza umana, pur differendo da quella divina per il modo di apprendere e per l'estensione di nozioni possedute, risulta simile per il grado di certezza. Infatti, mentre Dio conosce intuitivamente, cioè in modo immediato, la verità, l'uomo la conquista progressivamente attraverso il ragionamento discorsivo. Inoltre, Dio conosce tutte le infinite verità, mentre l'uomo solo alcune di esse. Tuttavia, per quanto riguarda le dimostrazioni matematiche, la qualità della certezza è identica. Queste giustificazioni filosofiche poggiano, a ben vedere, su un'unica credenza di base, che sta a monte del lavoro scientifico di Galileo e di ogni suo tentativo di legittimazione teorica: la corrispondenza fra pensiero ed essere, ossia la conformità fra ciò che la scienza sostiene e il mondo qual è veramente: l'accordo generale fra matematica e natura, l'armonia fra il pensiero e la realtà è per lui una convinzione soggettiva, anteriore ad ogni riflessione filosofica.

Il contributo scientifico di Galileo alla fisica e all’astronomia è vastissimo e determinante, per cui, trascurando i lavori meno importanti, cominciamo ad esaminare il problema centrale della fisica a cui si dedicò sin dall’inizio della sua vita da scienziato: il moto dei gravi. Nel suo lavoro giovanile il De Motu, Galileo mutua dal Benedetti la teoria dell’impeto, rigettando così la teoria aristotelica dei moti violenti. Ma già in questa prima scrittura, Galileo nega che i corpi abbiano leggerezza in sé, che tendono alla quiete, che l’aria, nonché resistere, coadiuva al moto; pertanto adotta in maniera definitiva l’ipotesi che la gravità è indipendente dalla natura dei gravi stessi, contrariamente alla teoria aristotelica dove la gravità dipendeva dal luogo naturale del corpo e quindi fosse inerente all’essenza o natura del corpo stesso (pesante o leggera) e che rappresenta un’accelerazione costante applicata in misura uguale a tutti i corpi in caduta libera, sebbene in Galileo non venga ancora menzionata la parola accelerazione.

Una certa connessione con la teoria atomica è invece introdotta nell’opera Discorso sulle cose che stanno in sull’acqua sul galleggiamento dei corpi in liquidi, dove, riprendendo l’opera di Archimede, critica la concezione peripatetica per cui i corpi galleggiano o no a seconda che siano pesanti o leggeri, e analizzando questi concetti mostra come siano privi di qualunque senso fisico; e a questa contrappone la dottrina archimedea per cui il galleggiamento dipende dal peso dell’acqua spostata dal galleggiante, e quindi dalla forma geometrica e dal peso specifico. Con questi teoremi sulla gravità Galileo inizia l’era della fisica moderna. Non si tratta soltanto della raggiunta soluzione di annosi problemi, peraltro intravista già nel tardo Medioevo, ma perché quello di veramente e radicalmente nuovo che entra in gioco è il concetto

;79! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

meccanico di movimento, per cui questo è qualcosa di non-qualitativo, non-finalistico, di rappresentabile nel linguaggio della geometria euclidea, ossia in un continuo omogeneo tridimensionale. L’esperimento mentale è in realtà un procedimento astrattizzante, che riduce il fenomeno ad un tipico schema o modello matematico: in questo caso il modello di un corpo ideale che descrive una retta sollecitato da una accelerazione costante geometricamente rappresentabile e misurabile.

Ma una tale nozione non sarebbe stata completa nel suo significato senza il principio di inerzia, infatti solo mediante questo il concetto di accelerazione acquista un senso e il meccanismo può affermarsi decisamente sulle rovine del finalismo ed essenzialismo della fisica aristotelico-medievale. Per la fisica aristotelica la quiete era lo stato naturale dei corpi sublunari, essendo il moto, sia esso naturale o violento, qualcosa di temporaneo, che viene meno non appena cessa l’applicazione della forza che lo produce. Invece, con l’intuizione teorica del principio d’inerzia, secondo cui:

PRINCIPIO D’INERZIA

Un corpo tende a conservare indefinitamente il suo stato di quiete o di moto rettilineo uniforme, sicché non intervengono forze esterne a modificare tale stato

Galileo superava il doppio pregiudizio per cui la quiete è qualcosa di naturale e che il moto si mantiene solo finché permane la forza che lo ha provocato. La chiara formulazione di tale principio non si avrà che con Newton, ma in Galileo esso è sufficientemente chiaro, esplicito ed operativo. D’altra parte, un tale principio era implicito nella stessa concezione archimedeo-euclidea dello spazio come continuo uniforme, per cui operando in profondità entro e mediante tale concezione, esso doveva finire con l’emergere.

In questo contesto di studi, Galileo perviene anche alla scoperta del cosiddetto secondo principio della dinamica, ossia al principio in base al quale le forze applicate ai corpi non causano loro delle velocità, ma delle accelerazioni, che risultano proporzionali alle forze che le hanno prodotte. Ciò gli permette di determinare il concetto di accelerazione come variazione di velocità, e il concetto di massa di un copro come rapporto di proporzionalità tra le forze applicate e le accelerazioni prodotte da tali forze. Però in questo caso la formulazione galileiana del secondo principio non è del tutto chiara. Ma perché Galileo potesse giungere ai concetti di accelerazione e di forza in senso moderno, gli sarebbe stata necessaria una teoria matematica intorno a quell’attributo dello spazio euclideo per cui questo si dice continuo. Con questo strumento i fisici del settecento, a cominciare da Newton, potranno non solo completare, ma rendere organica tutta la fisica galileiana.

Nel trattato, Della scienza meccanica, e delle utilità che si traggono da gl’istromenti di quella, Galileo espone la teoria delle macchine semplici, introducendo il concetto di momento di una forza rispetto a un punto, anche se non nei modi matematicamente precisi di oggi. In particolare, nell'operetta si trova enunciato in forma esplicita e corretta, ma non generale, uno dei principi più fecondi della meccanica moderna, quello dei lavori virtuali.

Particolare menzione merita l'esperimento termoscopico, che risale intorno al 1597. Esso è importante non già per le lunghissime discussioni di priorità sull'invenzione del termometro, cui ha dato luogo, ma per la mentalità nuova, antiperipatetica che ha presieduto alla sua ideazione e applicazione. Non soltanto

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;7:!

Galileo ritiene di potersi fidare del nuovo strumento, ma ritiene le sue indicazioni più obiettive delle nostre sensazioni. Insomma, egli insegna che la fisica ha bisogno di strumenti, e questa concezione è veramente rivoluzionaria rispetto alla filosofia peripatetica del tempo.

Ma le scoperte che dovevano renderlo più celebre ai suoi tempi e impegnarlo in una battaglia culturale di vasto respiro sono quelle astronomiche. Infatti, le nuove scoperte astronomiche gettavano lo scompiglio in un mondo di credenza filosofiche e di visioni cosmologiche tradizionali. In particolare, proiettavano ombre dense sulla base metafisica di quelle credenza e di quelle visioni cosmologiche, poiché demolivano la concezione del mondo che la maggior parte dei commentatori di Aristotele sosteneva come vera nei libri e nelle università.

Nel Saggiatore Galileo scrive che, venuto a conoscenza del fatto che un olandese aveva presentato un “occhiale” mediante cui “le cose lontane si vedevano così perfettamente come se fossero state molto vicine”, ne aveva costruito uno per proprio conto molto più potente. La grandezza di Galileo non consiste tanto nell’aver costruito il cannocchiale per primo oppure no, ma nell’averlo usato scientificamente, ossia puntandolo verso il cielo lo ha trasformato in uno strumento primario dell’osservazione astronomica, facendo, grazie ad esso, le sensazionali scoperte divulgate nel Sidereus nuncius. La Via Lattea si risolveva in una indefinita quantità di stelle, la Luna rivelava le sue montuosità, il Sole presentava delle macchie scure sulla sua superficie, Venere presentava delle fasi, ma soprattutto scopriva i quattro satelliti di Giove. Per capire l’importanza, non solo strettamente scientifica, ma più generalmente filosofica di queste scoperte si pensi a quante idee tradizionali esse venivano a distruggere: con la scoperta dei satelliti di Giove si ammetteva che fossero possibili movimenti intorno ad altri pianeti e veniva a cadere l’idea che soltanto la Terra, essendo immobile, fosse il centro di moti astrali e che un corpo in movimento nello spazio non potesse costituire un nucleo di movimento per altri corpi; veniva abbattuto il concetto della perfezione, e quindi dell’incorruttibilità e del non divenire, dei corpi celesti; la Terra non era l’unico corpo opaco illuminato dal Sole e privo di luce propria, ma anche Venere, con la scoperta delle sue fasi, riceveva la luce dal Sole girandovi attorno. Galileo distrusse, così, il cosmo aristotelico: la Luna, il Sole ed i pianeti furono ridotti allo stato di corpi fisici come la Terra. Il mondo sublunare e il cosmo furono praticamente unificati. Per la prima volta si affermava chiaramente che l’intero universo e ogni parte di esso sono soggetti alle stesse leggi. L’universo galileiano è costituito soltanto di materia e movimento ed è numericamente strutturato.

Il Saggiatore (1623) è un gioiello della nostra letteratura polemica, e fra i capolavori di Galileo è il più povero di contenuto scientifico. E tuttavia la sua importanza fu notevolissima per l'evoluzione del pensiero scientifico in quanto assume quasi il valore di un manifesto del nuovo metodo sperimentale matematico, di una dichiarazione di guerra al principio d'autorità. Nel Saggiatore si toccano quasi tutti i problemi della ricerca fisica del tempo, come l’importanza della matematica nella ricerca delle leggi fisiche; l'ingrandimento dei cannocchiali; la necessità di definizioni esatte dei termini, che eviti l'indeterminatezza di alcuni vocaboli del linguaggio comune; il concetto di causa; la relazione tra l'altezza dei suoni delle canne d'organo o le corde dell'arpa e la loro lunghezza; la natura del calore; la distinzione tra qualità primarie e secondarie, che, come abbiamo visto, sono un carattere distintivo della fisica galileiana. E per spiegare meglio il concetto, Galileo passa subito agli esempi delle

;8<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sensazioni tattili che sono in noi e non nel corpo che ci tocca; e il “calore”, è per Galileo un fantasma dei sensi: “… che quelle materie che in noi producono e fanno sentire il caldo, le quali noi chiamiamo con nome generico fuoco, siano una moltitudine di corpicelli minimi, in tal e tal modo figurati, mossi con tanta e tanta velocità; li quali, incontrando il nostro corpo, lo penetrino per la lor somma sottilità, e che il lor toccamento, fatto nel lor passaggio nella nostra sostanza e sentito da noi, sia l'affezione che noi chiamiamo caldo, grato o molesto secondo la moltitudine e velocità minore o maggiore di essi minimi che ci vanno pungendo e penetrando”. Non siamo ancora alla teoria cinetica del calore, perché per Galileo i “corpicelli minimi” sono le particelle di fuoco e non le molecole dei corpi, ma rappresenta un primo e importante passo.

Nel Saggiatore Galileo elabora gli elementi di una vera e propria teoria della conoscenza. La natura, secondo Galileo, ha una intrinseca e infinita ricchezza “nel produr suoi effetti con maniere inescogitabili da noi”. Occorre pertanto, nello studio dei fenomeni, avere sempre in mente questa ricchezza e ricordare, di conseguenza, quanto sia vana “la forza dell’umane autorità sopra gli effetti della natura, sorda ed inessorabile a i nostri vani desideri”. Galileo, quindi, ha sempre creduto che la scienza non si fonda, vuoi in sede sperimentale, vuoi per mezzo di dimostrazioni matematiche, su verità assolute e incontrovertibili, bensì sia una via privilegiata verso la verità, a condizione però che si accetti che anche i fenomeni più semplici non siano spiegabili in modo completo e una volte per tutte. L’astronomia e la fisica procedono dunque verso la verità ma non la raggiungono mai in forme immodificabili. Il sapere scientifico cresce di scoperta in scoperta e non si assesta su sistemi dogmatici. Nelle lettere sulle macchie solari, per esempio, Galileo aveva sottolineato come, a suo avviso, fosse inutile e dannoso per il sapere ogni tentativo di imporre alla natura una qualche forma di soggezione o dipendenza dai nostri concetti. Non si trattava di piegare la natura alle nostre idee, ma di modificare incessantemente queste ultime, perché “prima furon le cose, e poi i nomi”. Con il linguaggio gli esseri umani descrivono ciò che i sensi riescono ad afferrare quando esplorano il mondo esterno, e la descrizione attribuisce alle cose che stanno nel mondo certi insiemi di proprietà. Esiste dunque un rapporto tra le descrizioni linguistiche delle cose e ciò che i sensi fanno. Il che vuol dire che le informazioni che ciascuno di noi riceve attraverso gli organi sensoriali dipendono fortemente da come essi sono fatti e non dipendono soltanto da come sono fatte le cose. Ebbene, questo rapporto fra il linguaggio, i sensi e gli oggetti è necessariamente tale da costringerci a prestare molta attenzione quando diciamo che una cosa possiede una data proprietà: quest’ultima, infatti, potrebbe essere una caratteristica dovuta unicamente al funzionamento di un nostro organo di senso. Si aveva pertanto bisogno di un criterio grazie al quale un essere umano potesse distinguere tra la realtà e l’apparenza. La questione era ovviamente della massima importanza. Poteva infatti accadere che i nostri ragionamenti sulle cose fossero fallaci in quanto si rivolgevano non alla realtà, ma ad apparenze che dipendevano, per esempio, solo “dalla vista de’ riguardanti”: apparenze che ci spingevano erroneamente a parlare di cose mentre, per la verità, si trattava di “simulacri” o illusioni che svanivano una volta eliminata la percezione visiva.

Era indispensabile, secondo Galileo, tracciare un confine tra quelle proprietà che erano realmente possedutedalle cose esterne e quelle che, invece, si realizzavano soltanto negli organi di senso. A quel confine corrispondeva un confine interno al linguaggio, in quanto esistevano nomi che erano veri perché indicavano proprietà reali dei corpi, e nomi “puri” che erano invece riferiti al funzionamento dei sensi e non indicavano alcuna reale qualità degli oggetti esterni. La scienza aveva il compito di

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;8;!

ineteressarsi delle sole qualità alle quali corripondevano nomi veri: dalle descrizioni scientifiche dei fenomeni erano pertanto banditi tutti gli altri nomi, che parlavano soltanto dell’osservatore. A questo punto è necessario riportare un passo del Saggiatore, nel quale Galileo traccia le linee essenziali di una vera e propria teoria della conoscenza umana: “Per tanto io dico che ben sento tirarmi dalla necessità, subito che concepisco una materia o sostanza corporea, a concepire insieme ch’ella è terminata e figurata di questa o di quella figua, ch’ella in relazione ad altre è grande o piccola, ch’ella è in questo o quel luogo, in questo o quel tempo, ch’ella si muove o sta ferma, ch’ella tocca o non tocca un altro corpo, ch’ella è una, poche o molte, né per veruna imaginazione posso separarla da queste condizioni”. Erano queste, insomma, le vere proprietà degli oggetti reali: geometriche, disposizioni nello spazio, stati di movimento e numero di parti costituenti i corpi. Queste proprietà o qualità erano talmente vere da risultare indifferenti alla nostra immaginazione, nel senso che quest’ultima non poteva artificiosamente separare la materia dalle sue proprie e intrinseche qualità oggettive. La conoscenza doveva pertanto essere indipendente dalle operazioni del “corpo sensitivo”, e quindi dalla struttura sensoriale degli osservatori, per rivolgersi solo a ciò che realmente caratterizzava il mondo esterno. L’autore del Saggiatore poneva in rilievo non tanto il diffuso punto di vista secondo cui l’intero universo era fondato su “grandezze, figure, moltitudini e movimenti tardi o veloci”. Ma che, essendo questa l’architettura oggettiva dell’universo, solo la scienza aveva la capacità di fare scoperte lungo il cammino verso la verità.

Nel 1632 Galileo pubblica il capolavoro scientifico-letterario che è il Dialogo sopra i due massimi sistemi del mondo, in cui, dietro il pretesto di voler presentare imparzialmente i due maggiori modelli cosmologici della storia, espone in realtà argomenti decisivi a favore del copernicanesimo. La pubblicazione del Dialogo è un evento memorabile nella storia del pensiero umano. Esso non è propriamente un trattato d'astronomia o di fisica, ma un'opera pedagogica volta a combattere l'aristotelismo e ad abbattere il principio d'autorità; un'opera di propaganda culturale a favore della nuova immagine

del mondo portata dal copernicanesimo, cornice entro la quale si svolgerà la ricerca scientifica del secolo.

Per presentare la teoria geocentrica, Galileo sceglie Simplicio, un pedante dalla mentalità conservatrice e tradizionalista, attaccato all'autorità di Aristotele. Per difendere la teoria copernicana sceglie Salviati che incarna l'intelligenza chiara, rigorosa anticonformista del nuovo scienziato. Nella parte di neutrale moderatore viene posto Sagredo che rappresenta un tipo di personalità non oppressa dai pregiudizi, e quindi tendenzialmente portata a simpatizzare con le dottrine recenti.

Il Dialogo è diviso in quattro giornate, nella prima delle quali si pone sotto accusa la distinzione aristotelica fra il mondo celeste, ingenerabile e incorruttibile, e quello terrestre, sede del divenire, con argomenti tratti soprattutto dalle osservazioni astronomiche divulgate nel Sidereus nuncius dai suoi studi di meccanica dei movimenti. La seconda giornata, la più vivace, è dedicata alla confutazione degli argomenti tipici antichi e moderni contro il moto della Terra, valendosi delle leggi della nuova meccanica, come il principio d’inerzia, la composizione dei moti simultanei, il principio di relatività e la legge di caduta dei gravi. Contro chi sostiene ad esempio che la Terra, ruotando davvero su se stessa, solleverebbe un vento tale da trasportare tutti gli oggetti,

;8=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Galileo, per bocca di Salviati, risponde che l'aria partecipa dello stesso movimento della Terra, e quindi in rapporto ad essa è ferma, come risulta fermo un individuo su di una nave in moto. Contro chi obietta che, se la Terra si muovesse davvero da ovest ad est, le nuvole dovrebbero apparirci continuamente in moto da est ad ovest, oppure il volo degli uccelli non potrebbe tener dietro al velocissimo spostamento del nostro pianeta, Galileo risponde, per analogia, che l'aria partecipa del moto della Terra. Al noto argomento, uno dei prediletti dagli Aristotelici, secondo cui, se la Terra si muovesse davvero da ovest ad est, i gravi dovrebbero cadere obliquamente, cioè più verso ovest essendosi la Terra nel frattempo spostata verso est. Galileo ribatte affermando che il grave partecipa del moto da ovest verso est e quindi, muovendosi insieme alla Terra, cade perpendicolarmente. Tanto è vero che un sasso, lasciato cadere dalla cima dell'albero di una nave in moto rettilineo uniforme, si ferma ai piedi dell'albero, proprio come se la nave stesse ferma. Lo stesso avviene all'interno di quel sistema più vasto che è la Terra. Queste geniali contro-argomentazioni di Galileo, che oppongono il pensiero scientifico al senso comune e ai pregiudizi culturali del passato, si ispirano tutte al cosiddetto principio della relatività galileiana, secondo cui risulta impossibile decidere, sulla base delle esperienze meccaniche compiute all'interno di un sistema chiuso, cioè senza possibilità di riferirsi a qualcosa di esterno, se esso sia in quiete o in moto rettilineo uniforme:

PRINCIPIO DI RELATIVITA’

Le leggi della fisica sono sempre della stessa forma nei sistemi di riferimento inerziali

Questa legge, che anticipa la relatività ristretta di Einstein, è presentata da

Galileo in un brano famoso: “Riserratevi con qualche amico nella maggiore stanza che sia sotto coverta di alcun grande naviglio, e quivi fate d'aver mosche, farfalle e simili animaletti volanti; siavi anco un gran vaso d'acqua, e dentrovi de' pescetti; sospendasi anco in alto qualche secchiello, che a goccia a goccia vada versando dell'acqua in un altro vaso di angusta bocca, che sia posto a basso; e stando ferma la nave, [...] osservate che avrete diligentemente tutte queste cose, [...] fate muover la nave con quanta si voglia velocità; che (pur che il moto sia uniforme e non fluttuante in qua e in là) voi non riconoscerete una minima mutazione in tutti li nominati effetti, né da alcuno di quelli potrete comprender se la nave cammina o pure sta ferma [...] le gocciole cadranno come prima nel vaso inferiore, senza caderne pur una verso poppa, benché, mentre la gocciola è per aria, la nave scorra di molti palmi [...]”. Analiticamente si passa dalle leggi espresse in un sistema alle leggi espresse in un altro, applicando semplicissime formule, che nel loro complesso si chiamano trasformazioni galileiane. Si esprime quindi il principio di relatività, dicendo che le leggi della meccanica restano invariate rispetto a una trasformazione galileiana. Pertanto, in base a questo principio di relatività, possiamo affermare che, in quel sistema quasi inerziale che è la Terra, l'aria circostante si muove insieme con la Terra stessa e i gravi cadono comportandosi, approssimativamente, come se essa fosse immobile.

Nella terza giornata del Dialogo viene dimostrato il moto di rotazione della Terra ed esaltata la concezione copernicana, capace, secondo Galileo, di fornire spiegazioni di fenomeni altrimenti inspiegabili e di chiarire con rigore e matematica semplicità problemi inutilmente complicati e sofisticati dal sistema tolemaico. Così, il sistema copernicano cessava di fatto di essere una semplice ipotesi astronomica per apparire il

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;84!

più naturale sistema di meccanica celeste entro la nuova intuizione meccanicistica della natura e dello spazio fisico che i teoremi fondamentali della fisica galileiana venivano mettendo in rilievo nei sui caratteri fondamentali. Nell’assoluta omogeneità dello spazio perdevano ogni senso le distinzioni tra cielo e terra, alto e basso; in tutto lo spazio vigeva fondamentalmente lo stesso schema geometrico-meccanico del moto, fondato sui principi d’inerzia e relatività classica. E la gravità in questo schema che ruolo assume? Galileo, attraverso Salviati, ammette la propria ignoranza sulla sua natura ma, nello stesso tempo, intuisce che rappresenta lo stesso principio che faceva muovere i pianeti, la sfera stellata e “le parti della Terra in giù”. E così cadeva la grande barriera metafisica che nei secoli aveva separato il nostro mondo sublunare dal resto dell’universo. Nel Dialogo era stata così indicata la direzione da seguire per giungere a una teoria unificata che comprendesse in se stessa la fisica terrestre e l’astronomia kepleriana. Il problema resterà insoluto fino a Newton, il quale estenderà a tutto lo spazio fisico l’azione della gravità.

Nella quarta giornata Galileo espone la sua dottrina delle maree, ed erroneamente credette che costituissero la prova più sicura dei moti della Terra. Supponiamo, dice, una nave cisterna che trasporti acqua dolce a Venezia. Se la velocità della nave varia, l'acqua in essa contenuta scorrerà, per inerzia, innalzandosi verso poppa o verso prora: la Terra è come la nave cisterna, il mare è come l'acqua in essa contenuta, la disuniformità di moto è dovuta alla composizione dei due moti della Terra, diurno e annuo.

Nell'opera scientifica più matura di Galileo, Discorsi e Dimostrazioni matematiche sopra due nuove scienze, vengono affrontati due temi classici della meccanica: la teoria della coesione e quella del moto dei proietti. La prima si riportava alla dottrina dell'equilibrio, la seconda si apriva invece sulla nuova scienza-base della fisica, la dinamica. Galileo ha costantemente la precisa sensazione di rappresentare una nuova cultura, anti-feudale ed anti-accademica, e questa consapevolezza è giunta al suo apice: l’astrazione matematica, tanto tipica della scienza galileiana e pure legata ad una sua concezione platonica del mondo, si rivela la più tecnicamente efficace, fondata com'è sulle operazioni fondamentali del misurare. Tuttavia, a differenza delle grandi opere precedenti qui Galileo è giunto anche ad una chiara coscienza dell'universalità del nuovo sapere che sta creando: per questo, riservando il volgare per un commento sciolto ed empirico delle dottrine presentate, usa il latino per esporre, entro il modello euclideo di sistema matematico, le dottrine stesse. L'opera, con la quale nasce ufficialmente la meccanica razionale moderna, presenta varie caratteristiche degne di rilievo. La prima è la risoluzione della statica nella dinamica. Finora la prima disciplina, tra l'altro assai antica, era stata trattata indipendentemente dalla dinamica: le condizioni dell'equilibrio erano state ricercate fuori di una teoria generale del moto; se mai, anzi, la dinamica era stata studiata da un punto di vista prevalentemente statico. Galileo rovescia la situazione: le condizioni di equilibrio (e di coesione) sono date dall'applicazione delle medesime leggi dinamiche che spiegano anche il moto dei proietti, e cioè dalla legge di gravità formulata matematicamente (spazi proporzionali ai quadrati dei tempi) e dalla grande legge della composizione dei moti che Galileo espone con grande precisione nelle sue modalità geometrico-quantitative. I corpi si muovono descrivendo una data curva (che per i proietti dei cannoni è una parabola), la quale risulta componendo i moti (quello impresso dal motore, per esempio dal cannone, con quello determinato dalla gravità); stanno in equilibrio quando nella composizione i moti

;85! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

che li sollecitano si annullano. Così i teoremi fondamentali della dinamica permettono lo snodarsi deduttivo di teoremi (peraltro tutti verificabili e verificati nei loro riferimenti empirici) di una nuova disciplina fisico-matematica, che diverrà in meno di un secolo la grande nuova scienza europea.

La nuova fisica-matematica galileiana si muove nello sfondo già noto: alla base di essa sta la concezione dello spazio euclideo come continuo omogeneo tridimensionale, nel quale tutti i luoghi sono i luoghi naturali di ogni corpo e nel quale tutte le cose sono allo stesso livello di essere, e del moto inerziale come struttura primitiva di questo spazio. La identificazione dello spazio reale con lo spazio geometrico è una delle grandi conquiste di Galilei anche se questa geometrizzazione viene compiuta sia in termini di cerchi sia di linee rette. Delle difficoltà connesse a questo tipo di geometrizzazione offre una chiara illustrazione la confutazione di Simplicio secondo il quale case e alberi verrebbero strappati via dalla rotazione della Terra. Galilei elabora una risposta che tende a dimostrare che una forza centrifuga non è in grado di far schizzare un oggetto fuori da un moto circolare uniforme ove esista una forza contraria, anche debole, diretta verso il centro. Huygens e Newton, mezzo secolo più tardi, saranno in grado di calcolare la forza centrifuga prodotta dalla rotazione terrestre e di confrontarla con la forza di gravità.

Fra le digressioni più importanti per la storia della fisica contenute nell’opera è quella relativa alla velocità della luce. Quasi tutti i fisici avevano ritenuta infinita la velocità della luce, e Galileo, dimostrato che le ragioni apportate a tale idea non erano convincenti, attraverso l’esperimento, voleva sciogliere ogni dubbio e dimostrare la velocità finita della luce: due sperimentatori, A e B, ciascuno munito di una lanterna, si mettono a distanza. A scopre la propria lanterna; B, secondo il preventivo accordo, scopre la propria, appena percepisce la luce di A. Questi, pertanto, percepirà il segnale di B dopo un tempo, dall'apertura della propria lanterna, doppio del tempo impiegato dalla luce per andare da A a B. A Galileo l'esperimento, tentato su piccola distanza, non poteva riuscire, data l'enorme velocità della luce. Ma egli pone il problema in termini sperimentali, ed è questo un grande merito scientifico, indipendentemente dal risultato. Gli rimane anche il merito di aver progettato un esperimento talmente geniale che sarà impiegato oltre duecento anni dopo da Fizeau per la prima misura terrestre della velocità della luce. Un'altra digressione, di particolare interesse fisico è il moto pendolare e la sua applicazione a questioni di acustica. Già in una lettera del 1602 aveva descritto le esperienze che lo avevano condotto alla scoperta dell'isocronismo delle oscillazioni pendolari e alla sua indipendenza dalla materia di cui è costituito il pendolo. A queste leggi, ripetute nel Dialogo, nei Discorsi aggiunge la scoperta della proporzionalità del periodo di un pendolo alla radice quadrata della sua lunghezza:

! ! !! !! . Il moto del pendolo offre a Galileo l'opportunità di uno studio accurato

della risonanza meccanica, e gli consente di passare alla spiegazione della risonanza acustica e a descrivere un bellissimo esperimento di produzione di onde nell'acqua contenuta in un bicchiere, del quale si frega l'orlo col polpastrello del dito. Fu proprio mediante questo esperimento che Galileo si accertò del fatto che l'altezza di un suono dipende dalla frequenza delle vibrazioni, corrispondendo a maggior frequenza suono più acuto.

La scoperta della legge di caduta dei gravi richiedeva un genio straordinario, e Galileo lo era, e l’eccezionale sforzo intellettuale risulta anche dalla tormentata vicenda della scoperta, che per brevità percorreremo per linee generali. Galileo, persuaso dalla

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;86!

correttezza del sistema copernicano, e convinto quindi che la Terra sia un pianeta come gli altri, allora, se i movimenti nel cielo seguono precise leggi matematiche, allora anche sulla Terra devono esistere le stesse precise leggi matematiche che governano il moto degli oggetti. Fiducioso in questa razionalità profonda della natura, nella sensatezza del sogno pitagorico-platonico che la natura sia comprensibile con la matematica, Galileo decide di studiare come si muovono i corpi sulla Terra quando sono lasciati liberi di cadere, e di cercarne la legge matematica attraverso un’esperimento, fatto nuovo nella storia della scienza. L’esperimento è semplice: lascia cadere dei corpi lungo un piano inclinato, cioè lascia loro seguire quello che per Aristotele doveva essere il loro movimento naturale, e cerca di misurare con precisione a che velocità cadono. Il risultato è clamoroso: i corpi non cadono a velocità costante, ossia non c’è proporzionalità tra velocità di caduta e spazio percorso, come si era sempre pensato, ma la velocità aumenta in modo regolare nel corso della caduta. Galileo scopre, così, che la velocità è proporzionale al tempo di caduta. Quella che è costante non è la velocità ma l’accelerazione. Anzi, tale accelerazione è la stessa per tutti i corpi (g=9,81 m/s2). E nei Discorsi il moto uniformemente accelerato viene così definito: “in tempi eguali si facciano eguali additamenti di velocità”. Galileo procede, costruendo il grafico tempo-velocità e mediante una famosa integrazione grafica, spesso ancor oggi ripetuta nei libri di fisica, dimostra che in un moto uniformemente vario lo spazio percorso è eguale a quello percorso nello stesso tempo da un moto uniforme che abbia velocità metà della velocità finale del moto accelerato, donde scaturisce immediatamente la proporzionalità dello spazio al quadrato del tempo:

LA LEGGE DI CADUTA DEI GRAVI

La legge oraria spiega una classe di infiniti fenomeni osservabili. Essa, infatti,

riunisce in una sola regolarità tutti i fatti che riguardano la caduta libera di un oggetto qualsiasi nel campo gravitazionale della Terra e che, in precedenza, erano invece interpretati invocando una tendenza spontanea delle cose pesanti a trovare, cadendo verso il basso, il loro luogo naturale. Il cosiddetto “moto naturale” è dunque ricondotto, da Galileo, a una legge fisica che precisa la forma del moto naturalmente accelerato, senza cercarne le cause nel regno ideale della metafisica né negli elenchi di citazioni bibliografiche o nei commenti eruditi all’opera di Aristotele.

La natura segue queste leggi o sono semplici deduzioni matematiche? Bisogna ritenere che le segua, risponde Galileo introducendo un nuovo concetto filosofico nella ricerca fisica, soprattutto se le conseguenze matematiche dedotte sono confermate dall'esperienza. Sebbene Galileo abbia ripreso la concezione atomica sulla struttura della materia, e sebbene tale concezione dovesse avere come evidente corollario quello della uguaglianza della velocità di caduta dei gravi (potendosi ogni corpo in caduta libera considerare come un’insieme di atomi in caduta ognuno dei quali sollecitato individualmente da una identica accelerazione di gravità), tuttavia pare che le sue conclusioni si fondassero su esperimenti mentali su corpi in movimento lungo piani inclinati. Infatti, la verifica sperimentale era impossibile con le apparecchiature dell'epoca, perché il fenomeno è troppo rapido. Galileo allora ebbe un'idea geniale: rallentare il moto, pur non alterandone la natura, in pratica riprodurre il moto uniformemente accelerato su un piano inclinato.

2gt2

1S =

;87! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Galileo formula ancora un altro postulato: i mobili che cadono su differenti piani inclinati di eguale elevazione acquistano, alla fine della discesa, eguali velocità. E ancora: nella discesa o nell'ascesa, sia verticale sia per piani inclinati, la forza costante applicata al corpo (cioè il suo peso o una componente del suo peso) produce un moto uniformemente vario, cioè un'accelerazione costante. Si può pertanto ritenere, come ritenne Newton, la seconda legge della dinamica una scoperta di Galileo, sebbene la formulazione generale della legge non si trovi mai negli scritti dello scienziato.

Verso la fine del 1637 Galileo cominciava a stendere quelle sue mirabili Operazioni astronomiche, nelle quali addita agli astronomi futuri il grande lavoro di revisione da compiere mediante due strumenti che ben si può dire gli fossero propri, il cannocchiale e il pendolo, “mercè delle quali invenzioni si ottengono nella scienza astronomica quelle certezze che sin ora con i mezzi consueti non si sono conseguite”.

Galileo morì l’8 gennaio del 1642, lasciando in eredità al mondo della scienza e a quello della cultura in generale, un immenso patrimonio di scoperte ed un nuovo modo di fare ricerca, ma soprattutto l’esempio di una vita condotta contro ogni forma di dogmatismo, sia esso religioso che scientifico-filosofico, e caratterizzata da una libertà di pensiero e di azione.

6.6 L’eredità galileiana

Giacomo Leopardi fa dire a Copernico nelle Operette morali a proposito del sistema eliocentrico che: “… gli effetti suoi non appartengono alla fisica solamente; perché esso sconvolgerà i gradi delle dignità delle cose, e l'ordine degli enti; scambierà i fini delle creature; e per tanto farà un grandissimo rivolgimento anche nella metafisica, anzi in tutto quello che tocca la parte speculativa del sapere. E ne risulterà che gli uomini, se pur sapranno o vorranno discorrere sanamente, si troveranno essere tutt'altra roba da quello che sono stati fin qui, o che si hanno immaginato di essere”. Questo capovolgimento di mentalità, descritto in questo passo, aderisce pienamente alle scoperte di Galileo, anche se non mancarono gli oppositori al nuovo metodo d'indagine. La dinamica galileiana riuscì, però, alla fine a imporsi, oltre che per i pregi intrinseci, anche per l'alta autorità dello scienziato e per l'opera di diffusione dei suoi discepoli.

In primo luogo di Evangelista Torricelli (1608–1647), che, muovendosi interamente nell’ambito galileiano e anche con maggior rigore matematico, contribuisce alla meccanica, ed in particolare ai problemi di balistica, nell’opera De motu gravium descendentium et proiectorum libri duo. Nel primo libro del De motu Torricelli si propone di dimostrare il postulato di Galileo sulle eguali velocità dei gravi cadenti per piani inclinati di eguale altezza, e come già a sua insaputa aveva fatto Galileo, lo dimostra assumendo a postulato il principio oggi detto di Torricelli sul moto dei centri di gravità. E così lo commenta: “Allorché due gravi sono legati insieme in modo che al moto dell'uno segua il moto dell'altro, essi si comportano come un grave unico formato da due parti [...]: ma un tal grave non si metterà mai in movimento se il suo centro di gravità non discende. Dunque, quando esso sarà in tali condizioni che il suo centro di gravità non potrà in alcun modo discendere, il grave resterà certamente in quiete nella posizione che occupa” Nel secondo libro è dapprima trattato il moto dei proiettili, generalizzando la dottrina contenuta nei Discorsi di Galileo. Questi aveva studiato soltanto il moto dei proiettili lanciati orizzontalmente; in via incidentale, senza

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;88!

dimostrazione, Galileo aveva affermato la reversibilità del moto. Torricelli, invece, considera un lancio obliquo qualunque e applicando i principi galileiani ne determina la traiettoria parabolica e altri teoremi balistici oggi ben noti. In particolare, estendendo l'osservazione di Galileo, egli nota che il moto dei proiettili è un fenomeno invertibile. Data quindi da Galileo e da Torricelli il concetto che i fenomeni dinamici sono reversibili, ossia che il tempo della meccanica galileiana è ordinato, ma privo di verso.

Un capitolo del secondo libro è dedicato al De motu aquarum, argomento al quale portò un contributo così importante tale da essere considerato il fondatore dell'idrodinamica. Scopo della trattazione torricelliana è lo studio dell'efflusso dell'acqua dai fori praticati nei recipienti che la contengono. La teoria dei moti verticali e l'esperimento gli suggeriscono l'ipotesi fondamentale. Se da un piccolo foro ben levigato praticato in un recipiente pieno d'acqua si fa zampillare il liquido verso l'alto, si osserverà che esso ascende quasi allo stesso livello del liquido nel recipiente. La piccola differenza è da ascrivere in parte alla resistenza dell'aria, in parte alla stessa acqua di caduta, che ostacola il moto della nuova acqua che ascende ( l'esperimento riesce meglio col mercurio). Se tutte le resistenze al moto del liquido fossero nulle, il getto raggiungerebbe il livello del liquido nel recipiente: in base alle leggi di moto dei gravi, la velocità iniziale del getto è eguale a quella che avrebbe un corpo che cada liberamente dal livello del liquido al foro d'efflusso. Questi esperimenti e queste considerazioni conducono lo scienziato a enunciare l'ipotesi fondamentale, detta teorema di Torricelli: “L'acqua che erompe violentemente ha nel punto d'efflusso la stessa velocità che avrebbe un qualunque corpo grave, ossia anche una singola goccia della stessa acqua, che fosse caduta naturalmente dal livello supremo della stessa acqua sino all'orificio d'efflusso”. Su questa ipotesi, che è un caso particolare del principio di conservazione dell'energia, i dubbi non si fecero attendere, in quanto Torricelli non dava una piena giustificazione della sua affermazione (la giustificazione sarà data da Newton) e si richiamava solo all'esperienza. Dopo aver parlato dell'efflusso dei liquidi, Torricelli continua la trattazione dando cinque tavole di tiro, che sono propriamente tavole trigonometriche, che, in funzione dell’angolo di tiro e nota la velocità iniziale del proiettile, consentono il calcolo degli elementi caratteristici della traiettoria.

Tuttavia, la fama maggiore gli derivò dalla nota esperienza sulla pressione atmosferica, che portò lui stesso all’invenzione del barometro. Era noto il fenomeno della salita di un fluido in un tubo in cui si fosse fatto il vuoto, ma quale era la causa? La risposta tradizionale, di derivazione aristotelica, era l’horror vacui, il fatto che la natura aborre il vuoto. Torricelli, invece, sospetta che sia dovuta alla pressione dell’aria. Se è così, il rapporto dei due pesi specifici deve determinare di quanto il mercurio dovrà salire in un tubo vuoto, e l’esperienza conferma il calcolo teorico.

Giovanni Alfonso Borelli (1608–1679), altro convinto galileista, fu una delle menti più acute che abbia avuto la scienza italiana del Seicento. Prendendo l’avvio dalle osservazioni sul moto dei satelliti di Giove, Borelli tenta di dare le basi teoriche del sistema copernicano. Propostosi il problema di stabilire per quale virtù i pianeti si muovono attorno al Sole e i satelliti intorno a Giove, rigettate le varie ipotesi formulate dagli astronomi del tempo, egli dice: “In primo luogo, ogni pianeta tende per istinto naturale ad avvicinarsi al Sole con moto rettilineo, come i gravi hanno l'istinto naturale di avvicinarsi alla nostra Terra, spinti da una forza di gravità ad essi connaturata e come il ferro si muove direttamente verso il magnete [...] In secondo luogo, supponiamo che lo stesso pianeta sia posto in movimento al Sole circolarmente da

;89! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

occidente a oriente: poiché il movimento circolare imprime naturalmente al mobile un certo impeto per il quale esso si allontana dal centro e ne è respinto [...] ne segue che siccome il pianeta si muove circolarmente, esso si allontana dal centro”. Si stabilisce, insomma, un equilibrio dinamico tra le due inclinazioni al moto, verso il centro e dal centro, onde il pianeta si trova in ogni istante in una posizione determinata; guidato da questo concetto, Borelli interpreta il moto ellittico dei pianeti intorno al Sole. Ma in Borelli rimane viva la diffidenza galileiana contro ogni idea magica d'attrazione ed un intero capitolo di una successiva sua opera meccanica è speso per persuadere che in natura non si dà attrazione, né forza attrattiva. Il concetto fondamentale di Borelli è che l'attrazione sarebbe una virtù incorporea, e come è possibile che un corpo sia mosso senza un contatto corporeo? La teoria di Borelli, pertanto, non è ancora la teoria newtoniana, vi manca non soltanto il concetto fondamentale di attrazione, ma anche la formulazione matematica delle leggi; nuova, però, è la considerazione della forza centrifuga nel meccanismo dei moti planetari, onde, se la teoria borelliana non è ancora la teoria newtoniana, ne è indubbiamente una buona introduzione, come lo stesso Newton riconobbe. Borelli, inoltre, anticipa Newton anche nel ritenere priva di fondamento ogni distinzione tra fisica celeste e fisica terrestre: pregiudizio aristotelico dal quale neppure Cartesio, come vedremo, aveva saputo liberarsi completamente.

Borelli combatte la strana teoria della “quantità di riposo”, professata da Cartesio, e dimostra che qualunque forza, comunque piccola, purché finita, può muovere un corpo comunque grande. Inoltre, concluse che il moto effettivo di caduta dei gravi, nell'ipotesi che questi partecipino del moto circolare uniforme di rotazione terrestre, avviene con la deviazione verso oriente, come verrà dimostrato sperimentalmente alla fine del settecento.

Nell’opera De motionibus naturalibus a gravitate pendentibus, Borelli vi espone una teoria corpuscolare di costituzione della materia, che gli consente d'interpretare l'elasticità dell'aria, la dilatazione meccanica e termica dei corpi, la soluzione, la viscosità e altro ancora. Il capitolo ottavo è dedicato allo studio dei fenomeni capillari, attribuiti all'adesione del liquido alle pareti, con la scoperta che nei tubi capillari l'elevazione del liquido cresce col diminuire del diametro del tubo. Vi è descritto un dispositivo per la determinazione del peso specifico dell'aria, che è il primo esempio d'impiego di un areometro a volume costante. Ma il capolavoro di Borelli è il De motu animalium, opera in due volumi. Il primo volume descrive la struttura, la forma, l'azione e la potenza dei muscoli dell'uomo e degli animali, con applicazione al moto. Nel secondo volume sono trattate, con analogie meccaniche, le contrazioni muscolari, il moto del cuore, la circolazione del sangue, la digestione.

Però lo sviluppo della fisica galileiana era condizionato dal perfezionarsi della interpretazione fisico-matematica dello spazio euclideo, in particolare connessione con i problemi inerenti al continuo. Per quanto lo stesso Galilei e meglio ancora Torricelli avessero intuito il concetto geometrico-meccanico dell’integrale come spazio totale percorso da un punto moventesi di moto continuo in un intervallo di tempo ad una data velocità, tuttavia lo sforzo di costruire, sulla base delle nozioni euclidee, uno spazio adeguato a questa meccanica venne compiuto da un altro discepolo di Galileo, Bonaventura Cavalieri (ca. 1598-1647). Questi nelle sue opere Geometria indivisibilibus continuorum nova … promota e Excercitationes geometricae sex, fonda l’aritmetica degli indivisibili che si può considerare come l’embrione dell’analisi infinitesimale, con lo scopo di fondare una teoria matematica dello spazio che rendesse interpretabili

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;8:!

geometricamente i fenomeni fisici. L’idea fondamentale è quella di considerare i punti geometrici come indivisibili, veri e propri atomi geometrici, e le linee come somme di punti, le superfici come somme di linee, i volumi come somme di superfici. Ma, naturalmente poiché non siamo in presenza di elementi discreti, bisogna vedere come si debba concepire questa nozione di somma. Le risposte del Cavalieri, però, restano confuse e persino grossolanamente erronee, ma i tempi erano maturi perché il seme in esse contenuto venisse largamente sviluppato in Europa, dando origine al nuovo potentissimo strumento matematico della fisica moderna, il calcolo differenziale e integrale.

Nonostante il genio di Galileo e l’azione dei suoi discepoli, la sua opera e il suo pensiero erano destinati a dare frutti molto scarsi in Italia, che nel Seicento perde irrimediabilmente il primato scientifico, che passa ad altri paesi. La verità è che ormai in Italia si facevano sentire pesantemente gli effetti della crisi provocata da una parte dal blocco del Mediterraneo per opera dei Turchi, dall’altra dallo sviluppo della borghesia mercantile e coloniale di paesi come l’Olanda, l’Inghilterra, la Francia. L’Italia, ridotta economicamente ad una provincia periferica dell’Europa e politicamente caduta nella asfissiante atmosfera della Spagna controriformistica, gradatamente viene estromessa dallo sviluppo della civiltà moderna. Soprattutto manca in Italia la formazione dello stato nazionale, che non può essere sopperito dal principato, che, per la sua struttura politica e sociale, non può assumere la funzione di guida nazionale per il benessere collettivo. Invece altrove l’accentramento statale e l’idea dello stato come comunità porta i suoi frutti anche nella scienza, alla quale, da una parte, si garantisce quasi ovunque una certa libertà, mentre dall’altra lo stato interviene per incoraggiare e finanziare la ricerca scientifica, in quanto è funzionale, attraverso le sue applicazioni pratiche nella tecnica, allo sviluppo economico del paese.

Non meno dei discepoli italiani contribuirono alla diffusione del pensiero galileiano molti scienziati francesi, nonostante che la facoltà di teologia della Sorbona, per volere del potente cardinale Richelieu, condannò, dichiarandola falsa, la dottrina del moto della Terra.

Particolarmente meritoria fu l'opera di Marin Mersenne (1588-1648), che tradusse in Francia le Meccaniche di Galileo, compilò un riassunto dell'opera dei Massimi sistemi, quando ne fu proibita la traduzione e la ristampa, e diffuse la sostanza dei Discorsi in un volume dal titolo Les nouvelles pensées de Galilée. Nonostante questa sincera ammirazione per il nostro scienziato, Mersenne rivendica la propria libertà di spirito e i suoi libri e la sua corrispondenza con i maggiori scienziati del tempo, contengono preziose informazioni, compiendo così quell’opera di collegamento, di chiarificazione e di diffusione oggi affidata alle grandi riviste scientifiche internazionali.

Ammiratore di Galileo fu anche Pierre Gassend (1592-1655), che con la sua opera cercò l'affermazione della nuova dinamica e soprattutto del copernicanesimo, e avrebbe potuto avere più vasta risonanza, se l'eccessiva prudenza non lo avesse talvolta indotto a disapprovare in pubblico ciò che affermava in privato. Risulta vicino a Galileo anche per le sue posizioni antidogmatiche, specialmente nei riguardi dell’aristotelismo e dell’indirizzo magico-occultista. Nei riguardi degli aristotelici riprende le posizioni di Occam contro la presunta realtà degli universali e contro la pretesa di dover fare riferimento ad essi per dare un fondamento sicuro alle nostre conoscenze. Oppone al

;9<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

scire per causas (sapere attraverso le cause) aristotelico un sapere interamente collegato all’esperienza, e cioè un sapere che parte da essa e rimanga in essa: “Se dici poi che l’intelletto può, a partire dalle cose che cadono entro l’esperienza o appaiono ai sensi, ricavarne altre molto più interne, risponderò che ragionando non può giungere al di là di cose che risultino ancora esperibili o di cui risulti possibile esibire una qualche apparenza”.

Proprio questo legame ininterrotto con l’esperienza gli fa respingere con pari energia il canone metodologico propugnato dall’indirizzo magico-occultista, consistente nel cercare la spiegazione dei fenomeni in essenze occulte e artificialmente inventate, come pure la pretesa di alcuni teologi che volevano scorgere ovunque, nella natura, l’intervento miracoloso della volontà divina. Ciò che Gassend oppone ad essi, e cioè il ricorso sistematico ad una spiegazione meccanica del mondo fisico, non vuole tanto essere una tesi di filosofia generale, quanto un metodo efficace per eliminare definitivamente dai nostri discorsi l’appello al fantastico e all’irrazionale, e di conseguenza spingerci a ricerche concrete e feconde di risultati.

Gassend fece accurate osservazioni astronomiche; nel 1640 verificò sperimentalmente il principio classico di relatività, facendo cadere dall'alto dell'albero di una nave in corsa una pietra e verificando che essa arrivava ai piedi dell'albero, come se la nave fosse ferma. Lo avvicinano a Galileo anche la dottrina della soggettività delle sensazioni e la teoria atomistica, da lui più approfondita di quanto avesse fatto Galileo. Gassend crede nell'esistenza di una materia unica, comune a tutti i corpi, divisa in atomi, tra loro separati dal vuoto, insecabili, la cui forma (tonda, allungata, appuntita ecc.) causa l'apparente diversità dei corpi della natura, i quali sono pesanti non per intrinseca virtù, ma per un'azione di attrazione della Terra sugli atomi. Gassend non intese accogliere l’atomismo di Epicuro come una verità assoluta, di carattere metafisico, bensì come una teoria molto probabile, particolarmente utile a spiegare con rigore scientifico i fenomeni fisici. Il ragionamento cui faceva appello per difendere la concezione atomistica era incentrato sulla difficoltà di concepire i mutamenti fisici se non si postula l’esistenza in essi di qualcosa che permane: tali sarebbero, appunto gli atomi, che nessuna forza fisica risulterebbe in grado di suddividere o di alterare. Le scoperte operate in quegli anni dalla microscopia gli parvero inoltre costituire una seria, seppur non diretta, convalida dell’atomismo. Molto interessante, a questo proposito, è la netta suddivisione che Gassend fece tra gli atomi (minima naturae), i punti matematici (minima mensurae) e i più piccoli oggetti percepibili con il microscopio (minima sensus): questi ultimi non si identificherebbero con gli atomi potendone contenere parecchi, e gli atomi a loro volta non si identificherebbero con i punti matematici poiché il più piccolo atomo può contenere infiniti punti. Coerentemente a questa posizione, Gasend sostenne che la matematica, che opera nel regno dell’astrazione, non va confusa con la fisica, che opera nel regno della materia.

La concezione atomistica viene infine utilizzata da Gassend non solo per spiegare i mutamenti che si producono nel mondo dei fenomeni fisici, ma anche per spiegare gli stessi procedimenti conoscitivi. Ogni conoscenza deriverebbe dai sensi e sarebbe prodotta da atomi che si staccano dagli oggetti conosciuti per giungere all’organo del senso. Ma gli atomi non sono soltanto causa delle nostre sensazioni; risultano invece essi stessi forniti di sensibilità, onde si conclude che l’anima vegetativa e sensitiva, presente negli esseri viventi, sarebbe per l’appunto costituita da atomi.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;9;!

6.7 Empirismo e razionalismo: due filosofie a confronto

Nell’elaborazione del pensiero scientifico dell’Età moderna che è tipica del Seicento, e che, agli inizi del secolo successivo, culmina nelle due filosofie rivali del newtonianismo e del leibnizianesimo, si vengono formando due correnti. La prima, empiristica, ha la sua maggiore diffusione nei paesi calvinisti, come l’Inghilterra e l’Olanda; l’altra invece, la corrente razionalistica, ha la sua maggiore diffusione nei paesi continentali a predominio cattolico o luterano, come la Francia e la Germania. Il razionalismo è la continuazione, più o meno liberamente svolta e riapprofondita, del pensiero scientifico che fa capo a Galileo, e che ha i massimi esponenti in Cartesio, Spinoza e Leibniz; l’empirismo invece ha per iniziatore Bacone, e in seguito sostenitori in Hobbes, Boyle, Newton e Locke.

La scienza moderna si viene presentando come un complesso di osservazioni empiriche e tecniche operative (esperimenti) le quali però acquistano significato teoretico e insieme potenzialità pratiche solo sullo sfondo di una rete di concetti e assiomi, o leggi, i quali vengono formulati intellettualmente ad opera della ragione, o, come diceva Galileo, dal discorso. La distinzione fondamentale tra le due correnti sta soprattutto nel modo in cui vengono interpretati la funzione e il fondamento di questo reticolato nozionale-teoretico. La differenza sta dunque nel modo diverso di intendere la funzione metodologica e il fondamento.

Per i razionalisti l’idea di verità è dato dal sistema deduttivo della matematica euclidea, in cui il pensiero da assiomi autoevidenti discende un reticolato di teoremi che deve costituire una completa interpretazione concettuale della natura. Osservazioni ed esperimenti hanno quindi uno scopo di controllo, poiché nelle deduzioni si sarebbero potuti insinuare errori, oppure uno scopo euristico, costituendo una specie di scorciatoia per scoprire verità nuove, che poi sarà compito della teoria di risolvere in verità necessarie matematico-deduttive. Viene così a distinguersi dimostrazione, puramente discorsiva (deduttiva) da prova, cioè verificazione empirica.

Invece per l’empirismo la funzione è rovesciata, e cioè la ricerca scientifica parte dalle osservazioni sensibili e arriva alle tecniche operative (sperimentali-pratiche) che costituiscono lo scopo e la verità della scienza; concetti ed assiomi hanno uno scopo strumentale, servono a risolvere i dati dell’esperienza grezza in nuovi significati e rapporti introdotti dal linguaggio della teoria, e a permettere formulazioni generali a partire dalle quali vengano rese ideabili nuove tecniche operative e resi prevedibili i risultati di queste.

Quanto al fondamento, questione peraltro più filosofica che scientifica, l’antitesi è ancora più netta. Infatti, per i razionalisti l’ordine deduttivo parte da assiomi autoevidenti, gli empiristi invece affermano che le strutture nozionali prime del mondo non sono direttamente attingibili, ma lo divengono soltanto attraverso l’induzione scientifica, che concepiscono come una scala ascendente di sempre maggiori generalizzazioni empiriche.

Ma più che queste concezioni generali interessano ad una storia del pensiero scientifico i diversi atteggiamenti del razionalismo e dell’empirismo di fronte a determinati aspetti della problematica del pensiero scientifico moderno. E in primo luogo rispetto al valore e alla funzione delle matematiche. È giusto avvertire che tale valore e tale funzione non è negata da nessuno scienziato dell’epoca, e che ad entrambe le correnti appartengono grandi matematici così come grandi sperimentatori. Ma

;9=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

mentre per gli empiristi le matematiche (geometria ed analisi) non sono altro che un linguaggio chiaro, universale, maneggevole, ma pur sempre avente un valore soltanto strumentale, pratico, e non ontologico e metafisico, per i razionalisti rappresentano l'essenza della natura, o per lo meno la struttura assiomatico-deduttiva della geometria è immagine della struttura del cosmo e modello obiettivo del sapere.

Molto importante è la diversa concezione dello spazio: i razionalisti adottano in generale la primitiva concezione galileiana, per cui lo spazio è interamente risolto nei rapporti tra gli enti geometrici, rapporti fra i quali vengono annoverati anche i rapporti di movimento, sì che meccanica razionale e geometrica euclidea si risolvono interamente l'una nell'altra. Ma in questo modo devono negare lo spazio vuoto, ripetendo apparentemente il dogma aristotelico per cui il vuoto non esiste: in realtà il vuoto non esiste perché non esiste quello spazio astratto, informe, mero fondamento dei moti, che postulavano i sostenitori del vuoto; lo spazio viene a identificarsi con la materia prima e fondamentale (l’etere e la luce), ossia con ciò ai cui movimenti, intesi come rapporti geometrici, si deve ridurre tutta la realtà del mondo fisico. Da questa concezione neppure gli empiristi riescono totalmente a liberarsi; ma gli esperimenti sul vuoto compiuti da Torricelli e ripetuti da Pascal e da Boyle, la decisiva adozione della teoria atomica, l'intuizione meccanico-cinematica prevalente su quella puramente geometrica nella fondazione del calcolo infinitesimale, li porterà alla fine, con Newton, a sostenere la concezione di uno spazio assoluto, informe e vuoto, sullo sfondo del quale avvengono i fenomeni fisici, riducibili a movimento.

Nel Seicento, comunque, sono meccanicisti gli empiristi come i razionalisti, ma lo sono in modo diverso. Per gli empiristi il meccanicismo è un'ipotesi e un metodo, per i razionalisti un dogma. Per questi ultimi la natura è spazio, e lo spazio è movimento analiticamente rappresentabile, e fuori dei modelli analitici di movimento non esiste possibile spiegazione, e rappresentazione nozionale, dei fenomeni della natura. Non così per gli empiristi, per i quali la natura è variopinto mondo di qualità e proprietà, che, ove sia possibile, si devono far dipendere dalla struttura atomica dei corpi e dai mutamenti che il moto delle particelle introduce in questa stessa struttura. Ma le delicate strutture dei corpi, le delicate leggi e le forze in gioco nel mondo subatomico non possono essere fissate in maniera assoluta secondo modelli meccanici microscopici, quali l'urto delle palline o il propagarsi del moto ondoso nei fluidi oppure il movimento d'orologeria (questi infatti erano i modelli della meccanica razionalistica).

In particolare, come la questione del moto, così li divide la correlata questione della actio in distans (azione a distanza): lo studio delle forze di attrazione tra corpi distanti tra i quali è il vuoto presuppone la possibilità che un corpo possa agire su di un altro con cui non è a contatto né diretto né indiretto (essendoci in mezzo lo spazio vuoto); cosa che già Galileo, e con più energia ancora i meccanicisti cartesiani, non potevano ammettere, ricorrendo per questo alla concezione di moti trasmessi attraverso lo spazio pieno (etere), il che non sempre permetteva una spiegazione fisico-matematica dei fatti osservabili. Donde le polemiche: i cartesiani rimproveravano agli empiristi (e in particolare ai newtoniani) di ripristinare la concezione prescientifica di virtutes occulte e non risolubili analiticamente insite nei corpi stessi; gli empiristi, respingendo questa accusa, la rintuzzavano accusando gli avversari di dogmatismo, come quelli che preferivano rinunciare alle evidenze empiriche piuttosto che ai loro principi filosofici.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;94!

6.8 Francesco Bacone: la scienza al servizio dell’uomo

Galileo, pure ispirandosi a un concetto filosofico della scienza, non ha propriamente teorizzato il metodo sperimentale. Motivi empirici e razionali del conoscere vengono in esso fecondemente conciliati dalla mente scientifica, secondo le esigenze della ricerca, ma all’intuizione del procedimento non si accompagna ancora una critica esplicita dei suoi principi.

Se Galilei, dunque, ha chiarito il metodo della ricerca scientifica, Francesco Bacone (1561-1626) ne ha dato una giustificazione teorica, intravedendo per primo il potere che la scienza offre all'uomo sul mondo. Bacone ha concepito la scienza come essenzialmente diretta a realizzare il dominio dell'uomo sulla natura, il regnum hominis, ed ha capito la fecondità delle sue applicazioni pratiche, sicché può dirsi il filosofo e il profeta della tecnica. Quest'uomo ambizioso e amante del denaro e del fasto ebbe un'idea altissima del valore e dell'utilità della scienza al servizio dell'uomo. Tutte le sue opere tendono ad illustrare il progetto di una ricerca scientifica che, portando il metodo sperimentale in tutti i campi della realtà, faccia della realtà stessa il dominio dell'uomo. Egli voleva rendere la scienza attiva e operante al servizio dell'uomo e la concepì diretta alla costituzione di una tecnica che doveva dare all'uomo il dominio di ogni parte del mondo naturale.

Il principale tentativo filosofico di Bacone fu di liberare l’esperimento dal suo dubbio contesto, e farlo diventare la base indiscutibile della spiegazione scientifica. Fu un feroce critico della scolastica, che egli pensava avesse insegnato agli uomini soltanto a tessere sottili ragnatele di speculazioni verbali, e della filosofia aristotelica, che aveva commesso l’errore di saltare di colpo ai principi generali senza dimostrare la loro verità per induzione da esperimenti.

L’opera Il Nuovo Organo è una logica del procedimento tecnico-scientifico che viene polemicamente contrapposta alla logica aristotelica. Con la vecchia logica si espugna l'avversario, con la nuova si espugna la natura. Questa espugnazione della natura è il compito fondamentale della scienza: “Il fine di questa nostra scienza è di trovare non argomenti ma arti, non principi approssimativi ma principi veri, non ragioni probabili ma progetti e indicazioni di opere”. La scienza è posta così interamente al servizio dell'uomo. L'intelligenza umana ha bisogno di strumenti efficaci per penetrare nella natura e dominarla, e gli strumenti della mente sono gli esperimenti, escogitati e adattati tecnicamente allo scopo che si vuol realizzare. I sensi soltanto non bastano a fornire una guida sicura: solo gli esperimenti sono i custodi e gli interpreti dei loro responsi. L'esperimento rappresenta, secondo l'immagine di Bacone: “il connubio della mente e dell'universo”, connubio dal quale egli si attende “una prole numerosa di invenzioni e gli strumenti atti a domare e a mitigare almeno in parte la necessità e le miserie degli uomini”. Ma il connubio tra la mente e l'universo non si può celebrare finché la mente rimane irretita in errori e pregiudizi che le impediscano di interpretare la natura. Bacone oppone l'interpretazione della natura all'anticipazione della natura. L'anticipazione della natura prescinde dall'esperimento e passa immediatamente dalle cose particolari sensibili ad assiomi generalissimi. Questa è la via di cui si serve la logica tradizionale, via che tocca appena l'esperienza perché si acqueta soltanto nelle verità generalissime. L'interpretazione della natura, invece, si addentra con metodo e con ordine nell'esperienza e ascende senza salti e per gradi dal senso e dalle cose particolari agli assiomi, giungendo solo da ultimo a quelli più generali.

;95! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Il compito preliminare di Bacone nel suo tentativo di stabilire il nuovo organo della scienza è quello di purificare l’intelletto da quelli che egli chiama idòla, ossia i pregiudizi che si sono radicati nella mente umana o attraverso dottrine filosofiche o attraverso dimostrazioni desunte da principi errati o per la natura stessa dell’intelletto umano. Fra le cause che impediscono agli uomini di liberarsi dagli idoli e di procedere nella conoscenza effettiva della natura, Bacone pone in primo luogo la riverenza per la sapienza antica. La verità, dice Bacone, è figlia del tempo, non dell'autorità, e come Bruno, pensa che essa si riveli gradualmente all'uomo, attraverso gli sforzi che si sommano e si integrano nella storia. Per uscire dalle vecchie vie della contemplazione improduttiva e intraprendere la via nuova della ricerca tecnico-scientifica, bisogna mettersi sul terreno dell'esperimento. Solo l'esperimento può condurre a dotare la vita umana di nuove invenzioni, a porre le basi della potenza e della grandezza umana e a portarne sempre più oltre i confini.

La ricerca scientifica non si fonda né soltanto sui sensi né soltanto sull'intelletto. Se l'intelletto per suo conto non produce che nozioni arbitrarie e infeconde e se i sensi dall'altro lato non danno che indicazioni disordinate e inconcludenti, la scienza non potrà costituirsi come conoscenza vera e feconda di risultati. Il procedimento che realizza questa esigenza è, secondo Bacone, quello dell'induzione. Bacone si preoccupa di distinguere nettamente la sua induzione da quella aristotelica. L'induzione aristotelica, cioè l'induzione puramente logica che non è legata alla realtà, è un'induzione per semplice numerazione dei casi particolari ed è continuamente esposta al pericolo degli esempi contrari che possono smentirla. Invece, l'induzione che è utile all'invenzione e alla dimostrazione delle scienze e delle arti si fonda sulla scelta e sull'eliminazione dei casi particolari: scelta ed eliminazione ripetute successivamente più volte sotto il controllo dell'esperimento, fino a giungere alla determinazione della vera natura e della vera legge del fenomeno. Questa induzione procede quindi senza salti e per gradi: risale cioè gradualmente dai fatti particolari a principi via via più generali e solo da ultimo giunge agli assiomi generalissimi.

La scelta e l'eliminazione su cui si fonda tale induzione suppongono in primo luogo la raccolta e la descrizione dei fatti particolari, cioè dei dati legati esperienza, cioè dettati dalla natura stessa. Ma la vastità e la varietà di questi dati confonderebbero l'intelletto anziché aiutarlo, se non fosse composta e sistemata in un ordine idoneo. A questo fine servono le “tavole”, che sono dei particolari aspetti di un fatto. “Le tavole di presenza” saranno la raccolta dei casi nei quali un determinato fenomeno (ad esempio il calore) si presenta ugualmente benché in circostanze diverse. “Le tavole di assenza” raccolgono i casi in cui lo stesso fenomeno non si presenta, pur verificandosi condizioni e circostanze vicine o simili a quelle notate nelle tavole di presenza. “Le tavole dei gradi” o comparative sono quelle che raccolgono i casi in cui il fenomeno si presenta nei suoi gradi decrescenti. Sulla scorta delle precedenti tavole si possono poi formare delle “tavole esclusive”, che escludono il verificarsi del fenomeno. Le tavole approntano l'intero materiale della ricerca e consentono di formulare una prima ipotesi intorno alla natura del fenomeno studiato. Quest'ipotesi è un'ipotesi di lavoro, che guida l'ulteriore sviluppo della ricerca. L'induzione dovrà procedere mettendo a prova l'ipotesi fatta in successivi esperimenti che Bacone chiama “istanze prerogative”. Di tali istanze egli enumera molte specie. Quella decisiva è “l'istanza cruciale” il cui valore consiste in questo, che, quando si è in dubbio sulla causa del fenomeno studiato per i suoi rapporti con molti altri fenomeni, l'istanza cruciale dimostra la sua connessione necessaria con

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;96!

uno dei fenomeni e la sua separabilità dagli altri; e perciò consente di riconoscere la causa vera del fenomeno. L'intero processo dell'induzione tende, secondo Bacone, a stabilire la causa delle cose naturali.

In sostanza, Bacone ritenne che il principale compito prima di far scienza fosse di abbandonare ogni teoria e compilare enciclopedie di fatti che riguardassero ogni sorta di fenomeni. Soltanto quando si fossero conosciuti tutti i fatti, cosa possibile eseguendo tutte le osservazioni e tutti gli esperimenti possibili, sarebbe valsa la pena di tentare di dare forma a delle idee generali. Però Bacone fu consapevole che questo mettere in evidenza sulla base del materiale empirico poteva suggerire ulteriori esperimenti che rafforzassero o confutassero un’ipotesi, ma per lo più egli suppose che le teorie adeguate potessero essere ottenute per generalizzazioni immediate dei fatti.

Bacone attribuì poca importanza allo sviluppo matematico delle idee, o all’immaginazione scientifica o anche alla ragione che non fosse diretta da una stretta applicazione del metodo induttivo, ed ignorò o rifiutò l’originale opera dei suoi immediati predecessori, come Copernico, o contemporanei. Forse anche per questo motivo, Bacone ha esercitato una scarsa influenza sugli sviluppi teorici della scienza, la quale è stata interamente dominata dalle intuizioni metodologiche di Leonardo, Keplero e Galilei. In realtà lo sperimentalismo scientifico non poteva essere innestato sul tronco dell'aristotelismo; e la teoria dell'induzione baconiana doveva fallire in questo tentativo. Lo sperimentalismo scientifico aveva già trovato la sua logica e con essa la sua capacità di sistemazione. Questa logica era, come si è visto, la matematica. Il tentativo baconiano di fornire una logica della scoperta scientifica fallì, in quanto nessuno, nemmeno Bacone, fece, o ha fatto, una scoperta o avanzato un’ipotesi nuova seguendo questo metodo, né tantomeno la metodologia della scienza moderna passa attraverso la sua dottrina. Però è anche vero che Bacone aveva perfettamente ragione a sostenere che lo sviluppo della scienza non avviene soltanto attraverso la brillante teorizzazione, matematica o no, ma è anche il frutto di un interminabile lavoro dedicato all’acquisizione di dati; in più, è un merito l’aver colto e teorizzato il significato umano e sociale della nuova scienza rispetto alla nuova umanità sviluppatasi in seguito alla rivoluzione monarchica e borghese.

Bacone fu il prototipo dell’intellettuale democratico e quindi pose l’accento sullo sforzo collettivo degli scienziati per poter giungere alla comprensione della natura, molto complessa perché un uomo solo potesse padroneggiarla; infatti previde l’utilità di istituzioni di ricerca scientifiche. Le prime società scientifiche nazionali, coma la Royal Society (Londra, 1662) e l’Accademia delle Scienze (Parigi, 1666) riconobbero tale merito.

Thomas Hobbes (1588-1679), discepolo di Bacone ma assai indipendente dal maestro, è assai più importante come filosofo politico che non come pensatore scientifico, tuttavia alcune sue concezioni logiche, metodologiche e metafisiche hanno esercitato un certo influsso sulla storia della scienza moderna.

Strettamente empirista, sottolinea energicamente il carattere simbolico e linguistico delle idee: queste non sono che sensazioni, le quali però sostituiscono e richiamano (quindi, in qualche modo, rappresentano) intere serie di sensazioni. Per questa sua funzione, il linguaggio rende possibile il ragionamento, inteso come processo meramente astratto e algoritmico, che a differenza di Bacone, rappresenta il modello più semplice e perfetto di discorso scientifico, che si riduce ad una combinazione tautologica, in modo che questo procedimento astratto non avrà altra garanzia che la sua finale concordanza con i fatti empirici. Ma questo tipo di

;97! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ragionamento mette in luce la causa di qualche fatto, e poiché la scienza è basata tutta di dimostrazioni di questo genere, ogni discorso scientifico non fa che dimostrare la connessione per la quale da una causa determinata si genera un effetto determinato. Questo accade specificatamente nelle scienze che hanno per oggetto cose, di qualsiasi natura, prodotte dall’uomo; appunto perché prodotte dall’uomo, l’uomo stesso può conoscere la causa di tali cose: questa causa è infatti una sua operazione.

Le cose naturali, invece, sono prodotte da Dio e non dagli uomini, perciò gli uomini non ne conoscono le cause, cioè il modo in cui esse sono generate o prodotte. Per esse, quindi, una dimostrazione necessaria, che vada dalla causa all’effetto, non è possibile. Si può risalire soltanto dagli effetti, cioè dai fenomeni che vediamo in natura, alle loro cause supposte, ma poiché uno stesso effetto può essere prodotto da cuse diverse, si raggiungono così conclusioni probabili ma non necessariamente vere.

La ragione e la scienza possono rivolgersi con successo solo ad oggetti di cui si può conoscere, a priori o a posteriori, la causa produttrice, quindi a oggetti generabili. Quando si tratta di oggetti non generabili come Dio, e in generale tutte le cose incorporee, la ragione non ha modo di esercitarsi e la scienza non è possibile. Poiché i soli oggetti generabili, che in quanto tali hanno una causa conoscibile delle loro genesi, sono i corpi, gli oggetti estesi o materiali sono i soli oggetti possibili della ragione. In questa tesi consiste il materialismo meccanicistico di Hobbes, che in un certo senso riproduce la dottrina degli stoici, i quali affermavano che solo il corpo esiste perché solo il corpo può agire o subire un’azione. Pertanto, secondo Hobbes, il corpo è l’unica realtà, cioè l’unica sostanza che esista realmente in sé stessa; e il movimento è l’unico principio di spiegazione di tutti i fenomeni naturali, giacchè ad esso si riducono anche i concetti di causa, di forza e di azione.

Nel campo della filosofia della natura Hobbes sviluppa e completa sistematicamente gli spunti materialistici e meccanicistici che si trovano già nel pensiero di Bacone. Tutta la realtà è materia, con gli attributi fondamentali dell'estensione e della forza: ed ogni fenomeno (apparente, soggettivo) si riduce veramente a movimenti della materia sottile, a moto delle parti. E qui il pensiero di Hobbes si riallaccia ad una vasta corrente, diffusasi in Italia, e che, nonostante l'autorità di cui per tutto il Seicento godettero Cartesio e i cartesiani, che come vedremo erano legati al vacuismo, era destinata ad imporsi nella scienza moderna: l'atomistica.

La critica democriteo-galileiana alle qualità essenziali della fisica aristotelica, ridotte allo status di mere sensazioni soggettive di contro alle qualità vere o prime consistenti nelle forme, dimensioni e moto delle particelle elementari (atomi), era stata largamente diffusa da Gassend, la cui influenza era stata fortissima in tutta l'Europa e in Inghilterra e appunto, sul pensiero di Hobbes. Gassend aveva esposto sistematicamente la filosofia epicurea, in realtà la filosofia di Democrito scientificamente rinnovata da Galileo. Vi ritroviamo le note dottrine: soggettività delle sensazioni, riduzione della reale essenza dei corpi agli atomi, i quali hanno tra loro differenze soltanto geometrico-quantitative (forma e dimensioni) e sono capaci di moto. Quest'ultimo è sempre e soltanto moto locale, spostamento di atomi i quali sono per sé, naturalmente, in quiete, e si spostano soltanto in virtù di urti che ricevono. Hobbes negli Elementorum philosophiae sectio prima De Corpore (1655) sviluppa per l'appunto una concezione del genere, con la sola differenza che, aderendo alla negazione della possibilità del vuoto fatta da Bacone nell'ultima fase del suo pensiero, fa muovere le particelle minime,

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;98!

anziché nel vuoto, in un fluido etereo: concetto per il quale manifesterà qualche propensione (peraltro non senza perplessità) anche Newton.

Infine, Hobbes introduce il concetto, che poi sarà largamente ripreso e sviluppato da Leibniz, della quiete come movimento virtuale o potenziale (conatus) controbilanciato da altre forze che lo impediscono, donde una tensione (nixus) che permetta di risolvere la statica in dinamica, gli stati di quiete ed equilibrio in stati di tensione dinamica tra forze antagoniste, che era un'interpretazione filosofica di un punto di vista che oramai dominava nella meccanica razionale.

6.9 La filosofia meccanica

La storia della fisica, dalle elaborazioni tardoscolastiche della teoria dell'impetus fino alle limpide pagine dei Principia di Newton, è la storia di una profonda rivoluzione concettuale che porta a modificare in profondità le nozioni di moto, massa, peso, inerzia, gravità, forza, accelerazione. Si tratta, insieme, di un nuovo metodo e di una nuova concezione generale dell'universo fisico. Si tratta, anche, di modi nuovi di determinare i fini, i compiti, gli scopi della conoscenza della natura.

Analizzando la rivoluzione astronomica si sono elencati i presupposti che fu necessario abbandonare per la costruzione della nuova astronomia, si può tentare di elencare gli ostacoli epistemologici alla nuova fisica, ossia una serie di convinzioni dalle quali fu necessario faticosamente distaccarsi perché giungesse a costituirsi la cosiddetta fisica classica di Galilei e di Newton. La apparente ovvietà di tali convinzioni fu di grandissimo ostacolo alla fondazione della scienza moderna. Quella ovvietà non era legata solo all'esistenza di tradizioni di pensiero che avevano antiche e ben solide radici, ma anche alla loro maggiore vicinanza al cosiddetto senso comune. Le tre convinzioni che seguono si presentano infatti come generalizzazioni di osservazioni empiriche occasionali:

1. I corpi cadono perché sono pesanti, perché tendono cioè al loro luogo naturale, che è posto al centro dell'universo. Hanno quindi in sé un principio intrinseco di moto e cadranno tanto più velocemente quanto più sono pesanti. La velocità di caduta è direttamente proporzionale al peso;

2. Il mezzo attraverso il quale si muove un corpo è un elemento essenziale del fenomeno movimento, del quale è necessario tener conto nel determinare la velocità della caduta dei gravi. La velocità di un corpo in caduta libera (direttamente proporzionale al peso) era in genere considerata inversamente proporzionale alla densità del mezzo. Nel vuoto la velocità sarebbe infinita e questo era un argomento contro l'esistenza del vuoto;

3. Poiche tutto ciò che si muove è mosso da qualcosa d'altro (omne quod movetur ab alio movetur), il moto violento di un corpo è prodotto da una forza che agisce su di esso. Il moto ha bisogno di un motore che lo produca e lo conservi in moto durante il movimento. Non è necessario addurre una qualche causa per spiegare il perdurare dello stato di quiete di un corpo perché la quiete è lo stato naturale dei corpi. Il moto (ogni tipo di moto: sia naturale, sia violento) è qualcosa di innaturale e di provvisorio (fanno eccezione i perfetti moti circolari celesti) che cessa non appena cessa l’applicazione di una forza e si muove tanto più rapidamente quanto maggiore è la forza applicata. Se la forza applicata è la

;99! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

medesima, si muove tanto più lentamente quanto maggiore è il suo peso. Cessando l’applicazione della forza cessa anche il movimento: cessante causa, cessat effectus.

Tutte e tre queste generalizzazioni nascono dal riferimento a situazioni legate all'esperienza quotidiana e appaiono molte legate ad una concezione antropomorfica del mondo, che assume le sensazioni e i comportamenti e le percezioni dell'uomo, nella loro immediatezza, come criteri per la realtà. Alle radici degli errori della fisica degli antichi stanno motivazioni profonde, radicate nella nostra fisiologia e nella nostra psicologia. La scienza moderna non è nata sul terreno della generalizzazione di osservazioni empiriche, ma (come si è visto nel caso di Galilei) su quello di un analisi capace di astrazioni, capace cioè di abbandonare il piano del senso comune, delle qualità sensibili, dell'esperienza immediata. Il principale strumento che rese possibile la rivoluzione concettuale della fisica fu la matematizzazione della fisica, ai cui sviluppi dettero contributi decisivi Galilei, Pascal, Huygens, Newton, Leibniz. Ma al centro di questo grande e complicato processo, come vedremo, è da collocare la figura di Cartesio, che è il principale protagonista di quella grande costruzione concettuale che va sotto il nome di meccanicismo. La visione meccanicistica è fondata su tre presupposti:

1. La natura non è la manifestazione di un principio vivente, ma è un sistema di materia in movimento retto da leggi;

2. Tali leggi sono determinabili con precisione matematica 3. Un numero assai ridotto di tali leggi è sufficiente a spiegare l'universo.

Sulla base di questi presupposti spiegare un fenomeno vuol dire costruire un modello meccanico che sostituisce il fenomeno reale che si intende analizzare. Questa ricostruzione è tanto più vera, tanto più adeguata al mondo reale, quanto più il modello sarà stato costruito solo mediante elementi quantitativi e tali da poter essere ricondotti alle formulazioni della geometria. Nella filosofia meccanica la realtà viene dunque ricondotta ad una relazione di corpi o particelle materiali in movimento e tale relazione appare interpretabile mediante le leggi del moto individuate dalla statica e dalla dinamica. L'analisi viene ricondotta alle condizioni più semplici e viene realizzata mediante un processo di astrazione da ogni elemento sensibile e qualitativo. Fatti appaiono alla scienza solo quegli elementi del mondo reale che vengono raggiunti in base a precisi criteri di carattere teorico. L'interpretazione dell'esperienza avviene sulla base di tesi prestabilite: la resistenza dell'aria, l'attrito, i differenti comportamenti dei singoli corpi, gli aspetti qualitativi del mondo reale vengono interpretati come irrilevanti per il discorso della filosofia naturale o come circostanze disturbanti delle quali non si tiene (e non si deve tenere) conto nella spiegazione del mondo. I fenomeni nella loro particolarità e nella loro immediata concretezza, il mondo delle cose “curiose e strane” al quale si era volto con tanto appassionato interesse il naturalismo rinascimentale, non esercita più alcun fascino sui sostenitori della filosofia meccanica.

Il mondo immediato dell'esperienza quotidiana non è reale. Reali sono la materia e i movimenti (che avvengono secondo leggi) dei corpuscoli che costituiscono la materia. Il mondo reale è contesto di dati quantitativi e misurabili, di spazio e di movimenti e relazioni nello spazio. Dimensione, forma, stato di movimento dei corpuscoli (per alcuni anche l'impenetrabilità della materia) sono le sole proprietà riconosciute insieme come reali e come principi esplicativi della realtà. La tesi della

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;9:!

distinzione fra le qualità oggettive e soggettive dei corpi è variamente presente in Bacone e Galilei, in Cartesio e Pascal, in Hobbes e Gassendi e Mersenne. Essa costituisce uno dei fondamentali presupposti teorici del meccanicismo e assumerà, nella filosofia di Locke, la forma della celebre distinzione fra qualità primarie e qualità secondarie. Quella dottrina serve anche alla interpretazione e spiegazione delle qualità secondarie.

Come scrive Hobbes: “tutte le qualità chiamate sensibili sono, nell'oggetto che le determina, i vari moti della materia, mediante i quali essa influenza diversamente i nostri organi. In noi, che siamo egualmente stimolati, esse non sono altro che diversi moti, poiché il movimento non può produrre che movimento, ma la loro apparenza è in noi immaginazione... Così il senso, in ogni caso, non è altro che una immaginazione originaria causata dallo stimolo, cioè dal moto esercitato dalle cose esterne sopra i nostri occhi, orecchi e altri organi analoghi”.

Anche le qualità secondarie risultano meccanizzate ed è riconducibile ad un modello meccanico anche il fenomeno della sensazione. Per questa via, proprio mentre si eliminava dalla visione scientifica del mondo ogni forma di antropomorfismo, si realizzava il tentativo di allargare il metodo della filosofia meccanica dal mondo dei fenomeni naturali a quello dei fenomeni fisiologici e psicologici. Fisiologia e psicologia tendono a diventare scienze naturali interpretabili con gli stessi metodi e sulla base degli stessi presupposti teorici che hanno mostrato la loro straordinaria fecondità nella fisica. Le teorie della percezione appaiono fondate sull'ipotesi di particelle che, attraverso porosità, penetrano negli organi di senso producendo dei moti che vengono trasmessi dai nervi al cervello.

Riassumiamo in breve il meccanicismo come modello esplicativo:

! il soggetto ha di fronte un dato oggetto le cui proprietà sono osservabili (fenomeno, fatto);

! la materia è qualcosa di oggettivo: o è una cosa, che sussiste indipendentemente dal soggetto (realismo), oppure si presenta nel soggetto come cosa indipendente (fenomenismo); sotto l’aspetto fisico la cosa non cambia;

! la Natura è deterministica: ad una data causa segue un dato effetto, e sempre e solo quello;

! la Natura è economica, fornendo per ogni fenomeno la spiegazione più semplice possibile;

! lo spazio-tempo è euclideo, come vuole la fisica di Galilei e Newton; ! la esperienza, per diventare scienza, va sottratta alla particolarità dell'individuo

concreto e va ricondotta ad una esperienza media astratta ed oggettiva; il meccanicismo seicentesco distingue le qualità oggettive o primarie da quelle soggettive o secondarie; tale distinzione perderà peso soprattutto grazie alle critiche di Berkeley e di Kant; resta comunque l'esigenza di oggettivizzare l'esperienza;

! l'infinitamente piccolo (atomo), l'immenso (Cosmo) e la Natura su scala umana rispondono a questi identici principi.

Se il mondo è simile a una macchina, nella natura non sono più presenti gerarchie, come quando ci si serviva dell'immagine di una piramide che aveva alla base le cose meno nobili e al vertice l'uomo simile a Dio. Tutti i fenomeni, così come tutti i pezzi che servono al funzionamento della macchina, sono egualmente necessari ed hanno (rispetto al fine rappresentato da quel funzionamento) lo stesso identico valore. La macchina che funziona nel meccanicismo come modello esplicativo può essere una

;:<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

macchina reale o una macchina pensata come possibile. In ogni caso essa appare come l'immagine più adeguata di una realtà nella quale ogni elemento (ogni pezzo della macchina) adempie una funzione che dipende da una determinata forma, da determinati movimenti e velocità di movimenti. Conoscere la realtà vuol dire rendersi conto dei modi in cui funzionano le macchine che operano all'interno della più grande macchina del mondo. E le macchine possono sempre, almeno in teoria, essere smontate nei loro singoli elementi per essere poi, pezzo per pezzo, ricomposte.

All'immagine platonica del Dio geometra si accompagna l’immagine del Dio meccanico e orologiaio, costruttore della perfetta macchina del mondo. La conoscenza delle cause ultime e delle essenze, negata all'uomo, è riservata a Dio in quanto creatore e costruttore della macchina del mondo. Il criterio del conoscere come fare o della identità fra conoscere e costruire (o ricostruire) vale non solo per l'uomo, ma anche per Dio. Ciò che davvero l'uomo può conoscere è solo ciò che è artificiale. Nei limiti in cui la natura non è concepita come artificiale, essa si presenta come una realtà inconoscibile. La tesi della limitazione della conoscenza al piano dei fenomeni si congiunge all'antica tesi del carattere sempre e necessariamente ipotetico e congetturale della fisica. Scrive Marsenne: “E’ difficile incontrare delle verità nella fisica. Appartenendo l'oggetto della fisica alle cose create da Dio, non c'è da stupirsi se non possiamo trovare le loro vere ragioni... Conosciamo infatti le vere ragioni solo di quelle cose che possiamo costruire con le mani o con l'intelletto”. Nel momento stesso in cui la tesi della identità fra conoscere e fare dava luogo ad una rinuncia alla possibilità di una comprensione delle essenze o delle cause ultime della natura, nel momento stesso in cui veniva utilizzata come un riconoscimento dei limiti del sapere scientifico, essa finiva per investire il mondo della morale, della politica, della storia.

I maggiori filosofi naturali del Seicento che si fecero sostenitori e propagandisti del meccanicismo ammiravano Lucrezio e gli antichi atomisti perché avevano costruito un'immagine del mondo di tipo meccanico e corpuscolare. Ma dalle conseguenze empie o ateistiche che si potevano ricavare dalla tradizione del materialismo intendevano mantenersi, nella grandissima maggioranza dei casi, accuratamente lontani rifiutando le posizioni che ascrivevano l'origine del mondo al caso e al fortuito concorso degli atomi. L'immagine della macchina del mondo implicava per essi l'idea di un suo Artefice e Costruttore, la metafora dell'orologio rinviava al divino Orologiaio. Lo studio accurato e paziente della grande macchina del mondo era la lettura del Libro della Natura, da affiancare a quella del Libro della Scrittura. Entrambe le indagini tornavano a gloria di Dio. I filosofi dai quali prendere le distanze, innumerevoli volte respinti e condannati, sono Hobbes e Spinoza. Il primo ha esteso il meccanicismo all'intera vita psichica, ha concepito il pensiero come una sorta di istinto un po' piu complicato di quello degli animali, ha ricondotto al movimento tutte le determinazioni e trasformazioni di una realtà intesa esclusivamente come corpo. Facendo dell'estensione un attributo di Dio, Spinoza ha empiamente negato la millenaria distinzione fra un mondo materiale e un Dio immateriale, ha negato che Dio sia persona e che possa avere scopi o disegni. Ha affermato che questi sono solo la grossolana proiezione in Dio di esigenze antropomorfiche. Ha affermato la inseparabilità di anima e di corpo. Ha visto nell'universo una macchina eterna, priva di senso e di scopi, che espressione di una causalità necessaria e immanente. Gassendi, anche se pone gli atomi creati da Dio, apparve a molti pericolosamente vicino alle posizioni dei libertini. Mersenne riteneva che esistesse una radicale incompatibilità fra cristianesimo e naturalismo, che il meccanicismo potesse essere

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:;!

conciliato con la tradizione cristiana e che la tesi del carattere sempre ipotetico e congetturale delle conoscenze lasciasse il necessario spazio alla dimensione religiosa e alla verità cristiana. Anche Boyle ha preoccupazioni di questo tipo. Nel momento in cui esalta l'eccellenza della filosofia corpuscolare o meccanica egli si preoccupa di tracciare due linee di demarcazione. La prima deve distinguerlo dai seguaci di Epicuro e di Lucrezio, da tutti coloro che ritengono che gli atomi, “incontrandosi insieme per caso in un vuoto infinito siano in grado da sé stessi di produrre il mondo e i suoi fenomeni”. La seconda serve a differenziarlo dai meccanicisti moderni (vale a dire dai cartesiani). Per questi ultimi, supposto che Dio abbia introdotto nella massa totale della materia una quantità invariabile di moto, le varie parti della materia, in virtù dei loro propri movimenti, sarebbero in grado di organizzarsi da sole in un sistema. La filosofia corpuscolare o meccanica della quale Boyle si fa sostenitore non va pertanto confusa né con l'epicureismo né con il cartesianesimo. Nel meccanicismo di Boyle il problema della “prima origine delle cose” va tenuto accuratamente distinto da quello del “successivo corso della natura”. Dio non si limita a conferire il moto alla materia, ma guida i movimenti delle singole parti di essa in modo da inserirle nel “progetto di mondo” che avrebbero dovuto formare. Una volta che l'universo è stato strutturato da Dio e che Dio ha stabilito “quelle regole del movimento e quell'ordine fra le cose corporee che siamo soliti chiamare Leggi di Natura”, si può affermare che i fenomeni “sono fisicamente prodotti dalle affezioni meccaniche delle parti della materia e dalle loro reciproche operazioni secondo le leggi della meccanica”. La distinzione fra origine delle cose e successivo corso della natura è molto importante: coloro che indagano sulla prima elaborano ipotesi sull'origine dell'universo, hanno l'empia pretesa di “dedurre il mondo”, di costruire ipotesi e sistemi. Gli epicurei e i cartesiani rappresentano la versione atea e materialistica della filosofia meccanica.

Per Cartesio, la scienza è in grado di dire qualcosa non solo su cosa è il mondo, ma anche sul processo della sua formazione. L'alternativa con Boyle è, su questo punto, radicale. Le leggi di natura, aveva scritto Cartesio, “basteranno a far sì che le parti del Caos arrivino a districarsi da sè, disponendosi in bell'ordine, così da assumere la forma di un mondo perfettissimo”. Le strutture del mondo presente, nella prospettiva cartesiana, sono il risultato della materia, delle leggi della materia, del tempo.

Di fronte a queste dottrine e a queste soluzioni, la posizione di Newton non sarà lontana da quella che aveva assunto Boyle: “Se affermiamo, con Cartesio, che l'estensione è corpo, non apriamo forse la via all'ateismo? Ciò per due ragioni: perché l'estensione risulta increata ed eterna, e perché in certe circostanze potremmo concepirla come esistente e insieme immaginare la non esistenza di Dio”.

La presa di distanza dai possibili esiti ateistici e materialistici del cartesianesimo assumerà in Newton forme diverse, ma resterà un tema dominante. Un “cieco destino” non avrebbe mai potuto far muovere tutti i pianeti allo stesso modo in orbite concentriche e la meravigliosa uniformità del sistema solare è effetto di “un disegno intenzionale”. I pianeti continuano a muoversi nelle loro orbite per le leggi della gravità, ma “la posizione primitiva e regolare di queste orbite non può essere attribuita a queste leggi: la ammirevole disposizione del Sole, dei pianeti e delle comete può essere solo opera di un Essere onnipotente e intelligente”. La distinzione avanzata da Boyle fra origine delle cose e regolare corso della natura veniva ripresa in questo contesto. Se è vero che “le particelle solide furono variamente associate nella prima creazione per il consiglio di un Agente intelligente” se è vero che esse sono “state messe in ordine da Colui che le ha create”, allora “non v'è ragione di ricercare una qualche altra origine del

;:=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

mondo o pretendere che esso possa essere uscito fuori da un Caos, ad opera delle mere leggi di natura”. Le leggi naturali cominciano ad operare solo dopo che l'universo è stato creato. La scienza di Newton è una descrizione rigorosa dell'universo così come esso è: in quanto è compreso fra la creazione del mondo narrata da Mosé e il finale annichilimento previsto da San Giovanni. Newton e i newtoniani non accetteranno mai l'idea che il mondo possa essere stato prodotto da leggi meccaniche.

6.10 Cartesio, filosofo della modernità Il rinascimento lasciò in eredità al pensiero moderno un complesso veramente mirabile di ricerche scientifiche e teorie in rapido sviluppo, ma non lasciò alcun sistema filosofico, che fosse in grado di sostituire quello aristotelico. Oggi gli scienziati non provano più la necessità di cercare fuori della scienza un fondamento per le proprie indagini, ma nel Seicento la situazione era completamente diversa; l’indagine scientifica cominciava, sì, a fornire le prime dimostrazioni della propria efficienza, ma pareva ancora richiedere qualche garanzia, esterna e superiore, per la verità assoluta della nuova via intrapresa. Pareva soprattutto necessario, di fronte al procedere frammentario delle ricerche particolari, trovare il modo di accertarsi a priori che esse non sarebbero cadute fra loro in contraddizione, ma avrebbero dato origine a un sapere coerente e fecondo, non più sottoposto al pericolo di nuove crisi e nuovi capovolgimenti.

Il maggior tentativo di soddisfare tale esigenza è rappresentato da Cartesio (1596-1650), considerato il primo pensatore moderno ad avere fornito un quadro filosofico di riferimento per la scienza moderna all'inizio del suo sviluppo, e che ha cercato di individuare l'insieme dei principi fondamentali che possano essere conosciuti con assoluta certezza. Per

individuarli si è servito di un metodo chiamato scetticismo metodologico: rifiutare come falsa ogni idea che può essere revocata in dubbio. Basandosi sul dubbio e sul ragionamento logico Cartesio si sforza di trovare un fondamento completamente nuovo e assolutamente consistente per un sistema filosofico. Non accetta come base la rivelazione e si rifiuta di accettare acriticamente quanto percepito dai sensi. Investe con il suo dubbio ciò che i nostri sensi ci dicono, i risultati del nostro ragionamento. Questa base della filosofia di Cartesio è radicalmente diversa da quella dell’antica filosofia greca. Qui il punto di partenza non è un principio o una sostanza fondamentale ma il tentativo di scoprire una conoscenza fondamentale. E Cartesio intende che ciò che noi conosciamo del nostro intelletto è più certo di ciò che noi conosciamo del mondo esterno. La scienza che Cartesio si propone di costruire vuol essere più comprensibile alla mente umana, più chiara in tutti i suoi minimi particolari, e perciò più feconda. A tale scopo dovrà essere una scienza che ciascuno di noi conquista con le proprie forze, senza accettare nulla sulla sola base dell’opera altrui. Dovrà risultare, insomma, uno strumento completamente nostro. Per questo motivo Cartesio giunge a sostenere addirittura l’inadeguatezza della matematica tradizionale. Egli accusa il procedimento dimostrativo dei greci, malgrado l’apparente perfezione logica, di essere estrinseco,

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:4!

artificioso, capace, è vero, di provare la verità dei singoli risultati ma non di rivelarne l’origine profonda né farci scoprire nuove verità.

Il metodo che Cartesio cerca è nello stesso tempo teoretico e pratico, cioè deve condurre a saper distinguere il vero dal falso, ma anche e soprattutto in vista dell'utilità e dei vantaggi che possono derivarne alla vita umana. Il metodo che cercò fin da principio e che ritenne d'aver trovato è una guida per l'orientamento dell'uomo nel mondo. Esso deve condurre ad una filosofia “non puramente speculativa, ma anche pratica, per la quale l'uomo possa rendersi padrone e possessore della natura”. Cartesio è francamente ottimista sulla possibilità e sui risultati pratici di una simile forma di sapere.

Nel formulare le regole del metodo, Cartesio si avvale soprattutto delle matematiche. Ma non si tratta soltanto di prendere coscienza di questo metodo, cioè di astrarlo dalle matematiche e di formularlo in generale, per poterlo applicare a tutte le altre branche del sapere. Si tratta anche di giustificare il metodo stesso e la possibilità della sua universale applicazione, riportandolo al suo fondamento ultimo, cioè all'uomo come soggetto pensante o ragione. Cartesio doveva dunque: 1) formulare le regole del metodo tenendo soprattutto presente il procedimento matematico nel quale esse già sono in qualche modo presenti; 2) fondare con una ricerca metafisica il valore assoluto e universale di questo metodo; 3) dimostrare la fecondità del metodo nelle varie branche del sapere. Tale fu infatti il compito filosofico di Cartesio.

Sul primo punto, la seconda parte del Discorso sul metodo (1637) ci dà la formulazione più matura e semplice delle regole del metodo.

Esse sono quattro:

1. “Non accogliere mai nulla per vero che non conoscessi esser tale con evidenza; cio evitare diligentemente la preoccupazione e la prevenzione; e non comprendere nei miei giudizi niente di più di ciò che si presentasse cosi chiaramente e cosi distintamente al mio spirito che io non avessi alcuna occasione di metterlo in dubbio”. Questa era per Cartesio la regola fondamentale: l'evidenza, l'intuizione chiara e distinta di tuffi gli oggetti del pensiero e l'esclusione di ogni elemento sul quale il dubbio fosse possibile.

2. “Dividere ciascuna delle difficoltà da esaminare nel maggior numero di parti possibili e necessarie per meglio risolverla”. È la regola dell'analisi, per la quale un problema viene risolto nelle parti più semplici da considerarsi separatamente.

3. “Condurre i miei pensieri ordinatamente, cominciando dagli oggetti più semplici e più facili a conoscersi per risalire a poco a poco, quasi per gradi, fino alle conoscenze più complesse; supponendo che vi sia un ordine anche tra gli oggetti che non precedono naturalmente gli uni agli altri”. È la regola della sintesi, per la quale si passa dalle conoscenze più semplici alle più complesse gradatamente, presupponendo che ciò sia possibile in ogni campo.

4. “Fare in ogni caso enumerazioni così complete e revisioni così generali da essere sicuro di non omettere nulla”. L'enumerazione controlla l'analisi, la revisione la sintesi. Questa regola offre così il controllo delle due precedenti.

Queste regole non hanno in sè stesse la loro giustificazione e Cartesio deve quindi proporsi di giustificarle risalendo alla loro radice: l'uomo come soggettività o ragione.

;:5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Trovare il fondamento di un metodo che deve essere la guida sicura della ricerca in tutte le scienze è possibile, secondo Cartesio, solo con una critica radicale di tutto il sapere già dato. Bisogna sospendere l'assenso ad ogni conoscenza comunemente accettata, dubitare di tutto e considerare almeno provvisoriamente come falso tutto ciò su cui il dubbio è possibile. Se persistendo in questo atteggiamento di critica radicale, si giungerà a un principio sul quale il dubbio non è possibile, questo principio dovrà essere ritenuto saldissimo e tale da poter servire di fondamento a tutte le altre conoscenze. In questo principio si troverà la giustificazione del metodo (dubbio metodico).

Ora, Cartesio ritiene che nessun grado o forma di conoscenza si sottragga al dubbio. Si può, e quindi si deve, dubitare delle conoscenze sensibili sia perchè i sensi qualche volta ingannano e quindi possono ingannarci sempre, sia perchè si hanno nei sogni conoscenze simili a quelle che si hanno nella veglia senza che si possa trovare un sicuro criterio di distinzione fra le une e le altre. Ci sono bensì conoscenze che sono vere sia nel sogno che nella veglia, come le conoscenze matematiche, ma neppure queste conoscenze si sottraggono al dubbio, perchè anche la loro certezza può essere illusoria. Difatti, finché nulla si sappia di certo intorno noi e alla nostra origine, si può sempre supporre che l'uomo sia stato creato da una potenza maligna che si sia proposta di ingannarlo facendogli apparire chiaro ed evidente ciò che è falso e assurdo. In tal modo, il dubbio si estende a ogni cosa e diventa assolutamente universale (dubbio iperbolico). Ma proprio nel carattere radicale di questo dubbio si presenta il principio di una prima certezza. Io posso ammettere di ingannarmi o di essere ingannato in tutti i modi possibili; ma per ingannarmi o per essere ingannato io debbo esistere. La proposizione io esisto è dunque la sola assolutamente vera perché il dubbio stesso la riconferma: può dubitare solo chi esiste. Io non esisto se non come una cosa che dubita cioè che pensa (cogito ergo sum).

La certezza del mio esistere concerne soltanto tutte le determinazioni del mio pensiero: il dubitare, il capire, il concepire, l'affermare, il negare, il volere, il non volere, l'immaginare, il sentire. Può ben darsi che ciò che io percepisco non esista ma è impossibile che non esista io che penso di percepire un determinato oggetto. Su questa certezza originaria, che è nello stesso tempo verità necessaria, deve essere dunque fondata ogni altra conoscenza.

Il principio cartesiano ripete il movimento di pensiero che già si è trovato in Agostino; ma lo ripete nell'orizzonte di un altro problema. Non si tratta, come in Agostino, di stabilire la presenza trascendente della Verità (cioè di Dio) nell'interiorità dell'uomo. Si tratta invece di trovare nell'esistenza del soggetto pensante, il cui essere è evidente a se stesso, il principio che garantisce la validità della conoscenza umana e l'efficacia dell'azione umana sul mondo. Non bisogna dimenticare che Cartesio ha elaborato la sua metafisica come fondamento e giustificazione della fisica: ha voluto cioè ritrovare nella stessa esistenza dell'uomo in quanto io o ragione, la possibilità di una conoscenza che consenta all'uomo di dominare il mondo per i suoi bisogni.

Secondo Cartesio, la giustificazione metafisica delle certezze umane è Dio. Ma come è possibile allora l’errore? L’errore dipende unicamente dal libero arbitrio che Dio ha dato all’uomo e si può evitare soltanto attenendosi alle regole del metodo.

Accanto alla sostanza pensante, che costituisce l’io, si deve ammettere una sostanza corporea, divisibile in parti, quindi estesa. Tale sostanza estesa non possiede però tutte le qualità che noi percepiamo di essa. Cartesio fa la sua distinzione già

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:6!

stabilita da Galileo e che in realtà risale a Democrito. La grandezza, la figura, il movimento, la durata, il numero, cioè tutte le determinazioni quantitative, sono certamente qualità reali della sostanza estesa; ma il colore, il suono, il sapore, ecc. non esistono come tali nella realtà corporea e corrispondono in questa realtà a qualcosa che noi non conosciamo. In tal modo, Cartesio ha spezzato la realtà in due zone distinte ed eterogenee: la sostanza pensante, che è inestesa, consapevole e libera da un lato; la sostanza estesa, che è spaziale, inconsapevole e meccanicamente determinata dall'altro (=dualismo cartesiano). Ma dopo aver diviso, Cartesio si trova di fronte al difficile problema di riunire o di spiegare il rapporto scambievole fra queste due sostanze.

La fisica cartesiana, sulla base della rigorosa separazione tra res cogitas e res extensa, poté attuare finalmente la radicale eliminazione dei residui finalistici, antropomorfici, animistici, magici e astrologici che ancora infestavano la fisica agli inizi del '600. Neppure Galileo seppe con altrettanta coerenza depurare la fisica dalle scorie del passato. E perciò appunto, sebbene i risultati di Cartesio nell'analisi dei singoli fenomeni fisici non potessero reggere il confronto con i successi conseguiti da Galileo, il meccanicismo cartesiano riuscì ad incidere profondamente nella formazione della mentalità scientifica della sua età; e il suo stesso sistema, pur con le sue stravaganze, riscosse notevole successo, tanto da rivaleggiare per parecchi decenni con il sistema newtoniano.

Meccanicismo significa, ovviamente, determinismo. Una spontaneità della natura o un sua intrinseca casualità non sono ammissibili, poiché i fenomeni si svolgono secondo quel principio di oggettiva necessità causale, che, come abbiamo già visto, è uno dei temi qualificanti della Rivoluzione Scientifica. A tal proposito va ricordato, quindi, che Cartesio aveva compreso l’importanza di quelle che oggi chiamiamo “condizioni iniziali”, che costituiscono una descrizione dello stato di un sistema fisico all’inizio del suo moto e che sul quale si cerca di fare delle predizioni. Con un dato insieme di condizioni iniziali (per esempio posizione e quantità di moto), le leggi di natura determinano come un sistema dinamico evolve nel tempo, ossia la sua traiettoria.

Dobbiamo tuttavia aggiungere che, nel momento in cui la scienza fisica assume una struttura matematica, la necessità oggettiva si traduce inevitabilmente in una necessità logico-matematica, che ha il suo fondamento nelle leggi del pensiero; assunta, infatti, un'ipotesi, l'andamento di un fenomeno può essere dedotto matematicamente da quella. Noi siamo oggi consapevoli che la deduzione si limita ad esplicitare ciò che è già implicito nell'ipotesi stessa, con tutto il margine di incertezza in essa contenuto, e non prescrive alla natura alcuna ulteriore legge del pensiero. Ma il successo del procedimento deduttivo generava l'illusione che l'evidenza soggettiva delle argomentazioni fosse di per sé garanzia della loro corrispondenza con la realtà esterna, indipendentemente da una conferma sperimentale. Di conseguenza Cartesio, indotto da tale illusione, tende ad operare anche nella fisica, oltre che nella metafisica, quel salto dall'ordine logico all'ordine ontologico, che costituisce da sempre l'aspirazione ultima del razionalismo. Egli di fatto procede non di rado guidato dalla convinzione di poter cavare dalla propria testa le leggi che governano il mondo. D'altronde, non le sole leggi, ma l'esistenza stessa della res extensa trova fondamento per Cartesio nell'evidenza della nostra idea dello spazio. Su questa base è ovvio che dal mondo della nostra esperienza possiamo assumere come oggettive solo quelle proprietà che siano suscettibili di una

;:7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

trattazione geometrica, mentre le restanti proprietà che attribuiamo al mondo sono di natura puramente soggettiva. La geometria è perciò l'unica scienza fisica.

Come Aristotele, Cartesio ricercò per prima cosa assiomi indubitabili, che erano: la definizione di materia come estensione spaziale e l’impossibilità del vuoto (perché uno spazio vuoto di materia sarebbe una contraddizione). In ultimo definì le leggi del moto. Di fatto la fisica cartesiana pretende di ricondurre tutta l'infinita varietà dei fenomeni del mondo fisico ai due soli ingredienti dell'estensione e del moto. L'una e l'altro hanno origine da Dio, cui si deve non solo la creazione della res extensa, ma anche il conferimento ad essa di una certa determinata quantità di moto, indistruttibile non meno della materia: due principi fondamentali di conservazione, del moto e della materia, immediatamente deducibili dall'immutabilità di Dio, dalla quale può derivarsi l'immutabilità di quanto egli opera. Altri interventi di Dio nel mondo, oltre al primo atto di creazione della materia e al primo impulso, non sono richiesti.

Cartesio, mettendo da parte sia Keplero che Galileo, perseguì una terza via: un ideale meccanicistico nella sua forma più pura. Cartesio disprezzò la cinematica di Galileo perché, secondo lui, non aveva capito la natura della gravità o non aveva capito quella del movimento. Le leggi di Keplero le conobbe ma non le applicò mai, mentre la sua fisica celeste la respinse perché del tutto filosoficamente errata. E sebbene Cartesio avesse realizzato una considerevole opera di fisica matematica, la Diottrica (1637) in cui per primo enunciò la legge sui valori dei seni nella rifrazione, e aveva tentato di spiegare la luce e i colori insieme a ogni altro fenomeno, tale per cui l’ottica fisica diventò un campo molto praticato dopo la metà del ‘600, egli costruì un’intera fisica e un’intera cosmologia prive di ogni elemento matematico, ossia non contenevano leggi espresse matematicamente. Il matematismo cartesiano si manifestava solo nel carattere assiomatico e deduttivo della sua costruzione del mondo. Non è una contraddizione; a Cartesio interessa soltanto fornire della realtà fisica un'interpretazione che renda possibile la trattazione matematica, senza che con questo egli si senta obbligato a svolgerla esplicitamente.

La legge della caduta dei gravi venne formulata da Cartesio nel 1629 secondo la falsa formula che vede nella velocità del mobile non una funzione del tempo trascorso, ma dello spazio percorso. Nel suo grandioso tentativo di una completa e razionale ricostruzione del mondo fisico, Cartesio giungeva ad una importante definizione del concetto di movimento e ad una chiara formulazione del principio di inerzia. La sua seconda legge della natura afferma che: “ogni corpo che si muove tende a continuare il suo movimento in linea retta”. Rovesciando le impostazioni di Copernico (e di Galilei), Cartesio afferma che: “ogni parte della materia, nel suo particolare, non tende mai a muoversi secondo linee curve, ma secondo linee rette” e che “ogni corpo che si muove è determinato a muoversi secondo una linea retta e non già secondo una circolare”. Nel moto circolare è presente una tendenza “ad allontanarsi senza posa” dal circolo che viene descritto. Questa considerazione appare a Cartesio di grande importanza. Con essa veniva finalmente distrutto il mito della perfezione della circolarità.

Il moto descritto finora dai filosofi è ben diverso da quello concepito da Cartesio, che non è un processo, ma uno stato dei corpi ed è sullo stesso piano ontologico della quiete: il fatto di essere in quiete o in moto non provoca nei corpi alcun mutamento. Movimento e materia sono i due soli ingredienti che costituiscono il mondo e la fisica cartesiana è rigidamente meccanicistica: tutte le forme dei corpi inanimati possono essere spiegate senza che a tal fine sia necessario attribuire alla loro materia altro che il

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:8!

movimento, la grandezza, la forma e l'organizzazione delle sue parti. Res cogitans e res extensa appaiono realtà rigidamente separate. La natura non ha nulla di psichico e non può essere interpretata con le categorie dell'animismo: “Col termine natura non intendo affatto qualche divinità o qualche tipo di potenza immaginaria, ma mi servo di questa parola per indicare la materia stessa, in quanto dotata di tutte le qualità che le ho attribuito, intese tutte insieme, e sotto la condizione che Dio continui a conservarla nello stesso modo in cui l'ha creata “. Per il fatto che Dio continui a conservarla, i diversi mutamenti che in essa avvengono non potranno essere attribuiti all'azione di Dio, ma alla stessa natura: “le regole secondo le quali tali mutamenti avvengono le chiamerò leggi della natura”.

L'unico motore della grande macchina del mondo è costituito dall'originaria quantità di moto, che può distribuirsi in modi differenti tra i corpi attraverso gli urti. Il che significa che viene bandita ogni forza, attrattiva o repulsiva, segnatamente quelle forze che debbono manifestarsi a distanza: forze elettriche, magnetiche, gravitazionali, o di qualsivoglia altra natura. Non era, d'altronde, del tutto ingiustificato questo ripudio delle forze esplicantisi a distanza, che richiamavano il finalismo aristotelico, l'astrologia, l'animismo. Come può, infatti, un corpo esercitare un'azione là dove non è? Galileo stesso le aveva in sospetto, al punto da respingere come farneticazione astrologica l'antica tesi che riconduceva il fenomeno delle maree all'influenza della Luna. Due sole leggi dominano l'universo fisico cartesiano: il principio di inerzia, e il principio della conservazione della quantità di moto. Nel cosmo di Cartesio, quindi, non vi è nessuna degradazione entropica, perché la “quantità di moto” (prodotto della velocità per la massa) è perpetuamente costante.

Come in ogni prospettiva meccanicistica, Cartesio fa uso di modelli per l'interpretazione della natura: il mondo delle idee non è affatto lo specchio del mondo reale e non c'è alcuna ragione di credere (anche se normalmente tutti ne siamo convinti) “che le idee contenute nel nostro pensiero siano del tutto simili agli oggetti dai quali derivano”. Come le parole, nate da convenzione umana, “bastano a farci pensare cose alle quali non somigliano affatto”, così la natura ha stabilito “segni” che ci danno sensazioni pur non avendo in sé nulla di somigliante a quelle sensazioni.

La materia si riduce per Cartesio ad estensione e si identifica con essa. Fra la materia e lo spazio occupato dalla materia si dà come unica differenza la mobilità: nel senso che un corpo materiale è una forma dello spazio che può essere trasportata da un luogo ad un altro senza perdere la propria identità: “la stessa estensione in lunghezza, larghezza e profondità, che costituisce lo spazio, costituisce il corpo; e la differenza che c'è fra essi non consiste se non in questo, che noi attribuiamo al corpo un'estensione particolare, che concepiamo cambiare di luogo con lui tutte le volte che esso è trasportato”.

Se spazio e moto costituiscono il mondo, l'universo di Cartesio è la geometria realizzata. La Geometria costituisce la più importante delle tre appendici del Discorso sul metodo ed è in qualche modo l'atto di nascita della geometria analitica, la quale si colloca storicamente come punto di incontro dei progressi dell'algebra realizzati nel corso del '500 e del contemporaneo lento recupero della geometria classica. Cartesio ritiene pertanto possibile unificare la geometria degli antichi con l'algebra dei moderni; ma questa operazione richiede una revisione di ambedue le scienze. La geometria degli antichi, malgrado i suoi incontestabili successi, è inficiata dal suo procedere episodico, che costringe per ogni costruzione a ricercar una dimostrazione ad hoc e non riesce a cogliere i rapporti nella loro universalità e a sollevarsi al livello di generalità necessario

;:9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ad un'impostazione sistematica della scienza. D'altronde anche la nuova scienza algebrica appariva a Cartesio un'arte confusa e oscura, sia per l'uso di simboli inadeguati, sia perché legata ad un rapporto di sudditanza alla geometria. Pertanto, Cartesio riordina sistematicamente la simbologia algebrica, che risponde ormai quasi puntualmente a quella odierna, e abbandona l'immediata interpretazione geometrica dei procedimenti algebrici. L'algebra, riorganizzata così in un linguaggio autonomo, diviene idonea a riprodurre entro di sé in termini puramente formali la geometria, la quale a sua volta si offre come strumento di chiarificazione intuitiva dei procedimenti dell'algebra, quasi un'algebra applicata. Il numero e la forma divengono in tal modo traducibili l'uno nell'altra.

Attraverso la geometria analitica i problemi della fisica, e in particolare quelli della meccanica, possono venire sottoposti all'attacco risolutivo dell'algebra. Si pensi, per fare un esempio, alla determinazione, mediante equazioni, della parabola di un proiettile. Lo spazio, il tempo, la velocità, che considerati in sé stessi non sembrano poter esser messi in rapporto l'uno con l'altro, diventano omogenei: la matematica ha scoperto un procedimento per mezzo del quale l'unità di misura di una grandezza può esser riferita a quella dell'altra.

L'identificazione cartesiana di spazio e materia comporta una serie di conseguenze di grande rilievo: a) lo spazio euclideo è infinito e pertanto infinita è anche la sostanza estesa; b) lo spazio geometrico è inoltre infinitamente divisibile, la materia perciò non può essere costituita di atomi; c) lo spazio è continuo, non ammette interruzioni, buchi, fenditure, di conseguenza non è concepibile il vuoto; l'estensione, d'altronde, è l'attributo di una sostanza, e pertanto non può sussistere senza una sostanza cui inerire; d) infine, le qualità che attribuiamo alla materia in addizione all'estensione sono puramente soggettive, perché lo spazio è qualitativamente indifferenziato.

Dato che l'attributo della infinità compete solo a Dio e l'infinità non può essere compresa e analizzata dall'intelletto finito dell'uomo “chiameremo indefinite queste cose piuttosto che infinite al fine di riservare solo a Dio il nome di infinito”.

La negazione cartesiana del vuoto è più radicale di quella dello stesso Aristotele: per Cartesio lo spazio vuoto è impossibile, se ci fosse sarebbe un nulla esistente, una realtà contraddittoria. Il nulla non ha proprietà né dimensioni . La distanza fra due corpi è una dimensione e la dimensione coincide con una materia che è troppo “sottile” per essere percepita e che immaginiamo come il vuoto. La realtà è costituita, per Cartesio, di corpuscoli, ma Cartesio si distanzia fortemente dalla tradizione dell'atomismo per due ragioni: perché concepisce le particelle che costituiscono il mondo come divisibili all'infinito e perché non ammette l'esistenza del vuoto.

Per Cartesio, così come scrive nelle Meteore (1637), l'acqua, la terra, l'aria e tutti gli altri corpi simili che ci stanno intorno sono composti “di parecchie particelle diverse per forma e grandezza, particelle che non sono mai così ben disposte e congiunte insieme così perfettamente, che non restino intorno ad esse numerosi intervalli; questi non sono vuoti, ma pieni di una materia sottilissima per la cui interposizione si comunica l'azione della luce”. Cartesio non si pone solo il problema dell'attuale costituzione dell'universo, ma anche quello della sua formazione. L'universo deriva dalla materia-estensione suddivisa da Dio in cubi, nelle forme più semplici della geometria. Dio ha messo in moto, relativamente le une alle altre, le parti dell'universo e i cubi sono stati messi “in agitazione”. Si sono in tal modo formati i tre elementi costitutivi del mondo. In conseguenza dello sfregamento si produce nei cubi uno smussamento degli angoli e

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;::!

degli spigoli. I cubi assumono forma diversa e diventano delle piccole sfere. Le infinitesimali particelle prodotte dalla “raschiatura” costituiscono il primo elemento “luminoso la cui agitazione è la luce”. Questo primo elemento “è come un liquido, il più sottile e penetrante che ci sia al mondo”; le sue parti non hanno forma e grandezza determinata ma “cambiano forma ad ogni istante per adattarsi a quella dei luoghi in cui entrano”. Non ci sarà di conseguenza un passaggio così stretto, né un angolo così piccolo che queste particelle non possano esattamente riempire. Il moto di questa materia è paragonato al corso di un fiume che si diffonde direttamente dal Sole causando la sensazione della luce. Se il primo elemento (paragonabile al Fuoco) è la luce, il secondo elemento trasmette la luce: e “luminifero” ed è l'etere che forma i cieli. Le sue particelle sono tutte “press'a poco sferiche e unite insieme, come granelli di sabbia o di polvere”. Esse non si possono stipare né comprimere fino a far scomparire quei piccoli intervalli nei quali “il primo elemento riesce a scivolare facilmente”. Il terzo elemento deriva anch'esso dalle “raschiature” che si riuniscono in particelle a forma di vite e provviste di scanalature. Tali particelle si saldano assieme dando origine a tutti i corpi terrestri ed opachi. Le parti del terzo elemento sono “così grosse e talmente unite insieme che hanno la forza di resistere sempre al movimento degli altri corpi”. Le particelle dell'acqua sono invece “lunghe, levigate e liscie come piccole anguille, che, per quanto si congiungano e intreccino insieme, non s'annodano né si attaccano mai in modo tale che non sia possibile staccarle facilmente l'una dall'altra”.

La materia sottile che compone i cieli esercita nella fisica cartesiana funzioni decisive: è a fondamento della rarefazione e condensazione, della trasparenza e opacità, della elasticità, della stessa gravità. In un universo pieno il moto si configura necessariamente come spostamento o risistemazione e, in queste condizioni, ogni movimento tende a creare un turbine o vortice. Tutti i movimenti che avvengono al mondo sono in qualche modo circolari: “vale a dire che quando un corpo lascia il suo posto, va sempre in quello di un altro, che va nel luogo di un terzo, e così di seguito fino all’ultimo, che occupa allo stesso istante il posto lasciato dal primo, di modo che non si ha più vuoto fra loro, mentre si muovono, di quanto non se ne abbia quando sono fermi”.

Poiché nel mondo non esiste il vuoto “non è stato possibile che tutte le parti della materia si siano mosse in linea retta, ma essendo all'incirca eguali e potendo venir tutte deviate quasi con la stessa facilità, esse hanno dovuto assumere tutte insieme un certo movimento circolare “. Poiché fin dall'inizio Dio le ha mosse in modi diversi, esse

si sono messe a girare “non attorno a un unico centro, bensì intorno a molti centri diversi”. Le particelle globulari del secondo elemento hanno formato larghi vortici ruotanti. A causa della forza centrifuga le particelle del primo elemento sono state spinte verso il centro. Il Sole e le stelle fisse sono ammassi (a forma di globo) di particelle del primo elemento. Sia il primo sia il secondo elemento circondano, a guisa di vortici liquidi, il Sole e le stelle. In questi vortici “galleggiano” i

pianeti che vengono trascinati attorno al Sole dal moto del vortice minore. Le comete non sono fenomeni ottici, ma corpi celesti reali che viaggiano senza fine alla periferia dei vortici passando da un vortice all'altro. Nell’universo indefinitamente grande l'espansione dei vortici è impedita dai vortici confinanti. I vortici, finalmente, generano le forze che trattengono i pianeti nelle loro orbite. Questa dottrina non dava conto dei dettagli tecnici dell'astronomia planetaria (Cartesio non menziona le leggi di Keplero)

=<<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ma rispettava i canoni fondamentali del meccanicismo: senza il ricorso a forze occulte di nessun tipo essa appariva in grado di spiegare la rotazione dei pianeti attorno al Sole.

Attraverso questo modello puramente meccanico, Cartesio si lusinga di poter spiegare la gravità e il moto di rivoluzione dei pianeti senza far ricorso alle aborrite forze a distanza. Infatti, la materia sottile in moto vorticoso spingerebbe verso la Terra i gravi e analogamente manterrebbe la Terra e i pianeti in orbita intorno al Sole. La teoria dei vortici non suffragata, ovviamente, da alcuna prova sperimentale, è priva di ogni elaborazione matematica, ebbe un certo successo e fronteggiò per qualche tempo la teoria della gravitazione newtoniana; non le si può negare, comunque, un merito fondamentale: prima di Newton, unificava Terra e cielo, riconducendo ad una medesima causa la caduta dei gravi e il moto orbitale dei pianeti.

In un mondo che è tutto pieno di materia e nel quale non esiste il vuoto, ogni movimento si configura necessariamente come un urto. Il tema dell'urto è per questo al centro della fisica di Cartesio. Data la immutabilità di Dio, la quantità di moto dell'universo rimane costante. Con questo termine Cartesio indica il prodotto della “misura” di un corpo per la sua velocità. Ma questa misura non coincide con la nostra massa e la velocità non viene da lui trattata come una quantità vettoriale. Non vi è tuttavia necessità che rimanga costante la quantità di moto di ogni corpo. Nell'urto il moto può essere trasferito da un corpo ad un altro. La terza legge della natura è così formulata: “Se un corpo che si muove ne incontra un altro più forte di sé, non perde nulla del suo movimento, e se ne incontra un altro più debole che egli possa muovere, ne perde tanto quanto gliene dà”. Sulla base di questa terza legge un corpo in moto non potrebbe mettere in moto un altro corpo con cui entra in collisione che sia in quiete ed abbia una massa maggiore. Galilei si era reso conto con chiarezza che, qualunque sia la massa di un corpo in quiete, un corpo che lo colpisce, per quanto piccolo, gli conferirà sempre un movimento. Solo un corpo in quiete assoluta, cioè di massa infinita, potrebbe sottrarsi a un mutamento in conseguenza dell'urto. Huygens rifiuterà le tesi cartesiane dell’urto e Newton sulla sua copia dei Principia philosophiae di Cartesio Newton annoterà error, error finché (come riferirà Voltaire) “stanco di scrivere ovunque error, gettò via il libro”.

La riduzione della fisica a geometria si scontra, a dire il vero, con difficoltà insormontabili, ove si disponga dei soli strumenti matematici di cui disponeva Cartesio; sebbene oggi la geometria differenziale consenta l'elaborazione di modelli fisici puramente geometrici. Entro lo spazio euclideo perfettamente omogeneo non si riesce, infatti, ad immaginare qualcosa che possa corrispondere a ciò che chiamiamo movimento. Secondo Cartesio è invece pensabile che frammenti di spazio si muovano rispetto ad altri frammenti di spazio, sebbene non si comprenda come il moto possa essere rilevato, se lo spazio è uniforme. Tuttavia, l'aspetto meno convincente della teoria si coglie nel fatto che quel moto, poco chiaro proprio a causa dell'assoluta uniformità del tutto, divenga stranamente esso stesso origine delle disomogeneità presenti nella res extensa, che alla nostra percezione si manifesta come costituita di entità solide, o liquide, o aeriformi, o infine in quella forma che interpretiamo come spazio vuoto. Ebbene, i differenti aspetti che presenta ai nostri sensi la res extensa dipendono esclusivamente dalle differenti condizioni inerziali dei diversi frammenti di estensione. Coerenza e durezza di un corpo solido, ad esempio, sono soltanto l'effetto della comune condizione inerziale delle parti del corpo stesso, nel senso che non vi sono entro di esso moti relativi di alcune parti di estensione rispetto ad altre (condizione condivisa più o meno

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<;!

integralmente a seconda della maggiore o minor durezza del corpo). Ovviamente Cartesio, avendo ripudiato ogni tipo di forza, non può fare appello ad una coesione attiva delle parti di un corpo per spiegare la sua solidità. La materia sottile (o etere), che riempie tutto ciò che impropriamente chiamiamo vuoto, è costituita invece di corpuscoli, cioè frammenti minutissimi di estensione, privi di ogni coerenza perché soggetti ciascuno ad una differente condizione inerziale.

Strettamente connessa alla geometria, la fisica cartesiana è fondata, come la geometria, su una serie di assiomi ed ha carattere strettamente deduttivo. La sua fisica a differenza di quella di Galilei e di quella di Newton, non si pone mai la domanda: quali sono i modi d'azione effettivamente seguiti dalla natura?. Si pone invece la domanda: quali sono i modi d'azione che la natura deve seguire? La concezione della fisica come geometria e del mondo come “geometria realizzata” condussero Cartesio verso una fisica “immaginaria”, il cui carattere di “romanzo filosofico” verrà sottolineato non solo dal cartesiano Huygens e da Newton ma da critici innumerevoli. In moltissimi casi la connessione con l'esperienza, la ricerca di conferme empiriche delle teorie erano, nel sistema cartesiano, solo chimeriche. Le leggi cartesiane della natura sono leggi per la natura alle quali essa non può conformarsi perché sono esse che la costituiscono. Cartesio aveva fornito un modello teorico che si accordava con le posizioni metafisiche in cui quasi tutti gli scienziati si sentivano a proprio agio. Un modello che rifiutava gli spiriti naturali e ogni relazione occulta, che negava la possibilità di avere una conoscenza a priori di qualsiasi cosa salvo quella dell’essenza della materia e del movimento, e quella delle relazioni matematiche o logiche. Molti ritennero, pertanto, che il modello cartesiano non richiedesse nessuna verifica empirica perché la sua validità era metafisicamente stabilita.

Nell'insieme, i contributi specifici di Cartesio ai progressi della scienza fisica non sono molto significativi; o almeno va detto che il loro apprezzamento risulta problematico, giacché il significato di alcuni principi di indubbia validità, come il principio di inerzia e il principio di conservazione della quantità di moto, è alterato dal sistema entro cui i principi stessi sono inseriti. Ciò nonostante rimangono essenziali, nel processo di fondazione della fisica classica, il coerente richiamo all'esigenza di una razionalità matematica e la valorizzazione del modello meccanico.

Se la concezione fisica di Cartesio è meccanicistica, è vero anche che quella di Galileo e di Newton lo sono; però due caratteri fondamentali differenziano le due concezioni. Il primo, il più evidente, è il concetto di forza. Per Galileo e per Newton la forza è una realtà fisica irriducibile allo spazio e al movimento; per Cartesio, invece, la forza è, come abbiamo visto, una proprietà dello spazio. Il meccanicismo di Cartesio è inoltre contro l'atomismo, secondo il quale sono gli atomi che creano i campi di forza e i loro movimenti nascosti che spiegano ogni processo fisico. Ovviamente, la dottrina cartesiana, identificando materia ed estensione, non poteva essere atomista nel tradizionale senso democriteo. L'universo pieno soddisfa un'altra esigenza della nostra intuizione immediata, che è il secondo carattere distintivo del meccanicismo di Cartesio: la contiguità dell'azione causale nello spazio e nel tempo. Ma gli sforzi dei cartesiani, in primis, Huygens, non riuscirono a salvare, di fronte alla teoria newtoniana, nemmeno il concetto della contiguità dell'azione causale nello spazio. La rinuncia a questa esigenza pone in evidente imbarazzo anche Newton, il quale non nega, anzi afferma che è impossibile, non solo per la natura, ma per Dio stesso, agire a distanza, agire, cioè, là dove non si trova; ma tuttavia, nell'incapacità di elaborare una teoria soddisfacente egli

=<=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

si limita a descrivere i fenomeni, i quali avvengono come se l'attrazione avvenisse a distanza. Ma l'esigenza cartesiana della contiguità dell'azione causale ricomparirà nella fisica ottocentesca, in particolare nelle equazioni del campo elettromagnetico di Maxwell.

Nonostante il carattere ad hoc delle ipotesi cartesiane, la grande costruzione cartesiana si presentava tuttavia, ed è questa una delle ragioni della sua straordinaria fortuna, come un sistema, ed aveva fornito una concezione della natura rigorosamente ed esclusivamente meccanicistica, quale il XVII secolo desiderava ardentemente, e in un'età in cui la scienza voleva essere in primo luogo uno strumento di dominio della natura. Il sistema cartesiano appariva fondato sulla ragione, escludeva definitivamente ogni ricorso a forme di occultismo e di vitalismo, sembrava in grado di connettere insieme (in una forma differente da quella che era stata realizzata dalla Scolastica medioevale) scienza della natura, filosofia naturale e religione, offriva infine, in un'età piena delle incertezze che sono collegate alle grandi svolte intellettuali, un quadro coerente, armonico e completo del mondo. La penetrazione e la diffusione del cartesianesimo furono tuttavia lente e difficili, accompagnate da aspre polemiche, e nel 1663 anche la Chiesa cattolica poneva all'Indice gli scritti di Cartesio donec corrigantur. Comunque, negli ultimi decenni del secolo XVII il cartesianesimo aveva conquistato le università europee e le condanne erano cadute in desuetudine.

6.11 I cartesiani e anticartesiani

Fra coloro che continuano il cartesianesimo emerge Baruch de Spinoza (1632-1677), con il suo razionalismo rigoroso e il suo panteismo naturalistico, e la ragione, di cui Cartesio aveva chiarito la natura e le regole, celebra i suoi trionfi nel grande sistema di Spinoza.

Nel pensiero di Spinoza, la cui tesi centrale è l'identificazione panteistica di Dio con la natura, convergono temi e motivi appartenenti alle tradizioni culturali più disparate, dalla teologia giudaico-cristiana, alla filosofia neoplatonico-naturalistica del Rinascimento, al razionalismo cartesiano, a cui vanno aggiunte le influenze della filosofia ellenistica, del pensiero arabo e di Hobbes. A questa serie di influenze bisogna poi allegare la Rivoluzione scientifica, che, pur non essendo una fonte in senso stretto, rappresenta il retroterra mentale e culturale senza di cui non si comprenderebbe il concetto spinoziano del Dio-Natura. Infatti, il punto di questa originale fusione, l'idea che la rende possibile, è proprio il concetto di Dio come ordine geometrico del mondo, che da un lato, per quanto concerne le sue implicanze teologiche, riporta alle grandi metafisiche e teologie dell'Occidente e dall'altro, per quanto riguarda le sue valenze naturalistico-matematiche, richiama il nuovo modo scientifico di intendere il reale.

Il capolavoro di Spinoza, Ethica ordine geometrico demonstrata (Etica dimostrata secondo l'ordine geometrico) è una sorta di enciclopedia delle scienze filosofiche, che ispirandosi agli Elementi di Euclide, si serve di un procedimento espositivo che si scandisce secondo definizioni, assiomi, proposizioni (=teoremi), dimostrazioni, corollari e scolii (= delucidazioni).

Spinoza è un ammiratore delle matematiche e vede nella trattazione geometrica una garanzia di precisione e di sinteticità espositiva, nonché di distacco emotivo nei confronti dell'argomento trattato, e che il reale costituisce una struttura necessaria, di

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<4!

tipo geometrico, in cui tutte le cose sono concatenate logicamente fra loro e quindi deducibili sistematicamente l'una dall'altra: “ordo et connexio idearum idem est ac ordo et connexio rerum (l’ordine e la connessione delle idee, è identico all’ordine e alla connessione delle cose).” Pensare rettamente significa adeguare lo svolgimento del pensiero a questa realtà razionale, perciò l’unica forma corretta della trattazione filosofica deve ricalcare il procedimento matematico di cui Euclide offre il modello.

Uno dei primi assiomi dell’Ethica è che ogni cosa nel mondo deve essere spiegata mediante la propria natura, o mediante un più ampio disegno, una più larga natura delle cose, la quale la costringe ad essere ciò che realmente è. Una cosa è spiegata allorché noi riusciamo a conoscere perché essa deve essere ciò che è. In altri termini, in questo molteplice ed enigmatico mondo di apparenze e di fenomeni che incuriosiscono il ricercatore, tutto ciò che non contiene direttamente la propria spiegazione, deve far parte di un più ampio disegno, di una più profonda natura delle cose, che lo spiega, e, perciò, lo costringe ad essere ciò che è. Così tutto il mondo di questo pensatore è un essere unico di necessità rigidamente matematiche, nel quale cause e spiegazioni coincidono. Partendo da queste premesse, Spinoza conclude che deve esservi alcunché di superiore che da nulla è condizionato, e che implica la spiegazione di ogni singola cosa. L’universo è una realtà unica, e perciò tutto quanto in esso esiste deve esser parte di un unico ordine autoproducendosi di una “sostanza unica”.

Spinoza, andando oltre Cartesio, si propone di sviluppare, con la massima coerenza, tutte le implicanze logiche della nozione di sostanza. Spinoza intende per sostanza: “ciò che è in sé e per sé si concepisce, vale a dire ciò il cui concetto non ha bisogno del concetto di un'altra cosa da cui debba essere formato”. Con la prima parte della formula egli intende dire che la sostanza, essendo da sé (in sé=da sé), in quanto deve unicamente a sé stessa la propria esistenza, rappresenta una realtà autosussistente e autosufficiente, che per esistere non ha bisogno di altri esseri. Con la seconda parte della formula Spinoza intende dire che la nozione di sostanza, essendo concepibile soltanto per mezzo di sé medesima, rappresenta un concetto che per essere pensato non abbisogna di altri concetti. Come tale, la sostanza gode di una totale autonomia ontologica e concettuale, poiché si identifica con una realtà che non presuppone, ma è eventualmente presupposta da ogni altra possibile realtà, e con un concetto che non presuppone, ma è eventualmente presupposto da ogni altro possibile concetto. Da questa definizione di sostanza Spinoza deriva una serie di proprietà di base che la caratterizzano: 1) la sostanza è increata, in quanto per esistere non ha bisogno di altro, essendo, per natura, causa di sé, cioè un ente la cui essenza implica l'esistenza; 2) la sostanza è eterna perché essa possiede, come sua nota costitutiva, l'esistenza, che non riceve da altro; 3) la sostanza è infinita perché se fosse finita dipenderebbe da qualcos'altro (contraddicendo il primo punto), e perché la sua essenza non ha limiti; 4) la sostanza è unica, poiché “nella natura non si possono dare due o più sostanze della medesima natura ossia del medesimo attributo”.

Questa sostanza increata, eterna, infinita, unica (e quindi anche indivisibile) non può essere che Dio o l'Assoluto. Spinoza con questa posizione si stacca nettamente da gran parte della metafisica occidentale, e in particolare dal filone ebraico-cristiano, in quanto ritiene che Dio e mondo non costituiscano due enti separati, ma uno stesso ente, poiché Dio non è fuori dal mondo, ma nel mondo, e costituisce, con esso, quell'unica realtà globale che è la Natura. Spinoza perviene a questo principio-chiave del suo pensiero fondandosi, di fatto, sull'unicità della Sostanza. Infatti, se la Sostanza è unica,

=<5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

essa sarà come una circonferenza infinita che ha tutto dentro di sé e nulla fuori di sé, per cui le cose del mondo saranno per forza la Sostanza o la manifestazione in atto di tale Sostanza. In tal modo, Spinoza perviene ad una forma di panteismo che giunge ad identificare Dio o la Sostanza con la Natura, considerata come realtà increata, eterna , infinita e unica, da cui derivano e in cui sono tutte le cose. La Natura è una potenza dinamica e procreante e tende ad identificarsi con l'ordine necessario e razionale del Tutto.

In altre parole, il Dio-Natura di Spinoza è, in ultima analisi, l’ordine geometrico dell'universo, cioè il Sistema o la Struttura globale del tutto e delle sue leggi. Come tale, la Natura spinoziana non è il puro insieme o la semplice somma delle cose, ma il Sistema o l'Ordine intrinseco che le regola e struttura secondo precise e immutabili concatenazioni. La concezione di Dio come ordine geometrico dell'universo pone Spinoza in antitesi a quella millenaria visione finalistica del mondo che si era espressa nella metafisica greca e nella dottrina ebraico-cristiana di un Dio che crea liberamente il mondo secondo progetti implicanti la subordinazione intenzionale delle cose all'uomo (=finalismo antropocentrico). Secondo Spinoza, ammettere l'esistenza di cause finali è un pregiudizio dovuto alla costituzione dell'intelletto umano.

Parlando della Sostanza o di Dio, Spinoza non intende nessuna delle figure metafisiche tradizionali, bensì l'ordinamento complessivo dell'essere e la Struttura geometrica del cosmo. Di conseguenza il panteismo (=Dio è in tutto) e il panenteismo (=tutto è in Dio) sono, in Spinoza, una forma rigorosa di naturalismo, ripensato alla luce della rappresentazione scientifica e moderna della realtà. Anzi, da un certo punto di vista, lo spinozismo può essere reputato una traduzione metafisica del modo galileiano di considerare la Natura. Come sappiamo, per lo scienziato italiano quest'ultima non è più l'essenza o la potenza generatrice delle cose, bensì l'insieme delle leggi che governano i fenomeni. Analogamente, per Spinoza la Natura non è più l'Anima o l'energia intrinseca della materia, bensì il sistema o l'ordine strutturale delle relazioni fra le cose, ovvero il complesso delle leggi universali dell'essere.

Spinoza, rifiuta il modello creazionistico, perché la creazione supporrebbe intelletto, volontà, arbitrio, scelta, tutte cose che non hanno senso riferite al Dio-Natura. Ma l'esclusione della dottrina della creazione significa che egli abbia accettato la dottrina dell'emanazione? Non c'e traccia, nella dottrina di Spinoza, di questa accettazione, che avrebbe fatto della sua dottrina la ripetizione esatta della dottrina di Bruno. Ma tra Spinoza e Bruno ci sono Galileo, Cartesio e Hobbes: vi è la prima formazione della scienza, interamente polarizzata intorno al concetto della natura come ordine oggettivo e matematicamente strutturato. Da ciò l'originalità dello spinozismo di fronte a tutte le forme di emanatismo.

La Sostanza spinoziana non è l'Unità ineffabile dalla quale scaturiscono le cose per emanazione, secondo l'antica dottrina neoplatonica. Non è neppure la natura infinita che per la sua sovrabbondanza di potenza genera infiniti mondi, secondo il naturalismo di Bruno. Essa è piuttosto un Ordine cosmico o un Teorema eterno da cui le cose scaturiscono in modo necessario. Di conseguenza, nell'universo spinoziano non vi è nulla di contingente, poiché in esso tutto ciò che è possibile si realizza necessariamente, esattamente come in geometria le verità implicite degli assiomi si esplicitano necessariamente nei teoremi, per cui possibilità e realtà sono nient'altro che necessità in potenza o necessita in atto.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<6!

Ai sensi e all'immaginazione il mondo appare molteplice, contingente e temporale, ossia come una pluralità di cose, esistenti in relazione ad un certo spazio e ad un certo tempo, e tali che, pur essendo, potrebbero non essere. Invece, per l'intelletto esso si configura come qualcosa di unitario, in quanto la molteplicità è solo l'insieme dei modi d'essere dell'unica sostanza; di necessario, poiché il contingente è solo ciò di cui ignoriamo le cause; di eterno, in quanto ciò che pare svolgersi nel tempo è in realtà la manifestazione di una Struttura meta-temporale, tant'è vero che Spinoza distingue nettamente fra la considerazione dell'universo sub specie temporis, ossia dal punto di vista del tempo, e quella sub specie aeternitatis, ossia dal punto di vista dell'eternità. Inoltre, ai sensi e all'immaginazione il mondo può apparire talora imperfezione e male. Invece, dal punto di vista dell'intelletto, bene, male, perfezione, imperfezione, ordine disordine sono esclusivamente maniere soggettive di pensare, punti di vista relativi e antropomorfici. Ricordiamo, che tali idee avranno una profonda influenza su Einstein e sulla sua teoria della relatività.

Christiaan Huygens (1629–1695), il massimo fisico del periodo tra Galileo e Newton, restò sempre cartesiano nel suo atteggiamento verso la spiegazione scientifica, anche se risentirà della evoluzione culturale in atto al suo tempo, per cui si rivelerà decisamente più empirico di Cartesio, del quale ignora la metafisica, e il suo programma di spiegazione dei fenomeni naturali sarà ancorato ad un procedimento del pensiero puramente analitico. In sostanza, come Newton, la sua azione scientifica si baserà principalmente sull’esperienza e sui fatti, anche se li interpreterà in modo del tutto differente dal padre della meccanica.

Nel Seicento, tra i vari interessi scientifici, il centro delle preoccupazioni dei fisici è occupato dalla meccanica razionale dei corpi solidi, con il problema pratico della costruzione e della verifica dell’orologio oscillatorio (orologio a pendolo) che, se portato a sufficiente esattezza e quando fosse stato risolto il problema di correggere le variazioni dei periodi di oscillazione connesse con la latitudine, avrebbe permesso, finalmente, di risolvere in maniera semplice e pratica (mediante la facile considerazione dei fusi orari) il problema della determinazione della longitudine in alto mare o in terre sconosciute. Problema a cui erano vivamente interessati i governi, soprattutto dell'Olanda, dell'Inghilterra e della Francia, i tre paesi che, per il declino marittimo del Portogallo e della Spagna, si contendevano l'egemonia dei mari e già avevano forti interessi capitalistici in paesi d'oltreoceano.

Il problema venne risolto nel 1656 dallo Huygens che anche sviluppò in modo sperimentale e matematico i vari temi connessi con l'orologio stesso, in particolare la teoria dei moti rotatori e pendolari (in genere quindi la teoria dei moti seguenti traiettorie obbligate e tali che gli spazi da prendere in considerazione sono piuttosto angoli che lunghezze lineari, e quindi le velocità sono piuttosto velocità angolari che semplici scalari), introducendo il concetto di momento d’inerzia, e la teoria dell'elasticità, la quale, destinata in seguito ad avere tanta importanza nella storia della scienza, appare per la prima volta sulla scena della ricerca scientifica. L'Horologium oscillatorium (1673) è così, dopo il Discorsi e dimostrazioni matematiche di Galileo, la seconda grande opera di dinamica: in essa, oltre a venire affrontata una nuova problematica, si osservano un metodo assai più decisamente sperimentale e un patrimonio di nozioni matematiche assai più ricco, non per niente erano passati tra le due opere vari decenni, e quali decenni! Dal punto di vista del pensiero scientifico, quest'opera recava un potentissimo contributo al trionfo del meccanicismo, offrendo a

=<7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

tale concezione un nuovo fascinoso modello: quello, appunto, dell'orologio. Da questo momento, e per quasi un secolo, la natura sarà concepita come un gigantesco perfetto orologio, e Dio come il Grande Orologiaio.

Il desiderio di liberare la fisica dai residui magici di tutte le teorie correnti spinse Huygens ad accettare la dottrina cartesiana della gravità. Egli comincia, in uno spirito cartesiano, con l'osservare che il peso, essendo una tendenza al movimento, verosimilmente deve essere prodotto da un movimento. Si tratta di vedere qual’è la natura del movimento e quale corpo lo esegue. A Huygens sembra evidente che il moto debba essere circolare, perché da questo moto sorge una forza centrifuga e il corpo dotato di tale moto deve essere una materia fluida. Cartesio aveva sperimentalmente confortato la sua teoria mettendo in evidenza una forza centripeta maggiore della centrifuga in corpi più leggeri del liquido, dotato di moto rotatorio, in cui sono immersi. Huygens osserva giustamente che questo effetto è dovuto al diverso peso specifico dei corpi, e perciò ne risulta che Cartesio, per trovare una causa al peso, comincia col supporre che i corpi ne abbiano uno.

Huygens suppone una materia unica, di cui alcune parti non seguano il moto rotatorio delle rimanenti e lo seguano con velocità minore. Il fenomeno si può riprodurre sperimentalmente, facendo cadere in un recipiente con acqua in rotazione qualche corpo un po' più pesante dell'acqua, e il suo movimento circolare, impedito o diminuito, si sposterà verso il centro in linee spirali. In queste condizioni, se la Terra e tutto lo spazio sferico intorno è occupato da materia fluida in movimento secondo tutte le possibili circonferenze massime, i corpi che si trovano in questo ambiente e non seguono il movimento rapido della materia fluida sono spinti verso il centro. Conclude Huygens: “Ecco dunque in che cosa consiste il peso dei corpi, il quale si può dire che è l'azione della materia fluida che ruota circolarmente attorno al centro della Terra in tutti i sensi per cui essa tende ad allontanarsi e spingere i corpi che non seguono questo movimento”. Ma perché i corpi terrestri non seguono questo movimento? Perché la materia fluida, ci informa Huygens, estremamente sottile e velocissima, attraversa tutti i corpi e dà a questi impulsi in tutti i sensi, onde ne impedisce il moto. La teoria consente a Huygens di dedurre che il peso è proporzionale alla quantità di materia, contrariamente a quanto aveva affermato Cartesio; che la gravità non può essere impedita da alcun corpo interposto; che la velocità dei corpi cadenti deve seguire la legge di Galileo. In definitiva la gravità, secondo Huygens, è causata dalla pressione della materia eterea sui corpi, perché soltanto in questo modo le leggi di gravità possono esser conosciute riconducendole a principi meccanici, cioè all’impatto di particelle su particelle. In base a questa filosofia meccanicistica, Huygens dichiarerà tutto il proprio scetticismo nei confronti della fisica newtoniana. L’assurdità della fisica newtoniana consisteva nel fatto che due masse potessero attrarsi a distanza, istantaneamente e nel vuoto: “Non riesco a capire come il Signor Newton abbia potuto dedicare tanta buona matematica ad un’ipotesi fisica così assurda”.

Il più importante problema della filosofia della natura restava però quello della luce, e su questo tema il secolo viene creando insieme, e inestricabilmente congiunti, una fisica della luce, che sorpassa oramai decisamente il piano dell'ottica geometrica greca e dell'ottica fisiologica greco-araba, e una metafisica della materia. Come le due cose siano congiunte è noto: già dal Medioevo le strutture del campo luminoso apparivano identiche a quelle dello spazio fisico, e quindi della materia. D'altra parte, gli sviluppi del metodo sperimentale, facilitati dai notevoli progressi artigianali

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<8!

compiuti nel campo della fabbricazione dei vetri e delle lenti, nonché gli sviluppi della nuova astronomia, portavano ad attaccare i problemi della luce dal punto di vista fisico.

Ora, la natura materiale della luce era stata sostenuta già dall'antichità, e presunta da tutti i fondatori della scienza moderna, ma ora, nel fatto stesso che se ne potesse stabilire la velocità finita, se ne aveva una riprova: se un ente impiega del tempo, sia pure piccolissimo alla scala delle nostre velocità terrestri, per andare da un luogo ad un altro, questo ente si può senz'altro ritenere materiale. Così si accentuò la tendenza ad interpretare in questo senso la natura della luce, ma già prima, da Cartesio in poi, l'ipotesi che la luce si dovesse concepire come movimento della materia sottile era entrata nel dominio della fisica.

Come abbiamo visto, Cartesio aveva considerata la luce come moto vorticoso della materia sottile; Huygens prosegue su questa strada, cercando però di dare alla dottrina cartesiana un senso fisico mediante una serie di importantissime ricerche sperimentali sulla luce, in particolare sui fenomeni di rifrazione attraverso il cristallo di Islanda. Attraverso questi esperimenti egli arriva a stabilire molte peculiarità della rifrazione, i fenomeni di interferenza e polarizzazione, e finalmente il fenomeno della doppia rifrazione. Sulla base di tali ricerche e risultati egli formula la teoria secondo la quale la luce è un moto ondulatorio orizzontale che si propaga in un mezzo ipersottile, l’etere, presente anche là dove diciamo essere il vuoto. La teoria del moto ondoso spiega abbastanza bene i fenomeni già sperimentalmente noti, e quelli scoperti dallo stesso Huygens; ma, com'egli stesso ebbe a confessare francamente, resta in scacco davanti alla doppia rifrazione. Di contro a lui Newton sosterrà la teoria corpuscolare della luce.

Nella breve prefazione del suo Traité de la lumiére (1690), Huygens ci informa che egli aveva completato il trattato nel 1678 e nello stesso anno lo aveva comunicato all'Académie des sciences di Parigi. Però nel 1678 erano già comparse le memorie fondamentali di Newton, rifuse poi nell'Ottica, e il pensiero di Huygens ne fu influenzato. Il trattato si apre con una critica delle teorie di Cartesio e di Newton: se la luce è costituita da corpuscoli, come è possibile che si propaghi rettilineamente nella materia senza esserne influenzata? E come è possibile che due fasci di luce, cioè due sciami di corpuscoli, s’incrocino senza disturbarsi coi reciproci urti? Qual è il mezzo che propaga il moto? Huygens, istituito ancora una volta il paragone tra suono e luce, osservato che il mezzo non può essere l'aria, perchè la macchina pneumatica aveva dimostrato che, a differenza del suono, la luce si propaga anche nel vuoto, postula l'esistenza di una sostanza eterea, che riempie l'universo, compenetra i corpi, è estremamente sottile tanto da sfuggire a ogni analisi ponderale, e molto dura e molto elastica. Le particelle d'etere sono corpuscoli elastici (di forma forse non sferica) che propagano il moto, pur senza assumere moto traslatorio. Insomma, il modello meccanico assunto a rappresentazione del moto ondoso portava a supporre onde longitudinali. Huygens parte dall'esempio di una fiamma: ogni punto della fiamma comunica il moto alle particelle d'etere tutt'attorno, emette cioè un'onda e ogni particella d'etere raggiunta dall'onda diventa essa stessa centro di un'altra minuscola onda. Il moto così si propaga da particella a particella per azioni sferiche secondarie, allo stesso modo come si propaga un incendio. Ciò che può apparire strano e quasi incredibile è che ondulazioni prodotte da movimenti e corpuscoli così piccoli possano estendersi a così grande distanza, come quella che

=<9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

intercede tra le stelle e noi. Huygens rassicura: “Ma si cesserà di meravigliarsi considerando che a una certa distanza dal corpo luminoso un'infinità di onde, sebbene emesse da tanti punti diversi di quel corpo, si uniscono in modo che sensibilmente essi compongono un'onda sola che di conseguenza deve avere forza sufficiente per farsi sentire”. È questo il principio d'inviluppo delle onde, il concetto più geniale espresso nel trattato:

PRINCIPIO DI HUYGENS

Ogni punto di un fronte d'onda può essere considerato come una sorgente secondaria di onde sferiche, aventi la stessa frequenza della sorgente originaria dell'onda. Il nuovo fronte d'onda è l'inviluppo delle onde secondarie, cioè la superficie tangente ai fronti

d'onda di tutte le onde secondarie.

Huygens è costretto, però, a ricorrere a nuove ipotesi per interpretare la

rifrazione, e più generalmente la trasparenza dei corpi. Come si possono propagare nei solidi le onde eteree? Si potrebbe semplicemente pensare che le onde d'etere mettano in vibrazione le particelle di cui sono costituiti i corpi; ma si può anche supporre che l'etere compenetri i corpi e ne occupi gli interstizi tra particella e particella. Dalla seconda ipotesi discende che la velocità dell'onda nell'interno dei corpi deve essere minore che nell'etere libero a causa dei piccoli rimbalzi delle particelle d'etere sulle particelle materiali dei corpi. Insomma, la velocità della luce diminuisce con l'aumentare della densità del mezzo, come il buon senso spicciolo sembrava suggerire. Questa diversa velocità è la causa della rifrazione e Huygens dimostra che n=v1/v2, essendo v1 e v2 la velocità della luce rispettivamente nel primo e nel secondo mezzo e n l'indice di rifrazione relativo.

Negli stessi anni in cui Cartesio elaborava la sua geometria analitica, un altro grande matematico francese, Pierre Fermat (1601-1655), compiva analoghe ricerche nel medesimo campo e giungeva per suo conto alla fondazione della medesima geometria analitica. La teorizzazione di Fermat risulta per taluni aspetti più moderna, ma lo sfondo filosofico nel quale era inserita la geometria di Cartesio, contribuì a renderne più profonda l’influenza tra i contemporanei. Delle proprie ricerche infinitesimali sui massimi e minimi, Fermat fece una sorprendente applicazione fisica. Rivolgendosi ad una questione di ottica, giunse a concludere che la legge di rifrazione della luce enunciata da Cartesio, può dedursi da

un principio generale per cui “la natura agisce sempre secondo le vie più brevi”; principio che Fermat precisò dicendo che, in questo caso, per “vie più brevi” debbono intendersi quelle che vengono percorse nel minimo tempo (breviori tempore percorri possint). In altre parole, secondo Fermat, il principio fondamentale è che la luce segue il percorso che richiede un tempo minimo per passare da un punto all’altro. La Legge di Snell (legge della rifrazione: n1⋅sinα=n2⋅sinγ) deriva dall'applicazione di questo principio alla luce: anche se il percorso del

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<:!

raggio di luce nei due mezzi sembra spezzato, è in realtà il più veloce possibile, dati gli indici di rifrazione diversi.

PRINCIPIO DI FERMAT

Un raggio tra due punti segue il percorso a cui corrisponde il minor tempo di percorrenza.

Questo principio implicava l’abbandono della credenza di propagazione

istantanea della luce e l’ammissione di una velocità finita. Contro il principio di Fermat insorsero subito i cartesiani, motivando le loro

critiche con il seguente argomento: il principio che la natura agisce per le vie più brevi o più semplici non è un principio fisico, perché esso richiederebbe che la natura agisse per conoscenza; infatti, arrivato il raggio di luce sulla linea di separazione dei due mezzi, esso dovrebbe sapere che piegandosi in quel certo modo impiega minor tempo, e così risulterebbe anche che il tempo è causa di moto.

Anche i fisici accolsero in un primo tempo con diffidenza il principio, ma questo giudizio negativo andò progressivamente attenuandosi. Huygens, proprio grazie all’uso del principio di Fermat si convinse che l’indice di rifrazione è uguale al rapporto tra la velocità della luce nel primo e nel secondo mezzo (n=c/v). Insomma, superato il primo momento di diffidenza, l’atteggiamento di Huygens nei riguardi del principio di Fermat si può così riassumere: senza indagare sul suo significato metafisico, se ce l’ha, il principio descrive bene i fenomeni ottici e quindi può essere usato come uno strumento comodo per la ricerca scientifica.

La legge cartesiana della rifrazione era stata appena confermata teoricamente da Fermat che un altro fenomeno della luce, la diffrazione, veniva scoperto da padre Francesco Maria Grimaldi (1618-1663) e pubblicata nell’opera Physico-mathesis de lumine, coloribus et iride. La scoperta fu certamente casuale e dovuta alla circostanza che Grimaldi sperimentava con fascetti di luce molto sottili, ottenuti aprendo nella finestra esposta al Sole un esile forellino. Sul fascetto di luce che lo attraversava lo scienziato poneva un ostacolo e ne raccoglieva l’ombra sopra uno schermo bianco; osservava allora che sullo schermo l’ombra era dilatata rispetto all’ombra geometrica che si sarebbe dovuta ottenere.

Le iridescenze delle frange di diffrazione inducevano naturalmente lo scienziato bolognese a occuparsi della natura dei colori, sulla quale la polemica tra filosofi e scienziati era sempre viva. Grimaldi osserva che la luce emergente da un prisma va da un rosso ad un estremo al violaceo all’altro estremo, separati da zone di vario colore, a seconda dell’inclinazione dei raggi incidenti. Questa esperienza gli consente di concludere che la luce si colora per rifrazione. Ma essa si può colorare, senza riflessione e senza rifrazione, anche per diffrazione. Se, quindi, molti sono i modi di colorazione della luce, ma nessuno è necessario, Grimaldi conclude che il colore doveva essere insito alla luce, una sua intrinseca modificazione, senza assumere contemporaneamente alcuna altra entità. Ma in cosa consiste questa intrinseca modificazione? Grimaldi nella sua opera sostiene la sostanzialità della luce, ossia il suo carattere corpuscolare, ma anche argomenti che la confutano per sostenere il suo carattere accidentale, oggi diremmo ondulatorio.

Alla fine Grimaldi conclude, come concludono i fisici di oggi, che non ci sono ragioni per preferire una teoria all’altra e che entrambe possono essere vere. L’ipotesi

=;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ondulatoria gli consente di spiegare qual è la modificazione della luce produttrice dei colori. A sostegno della teoria ondulatoria Grimaldi porta molti argomenti, in particolare l’analogia coi suoni, la cui varia altezza, come aveva insegnato Galileo, dipende dalle varie ondulazioni dell’aria. Comunque, aggiunge Grimaldi, qualunque teoria si preferisca “i colori non sono qualche cosa distinta dalla luce”.

Nella sua opera Grimaldi, sulle orme di Gilbert, dedica oltre trenta pagine al magnetismo, descrivendo esperimenti vecchi e nuovi e tentandone la spiegazione con l’ipotesi, d’ispirazione cartesiana, di un fluido magnetico sostanziale unico che scorre tra un polo e l’altro di una calamita e le opposte direzioni di flusso produrrebbero gli effetti apparentemente opposti. Ogni corpo magnetico non magnetizzato, come il ferro, contiene il fluido disordinato, per cui la calamita lo ordina e induce quindi nel copro la proprietà magnetica. La teoria di Grimaldi, anche se derivata da quella cartesiana, ha una caratteristica, cioè quella di introdurre il fluido unico e non fa ipotesi sulla forma delle sue particelle costitutive.

Nel 1669 il danese Erasmus Bartholin (1625-1698), osservando oggetti attraverso i cristalli dello spato d’Islanda, scopriva che essi apparivano doppi in certe posizioni del cristallo, giungendo all’interpretazione corretta del fenomeno come una doppia rifrazione.

Spetta alla cultura napoletana il merito di aver capito l’importanza del cartesianesimo e la necessità di iniziare una diffusione sistematica di esso. Fu per l’appunto un professore dell’Università di Napoli, Tommaso Cornelio (1614-1686), a introdurre in Italia la conoscenza diretta delle opere del grande pensatore francese. Meccanicista convinto, egli accettò quasi per intero le ipotesi della fisica cartesiana, ritenendo di poter trovare senza difficoltà il modo di conciliarlo con il vecchio naturalismo di Telesio nonché con le dottrine di Galileo. Anche il filosofo Leonardo da Capua (1617-1695) si mostrò fermamente convinto di poter conciliare la scienza cartesiana con quella galileiana, rivelando tra l’altro notevoli simpatie per l’atomismo di Democrito. È indispensabile chiarire quale fosse il vero scopo di questi ed altri cartesiani napoletani: il richiamo al pensatore francese assumeva in loro il preciso significato di una lotta aperta contro la vecchia cultura, contro le concezioni tradizionali della filosofia e della scienza. Perciò non ci si debba stupire che essi non provassero alcun disagio a difendere, insieme con le teorie di Cartesio, anche quelle di Galileo o di Gassendi, seppur diverse tra di loro, e che oscillassero tra la difesa del più schietto empirismo e l’adesione a un matematismo di tipo pitagorico-platonico.

Fra coloro che pongono in discussione Cartesio spicca Blaise Pascal (1623-1662), il quale, anche se accetta pienamente da Cartesio il dualismo spirito-materia, e anzi vede in esso, d’accordo con il cristianesimo, la più soddisfacente giustificazione dell’autonomia assoluta delle ricerche fisiche (rivolte esclusivamente alla materia) rispetto agli studi intorno all’anima, respinge però la pretesa cartesiana di ricostruire idealmente la macchina della natura, deducendo le proprietà concrete del mondo fisico dai principi generali della materia e del movimento. Inoltre, pur accettando il metodo razionalistico nel dominio della scienza, giudica la ragione incapace di comprendere la realtà e il senso della vita, ritenendo che solo il cristianesimo renda comprensibile quel “mostro incomprensibile” che è l'uomo, e spieghi ciò che la pura ragione, e quindi la scienza e la filosofia, sono incapaci di chiarire. Pur essendo uno scienziato e pur avendo

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;;!

interesse e considerazione per il sapere esatto, Pascal è convinto che la scienza presenti taluni limiti strutturali, sia in sé medesima, sia in relazione ai problemi dell'uomo.

Il primo limite della scienza è l'esperienza. Sebbene questa rappresenti da un lato un motivo di forza (Pascal è galileianamente e anticartesianamente un fautore del metodo sperimentale), dall'altro lato è pur sempre qualcosa con cui la ragione deve fare i conti, ossia che frena e circoscrive i suoi poteri, che non sono mai assoluti, come invece tendevano a credere, nel loro deduzionismo aprioristico, Cartesio e i Cartesiani. La cosa importante è, per Pascal, che lo scienziato il quale si occupa di fisica, sappia concretamente interrogare la natura con accurati e precisi esperimenti e inoltre sappia leggere le risposte che essa fornisce, risalendo dai dati particolari ai principi semplici che regolano il corso dei fenomeni. Egli ha senza dubbio, anzi il dovere, di formulare ipotesi, ma a patto di non confonderle con la verità. Se in un momento qualunque un’ipotesi venisse contraddetta dai fatti, dovremmo essere immediatamente disposti ad abbandonarla. Nessuna dimostrazione a priori può valere più dei fatti. L’elaborazione teorica, per quanto importante, non può venire anteposta all’evidenza dei dati sperimentali.

Il secondo limite della scienza è costituito dalla indimostrabilità dei suoi primi principi. Infatti, le nozioni che stanno alla base del ragionamento scientifico (lo spazio, il tempo, il movimento, ecc.) sfuggono al ragionamento stesso, poiché nel campo del sapere, come avevano già notato i filosofi antichi, non risulta mai possibile una regressione all'infinito dei concetti, per cui ci si deve per forza arrestare a dei termini primi, che rappresentano il limite oltre il quale non si può procedere, ma dal quale è costretta a partire la catena deduttiva dei ragionamenti. Tipico, in questo senso, il caso delle matematiche. Se i dogmatici, tentando di fondare tali principi, non vi riescono, gli scettici, cercando di confutarli, falliscono ancor più clamorosamente, poiché essi sono evidenze intuitive e istintive, più sicure di qualsiasi ragionamento. Nello stesso dominio che le è proprio, la scienza incontra dunque dei limiti. Tuttavia, nell'ambito di essi, la ragione scientifica è arbitra. Di conseguenza, Pascal respinge dal dominio delle conoscenze naturali ogni intrusione metafisica o teologica e ogni principio di autorità.

La polemica di Pascal contro la scienza è dovuta al fatto di essere considerata incapace di autentica certezza. Lo scienziato, secondo Pascal, non può pervenire alla certezza assoluta perché non può attingere gli elementi primi della realtà; lo stesso perenne accrescersi della scienza ci conferma il carattere incompleto e provvisorio delle sue conquiste. In più la scienza ci porta a riconoscere la presenza dell’infinito, facendocelo ritrovare nella stessa struttura dell’edificio che veniamo gradualmente costruendo, ma è un infinito che essa non potrà mai raggiungere: “Così, vediamo che tutte le scienze non conoscono termine nell’estensione delle loro ricerche: perché chi può mettere in dubbio, per esempio, che la geometria non comprenda un numero infinito di proposizioni? Le scienze sono infinite altresì nella moltitudine e nella sottigliezza dei loro principi: perché chi non vede che quelli che vengono proposti per ultimi non si reggono da sé, ma ne presuppongono altri, i quali, presupponendone a loro volta altri ancora, non ne ammettono nessuno che sia l’ultimo? Ma noi ci comportiamo con i principi che la ragione conosce per ultimi come con le cose materiali: dove chiamiamo punto indivisibile quello di là dal quale i nostri sensi non percepiscono più nulla, sebbene sia divisibile all’infinito, e per sua natura.” Merita di venire sottolineata l’esattezza del brano citato: è indubbiamente vero che la struttura del sapere scientifico non può ammettere limiti né relativamente all’ambito degli argomenti trattati, né relativamente ai principi invocati nelle spiegazioni. L’epistemologia moderna

=;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

svilupperà ampiamente l’analisi di questa doppia apertura della scienza, liberandola però da ogni velo di mistero e quindi lasciando cadere in modo completo quel senso di meraviglia che Pascal sembra provare di fronte ad essa. Proprio perché espertissimo nelle ricerche particolari, Pascal si rende perfettamente conto della sostanziale diversità fra la struttura aperta del sapere scientifico (sempre incompleto, sempre passibile di radicali ampliamenti) e quella chiusa della metafisica (concepita come un sapere totale e definitivo). Rifiuta pertanto qualsiasi confusione fra i due tipi di sapere, e respinge in particolare la pretesa cartesiana di ricavare la spiegazione scientifica del mondo fisico da principi generali di carattere filosofico. Ma non sapendosi liberare dal mito della totalità, ne conclude che la conoscenza scientifica è una conoscenza limitata e superficiale. Il punto più interessante di questa conclusione è che essa non lo spinge dalla scienza alla metafisica, ma a riconoscere la nostra debolezza e a considerare questo riconoscimento come il risultato più profondo di ogni indagine scientifica.

Dove la ragione dimostra la sua totale e congenita incapacità è nel campo dei problemi esistenziali. Alla ragione scientifica e dimostrativa Pascal oppone infatti, come via d'accesso all'uomo, la comprensione istintiva o, come egli la chiama per lo più, il cuore, inteso come l'organo capace di captare gli aspetti più profondi e problematici dell'esistere: “Il cuore ha le sue ragioni, che la ragione non conosce”. Quest'antagonismo fra ragione e cuore viene espresso talora con il celebre binomio tra esprit de geometrie ed esprit de finesse. Lo spirito di geometria è la ragione scientifica, che ha per oggetto le cose esteriori o gli enti astratti della matematica e procede dimostrativamente. Lo spirito di finezza ha per oggetto l'uomo e si fonda sul cuore, sul sentimento e sull'intuito.

Si può esprimere con buona approssimazione la differenza stabilita da Pascal tra spirito di geometria e spirito di finezza dicendo che il primo ragiona intellettivamente, il secondo comprende intuitivamente. Lo spirito di finezza ha per oggetto specifico il mondo degli uomini, mentre lo spirito di geometria le figure ideali e il mondo della natura. “La scienza, di fronte agli interrogativi umani, risulta impotente, anzi muta ed estranea, venendosi praticamente a trovare nella stessa situazione della mentalità comune e del divertissement”. Per questo motivo, in relazione ai destini ultimi dell'individuo, essa risulta vana. In conclusione, la cosa più preziosa, per l'uomo, non è la scienza, bensì la conoscenza dell'uomo stesso. Nel campo specificatamente fisico, un sintomatico punto di attrito con Cartesio era dato dalla questione del vuoto: mentre Cartesio negava la possibilità del vuoto in natura, Pascal, impressionato dall'esperienza di Torricelli che egli aveva ripetuto, sosteneva sulla base dell'evidenza sperimentale l'esistenza del vuoto stesso. Un'eco di questa polemica è la Préface au Traité du Vide di Pascal, dove con fermezza e sobrietà vengono ribaditi i temi che già conosciamo della metodologia galileiana: autonomia della scienza, indefinita progressività della medesima (quindi superiorità della scienza moderna sull'antica), antidogmatismo; però, cosa apparentemente strana trattandosi di un matematico della sua forza, Pascal vi attenua assai il matematismo galileiano a vantaggio di un più deciso sperimentalismo e su di uno sfondo più decisamente empiristico. Pascal non si limitò a ripetere l'esperienza di Torricelli e a stendere questo manifesto metodologico; ma con genialità pari a quella che ebbe come matematico, estese alla considerazione di fluidi in generale, e in particolare dei liquidi, i principi e l'indirizzo delle ricerche torricelliane, portando preziosi contributi alla nascente idrostatica e idrodinamica, in connessione con varie ricerche sulla meccanica delle pompe aspiranti-prementi, problema che in quell'epoca di sviluppo dell'industria

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;4!

mineraria era all'ordine del giorno anche dal punto di vista tecnico-pratico. E, in questo campo di ricerche, si deve a Pascal il principio che porta il suo nome:

PRINCIPIO DI PASCAL

La pressione nei fluidi si trasmette uniformemente in tutte le direzioni

Come Galileo e molti altri, Pascal ricorse agli “esperimenti mentali” come metodo di

ragionamento.

Connesse in qualche modo agli sul vuoto sono varie esperienze che vengono fatte in varie parti di Europa: ricordiamo quella fatta nel 1643 a Magdeburgo dal borgomastro di quella città, Otto von Guericke (1602-1686), con i celebri emisferi di Magdeburgo; esperimento che permise di misurare la pressione dell'aria su di una superficie sferica. Ma il borgomastro costruì anche la prima macchina elettrostatica per la rivelazione dei fenomeni elettrici.

6.12 L’organizzazione della ricerca

Nel corso del XVII secolo, via via che aumentava il prestigio della scienza nella società del tempo, ne aumentava anche il numero di cultori. L'Italia perdeva il suo primato, che passava successivamente alla Francia, all'Inghilterra, all'Olanda.

La maggiore apertura sociale della scienza, l'introduzione di nuovi vocaboli per esprimere idee nuove, la necessità d'un linguaggio più sciolto e più popolare atto a travalicare la chiusa cerchia dei dotti spingono all'uso di lingue nazionali nei trattati scientifici, che diventa sempre più frequente nel corso del XVII secolo e del successivo, sino a divenire quasi generale all'inizio del XIX secolo. Parallelamente comincia a essere usato il francese come lingua internazionale. I centri propulsori di questo nuovo atteggiamento mentale non sono più le università. Strettamente legate ai pubblici poteri, le università, salvo qualche rara eccezione italiana (Padova, Bologna), tornano all'intolleranza delle origini. A causa di questa chiusura mentale, grandi scienziati del secolo come Cartesio, Fermat, Pascal, Huygens, Leibniz, si tennero lontani dalle università del tempo, divenute centri di conservazione della vecchia scienza. Tra i nuovi strumenti di ricerca e di diffusione della nuova scienza, furono caratteristici del secolo le accademie e i periodici scientifici.

I primi cultori di scienze naturali sentirono vivo il bisogno di una più intima collaborazione tra di loro, di periodici scambi d'idee, di comunicazioni a viva voce di tecniche sperimentali, di presentazione di esperimenti. Cominciava così a cadere gradualmente il mito del segreto, cioè della scienza privata, per far posto al convincimento che lo scambio d'informazioni facilita la ricerca personale. Sotto la spinta di questa esigenza, sorsero, a somiglianza delle accademie letterarie, le accademie scientifiche.

L'Accademia dei Lincei, fondata nel 1603, aveva come scopo lo studio e la diffusione della conoscenza scientifica del mondo fisico, inteso nel senso più ampio del termine. L'accademia doveva essere costituita da case, dette licei, sparse nelle quattro

=;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

parti del mondo ed ebbe come insegna la lince, cui si attribuiva vista tanto penetrante da vedere dentro gli oggetti.

Ferdinando II, granduca di Toscana, e suo fratello Leopoldo de’ Medici, fondarono col nome di Accademia del Cimento, cioè del saggio dei problemi naturali, un’accademia scientifica che tenne la prima seduta il 19 giugno 1657. L'Accademia del Cimento, come già l'Accademia dei Lincei, s'ispirava a una forma di apostolato scientifico, e aveva come scopo d’ampliare, con ricerche collegiali sperimentali, le conoscenze fisiche seguendo il metodo instaurato da Galileo, alla cui opera esplicitamente si richiamava.

La parte migliore dell'attività scientifica dell'accademia fu esposta da Lorenzo Magalotti (1637-1712), il “saggiato segretario” dal 1660, nella famosa opera Saggi di naturali esperienze fatte nell’Accademia del Cimento (1667). I Saggi, un trattato di fisica sperimentale nel senso moderno del termine, ammirato anche per la precisione linguistica, dopo un proemio, inizia la trattazione scientifica con la descrizione di termometri e della relativa tecnica di costruzione; poi si passa alla descrizione di igrometri, di barometri e di artifici per l'applicazione dei pendoli alla misura del tempo. Seguono quattordici serie di esperimenti sistematici: sulla pressione atmosferica; sulla solidificazione; sulla variazione termica di volume; sulla porosità dei metalli; sulla compressibilità dell’acqua; sulla presunta leggerezza positiva; sulle calamite; sui fenomeni elettrici; sui colori; sul suono; sui proiettili. Uno dei maggiori vanti dell'accademia fu la costruzione di termometri, derivati dal primitivo termoscopio ad aria di Galileo, trasformato in termometro a liquido da Torricelli. Il 5 marzo 1667 l'accademia tenne la sua ultima adunanza e in quello stesso anno fu sciolta. Quali che siano state le cause, la fine dell'Accademia del Cimento fu un evento luttuoso per la scienza italiana e per circa un secolo la fisica italiana avrà poco da dire alla scienza europea, alla cui formazione aveva pur dato vigoroso impulso.

Nel 1662 veniva ufficialmente istituita, con uno statuto approvato da re Carlo II Stuart, la Royal Society. Da minori associazioni preesistenti, essa nasceva per opera di un vasto gruppo di dilettanti e un piccolo gruppo di professori seguaci delle idee propugnate da Bacone intorno alla funzione umana e sociale ed ai metodi della scienza della natura. Infatti, la Royal Society rappresenta il più duraturo e il più glorioso dei monumenti che potessero venire eretti alla memoria di Bacone. La Royal Society, che per più di un secolo assommerà in sé tutto il movimento scientifico inglese e non soltanto inglese (perché la maggior parte degli scienziati anche continentali fu con essa in strettissime relazioni), aveva come scopo la ricerca della verità, la ricognizione dell’errore, il cammino verso l’ignoto e si propose il compito di incoraggiare e patrocinare la scienza di tipo moderno (in particolare, ma non esclusivamente, la scienza sperimentale) in tutti i campi, pratici e teorici, da esperimenti su concimi artificiali fino a ricerche di alta matematica e di astronomia. Annoverò nel suo seno filosofi come Locke, scienziati come Boyle e Newton; tra i corrispondenti, uomini come Huygens e Leibniz.

Nella pleiade di filosofi (Locke), scienziati (Newton) e corrispondenti (Huygens e Leibnitz) gravitanti attorno alla Royal Society troviamo Roberto Boyle (1627-1691), che ne fu anche presidente. Questi, che si può considerare, almeno nel campo delle discipline sperimentali, il diretto precursore di Newton, fu grande soprattutto per le

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;6!

geniali intuizioni chimiche connesse ad una sua importante versione della teoria atomica. Egli pensava i corpi composti di particelle minime, o atomi; ma, sebbene non usasse questa terminologia, raggiunse già il concetto della distinzione tra molecola ed atomo, senza tuttavia porsi il problema (che invece si porrà Newton) di quali forze di coesione tengano uniti gli atomi semplici del composto. Sulla base di questa fondamentale teoria e di moltissimi esperimenti chimici, egli nel Chemista Scepticus (1661) critica le teorie correnti (sia quella aristotelica sia quella alchimistica) degli elementi, notando come nelle reazioni chimiche certe sostanze rimangano invariate. Avanza quindi questa teoria: essere elementi quelle sostanze la cui molecola fosse composta di atomi omogenei, composti quelle sostanze la cui molecola fosse composta di atomi eterogenei; miscugli (di cui riconobbe chiaramente il diverso comportamento chimico rispetto ai composti) le sostanze composte di molecole eterogenee (e quindi in genere separabili con mezzi fisici). In questo modo rompeva la concezione democriteo-galileiana-gassendiana della omogeneità qualitativa di tutti gli atomi, introducendo (come si farà poi nella chimica moderna) atomi, o meglio famiglie di atomi, qualitativamente distinti. Però, per mancanza di chiari concetti sull'analisi volumetrica e ponderale, la sua teoria non dava luogo a criteri operativi, sicché in pratica Boyle non seppe isolare gli elementi, pur essendo chimico molto valente. Per questi motivi, e nonostante il fatto che fossero in seguito riprese e sostenute dal grande Newton, le teorie chimiche e atomistiche boyliane tarderanno di un secolo ad affermarsi. Comunque, Boyle diede un imponente contributo alla meccanizzazione dell’universo estendendo alla chimica le teorie meccanicistiche.

Altre interessanti applicazioni furono fatte da Boyle alla teoria del calore, che egli interpretò come vivace agitazione molecolare (onde gli effetti chimici del calore stesso), nonché alla determinazione del concetto di massa, interpretato teoricamente come quantità di materia in dato volume, e praticamente come peso dell'unità di volume. Da ricordare anche i suoi studi sull'aria, che egli compì in parte con la collaborazione di Hooke; e con quest'ultimo egli perfezionò la pompa pneumatica inventata da Otto von Guericke, e con l'aiuto di essa studiò la natura fisica dell'aria, giungendo alla conclusione che essa è una entità materiale come tutte le altre, dotata cioè di peso e di volume. Stabilì inoltre l'importante legge, scoperta anche in maniera indipendente dal francese Edme Mariotte (1620-1684) che recita:

LEGGE BOYLE-MARIOTTE

In condizioni di temperatura costante la pressione di un gas perfetto è inversamente proporzionale al suo volume, ovvero che il prodotto della pressione del gas per il volume da

esso occupato è costante:

! ! ! ! !"#$%&$'

Accanto a Boyle, sebbene molto inferiore, è da ricordare la figura di Roberto Hooke (1635-1703), scienziato dai vastissimi interessi, ma poco realizzatore, che si trovò ad essere il precursore di tutte le più importanti scoperte del secolo. Egli intravide che l'aria non era un corpo semplice, ma un miscuglio in cui era presente un principio attivo (l'ossigeno, ma poi sarà Lavoisier a dargli questo nome). Vide anche che i metalli riscaldati aumentano di peso, e correttamente attribuì tale aumento al combinarsi dell’elemento del metallo con il principio attivo dell’aria, intuizione preziosa che, se fosse stata continuata e perfezionata da lui, o da Boyle o Newton, avrebbe portato un

=;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

secolo prima la chimica ad assestarsi su quelle basi scientifiche per le quali invece dovette aspettare fino a Lavoisier.

Hooke fece anche esperienze di diffrazione analoghe a quelle di Grimaldi, senza però aggiungere niente di nuovo. Di ben diversa importanza furono, invece, gli esperimenti e gli strumenti descritti nella sua opera Micrographia (1665), tra cui un rifrattometro con il quale Hooke verificò la legge dei seni e trovò che non sempre alla maggiore densità di un copro corrisponde una maggiore rifrangibilità. Inoltre, con lo studio sulle lamine sottili, confutò la teoria dei colori di Cartesio, secondo il quale la rotazione dei corpuscoli luminosi, causa della sensazione colorifica, s’iniziava al momento della rifrazione e si annullava per una successiva rifrazione in senso contrario. Nelle lamine sottili avvenivano due rifrazioni in senso contrario, ma il colore permaneva.

Alla teorie cartesiana Hooke contrapponeva una teoria vibratoria. A suo parere, la luce è provocata da uno scuotimento di un mezzo; lo scuotimento si trasmette mediante pulsazioni perpendicolari alla direzione di propagazione. La velocità di propagazione è grandissima ma non infinita, eguale in tutte le direzioni di un mezzo omogeneo, come avviene per le onde generate alla superficie dell’acqua dalla caduta di un sasso. Quando un’onda incontra un mezzo diverso da quello in cui si sta propagando, cambia velocità. Ne segue, secondo un ragionamento alquanto confuso dello scienziato, che la pulsazione da perpendicolare alla direzione di propagazione diventa obliqua ed è appunto l’obliquità che causa la sensazione colorifica, precisamente: “Il blu è un’impressione sulla retina di un’obliqua e confusa pulsazione di luce, la cui parte più debole precede e quella più forte segue. E il rosso è un’impressione sulla retina di un’obliqua e confusa pulsazione di luce, la cui parte più forte precede e la più debole segue”. Gli altri colori sorgono dalla combinazione di questi due fondamentali.

Gli esperimenti sulle lamini sottili di Hooke chiudono un periodo storico di quasi un trentennio, durante il quale l’opinione scientifica più progressista seppe demolire la millenaria credenza dei colori infissi nei corpi o risultati da mescolanze varie di luce e ombra, sostituendola con la concezione che i colori sono modificazioni (sostanziali o cinetiche) della luce pura, cioè della luce bianca. Spetterà a Newton arrivare alla conclusione che il colore non è una modificazione della luce, ma esso stesso luce.

Gli scienziati di Parigi avevano preso l'abitudine di riunirsi in giorni fissi per scambiarsi informazioni e discutere le questioni scientifiche d'interesse comune. Verso il 1666 Colbert, il ministro di Luigi XIV, sull'immediato esempio della costituzione della Royal Society, capì il vantaggio e il prestigio che poteva venire allo stato, se la società privata di scienziati che di fatto si era formata fosse stata riconosciuta ufficialmente. Nacque così, nel corso del 1666, l'Academie des sciences, che contò dapprima ventun membri, tra i quali ricorderemo Huygens e Mariotte. Sparita la generazione dei grandi scienziati francesi - Cartesio, Fermat, Pascal - l'attività della nuova accademia scientifica fu nei primi tempi modesta di quantità e d'originalità, aumentando, per contrasto, il prestigio della Royal Society.

In Inghilterra e in Francia l'accademia scientifica fu concepita con scopi molto più ampi che non fosse avvenuto in Italia e inserita più intimamente nella vita del paese. Bastano trent'anni perché si radichi una tradizione e la grande accademia diventi il simbolo del livello culturale del paese che la possiede, come erano state le università nel

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;8!

XIII e XIV secolo. Ai concorsi banditi dalle accademie partecipano i maggiori scienziati, ai quali la vittoria conferisce un prestigio internazionale paragonabile al prestigio oggi dato dalla vincita di un premio Nobel. L'esempio delle accademie francese e inglese, centri di propulsione della ricerca e della diffusione scientifica, si va rapidamente estendendo in Europa nel XVIII secolo, dall'Olanda alla Germania, alla Scandinavia, all'Austria, alla Russia. Degne di nota sono: l’Accademia di Berlino, fondata nel 1700 su un progetto di Leibniz e l’Accademia di Pietroburgo, istituita nel 1724 da Pietro il Grande.

Il bisogno d'interscambio scientifico produsse nel corso del XVII secolo il crescente aumento per numero e per importanza delle lettere di contenuto scientifico tra gli scienziati, d'onde l'abbondante epistolario nelle opere degli scienziati secentisti. Le lettere avevano lo stesso ufficio che hanno oggi le memorie scientifiche o, più esattamente, i preprints. Il sistema divenne più efficace, quando alcune persone si assunsero volontariamente e gratuitamente l'incarico di raccogliere e diffondere notizie scientifiche, facendo in sostanza il servizio disimpegnato oggi dalle riviste. Ma il sistema aveva molti difetti, primo fra tutti quello di provocare litigi di priorità, che forse in nessuna epoca furono tanto numerosi e aspri come in questa.

Perciò, a imitazione delle gazzette, organi d'informazione generale diffusesi in Europa al principio del secolo, sorsero nella seconda metà del secolo i periodici scientifici. Porta la palma della priorità il Journal des Scavans, apparso a Parigi il 5 gennaio 1665, costretto a sospendere le pubblicazioni tre mesi dopo per un intervento, si disse del nunzio apostolico, il quale protestava per un articolo sull'Inquisizione apparso sul periodico. Pochi mesi dopo il Journal des Scavans, comparve a Londra, il 5 marzo 1665, il primo numero della pubblicazione mensile dal titolo Philosophical Transactions, divenuto poi, dal 1741, l'organo ufficiale della Royal Society. Le Philosophical Transactions avevano un carattere più scientifico del Journal des Scavans; i due periodici mantennero per oltre un secolo stretti rapporti di amicizia, ciascuno traducendo dall'altro memorie e notizie ritenute importanti. I due periodici erano scritti nelle rispettive lingue nazionali, ma le Philosophical Transactions pubblicarono anche, non infrequentemente, memorie in latino e più tardi anche in francese.

L'uso delle lingue nazionali era un ostacolo alla diffusione del periodico fuori del territorio nazionale, molto più grave di quanto possa esserlo oggi, perché meno diffusa era allora la conoscenza di lingue viventi non nazionali. Ogni uomo colto del tempo, invece, leggeva il latino quasi con la stessa facilità con la quale leggeva la propria lingua materna. Per questa ragione gli Acta eruditorum, apparsi a Lipsia dal 1682 al 1745, redatti in latino, ebbero un immediato successo, al quale tuttavia non furono estranei la collaborazione di Leibniz e l'alone di liberalismo intellettuale che li accompagnava, contrapposto al conservatorismo del Journal des Scavans, controllato dai gesuiti.

In conclusione per tutta la seconda metà del XVII secolo, tre grandi periodici, rispettivamente di Francia, d'Inghilterra, di Germania, assolsero il compito di diffusione, cioè di democratizzazione della scienza sperimentale. Essi, pur non avendo sostituito e non avendo voluto sostituire la corrispondenza scientifica, che continuò intensa per tutto il secolo, prepararono la volgarizzazione della letteratura scientifica del secolo successivo.

Gli strumenti di organizzazione scientifica a cui abbiamo finora accennato - accademie, musei, periodici - ebbero un altro grande compito, cioè quello di vincere le ostilità di umanisti, teologi e politici contro la scienza sperimentale. Non si trattava di

=;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sfondare una porta aperta, come oggi si può ritenere. La diffidenza verso lo studio delle scienze sperimentali era ancora grande, fomentata da interessi privati, come il mantenimento delle tradizionali cattedre universitarie. Si accusava la scienza sperimentale d'introdurre novità non necessarie, di corrompere i giovani spingendoli a indagare e a discutere su tutto, d'indurre alla disobbedienza verso i governi, di danneggiare le università, di essere pericolose per la religione cristiana e per le Chiese, e via di questo passo. Oggi si può riconoscere che i timori non erano infondati: la scienza sperimentale ebbe davvero una funzione liberatrice per l'uomo, sia pure con un'azione molto lenta protrattasi nei secoli. 6.13 Newton e Leibniz

Quando la contraddizione tra meccanicismo speculativo e

meccanicismo matematico, diventò del tutto evidente, la fisica cartesiana fu condannata. Questa contraddizione fu pienamente colta e resa evidente da Isaac Newton (1642–1727), che, insistendo sulla superiorità della legge matematica rispetto alle arbitrarie ipotesi meccanicistiche, soprattutto nel

contesto della teoria della gravitazione universale, ridusse all’oblio il cosmo di Cartesio. Nessuno scienziato ha superato Newton nella combinazione delle sue capacità sperimentali, di fisica matematica e di matematica pura. Galileo aveva sviluppato la meccanica dei corpi alla superficie della Terra, l’opera di Newton se ne differenzia per la generalizzazione del principio d’inerzia e del concetto di forza, per l’importanza attribuita alla massa nei processi meccanici, per l’estensione della validità delle leggi meccaniche a tutto l’universo, che ridà al mondo l’unità e la continuità già spezzate dalla meccanica aristotelica, con la differenza tra la fisica celeste e quella terrestre.

La splendida opera di Newton, Principi matematici della filosofia naturale (1687), contiene i concetti fondamentali, l’assiomatica della meccanica classica. La caratteristica del tutto originale della teoria di Newton era che si trattava di una teoria matematica e meccanica, una caratteristica che ogni teoria fisica ha conservato anche nel novecento. Possedendo questo duplice carattere, i Principia sintetizzarono le varie linee divergenti della meccanica seicentesca e, armonizzandole, diedero la prima precisa immagine matematica dell’universo di materia e movimento. La legge galileiana della caduta dei gravi e le leggi di Keplero diventarono casi specifici di una teoria dinamica più generale. Prima di passare ad esaminare i Principia, una delle più importanti e fondamentali opere che l’umanità abbia prodotto, è opportuno ricordare che Newton, nella prefazione alla prima edizione, aveva invitato i lettori a tenere conto di un fatto. Gli antichi, osservava Newton, ritenevano che la meccanica fosse essenziale per “investigare le cose della natura”. Essi avevano sviluppato due forme di meccanica. L'una, detta razionale, era formata da dimostrazioni, e l'altra, detta pratica, comprendeva le arti manuali. In tale suddivisione la geometria era una parte della meccanica stessa, e, come scrive Newton, “la meccanica razionale sarà la scienza dei moti che risultano da forze qualsiasi, e delle forze richieste da moti qualsiasi, esattamente esposta e dimostrata”. Gli studiosi moderni, come si legge nella prefazione di Newton, “abbandonate le forme sostanziali e le qualità occulte, tentarono di ridurre i fenomeni della natura a leggi matematiche”. I

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;:!

Principia dovevano pertanto inserirsi, secondo il loro autore, in un solco già tracciato da lungo tempo: Newton sosteneva infatti che il compito che egli si prefiggeva era quello di “coltivare la matematica per quella parte che attiene alla filosofia”, dove il termine “filosofia” indicava la filosofia naturale, e cioè l'indagine fisica sul mondo. I Principia sono organizzati in sezioni. All'inizio vengono enunciate alcune definizioni relative alla quantità di materia, alla quantità di moto e alle forze, nonché alcune considerazioni che fanno parte di uno Scolio dedicato ai concetti di spazio, di tempo e di moto. Secondo Newton occorre distinguere tra lo spazio assoluto: “per sua natura senza relazione ad alcunché di esterno” e “sempre uguale e immobile” e lo spazio relativo. Quest'ultimo è la “misura dello spazio assoluto”, il risultato di un'operazione realizzata dagli uomini. Considerazioni analoghe valgono per il tempo. Ne segue che quando si usa la parola “moto”, bisogna distinguere tra un moto assoluto e uno relativo: il primo è infatti “la traslazione di un corpo da un luogo assoluto in un luogo assoluto”, mentre il secondo riguarda la traslazione da un luogo relativo ad un altro.

Sorge un problema: è possibile distinguere un moto assoluto da un moto relativo? Supponiamo di prendere in considerazione un corpo collocato su una nave in movimento. Secondo Newton ha senso parlare di “moto vero ed assoluto” di quel corpo, intendendo quel movimento che nasce “in parte dal moto vero della Terra nello spazio immobile, in parte dai moti relativi sia della nave sulla Terra, sia del corpo sulla nave”. È comunque necessario stabilire il moto vero della Terra nello spazio assoluto, e per far ciò è indispensabile un punto di riferimento preciso, ovvero un luogo immobile. Scrive in proposito Newton: “I moti totali e assoluti non si possono definire che per mezzo di luoghi immobili... Ma non esistono luoghi immobili salvo quelli che dall'infinito per l'infinito conservano, gli uni rispetto agli altri, determinate posizioni; e così rimangono sempre immobili, e costituiscono lo spazio che chiamo immobile”. La difficoltà di questa definizione non risiede soltanto nel linguaggio newtoniano, ma nella natura stessa del problema. Newton è perfettamente consapevole che “nelle cose umane“ è lecito far riferimento a luoghi e a moti relativi. Ma, aggiunge subito, “nella filosofia occorre astrarre dai sensi”, e cioè eliminare ogni riferimento a ciò che è legittimo utilizzare nella vita di ogni giorno. In altre parole, occorre legare i nostri ragionamenti sui moti a luoghi assoluti e a tempi assoluti, anche se, negli esperimenti e nelle misure sugli spostamenti compiuti dai corpi reali, non possiamo fare altro che ragionare su dati relativi. A questo punto appare allora necessario introdurre una sottilissima analisi che riguarda “gli effetti per i quali i moti assoluti e relativi si distinguono gli uni dagli altri”.

L'analisi prende in considerazione i moti circolari, e si basa sul celebre esperimento del secchio rotante attorno al proprio asse. Il punto centrale è: quanto ci può dire la fisica su una questione importante e fondamentale come quella della natura intrinseca dello spazio e del tempo? Spazio e tempo esistono di per sé, indipendentemente dagli oggetti di cui è popolato il mondo fisico (concezione assoluta di Newton), o esistono solo in quanto relazioni di tipo spaziale o temporale tra questi oggetti (concezione relativa di Leibniz)? Dunque per Newton, il vero tempo e il vero spazio sono quelli assoluti “senza relazione ad alcunchè con l’esterno”, per cui non possono essere osservati con i sensi, da cui la necessità di considerare nella pratica, le loro “misure sensibili”, cioè lo spazio e il tempo relativi. L’impossibilità di osservare il tempo e lo spazio assoluti è di fatto il punto critico, e in quanto tale messo in discussione da Leibniz, della concezione newtoniana: perché postulare l’esistenza fisica di qualcosa che non si può osservare e che non ha, apparentemente, effetti sul mondo materiale?

==<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Newton è consapevole del problema e cerca un modo per giustificare, tramite effetti che siano invece osservabili e quindi misurabili, la necessità dell’esistenza di quantità assolute. La sua soluzione è usare effetti dinamici (i cosiddetti effetti inerziali), quali “le forze di allontanamento dall’asse del moto circolare”, come nell’esperimento del secchio rotante, dove è appeso ad un filo, ed è fatto ruotare attorno al proprio asse sino a che il filo non si trovi in uno stato di grande torsione. Si susseguono tre situazioni: all’inizio, sia il secchio che l’acqua sono fermi (non c’è moto relativo tra secchio e acqua); poi, il secchio comincia a ruotare, ma il moto ancora non si è comunicato all’acqua, la cui superficie rimane piana(c’è un moto relativo del secchio rispetto all’acqua); infine, il moto di rotazione si è comunicato all’acqua, la cui superficie s’incurva per effetto della forza centrifuga “l'acqua comincerà a ritirarsi a poco a poco dal centro e salirà verso i lati del vaso, formando una figura concava”, fino alla completa stabilizzazione della figura concava (il moto relativo tra secchio e acqua è di nuovo nullo). E allora, alla fine del moto rotatorio, si può dire che, in quel momento, l'acqua compie le “sue rivoluzioni insieme al vaso in tempi uguali”: tra acqua e vaso si ha quindi una “quiete relativa”.

La conclusione di Newton dal confronto delle tre situazioni è che il moto relativo dell’acqua rispetto al secchio non può giustificare l’effetto inerziale dell’incurvamento della superficie dell’acqua (visto che il moto relativo è nullo e compatibile sia con la superficie piana sia con la superficie curva dell’acqua). A parere di Newton la salita dell'acqua “indica lo sforzo di allontanamento dall'asse del moto, e attraverso tale sforzo si conosce e viene misurato il vero e assoluto moto circolare dell'acqua”. In definitiva ne segue che l’effetto inerziale è dovuto a un moto non relativo, e quindi a un moto rispetto allo spazio assoluto. Lo scienziato, pertanto, non è limitato dalle esperienze a considerare solamente i moti relativi. Egli, attraverso lo studio dei moti circolari e delle forze agenti, può anche conoscere dei moti assoluti. Newton commenta il risultato raggiunto con una osservazione: “E’ difficilissimo in verità conoscere i veri moti dei singoli corpi e distinguerli di fatto dagli apparenti: e ciò perché le parti dello spazio immobile, in cui i corpi veramente si muovono, non cadono sotto i sensi. La cosa tuttavia non è affatto disperata”. Questo modo di argomentare era errato, in quanto mancava ancora una concezione matura del principio d’inerzia che permettesse di indagarne criticamente i fondamenti (moto uniforme e rettilineo rispetto a quale sistema di riferimento?), e si aveva il torto di ipostatizzare la forza centrifuga, considerandola quasi come un ente a sé, distinta dall’inerzia. Si dovrà attendere fino a Mach, nella seconda metà dell’Ottocento, per raggiungere un chiarimento definitivo dal quale appare che le forze centrifughe sono originate da una rotazione relativa alle stelle fisse, in quanto se non si ha rotazione relativa a tali stelle, siffatte forze non esistono. Comunque, nel suo ragionamento, Newton procede come se la forza fosse qualcosa di estraneo alle strutture metriche dello spazio fisico, e perciò un quid di reale, che opera nello spazio, ma non è in sé spaziale: questo per lo meno nei riguardi dello spazio vero, cioè dello spazio assoluto. Per Newton, quindi, la forza è un ente primitivo irriducibile allo spazio e al tempo.

Le critiche alla concezione newtoniana non si fecero attendere. Berkeley, filosofo empirista del settecento, osservava che se in tutto lo spazio esistesse un solo corpo, non avrebbe significato dire che esso ruota o si muove a destra o a sinistra, in alto o in basso. Più approfondite sono le ragioni filosofiche che a Newton oppone il suo rivale Leibniz, per il quale i fenomeni di moto vanno considerati rispetto alla totalità dei corpi costituenti l’universo; per Leibniz, infatti, lo spazio è l’ordine delle cose che coesistono e il tempo l’ordine delle cose che si succedono. È doveroso osservare che, mentre

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==;!

Newton dice di voler fondare la sua filosofia sull’osservazione e l’esperimento, pone poi a base della sua costruzione uno spazio e un tempo assoluti, enti astratti, completamente sottratti alla nostra percezione sensibile. Essi gli appaiono come attributi divini, capaci di spiegare, da un punto di vista più alto, la realtà fenomenica.

Dunque, sebbene Newton introduca moto, tempo e spazio assoluti come limiti, tuttavia come risultato viene a proiettare il mondo fisico sullo sfondo di un tempo e spazio assoluto nel quale sono i fenomeni, e quindi non è soltanto l’ordine dei fenomeni come tali (come invece sarà per la teoria leibnitziana e kantiana). Sul che si innesta il suo contingentismo: il mondo potrebbe essere spostato nello spazio, e Dio lo ha messo qui e non altrove unicamente perché ha voluto così (dottrina, come ha osservato giustamente Leibniz, del tutto priva di senso).

Va tenuto presente che lo Scolio newtoniano sullo spazio, il tempo e il moto è un documento basilare da due punti di vista. In primo luogo esso contiene argomenti che, secondo Newton, debbono essere considerati come fondamenti (insieme alle definizioni di cui già s’é detto) della filosofia naturale. In secondo luogo esso implica una concezione dell'assoluto e del relativo che per più di due secoli rimarrà pressoché inalterata. Solo le critiche di Mach e le riflessioni di Einstein riusciranno ad andare oltre quella concezione, nei travagliati anni compresi tra la fine dell'Ottocento e l'inizio del Novecento. Dopo le definizioni e lo Scolio, Newton introduce un gruppo di assiomi o di leggi del movimento, quelle che oggi vanno sotto il nome di Principi della dinamica:

PRIMO PRINCIPIO O PRINCIPIO D’INERZIA

Se un corpo è fermo o si muove di moto rettilineo uniforme, vuol dire che non è soggetto a forze oppure che la risultante delle forze che agiscono su di esso è nulla. Viceversa, se la

risultante delle forze applicate a un corpo è nulla, esso è fermo o si muove di moto rettilineo uniforme.

SECONDO PRINCIPIO

In ogni istante l'accelerazione di un corpo è determinata dalla forza non equilibrata che agisce su di esso: l'accelerazione ha la stessa direzione e lo stesso verso della forza, il suo

modulo è proporzionale alla forza e inversamente proporzionale alla massa del corpo:

TERZO PRINCIPIO

Se su un corpo agisce una forza, allora esiste un altro corpo su cui agisce una forza uguale e contraria. Ovvero, ad ogni azione corrisponde sempre una reazione uguale e contraria.

Dai primi due principi, che in fondo sono strettamente complementari e costituiscono in sostanza un unico assioma, risulta il modello che Newton pone alla base di tutta la teoria del moto: il modello dello stato inerziale (di quiete o moto rettilineo uniforme, ossia geodetico-euclideo), ogni deviazione dal quale (interpretabile come un'accelerazione) definisce la presenza di una forza. Anche qui, dunque, come del resto in tutta la fisica del Seicento, il paradigma del moto è riportato alla concezione spaziale euclidea, cioè alla struttura di uno spazio tridimensionale continuo e affatto omogeneo, nel quale alcune linee privilegiate, le rette (e, analogamente per gli spazi, le

F!

=dp!

dt

massa

cos tante → F

!

=m ⋅ a!

===! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

superfici piane) rappresentano una traiettoria standard, detta la più breve (per definizione, in quanto tutti gli strumenti della fisica sono costruiti presupponendo appunto come più brevi la retta e il piano euclidei). Questa, come abbiamo visto, era anche la concezione cartesiana. Tuttavia il più schietto empirismo e strumentalismo newtoniano turba questa concezione matematica dello spazio fisico, sollevando problemi di interpretazione che probabilmente non sono solubili. Quanto al terzo principio, Newton non sostiene di essere lo scopritore, ma tuttavia è il primo ad enunciarlo in forma così generale, ed interessanti sono gli esperimenti, ideali e reali, che egli fornisce. Supponiamo che due corpi che si attraggono mutuamente giungano a toccarsi. Se la forza dell’uno superasse quella dell’altro, il sistema complessivo sarebbe soggetto ad una forza risultante pari alla differenza fra le due forze attrattive. Tale sistema, perciò, in base alla seconda legge, dovrebbe muoversi all’infinito di moto uniformemente accelerato, e questo è evidentemente impossibile. Dunque le due forze con cui si attraggono reciprocamente due corpi, che possono essere due masse nello spazio o una calamita e un pezzo di ferro, debbono essere assolutamente uguali. Altro esempio con le parole di Newton: “Se si pongono il ferro e la calamita su due vascelletti in acqua stagnante, e se questi vascelletti si toccano, nessuno dei due si muoverà, ma per l’uguaglianza delle loro attrazioni essi sosterranno gli sforzi reciproci e trovandosi in equilibrio rimarranno in quiete”.

Il gruppo di assiomi è seguito da alcuni corollari, quali ad esempio quello che riguarda il cosiddetto parallelogramma delle forze: “Un corpo spinto da forze congiunte, descriverà la diagonale di un parallelogramma nello stesso tempo nel quale descriverebbe separatamente i lati”. Newton non dimostra che le tre leggi sono vere. Le presenta al lettore come se fossero assiomi e, in uno Scolio collocato dopo i corollari, scrive semplicemente quanto segue: “Fin qui ho riferito i principi accolti dai matematici e confermati da numerosi esperimenti”. Ad esempio Newton sostiene, nello Scolio, che Galilei conosceva le due prime leggi e i due primi corollari, e ne fece uso per ricavare la legge di caduta dei gravi e la legge sui moti parabolici dei proiettili.

Il mondo della meccanica di Newton è abbastanza semplice: particelle che si muovono nello spazio, nel corso del tempo, attirandosi per mezzo di forze. E’ il mondo democriteo che si combina con la matematica, ossia con l’eredità pitagorica e la grande tradizione della fisica matematica. Il mondo di Newton è il mondo di Democrito matematizzato:

UNIVERSO DI NEWTON

Spazio Tempo Particelle

La prima sezione dei Principia è così completa: essa è costituita, quindi, da un

gruppo di definizioni, di assiomi e di corollari, accompagnati da considerazioni sul significato che si deve attribuire alle qualificazioni di assoluto e relativo in rapporto al concetti di spazio, di tempo e di moto. Prende allora l'avvio il primo libro, dedicato al Moto dei corpi. Questo libro è quasi completamente svolto in termini matematici, o, per meglio dire, in base a dimostrazioni di tipo geometrico. Dalle dimostrazioni in esso presenti si ricava ciò che è indispensabile per spiegare il moto dei pianeti. La successiva sezione del primo libro esamina i teoremi che riguardano il moto dei corpi nelle sezioni coniche eccentriche, e presenta la soluzione di problemi generali come il seguente:

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==4!

“Posto che la forza centripeta sia inversamente proporzionale al quadrato della distanza dei luoghi dal centro, e che sia conosciuta la quantità assoluta di quella forza, si ricerca la linea che un corpo descriverà muovendo da un luogo dato con una velocità assegnata secondo una data retta”. La soluzione di questo problema ci insegna che, a seconda dei valori assunti dalla velocità del corpo, quest'ultimo potrà percorrere un'ellisse, una parabola oppure un'iperbole. Già Galileo, ma soprattutto Huygens, avevano riconosciuto sperimentalmente e definito matematicamente il comportamento fisico di corpi che si muovono secondo traiettorie obbligate (moti gravitazionali, moti pendolari, eccetera). Newton stende un'intera dinamica di questi moti lungo traiettorie obbligate, ed anzi, la sua maggiore gloria è l'avere risolti i problemi fisici dell'astronomia copernicano-kepleriana, estendendo a tutto l'universo la legge di gravitazione, e considerando la gravità terrestre come un caso particolare di questa legge universale:

LEGGE DELLA GRAVITAZIONE UNIVERSALE

Due corpi, rispettivamente di massa m1 ed m2, si attraggono con una forza di intensità direttamente proporzionale al prodotto delle masse ed inversamente proporzionale al

quadrato della distanza che li separa. Tale forza ha la direzione parallela alla retta congiungente i baricentri dei corpi considerati:

! ! ! !!! !!!

!!

G=costante di gravitazione universale=6,67 × 10-11 N⋅m2/kg2

A questo scopo introduce il modello matematico delle forze attrattive centrali (cioè riassunte nel, e applicate al, baricentro dei corpi), dalla cui composizione secondo la legge del parallelogramma delle forze si ricavano per via matematica le orbite reali (naturalmente, idealizzate). Ma tale concetto di forza con tutte le sue sottospecie (forza di inerzia, forza di gravità, forza centripeta e centrifuga) rischia di

introdurre un elemento extramatematico nel sistema esplicativo newtoniano: tanto più che si tratta sempre di forze che agiscono in distanza. Per questo la teoria della gravitazione (e in genere tutta la teoria delle forze centrali) suscitò un coro di proteste, in particolar modo da parte dei cartesiani, in primis Huygens. Newton viene accusato di aver introdotto un principio non intelleggibile: che due corpi possano influenzarsi a distanza, istantaneamente nel vuoto. Questo principio sembrava un ritorno alle qualità occulte della filosofia aristotelica.

Il secondo libro è la parte più delicata dei Principia. In esso Newton cerca di sviluppare una trattazione matematica e sperimentale di un settore difficilissimo della meccanica, e cioè il settore che riguarda il moto dei corpi all'interno di un fluido resistente. L'insieme dei problemi affrontato è effettivamente complesso, e non si deve dimenticare che non sempre Newton riesce a trovare soluzioni convincenti. D'altra parte la meccanica dei fluidi trova nei Principia una prima ed originale esposizione, che consente alla fisica di raggiungere due mete di rilievo. La prima consiste nella possibilità di evitare le obiezioni che erano state fatte contro la fisica galileiana, in

==5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

quanto quest'ultima non aveva gli apparati teorici capaci di prendere effettivamente in considerazione il comportamento di un corpo che si muove in un mezzo resistente ma era spesso obbligata a esaminare solamente dei casi ideali di moto nel vuoto; la seconda consiste invece nell'impulso che questa parte dei Principia fu in grado di imprimere alle ricerche sull'idrodinamica.

Va altresì detto che il secondo libro è stato spesso giudicato come una parte del capolavoro newtoniano che non si inseriva armoniosamente nel complesso dei Principia, se non in quanto esaminava problemi la cui soluzione si prestava ad essere messa in gioco come arma critica nei confronti della fisica di Cartesio. Questa valutazione è solo in parte giusta. La fisica cartesiana dei vortici era un ostacolo che Newton intendeva abbattere, e una buona teoria dei fluidi rappresentava in tal caso un ottimo strumento critico. Tuttavia la teoria newtoniana dei fluidi non si riduce a questo solo aspetto. Essa è parte integrante della meccanica se si ammette una delle implicazioni più profonde della teoria matematica di Newton, e cioè l'implicazione per la quale è possibile unificare in una sola teoria la fisica del moto terrestre galileiana e la fisica dei moti planetari. Sotto il profilo dell'unificazione, la teoria dei fluidi è una parte essenziale della meccanica. Ciò non toglie che la teoria dei fluidi sia davvero una potente arma contro la fisica cartesiana. Nello Scolio che chiude il secondo libro quest'arma porta Newton a dichiarare, senza mezzi termini, che “l'ipotesi dei vortici urta totalmente contro i fenomeni astronomici, e conduce non tanto a spiegare quanto ad oscurare i moti celesti”. Il lettore dei Principia è infatti invitato a tenere presente che solo i teoremi del primo libro permettono di capire “in qual modo questi moti si effettuino negli spazi liberi indipendentemente dai vortici”. In tal modo Newton stabilisce un rapporto tra i primi due libri e il terzo, che è dedicato espressamente al “sistema del mondo” e nel quale si discute di astronomia.

Il terzo libro inizia con la seguente considerazione: “Nei libri precedenti ho trattato i Principi della Filosofia, non filosofici tuttavia, ma soltanto matematici, a partire dai quali, però, si può discutere di cose filosofiche”. Dati i principi, e cioè il gruppo delle definizioni, degli assiomi, dei teoremi e delle dimostrazioni, “rimane da insegnare l'ordinamento del sistema del mondo”, intendendo che questo ordinamento si può ricavare dai principi stessi”.

Per il passaggio dai principi al sistema del mondo Newton pensa sia necessario fissare alcune regulae philosophandi, viste come guide per chi desidera andare dalla geometria del primo libro ai moti del sistema solare, ossia giustificare l’unità delle leggi meccaniche e la loro validità in tutto l’universo. È quanto mai opportuno, allora, citare le quattro regole newtoniane, attraverso la rielaborazione nella seconda edizione dei Principia.

1. Delle cose naturali non devono essere ammesse cause più numerose di quelle che sono vere e bastano a spiegare i fenomeni.

2. Perciò, finché può essere fatto, le medesime cause vanno attribuite ad effetti naturali dello stesso genere.

3. Le qualità dei corpi che non possono essere aumentate e diminuite, e quelle che appartengono a tutti i corpi sui quali è possibile impiantare esperimenti, devono essere ritenute qualità di tutti i corpi. (La terza regola mette in discussione il significato delle qualità dei corpi).

4. Nella filosofia sperimentale, le proposizioni ricavate per induzione dai fenomeni, devono, nonostante le ipotesi contrarie, essere considerate vere, o rigorosamente

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==6!

o quanto più possibile, finché non interverranno altri fenomeni, mediante i quali o sono rese più esatte o vengono assoggettate ad eccezioni. (La quarta regola prende in considerazione il problema dell’induzione).

Sono affermazioni decise che assumono un sapore polemico verso la filosofia cartesiana. Newton contrappone alla “fisica delle ipotesi” di Cartesio, la “fisica dei principi”. Queste regole sono anche uno strumento che consente a Newton di difendere la legittimità della gravitazione universale. La gravitazione è dedotta dalle leggi di Keplero ed è sufficiente a spiegare il moto dei pianeti (prima regola). Ci consente di ricondurre alla stessa causa gli stessi effetti, come la caduta di un sasso sulla superficie terrestre e la continua “caduta” della Luna in orbita attorno alla Terra (seconda regola). Eè legittimo considerarla come “universale” dato che opera in tutti i fenomnei conosciuti terrestri celesti (terza regola). Possono essere immaginate molte altre ipotesi come alternativa alla gravitazione, per esempio quella dei vortici, ma queste non valgono nulla se non sono ottenute per induzione dai fenomeni (quarta regola). E’ quindi legittimo, secondo Newton, considerare la gravitazione universale come qualcosa di esistente in natura. Newton ritornerà sul problema della gravità nello Scolio Generale che conclude la seconda edizione dei Principia.

Avendo stabilito quali siano le regole, Newton passa ad un elenco di fenomeni. Si tratta di descrizioni quali la seguente: “I cinque pianeti primari, Mercurio, Venere, Marte, Giove e Saturno cingono il Sole con le proprie orbite”. Ogni descrizione di un fenomeno è accompagnata da considerazioni di tipo sperimentale. Così, ad esempio, è ragionevole dire che Mercurio e Venere ruotano attorno al Sole perché quei pianeti esibiscono fasi analoghe a quelle della Luna.

Dopo le regole e i fenomeni, il terzo libro contiene una serie di proposizioni, alcune delle quali in forma di teorema, grazie alle quali viene concretamente realizzato il passaggio dalla teoria matematica del primo libro alla situazione effettiva esistente nell'universo. Anche in questo caso un esempio può essere utile per comprendere lo schema dei Principia: “I pianeti sono mossi lungo ellissi che hanno un fuoco nel centro del Sole, e, con i raggi condotti a quel centro, descrivono aree proporzionali al tempi”. Si tratta di proposizioni ad altissimo contenuto teorico, la cui generalità e dimostrabilità portano all'unificazione della scienza galileiana e kepleriana. Non a caso, infatti, Newton scrive: “Conosciuti i principi dei moti, da questi ricaviamo a priori i moti celesti”. Non credo sia il caso di sottolineare l'aspetto meraviglioso di simili operazioni concettuali, grazie alle quali Newton riesce a costruire catene di ragionamenti i cui esiti sono conformi alla realtà del sistema planetario. I Principia, cosi come apparvero in prima edizione nel 1687, si chiudono con la trattazione del moto delle comete.

Halley, che aveva stimolato Newton affinché scrivesse l'opera e che aveva anche sostenuto le spese di pubblicazione della stessa, dichiarava che l’autore dei Principia aveva pressoché condotto a termine l'impresa di conoscere il mondo, e che ben poco rimaneva da fare per coloro che dopo Newton avrebbero compiuto ricerche in questo argomento e che non era più possibile credere nella dottrina cartesiana dei vortici. L'entusiasmo di Halley non poteva tuttavia cancellare i pregiudizi che ostacolavano la credibilità dei Principia e che avevano radici profonde ed estese in una cultura notevolmente influenzata dalla concezione cartesiana della fisica. Quest'ultima concezione aveva il pregio di poter essere compresa nelle sue linee generali senza dover affrontare problemi matematici di difficile soluzione, di poter essere discussa senza violare le conoscenze del senso comune e di presentarsi immediatamente, per la sua

==7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

stessa natura, a riflessioni filosofiche di notevole interesse. Si deve inoltre tenere presente che le tesi newtoniane sulla gravitazione non potevano che apparire strane a intellettuali che ritenevano fondamentale il compito di studiare la natura del moto. Quest'ultima non era l'oggetto dei Principia, i quali puntavano invece a stabilire alcuni assiomi che consentissero di ricavare a priori quelli che Newton indicava come fenomeni, senza entrare nel merito della causa della gravitazione. Da una parte giungevano critiche secondo le quali introdurre la gravitazione costituiva un ritorno alle cause occulte che erano state duramente combattute da Cartesio e da molti altri. Dall'altra parte si diffondeva il sospetto che la teoria di Newton contenesse i germi dell'ateismo, in quanto poteva far pensare a un meccanicismo che sollevava intricati problemi teologici. Nello stesso tempo i Principia avevano alcuni punti deboli, quali ad esempio quelli che riguardavano certi errori o imperfezioni e che dovevano assolutamente essere eliminati.

Esistevano quindi molte ragioni per preparare una seconda edizione, che apparve nell'estate del 1713, grazie anche ad un intenso lavoro del matematico Roger Cotes (1682-1716). La seconda edizione presentava alcune interessanti modificazioni rispetto alla prima. In particolare, essa conteneva una battagliera prefazione di Cotes e alcune pagine conclusive scritte da Newton e note come Scolio Generale. Cotes, nella prefazione, divideva gli studiosi di fisica in tre gruppi. Al primo gruppo appartenevano i seguaci di Aristotele. Essi pretendevano di analizzare le nature dei corpi ma, in realtà, non avevano nulla da insegnare poiché parlavano solamente dei “nomi delle cose” e non delle “cose stesse”. Il secondo gruppo, principalmente rappresentato dai seguaci di Cartesio, comprendeva coloro che volevano ricondurre la varietà delle forme a poche relazioni semplici, ma che esageravano nel formulare ipotesi. Essi, scrive Cotes, “cadono nei sogni, in quanto hanno trascurato la reale costituzione delle cose”. Il terzo gruppo era infine formato da quegli studiosi che seguivano la filosofia sperimentale e che a “non assumono come principio niente che non sia stato provato dai fenomeni”.

Naturalmente Newton faceva parte di quest'ultimo gruppo, ed era il primo e il solo che era stato capace di dedurre la spiegazione del sistema del mondo dalla teoria della gravitazione dopo aver ricavato quest'ultima mediante un accurato esame di fenomeni osservabili sulla Terra e nel cielo. Scriveva polemicamente Cotes: “Sento che alcuni disapprovano questa conclusione e borbottano non so che circa le qualità occulte. Sono soliti ciarlare continuamente del fatto che la gravità specialmente è un quid, e che, per la verità, le cause occulte debbono essere bandite dalla filosofia. Ma a costoro si risponde che cause occulte non sono quelle la cui esistenza si dimostra chiaramente per mezzo di osservazioni, ma soltanto quelle la cui esistenza è occulta e inventata e ancora non è stata provata. La gravità, dunque, non sarà la causa occulta dei moti celesti; se qualcosa, infatti, è appalesato dai fenomeni, è che questo potere esiste di fatto. Piuttosto, nelle cause occulte si rifugiano coloro che propongono alla guida di questi movimenti non so che vortici di materia interamente immaginata e affatto sconosciuta ai sensi”. Secondo Cotes i veri seguaci delle cause occulte erano, dunque, coloro i quali ragionavano in termini di vortici. D'altra parte, respingendo la falsa filosofia dei vortici cartesiani, Newton aveva aperto all'uomo la via per una comprensione della “compagine elegantissima del sistema del mondo”, e, nello stesso tempo, aveva insegnato a “rispettare ed adorare il fondatore e il signore dell'universo”: pertanto i Principia costituivano una “fortezza munitissima contro l'assalto degli atei”, come aveva ben capito Richard Bentley (1662-1742), illustre filologo e studioso di problemi religiosi, che contribuì ad allontanare da Newton il sospetto di ateismo.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==8!

Prendiamo adesso in considerazione lo Scolio Generale con il quale la seconda edizione dei Principia si chiude. Le tesi esposte nello Scolio, infatti, esercitarono una grande influenza sui dibattiti sul metodo scientifico che si svilupparono dopo Newton. Nelle poche pagine dello Scolio Generale si esaminano quattro problemi tra loro collegati. Il primo riguarda i vortici e il vuoto. I vortici debbono essere eliminati per poter veramente spiegare i moti celesti che avvengono nel vuoto e che sono governati dalla legge di gravità. L'eliminazione dei vortici fa tuttavia sorgere un secondo problema. Infatti i pianeti e i loro satelliti hanno moti regolari, ed è giusto chiedere quale sia la causa di tale regolarità. Newton risponde che i moti regolari “non hanno origine da cause meccaniche” ma sono il risultato del disegno divino. Il terzo problema, infatti, è il problema di Dio: “Da una cieca necessità metafisica, che è assolutamente identica sempre e ovunque, non nasce alcuna varietà di cose. L’intera varietà delle cose create, per luoghi e per tempi, poté essere fatta nascere soltanto dalle idee e dalla volontà di un ente necessariamente esistente”. L'ultimo problema dello Scolio Generale ha come oggetto lo spinoso tema della causa della gravità. Newton esclude che possa trattarsi di una causa meccanica e ammette di conoscere solamente le proprietà della gravitazione che risultano dagli esperimenti.

A questo punto lo Scolio Generale enuncia l'argomento celeberrimo sulle ipotesi: “In verità non sono ancora riuscito a dedurre dai fenomeni la ragione di queste proprietà della gravità, e non invento ipotesi. Qualunque cosa, infatti, non deducibile dai fenomeni, va chiamata ipotesi; e nella filosofia sperimentale non trovano posto le ipotesi sia metafisiche, sia fisiche, sia delle qualità occulte, sia meccaniche. In questa filosofia le proposizioni vengono dedotte dai fenomeni, e sono rese generali per induzione”. Per quanto attiene alla fisica dunque: “è sufficiente che la gravità esista di fatto, agisca secondo le leggi da noi esposte, e spieghi tutti i movimenti dei corpi celesti e del nostro mare”.

Va precisato che il termine “ipotesi” veniva usato, ai tempi di Newton, prevalentemente come sinonimo di spiegazione di un fenomeno alla luce di una visione globale della realtà. Ebbene, era proprio questo tipo di spiegazione, che noi chiameremmo metafisica, ciò che il grande scienziato voleva innanzitutto respingere nel modo più deciso e assoluto con l’affermazione hypotheses non fingo (non formulo ipotesi, l'impossibilità di andare al di là della descrizione dei fenomeni per cercarne la causa). L’esempio più noto di tal genere di ipotesi era stata la concezione aristotelica del mondo. Altro esempio, forse ancora più pericoloso perché formulato in termini più moderni, è offerto, secondo Newton, dal cartesianesimo, che pretenderebbe ricavare una concezione meccanicistica del mondo dalle speculazioni filosofiche sul concetto di sostanza estesa. Sarebbe inesatto però ritenere che con l’hypotheses non fingo Newton si limitasse a respingere le ipotesi nel senso generalissimo così come è stato accennato. In realtà egli sembra mirare talvolta anche a qualcos’altro: a respingere, in sede scientifica, il ricorso a ipotesi di più limitata generalità, ideate per spiegare questa o quella legge, questo o quel gruppo di fenomeni. È questo il motivo per cui Newton si rifiutò costantemente di cercare una causa alla più importante legge scientifica da lui scoperta, quella della gravitazione universale. La cosa indispensabile è riuscire a determinare la formula esatta che regola la forza di gravitazione e saper ricavare matematicamente tutte le conseguenze che ne derivano; quella formula e queste conseguenze esprimono rapporti che possono venire rigorosamente controllati sui fenomeni, e perciò ha senso affermare che esse sono vere o false. L’ipotetica causa da cui la legge dovrebbe dipendere esprime invece qualcosa di puramente teorico, prico di ogni possibile

==9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

verificazione; qualunque discussione sulla sua verità o falsità è pertanto priva di senso. L’hypotheses non fingo sarà destinato a divenire, nel Settecento, l’insegna della filosofia sperimentale: è anche possibile che la gravitazione non sia una legge ultima della natura, che si possa ricondurre a cause meccaniche e quindi risolvere analiticamente nelle idee di spazio e moto, ma la philosophia experimentalis deve procedere per induzione dai fatti osservati, per generalizzazioni successive, e non oltrepassare mai il piano dell'osservazione sensibile e dell'esperimento, per ora non si può riportare la gravitazione ad alcuna causa meccanica. Proprio in base a questa considerazione, l’hypotheses non fingo venne interpretato nell’Ottocento come la più tipica espressione della metodologia positivistica, e cioè come il severo richiamo a non confondere l’autentica scienza con la creazione di spiegazioni dei fenomeni, ossia l’invito ad accogliere nel patrimonio delle conoscenze scientifiche soltanto ciò che la natura stessa, opportunamente interrogata, è in grado di suggerirci.

Un più attento e realistico esame dell’opera di Newton ci conduce tuttavia a conclusioni alquanto più caute. Non si vuole certo negare che il senso profondo del canone newtoniano vada proprio cercato nel richiamo all’esperienza, intesa come controllo indispensabile di ogni affermazione che intenda venire accolta nella scienza fisica; si vuole però sottolineare che la tecnica di questo controllo non risulta affatto precisata dall’anzidetto richiamo. È del resto ben noto che tale precisazione costituisce ancora oggi un problema tutt’altro che risolto dagli epistemologi.

Bisogna d’altro canto aggiungere che lo stesso Newton lo interpretò, quando ciò gli tornava utile, con la massima libertà, segno che in esso vi scorgeva soltanto un’indicazione molto generica, e non una prescrizione da intendersi alla lettera (non certo una condanna di ogni uso delle ipotesi in fisica e tanto meno una condanna di ogni idealizzazione dei fenomeni operata dalla matematica). A conferma di ciò basti ricordare che egli stesso introdusse nella meccanica alcune nozioni, come quelle di spazio e di tempo assoluto, tutt’altro che riducibili ai semplici dati dell’esperienza, e che non ebbe affatto timore di fare ricorso all’ipotesi corpuscolare per fornire una spiegazione scientifica dei fenomeni luminosi. Possiamo dunque affermare che il rifiuto newtoniano delle ipotesi non può venire inteso, come pretendevano i positivisti dell’Ottocento, quale affermazione che tutto il lavoro dello scienziato debba esaurirsi nella pura e semplice sperimentazione. Al contrario, Newton comprese molto bene che l’idealizzazione matematica dei fenomeni, che contiene in sé sempre qualcosa di ipotetico, è altrettanto importante, per lo scienziato, quanto l’interrogazione della natura. L’essenziale è che tale idealizzazione non resti uno schema puramente teorico, ma dia luogo a conseguenze verificabili nell’esperienza e quindi possa fungere come guida per l’impostazione della ricerca fisica. Da questo punto di vista il rifiuto delle ipotesi esprime soltanto la giusta preoccupazione che il risultato ottenuto in sede ipotetico-matematica non venga accolto come automaticamente vero anche in sede fisica; interpretarlo, invece, come una mitizzazione del puro sperimentalismo significherebbe travisare la metodologia newtoniana, significherebbe perdere di vista la sua intrinseca apertura sia verso l’esperienza sia verso l’elaborazione teorica, da attuarsi con precisi strumenti matematici.

Lo Scolio, tuttavia, non termina con la dichiarazione metodologica dell’hypotheses non fingo, ma prosegue con alcune righe dedicate all'etere, che Newton definisce come: “quello spirito sottilissimo che pervade i grossi corpi e che in essi si nasconde”. È l’etere, ammette Newton, che con la sua forza e le sue azioni fa sì che le particelle interagiscano

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==:!

tra loro a brevi distanze, che si manifestino le interazioni tipiche dei corpi elettrizzati, che siano osservabili i fenomeni luminosi e che sia possibile la sensazione stessa, dovuta alle “vibrazioni di questo spirito”. Conclude Newton: “Ma queste cose non possono essere esposte in poche parole; né vi è sufficiente abbondanza di esperimenti mediante i quali le leggi delle azioni di questo spirito possano essere accuratamente determinate e mostrate”.

Le considerazioni sull’etere pongono necessariamente due riflessioni ancora sull’hypotheses non fingo. Se è vero il canone metodologico secondo il quale non ci sono nella fisica di Newton concezioni e leggi che non siano necessariamente poste dai dati dell’esperienza, allora le teorie di Newton non avrebbero mai dovuto richiedere delle modificazioni o potuto contenere implicite delle conseguenze che gli esperimenti non confermano, poiché, in un caso del genere, ogni conseguenza sarebbe altrettanto indubitabile e definitiva come lo sono i fatti sperimentali. Nel 1885, tuttavia, l’esperimento di Michelson-Morley rivelò un fatto (la non esistenza dell’etere, contrariamente a quanto sosteneva Newton) che non avrebbe dovuto sussistere se gli assunti teoretici di Newton fossero stati assolutamente veri. Ciò rese evidente che la relazione tra i fatti sperimentali e le supposizioni teoriche è del tutto diversa da quella eventualmente concepita da Newton. In altri termini, ciò significa che la teoria fisica non è né una semplice descrizione di fatti sperimentali né qualcosa di deducibile da tale descrizione. Invece, come Einstein metterà in rilievo, si perviene ad una teoria fisica attraverso mezzi puramente speculativi. La deduzione, nel suo procedimento, non va dai fatti alle ipotesi teoriche ma da queste ai dati sperimentali. Di conseguenza le teorie debbono essere proposte in linea speculativa e sviluppate deduttivamente rispetto alle loro molteplici conseguenze, in modo da poterle sottoporre a prove sperimentali indirette. In sintesi, ogni teoria fisica costruisce sempre un numero di supposizioni fisiche e filosofiche maggiore di quello che i semplici dati sperimentali fornirebbero o implicherebbero.

La seconda riflessione riguarda la possibilità di conciliare la regola dello Scolio Generale che vieta di fare ipotesi e che invita gli studiosi ad accettare una teoria per la quale “è sufficiente che la gravità esista di fatto”, con la conclusione dello Scolio stesso, nella quale il lettore è rinviato allo “spirito sottilissimo”? Non è agevole trovare una risposta, se non nelle riflessioni fatte in precedenza. Come molti storici hanno ormai dimostrato, Newton evitava quasi sempre le occasioni di discutere sulle ipotesi, in quanto desiderava rimanere estraneo, nei limiti del possibile, alle dispute. Ciò evidentemente crea difficoltà di ogni genere nell'interpretazione delle pagine newtoniane, anche perchè è ormai noto che, nella sua pratica scientifica, Newton violava con notevole frequenza le regole filosofiche e metodologiche pubblicate nei Principia. La lettera inviata a Boyle, nella quale l'etere appariva come un mezzo le cui proprietà fisiche avrebbero potuto spiegare l'attrazione tra i corpi, non è per fortuna il solo documento che Newton ci abbia lasciato. Sono particolarmente interessanti, per quanto riguarda le ipotesi sulla gravitazione, le quattro lettere che Newton inviò a Bentley tra il dicembre del 1692 e il febbraio del 1693. Nella seconda lettera si può leggere come Newton fosse desideroso di allontanare da sé ogni sospetto e ogni critica a proposito della causa della gravità: “Voi parlate a volte della gravità come essenziale e inerente alla materia. Vi prego di non attribuirmi una simile nozione; infatti la causa della gravità è ciò che io non pretendo di conoscere”. La terza lettera era ancor più esplicita: “E’ inconcepibile che la materia bruta e inanimata possa, senza la mediazione di qualcosa di diverso che non sia materiale,

=4<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

operare ed agire su altra materia senza contatto reciproco, come dovrebbe appunto accadere se la gravitazione nel senso epicureo fosse essenziale o inerente alla materia stessa. E questa è la ragione per cui desidero che non mi si attribuisca la gravità come innata. Che la gravità possa essere innata, inerente e essenziale alla materia, così che un corpo possa agire su un altro a distanza e attraverso un vuoto, senza la mediazione di qualcosa grazie a cui e attraverso cui l'azione e la forza possano essere trasportate dall'uno all'altro, ebbene, tutto ciò è per me un'assurdità così grande, che io non credo che un uomo il quale abbia in materia filosofica una capacità di pensare in modo reale, possa mai cadere in essa. La gravità deve essere causata da un agente che agisca sempre secondo certe leggi; e ho lasciato alla considerazione dei miei lettori il problema se quell'agente è materiale o immateriale”.

Questo passo deve far riflettere. Chi legge i Principia nella prima e nella seconda edizione, infatti, non ha elementi sufficienti per capire l'effettiva posizione di Newton nei confronti dell'etere e della gravità. Non a caso la diffusione del newtonianesimo passò attraverso una lettura dei Principia nella quale svolgevano un ruolo di primissimo piano le argomentazioni contenute nello Scolio Generale: per circa due secoli, generazioni di intellettuali nutrirono l'opinione che al centro del metodo trionfante di Newton stesse il celebre motto Hypotheses non fingo. Eppure, nel cuore stesso delle ricerche realmente svolte da Newton, le ipotesi, ivi comprese le ipotesi sull'etere, svolsero un ruolo fondamentale. La terza lettera a Bentley, se non altro, sta a testimoniare come Newton fosse lontano da quella immagine della gravitazione che nel Settecento e nell’Ottocento fu invece coltivata come una genuina raffigurazione della scienza dei Principia. Nessuno fu più antinewtoniano di Newton, se essere newtoniani significa, come significò per generazioni di studiosi, credere che l'azione gravitazionale sia un'azione a distanza che si esercita nel vuoto.

Più tardi, nelle grandi Questioni che chiudono l'Opticks, Newton, supponendo lo spazio pieno di etere, tenterà di spiegare la gravitazione mediante una pressione di questo etere; e poiché l’etere è lo spazio stesso in quanto spazio materiale, fisico, ciò equivale ad un tentativo (peraltro presentato in forma dubitativa, come mera ipotesi, anzi come argomento di ricerca) di ricondurre la gravitazione ad una struttura dello spazio fisico in sé. Ma nei Principia, a proposito delle forze centrali attrattivo-repulsive in generale, Newton dichiara esplicitamente che considera tali forze come semplici fictiones matematiche, cioè come modelli mediante i quali si ottiene una buona spiegazione-previsione dei comportamenti fisici, non come qualche qualità o virtù intrinseca nei corpi stessi. Si deve intendere questo soltanto per le forze centrali che implicano qualche actio in distans, oppure si deve estendere in generale al concetto di forza? Alla luce dei testi e dell'intera struttura del sistema della fisica newtoniana è difficile dare una risposta.

Sebbene storicamente meno importante, l'Opticks (1704) è, ai fini della comprensione della filosofia, cioè del pensiero scientifico, di Newton, l'opera di gran lunga più importante, soprattutto per le Questioni in cui l'autore presenta una serie di importanti ipotesi speculative sulle strutture ultime della materia come temi di future ricerche per chi vorrà intraprenderle. Nell’Ottica, Newton dice: “Il problema fondamentale nella filosofia naturale è di procedere dai fenomeni, senza fare uso di false ipotesi, e di dedurre le cause dagli effetti, fino a che si arriva ad una Causa Prima che certamente non è meccanica... E non risulta forse proprio dai fenomeni stessi che esiste un Essere incorporeo, vivente, intelligente, onnipresente, che nello spazio infinito, come nel proprio sensorio, vede le cose intimamente, le percepisce profondamente, e le

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =4;!

comprende totalmente attraverso la loro presenza immediata in Lui stesso? … Egli governa tutte le cose e conosce tutto ciò che è o che può essere fatto, ed essendo ovunque presente, e maggiormente capace di muovere i corpi entro il proprio sensorio uniforme e infinito— formando, così, e riformando le parti dell'universo— più di quanto noi non si possa essere capaci di muovere con il nostro volere le singole parti dei nostri corpi”.

Con questo modo di ragionare è possibile forse trovare nello questo spazio assoluto, pensato come sensorio di Dio, la vera causa e la possibilità stessa della gravitazione, cioè di quella azione a distanza che Cartesio e Leibnitz avversano in quanto occulta e misteriosa nel suo agire sulla materia. Il testo del newtoniano Clarke sull’argomento è chiaro: “... Poiché l'attrazione a distanza è assurda, si deve postulare un certo spirito immateriale che governa la materia ... una forza immateriale e universale ovunque e sempre presente nei corpi. La gravità o il peso dei corpi non è un effetto accidentale del moto, o di qualsiasi altra materia sottile [è uno spunto polemico contro Huygens e Cartesio], ma è una legge originale e generale di tutta la materia, istituita da Dio, e mantenuta in essa da qualche potenza efficace, che penetra perfino nella sua sostanza solida “. Pertanto, Dio stesso è il mediatore dell'azione a distanza fra i corpi, essendo esso presente ovunque, tanto nello spazio vuoto, quanto nella materia.

L’improvvisa irruzione metafisica non è che l'espressione acuta del contrasto che sorge nel pensiero di Newton al momento stesso in cui vengono introdotti i concetti di spazio, tempo, moto assoluti. Il fondamento metodologico della scienza di Newton è un empirismo moderno: la ricerca di una semplice descrizione razionale dei fenomeni, basata sull'esperienza, lasciando completamente da parte l'indagine sulle cause prime. Ma con lo spazio e il tempo assoluti, il perfetto sistema di induzione vagheggiato da Newton viene ad essere fondato su una realtà che—fin dall'inizio, e in linea di principio—è sottratta alla conferma e al confronto con la percezione immediata. Se lo spazio assoluto— che non è mai offerto alle nostre sensazioni—viene posto come base indispensabile della meccanica, allora risulta errato affermare—come pur vuole Newton— che l'esperienza è il fondamento e il limite di tutto il nostro conoscere. Un concetto puramente metafisico è preso come punto di partenza della nuova filosofia naturale, e questo crea un contrasto insanabile con lo stesso spirito della scienza di Newton, con l'essenza della sua metodologia. Da ciò la crisi dell'intera teoria, che comincia a manifestarsi fino dai primi anni e contro cui indirizzeranno le critiche di scienziati e di filosofi da Berkeley, a Mach, ad Einstein.

Le concezioni fondamentali contenute nell’Ottica, oltre l'ipotesi sulla gravitazione cui abbiamo già accennato, sono date dalla teoria della luce e dalla teoria atomica, strettamente legata alla precedente. In primo luogo, anche in Newton si trova quella distinzione tra qualità prime e qualità seconde (soggettive) che da Democrito-Epicuro era passata a Galileo, e da Galileo, attraverso Gassendi, era entrata nel patrimonio comune del pensiero europeo. Newton batte l'accento non tanto sull'essenzialità, quanto sulla costanza: le qualità essenziali e primarie della materia sono principalmente quegli aspetti fondamentalmente empirici, anche se astratti e idealizzati, che si ritrovano costantemente ovunque ci sia materia e costantemente operanti in tutti i fenomeni fisici: estensione, inerzia, impenetrabilità, elasticità, ecc. In realtà, mediante la loro enumerazione e descrizione il fisico costruisce un paradigma di materia (caso tipico l'elasticità supposta perfetta), ma un paradigma che ha le sue basi negli scopi operativi della scienza stessa e nei mezzi usati per misurare, ecc., e nelle qualità che restano, almeno relativamente, invarianti di fronte a tali operazioni.

=4=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

In secondo luogo, anche Newton, non considera le qualità secondarie o soggettive (colori, odori, sapori, ecc.) come mere apparenze non vere, bensì come aventi una loro legalità ed obiettività, ossia come il risultato di un'azione causale esercitata dai fenomeni materiali sull'apparato sensoriale. Questo era necessario premettere per capire a fondo il carattere della filosofia della natura newtoniana. Infatti mediante ciò si giustifica la riduzione della materia a particelle elementari, aventi le proprietà fondamentali della materia stessa, le quali si muovono nel vuoto: non quindi semplicemente punti massa, come sarà nell'atomistica del Settecento (e come del resto è anche per Newton finché rimane sul terreno della meccanica razionale in senso stretto), bensì atomi materiali, particelle minime, qualcosa di intermedio tra le omeomerie di Anassagora e gli atomi di Democrito-Epicuro. Prendiamo per esempio la natura della luce, di cui Newton, in aspra polemica con la scuola francese (Cartesio, Huygens), sostenne la struttura particellare anziché ondulatoria. La luce è composta di raggi cromatici, i quali viaggiano nel vuoto seguendo le leggi normali della meccanica (la rettilinearità del percorso è conseguenza del principio di inerzia): quando incontrano un corpo, se questo è molto compatto, ne vengono respinti, ed essendo elastici rimbalzano seguendo le leggi normali dell'urto. Se invece il corpo è abbastanza poroso (ossia costituito in modo che tra atomo e atomo ci siano larghi spazi vuoti), lo attraversano (tutti o in parte), ma subiscono l'attrazione gravitazionale delle particelle del corpo che attraversano, onde vengono più o meno deviati dal moto inerziale (rettilineo); questo modello spiega i fenomeni della rifrazione.

Ma vediamo che significhi raggio e che significhi colore. Il raggio è definito da Newton come la più piccola particella di luce che si possa ottenere con mezzi fisici: per esempio, la quantità di luce che passi, nel minimo tempo possibile, nel più piccolo foro possibile praticato in uno schermo opaco, dunque una specie di goccia o ago di luce. Questo procedimento è tipico di Newton, il quale in realtà opera con l'atomo come con un modello fisico (quindi qualcosa di matematicamente idealizzato), ma contemporaneamente si sforza di introdurre una nozione strettamente sperimentale, concependolo come la più piccola parte di materia isolabile operativamente.

Per quanto poi riguarda il colore, esso è dato dal grado di rifrangibilità. Come è noto, passando attraverso un mezzo rifrangente, per esempio un prisma di Islanda, la luce bianca si scompone nei colori dell'arcobaleno; partendo da questa famosa esperienza Newton la interpreta nel senso che la luce bianca è luce composta (infatti facendo passare la luce attraverso un secondo prisma analogo al primo ma disposto a rovescio la si può ricomporre), in cui i vari raggi, ossia le varie luci monocromatiche che la compongono, si rifrangono secondo angoli diversi (diversi in ampiezza scalare e in segno), cioè hanno diverso grado di rifrangibilità. Ora, il colore è matematicamente il grado di rifrangibilità di un dato raggio; continua a chiamarsi con il nome di un colore (luce gialla, luce rossa, ecc.) poiché al diverso grado di rifrangibilità è associata una diversa sensazione cromatica nel nostro apparato visivo.

Ritorniamo alla teoria atomica. Newton riprende, soprattutto in connessione con i suoi studi di chimica, la teoria del Boyle: gli atomi si associano in gruppi piuttosto stabili (aventi cioè una notevole coesione) che egli chiama atomi composti, sono gli atomi dei composti chimici. (Newton riprende anche l'idea, di origine baconiana, che questi atomi composti hanno una determinata struttura, cioè disposizione degli atomi semplici nello spazio, dalla quale dipendono i comportamenti chimici dei corpi). Come abbiamo detto, tra atomo e atomo (sia entro la molecola, sia entro il corpo

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =44!

plurimolecolare) c’è il vuoto: gli atomi sono tenuti insieme da forze attrattive di tipo gravitazionale, per quanto però Newton sospetti che siano matematicamente diverse, in quanto l'attrazione deve essere inversamente proporzionale a potenze della distanza superiori alla seconda, ossia cubica o biquadratica, cioè deve essere assai forte per distanze molto piccole, ma debolissima non appena quelle distanze sorpassino una certa misura. Con questa ipotesi Newton spiegava molti e diversi fenomeni naturali: oltre quelli ottici, come abbiamo visto, e molti comportamenti chimici, anche per esempio interpretava il calore come movimento disordinato delle particelle (quindi un movimento anticoesivo, che spiegherebbe come mai la maggior parte delle dissociazioni e sostituzioni chimiche avvengano a caldo).

Nel complesso, l’opera di Newton è forse il più compiuto modello che abbia mai avuto la fisica di armonica fusione di fatti sperimentali e considerazioni teoriche e chi legge le opere di Newton non può che rendersi conto di quanti problemi fossero rimasti insoluti accanto a quelli risolti, e di come Newton stesso fosse cosciente della ampiezza dell'ignoto e delle difficoltà che dovevano ancora essere superate per garantire la validità delle soluzioni date al sistema del mondo. Se si tiene anche conto dei trionfalismi di un certo newtonianesimo di maniera, assai diffuso nel Settecento e nell'Ottocento, credo che non vi sia conclusione migliore di quella che appare dalle seguenti parole di Einstein: “Newton stesso era ben più cosciente della debolezza insita nel suo edificio intellettuale di quanto non lo fosse la generazione di dotti scienziati che gli seguì. Questo fatto ha sempre destato la mia più profonda ammirazione”.

John Locke (1632-1704), filosofo inglese, è considerato il padre dell'empirismo moderno e dell'illuminismo critico. Alla pubblicazione dei Principia diviene uno dei più influenti difensori di Newton. Quindi può essere considerato il primo filosofo newtoniano, e senza dubbio la sua battaglia contro l'a priori cartesiano fiancheggiò validamente la lotta dei newtoniani. Nonostante le sue difficoltà matematiche nel comprendere le parti più avanzate del capolavoro newtoniano, fa dei Principia il punto di riferimento per la propria filosofia. Il Saggio sull’intelletto umano (1690), con cui si inaugura la tradizione filosofica dell’empirismo inglese, è esplicitamente presentato come una giustificazione filosofica dell’opera scientifica di Newton. E Newton trova in Locke una mente filosofica in grado di articolare una difesa del metodo dei Principia più convincente di quella fornita dalle newtoniane regole del filosofare.

Delle quattro tematiche su cui Locke concentra le sue riflessioni, a noi interessa quella della conoscenza, originata proprio dall’esperienza. La ragione, afferma Locke, è l'elemento essenziale della conoscenza, tuttavia, a differenza di altri pensatori suoi contemporanei, egli ne elabora una nuova idea. Se il razionalismo di Cartesio non aveva apportato i risultati sperati, occorreva indagare sulla ragione stessa, sul suo funzionamento, sui suoi limiti e sulle sue potenzialità conoscitive. Locke si convinse dell'esistenza di realtà conoscibili dalla ragione, mentre altre che le sfuggivano completamente. L'analisi critica preliminare è un tratto in comune con il metodo cartesiano, ma, oltre ad avere punti di partenza differenti (razionalismo per Cartesio, empirismo per Locke), sortì risultati completamente opposti. La conoscenza dei limiti della ragione è uno dei punti focali della filosofia di Locke, e intorno ad essa si basa il suo pensiero.

Locke rifiuta l'idea che nell'intelletto umano esistano principi e idee innate. Egli pensa che la mente umana all'inizio sia come una tabula rasa cioè priva di idee, senza conoscenza. La mente non contiene nessun elemento a priori e la conoscenza deriva

=45! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

integralmente dall'esperienza. Egli dunque critica l'innatismo cartesiano, cioè l'esistenza di idee innate che l'animo umano riceve con l'esistenza stessa. Ma se per Locke la conoscenza e quindi l'idea di Dio non è innata, allora che origine hanno le idee secondo il filosofo? Qui egli dimostra la sua indole empirista, considerando la conoscenza frutto della ragione, ma non della ratio cartesiana, cioè una ratio certa, assoluta ed indiscutibile, bensì una ragione che necessita di prove empiriche, sul modello della prassi scientifica. Dunque Locke arriva a formulare una teoria basata sui sensi. Conoscenza che deriva dall'esperienza sensibile. Sono i nostri sensi, come per esempio l'ottica, che ci mostrano il mondo, gli oggetti. Se in un primo momento è la sensazione a mostrarci gli oggetti, necessariamente segue ad essa la riflessione.

Prima di iniziare qualsiasi indagine filosofica è indispensabile criticare l'intelletto umano per conoscerne le effettive capacità. "Critica", in questo senso, non significa biasimo ma esame, ricerca. Locke capì che prima di impegnarsi in ricerche di ogni genere bisognava esaminare le proprie capacità e vedere quali oggetti siano alla portata della nostra intelligenza e quali siano superiori alla nostra comprensione.

Affrontando il problema della conoscenza umana egli afferma che la conoscenza deriva dai sensi e che ciò che risulta al di fuori della nostra esperienza non è conoscibile. Locke prende in questo modo le distanze sia dal dogmatismo sia dallo scetticismo. Egli sostiene che ciò che conta non è conoscere ogni cosa ma solo quello che ci è utile per dirigere razionalmente la nostra vita pratica. Per questo non dobbiamo turbarci se non è possibile conoscere tutto in modo certo, e che dobbiamo accontentarci di una quieta ignoranza nei confronti di ciò che è impossibile alla nostra comprensione. Locke afferma così la natura pratica del conoscere. La sua ricerca è dunque uno studio analitico dei poteri della mente umana.

Secondo Locke, la mente non ha nulla da pensare se prima l'esperienza non le ha fornito le idee su cui riflettere. L'esperienza è il fondamento di ogni conoscenza umana, nonché il metro, con cui essa deve giudicare le conoscenze che di volta in volta ha acquisito (per questo l'esperienza si trova all'inizio, ma anche alla fine del processo conoscitivo). Ciò che osserviamo, sia esternamente (oggetti esteriori e sensibili), sia internamente (operazioni interiori della nostra mente) rappresenta il materiale di cui l'intelligenza si serve per la conoscenza. Le idee sono “tutto ciò che è oggetto della nostra intelligenza quando pensiamo”, cioè ogni contenuto della mente sia le immagini sensibili sia i concetti astratti. La mente riceve le idee da due fonti: la sensazione e la riflessione (che è una sorta di senso interno). La sensazione offre all'intelletto le impressioni delle cose esterne procurando appunto idee di sensazione (colore, odore ecc.); la riflessione fornisce all'intelletto la percezione degli stati interiori creando le idee di riflessione (desiderio, volontà, decisione ecc.). Tutta la conoscenza ha origine e fondamento da queste due fonti.

Sensi e riflessione producono le idee semplici, l'alfabeto del pensiero, gli elementi primi e fondamentali della ulteriore conoscenza che la mente riceve passivamente. Alcune idee però rivelano qualità proprie dei corpi, immutabili, altre solo delle modificazioni dei nostri sensi in presenza di un dato oggetto, destinate perciò a mutare in conseguenza delle varie situazioni. Perciò Locke distingue le qualità sensibili in primarie e secondarie. Chiama qualità primarie quelle che sono oggettive, inseparabili dagli oggetti come estensione, solidità, movimento, ecc. e qualità secondarie quelle soggettive che non appartengono agli oggetti ma che i sensi percepiscono perché

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =46!

prodotte dalle varie combinazioni delle qualità primarie come il colore, il sapore, il suono, ecc.

Le idee semplici costituiscono i materiali della conoscenza, quelle di cui possiamo avere certezza, perché intuitivamente apprese in base al criterio dell'evidenza sensibile; proprio per questo le idee semplici rappresentano la vera essenza delle cose, esse sono anche il suo limite. L'intelletto non è però solo passivo; ha il potere, infatti, di combinare e comparare le idee semplici creando una infinità di idee complesse. Tra le molteplici idee complesse particolarmente importanti sono le idee complesse di sostanza. Le idee complesse di sostanza sono quelle combinazioni di idee semplici che spingono l'intelletto a rappresentarsi l'idea di un che di sussistente per se stesso, al quale tutte quelle idee semplici possono essere riferite (ad esempio: l'uomo, l'albero, la sedia). Tali idee hanno origine dalla consuetudine che la mente ha di considerare un certo numero di idee semplici costantemente insieme, ma non sono affatto certe, ma solo altamente probabili. Pertanto le idee complesse non sono conoscibili poiché esse possono essere risolte sempre a partire dalle idee semplici che ineriscono in essa. Per Locke, quindi, la sostanza è qualcosa di oscuro e indeterminato quel quid che senza le idee semplici si dissolve nel nulla.

Il limite della conoscenza umana viene così fissato con chiarezza: l'uomo non ha alcuna conoscenza dell'essenza delle cose perché è privo delle facoltà di raggiungerla. L'intelletto umano per Locke non può andare oltre l'ambito dei fenomeni.

Infinitamente inferiore al rivale Newton come scienziato, come pensatore scientifico Gottfried W. von Leibniz (1646-1716), Leibniz è invece forse la figura più importante del XVII secolo. Fuori che nelle matematiche pure, i contributi scientifici di Leibniz sono infatti pressoché nulli, ma, assai più di Newton, egli ha cercato di elaborare in una visione unitaria tutta la struttura del mondo come si era venuta costruendo ad opera della scienza moderna.

Leibniz, considerando il meccanicismo cartesiano come materialismo, vedeva nella filosofia di Cartesio le fondamenta dell’ateismo. Ad opera delle leggi di natura (aveva scritto Cartesio nei Principia philosophiae) “la materia assume in successione tutte le forme di cui è capace: se consideriamo tali forme per ordine si potrà giungere a quella che è propria di questo mondo”. Se la materia, commenta Leibniz, può assumere tutte le forme possibili, ne segue che nulla di ciò che si può immaginare di assurdo, bizzarro, contrario alla giustizia non è accaduto o non potrà un giorno accadere. Allora, come vuole Spinoza, giustizia, bontà e ordine divengono solo concetti relativi all'uomo. Se tutto è possibile, se tutto ciò che è possibile è nel passato, nel presente e nel futuro, come vuole anche Hobbes, allora non c'è alcuna Provvidenza. Sostenere, come fa Cartesio, che la materia passa in successione tutte le forme possibili, equivale a distruggere la saggezza e la giustizia di Dio. Il Dio di Cartesio, conclude Leibniz, “fa tutto ciò che è fattibile e passa, seguendo un ordine necessario e fatale, per tutte le combinazioni possibili: a ciò bastava la necessità della materia, il Dio di Cartesio non è altro che tale necessità”.

Nella prospettiva di Leibniz, quindi, il cartesianesimo si configura come materialismo. Quelle affermazioni di Cartesio appaiono identiche, nella sostanza, a quelle contenute nel quinto libro del De rerum natura di Lucrezio: in un tempo infinito si producono tutti i possibili generi di incontri e di moti e di combinazioni di atomi e si produce quindi anche il mondo reale. Leibniz, però, è largo di riconoscimenti al meccanicismo come uno strumento utile nell'indagine fisica, ma è radicalmente

=47! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

inadeguato e insufficiente sul piano metafisico. L'indagine sulla struttura dell'universo non è separabile dalla ricerca sulle “intenzioni “ di Dio: ragionare su una costruzione vuol dire infatti anche penetrare i fini dell'architetto; per spiegare una macchina è necessario “interrogarsi sul suo scopo e mostrare come tutti i suoi pezzi servono ad esso”. I filosofi moderni sono “troppo materialisti” perché si limitano a trattare delle figure e dei moti della materia. Non è vero che la fisica deve limitarsi a chiedersi come le cose sono escludendo la domanda sul perché esse sono come effettivamente sono. Le cause finali non servono solo ad ammirare la saggezza divina, ma “a conoscere le cose e ad adoperarle”. La critica al meccanicismo di Cartesio investe i presupposti fondamentali: la riduzione della materia a estensione; la costituzione corpuscolare della materia e la sua divisibilità in atomi non ulteriormente divisibili; la passività della materia; la distinzione tra il mondo della materia e quello del pensiero.

La dottrina di Leibniz, quindi, pur affermando con pari energia l’ordine del mondo, vede in esso una libera creazione di Dio e si sforza di conciliare il meccanicismo con il finalismo, la nuova scienza della natura con i principi della metafisica. Il pensiero che domina tutte le multiformi attività di Leibniz è questo: esiste un ordine non geometricamente determinato e quindi necessario, ma spontaneamente organizzato e quindi libero. Se per Spinoza c’è un solo ordine, univoco e necessario, che è Dio stesso; per Leibniz c’è invece un ordine non necessario, ma contingente, che risulta il frutto di una scelta. Infatti Leibniz presenta Dio come colui che ha scelto tra i vari ordini possibili dell’universo il migliore o più perfetto. Un ordine che includa la possibilità della scelta (non solo divina, ma anche umana) e che sia suscettibile di essere determinato dalla scelta stessa, è quello che Leibniz cercò di riconoscere e realizzare in tutti i campi della realtà. Sarà partendo dalla sua costruzione che Kant tenterà un'interpretazione filosofica complessiva della scienza newtoniana.

Il massimo titolo di gloria di Leibniz matematico è certamente costituito dal calcolo infinitesimale, cui giunse più o meno contemporaneamente a Newton, anche se con una differente impostazione. Più perplessi lascia l'opera fisica di Leibniz, troppo nebulosa nei suoi aspetti propriamente scientifici e troppo legata alla sua filosofia generale (metafisica).

Nonostante la rivolta contro Cartesio e la lunga polemica sostenuta contro i cartesiani, anche Leibniz diffida dell'esperienza, come Cartesio: il metodo di ricerca che può condurre alla verità è il metodo deduttivo d'Euclide. A questo ideale s'era ispirato nel 1671, esordendo con una Theoria motus abstracti (1671), contemporanea a una Theoria motus concreti (1671), impregnate entrambe di una metafisica spiritualista, della quale è difficile cogliere il contenuto e il significato meccanico. L'incontro con Huygens nel 1675 fu decisivo; Leibniz si convinse che la sola estensione figurata di Cartesio non era sufficiente per l'interpretazione della natura e che non sarebbe possibile rendere conto della forza dei corpi, se non si ponesse in essi qualche altra cosa oltre l'estensione e l'impenetrabilità. Per superare la difficoltà non c'è altra via, secondo Leibniz, che ammettere francamente il seguente principio metafisico: l'effetto totale è eguale alla causa piena. Il principio, secondo lui, dà il mezzo di sottoporre le forze al calcolo.

Leibniz non considerò l'estensione e il movimento, fondamentali nella fisica cartesiana, come gli elementi originari del mondo fisico; egli ritenne che l'elemento originario della materia fosse la forza. Il pensiero di Leibniz è guidato da un’intuizione profonda, sia pure d’ispirazione metafisica: c’è nella natura qualche cosa che si conserva in eterno, qualche cosa d’indistruttibile voluta dalla “sapienza e dalla costanza del

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =48!

Creatore”. Nello Specimen dynamicum (1695) introduce, allora, la distinzione, contro Cartesio e in genere contro il meccanicismo classico, tra la forza (vis) e forza viva (vis viva), la prima uguale al prodotto della massa per la velocità (F= mv), la seconda al prodotto della massa per il quadrato della velocità (F=mv2), e pressappoco identica (perché poi Leibniz farà un mucchio di confusioni) all'energia cinetica della fisica odierna. Secondo lui, ciò che rimane costante nei corpi che si trovano in un sistema chiuso non è la quantità di movimento o di moto (postulata da Cartesio), ma la quantità di azione motrice o forza viva (oggi diremmo: l'energia cinetica). Questo risultato rappresenta il più grande titolo di merito di Leibniz nella meccanica.

Ai suoi occhi la correlazione tra statica e dinamica dava la misura della varietà e della fecondità dei suoi principi metafisici, in particolare del principio di continuità (natura non facit saltus, la natura non fa salti) e dell’eguaglianza tra causa piena ed effetto intero.

La forza viva rappresenta la possibilità di produrre un determinato effetto, per esempio il sollevamento di un peso; così implica un'attività o produttività la quale è esclusa dal movimento, che è la semplice traslazione nello spazio. Leibniz considera perciò la forza come assai più reale del movimento. Il movimento non è reale di per sè stesso, come non sono reali di per sè stessi lo spazio e il tempo, che devono piuttosto essere considerati come enti di ragione. La forza, invece, è la vera realtà dei corpi. Il concetto di forza serve a Leibniz per oltrepassare il meccanicismo nella spiegazione dei fenomeni naturali. Leibniz accetta il meccanicismo cartesiano solo come una spiegazione provvisoria che esige di essere integrata da una spiegazione più alta, fisico-metafisica. Egli ammette che nella natura tutto avviene meccanicamente e cioè che tutto si possa spiegare in essa con le nozioni di figura e di movimento, ma nello stesso tempo ritiene che i principi stessi della meccanica e le leggi del movimento nascano da qualcosa di superiore, che dipende piuttosto dalla metafisica che dalla geometria. La forza è appunto questo superiore principio metafisico che fonda le leggi stesse della fisica.

Leibniz distingue la forza passiva, che costituisce la massa di un corpo ed è la resistenza che il corpo oppone alla penetrazione del movimento, e la forza attiva, la vera e propria forza, che è la tendenza all'azione. Questa forza attiva è avvicinata da lui alla entelechia aristotelica (intesa come una perfezione avente in sè stessa il principio del proprio agire). Ma è evidente che la stessa massa materiale, ridotta a forza passiva, non è più nulla di corporeo. Di conseguenza, l'ultimo risultato della fisica di Leibniz è la risoluzione della realtà fisica in una realtà incorporea. L'elemento costitutivo della natura, riconosciuto nella forza, gli si rivela di natura spirituale.

Accanto alla gravitazione newtoniana, anche questa concezione segna una rottura negli schemi del meccanicismo classico, nel senso che anche qui si introduce nelle strutture del mondo fisico qualcosa che non si lascia ridurre all'estensione e al moto come mero attributo dell'estensione stessa, qualcosa che si proietta nello spazio ma non è spazio, e quindi rende problematica la riduzione della fisica a geometria. Così secondo la metafisica propria di Leibniz tempo, spazio, materia non hanno una vera e propria realtà. Tuttavia queste tre nozioni costituiscono il quadro categoriale della fisica-matematica moderna. Essi, dice Leibniz, sono fenomeni, e critica le nozioni di tempo, spazio e moto assoluti del suo rivale inglese Newton: per lui tempo e spazio si risolvono in rapporti di coesistenza e successione tra i fenomeni, sono due ordinamenti del mondo fenomenico stesso; tempo e spazio non sono né sostanze né esseri assoluti,

=49! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sono “cose relative”; per cui, per esempio, non ha senso dire, come diceva Newton, che Dio avrebbe potuto collocare il cosmo astronomico (che a quel tempo veniva pensato finito) più a destra o più a sinistra di dove lo ha collocato, perché, osserva Leibniz, un cosmo collocato più a destra o più a sinistra dell'attuale, tutto il resto rimanendo identico, ne risulterebbe al tutto indiscernibile, quindi sarebbe ad esso identico.

Resta il problema del moto. Non più proiettato contro lo sfondo di uno spazio assoluto, cessa di essere qualcosa di estrinseco ai mobili, per divenire (un principio fondamentale della filosofia leibniziana secondo cui non esistono denominazioni puramente estrinseche) denominazione intrinseca. Anche qui la mera traslazione spaziale è il fenomeno, l'apparenza sulla quale può operare il sapere intellettuale, ma che rappresenta soltanto un'impalcatura provvisoria. In realtà ogni mutamento è il prodotto di un'energia interna alla sostanza individuale semplice (o monade, di cui l'energia cinetica è la manifestazione fisica più adeguata), per cui essa passa attraverso una serie di mutamenti (percezioni) derivanti dalla legge costitutiva della monade stessa (e appunto per questo, che esse derivano sempre e soltanto da tale legge costitutiva, tutte le denominazioni sono intrinseche). L’introduzione del concetto di monade segna per Leibniz la raggiunta possibilità di estendere al mondo fisico il suo concetto dell'ordine contingente e di unificare perciò il mondo fisico e il mondo spirituale in un ordine universale libero.

Il termine monade vuol sottolineare l’inconfondibilità delle sostanze singole con gli atomi materiali: “Gli atomi non sono che l’effetto della debolezza della nostra immaginazione, la quale, per trovare riposo, volentieri arresta a un dato punto le sue divisioni e le sua analisi”.; le monadi, invece, sono indivisibili in se stesse e non per la pigrizia del soggetto nel proseguire la propria analisi. La monade è atomo spirituale, una sostanza semplice, senza parti, e quindi priva di estensione o di figura e indivisibile. Come tale, non si può disgregare ed è eterna: soltanto Dio può crearla o annullarla. Ogni monade è diversa dall'altra: non vi sono in natura due esseri perfettamente uguali, cioè che non siano caratterizzati da una differenza interiore.

Leibniz insiste su questo principio che egli chiama della identità degli indiscernibili. Due cose non possono differire solo localmente o temporalmente, ma è necessario sempre che interceda fra esse una differenza interna. Due cubi uguali esistono solo in matematica, non in realtà. Gli esseri reali si diversificano per le qualità interiori; e anche se la loro diversità consistesse soltanto nella loro diversa posizione nello spazio, questa diversità di posizione si trasformerebbe immediatamente in una diversità di qualità interne e non rimarrebbe quindi una semplice differenza estrinseca. Anche la materia è costituita di monadi. Essa non è veramente nè sostanza corporea nè sostanza spirituale, ma piuttosto un aggregato di sostanze spirituali. Questo si collega con la teoria della materia e in particolare con il giudizio di Leibniz sulla teoria atomica. Il modello dell'atomo, particella materiale indivisibile e inerte che si muove del tutto estrinsecamente sullo sfondo di uno spazio assoluto vuoto, è cosa che Leibniz non può accettare. In primo luogo perché non c'è propriamente spazio, tanto meno quindi spazio vuoto; in secondo luogo perché non si può pensare la materia come inerte e il moto come estrinseco; finalmente perché se la materia è, cartesianamente, estensione, essa è divisibile all'infinito. Tuttavia, riconosce Leibniz, in molti campi della meccanica il modello atomico rende ottimi servigi, per cui esso ha una sua verità. Non bisogna però attribuire a Leibniz una specie di pragmatismo ante litteram, neppure sul tipo di quello che pochi decenni dopo si svilupperà in seno alla scuola newtoniana (Hume). Il fatto

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =4:!

che l'ipotesi atomica è uno strumento di lavoro è segno che il concetto di atomo è un simbolo, inadeguato e parziale, sì, ma valido nel mondo fenomenico, di una realtà più profonda: la realtà dell'atomo metafisico, la monade, inestesa, semplice e sorgente di energia. Di qui il tentativo, che fa di Leibniz il massimo pensatore scientifico di questo periodo, di inserire nella propria visione complessiva anche i risultati della biologia, superando i limiti della fisica-matematica entro i quali era rimasto tutto il pensiero scientifico del Seicento.

L’universo di Leibniz costituito da sostanze individuali o monadi, assimilabili a punti matematici o ad atomi, ma di essenza spirituale, dotate di quella forza che si manifesta ovunque, è certamente una visione metafisica in contrasto con la concezione atomica sia di Newton che di Cartesio, eppure sembra quella più moderna alla luce dei successivi sviluppi della fisica. Infatti, all'inizio dell'ottocento alcuni fisici teorici, come Ampere e Cauchy, sottolineranno che, specie con il progredire della fisica anche nei campi dell'elettricità e del magnetismo, gli atomi tendevano sempre più a divenire semplici centri o portatori di forze, che nulla avrebbe vietato di concepire come semplici punti privi di estensione, in quanto centri da cui irradiano le forze medesime. Anche la fisica moderna, quando si rivolge alle particelle elementari, è tutt'altro che aliena da concezioni del genere. È naturale che, partendo da queste premesse, Leibniz possa facilmente confondere, e talvolta anche in modo intenzionale, la forza nel suo concetto più ampio, o addirittura puramente spirituale, e la forza come concetto della meccanica. Non si tratta però di semplice confusione, giacché i suoi brani sull'argomento sono ricchi di intuizioni suggestive, che talvolta si troveranno sviluppate poi da altri pensatori: come in una progressione aritmetica ogni termine risulta individuato dal precedente e dalla legge che regola la progressione stessa, così come ogni successivo istante nell'infinito divenire di questo universo di monadi, è contenuto nel presente, e in una suprema legge logico-matematica che lo governa. Questo pensiero lo ritroveremo, un secolo più tardi, in un passo famoso di Laplace: se ci fosse consentito di esprimere con una formula sintetica una proprietà essenziale di questo universo, potremmo allora dedurre da essa tutti gli stati successivi di ogni singola parte dell'universo, in qualunque istante desiderato. Pertanto, le monadi, che alla nostra mente raziocinante appaiono materia e forza, hanno ciascuna una propria vita intima e progrediente che le porta a esplicarsi, ad essere, in ciascun istante, diverse da ciò che erano prima; per cui questo divenire è generato da ciò che la fisica, e l'intuizione comune, dicono forza, ma che, guardata dal punto di vista filosofico, non è estrinseca alla monade: rappresenta, piuttosto, “lo stato attuale del divenire, in quanto tende a, o preinvolve, il seguente, onde ogni presente è gravido del futuro”.

Leibniz si attiene ad un principio di continuità e di permanenza del reale, evidentemente suggerito dal suo sistema: i vari istanti dell'universo si equivalgono, non c’è nessuno che possa contenere più realtà dell'altro. Perciò la stessa equivalenza deve sussistere fra istante precedente e istante seguente, fra causa ed effetto. Da ciò il fondamento metafisico della sua famosa legge di conservazione della forza viva. Lo studio dell'urto dei corpi elastici o anelastici era da tempo all'ordine del giorno, e Cartesio ne aveva tratto la sua legge della conservazione della quantità di moto anche per lui connessa ad un principio metafisico. Entrambi questi principi di conservazione, ispirati a visuali metafisiche, anche se esprimono una concezione troppo limitata e quindi erronea, avviano tuttavia verso il principio più ampio della conservazione

=5<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

dell’energia meccanica o della conservazione dell’energia in generale, che verranno conquistati più tardi.

Il pensiero scientifico leibniziano è dunque giocato sulla tensione tra una metafisica di tipo platonico, per cui alla base sta un progetto o piano dell'Essere interamente razionale, costituito da idee pure e dai loro rapporti intrinseci, e una visione del mondo fisico semi-empiristica, decisamente relativistica, persino con venature pragmatistiche. La mediazione è cercata da Leibniz in un principio che nel Settecento acquisterà poi un significato assolutamente diverso: il principio di ragion sufficiente. Esso deve mediare il passaggio, che già aveva un po’ preoccupato Cartesio aprendo una piccola breccia nel suo razionalismo, tra l'ordine necessario della ragione, il puro rapporto logico tra le idee (verità di ragione), che tuttavia resta sul piano del possibile, e l'ordine contingente dei fatti empirici (verità di fatto) in cui non sono mai realizzate tutte le possibilità ideali. La discriminazione tra il possibile e il fattuale è affidata alla sola esperienza : essa sola ci deve dire che un evento accade e un altro no, che un essere esiste e l'altro no.

Il contingentismo, così aspramente criticato in Newton, è ben profondamente radicato in tutto il pensiero scientifico moderno, se lo ritroviamo anche in Leibniz. Ma questi esige che, almeno, si possa assegnare una ragione sufficiente (non quindi necessaria) al contingente empirico, che si possa trovare un motivo perché le singole cose ed eventi del mondo siano così piuttosto che in un altro modo possibile. Che poi Leibniz finisca in piena teologia con l'affermare che Dio, tra tutti i mondi possibili, ha scelto il migliore, è cosa che qui non ci interessa. Ci interessa invece la più modesta applicazione scientifica che ne fa Leibniz, adoperandolo piuttosto come principio di ragione mancante, un principio generalissimo di cui quello di inerzia potrebbe considerarsi un'applicazione particolare: non può accadere un evento piuttosto che un altro se manca la ragione per cui uno dei due debba verificarsi a preferenza dell'altro (i due piatti di una bilancia su cui siano stati posti pesi uguali restano in equilibrio mancando la ragione per cui uno dei due dovrebbe traboccare). Così mentre il trapasso dalla metafisica alla fisica è mediato da una fede teologico-ottimistica nella sapienza e bontà di Dio, l'applicazione scientifica del medesimo principio mette in rilievo una struttura a priori del pensiero umano, per cui questo tende a interpretare l'empiria fattuale mediante una serie di regole e strutture fondamentali (quali, appunto, il principio di ragione e la legge di continuità) che ricostituiscono in seno alla natura fattuale una specie di necessità logica.

In questo universo razionale di Leibniz la sua dottrina della conoscenza, profonda e moderna, è legata al concetto matematico di funzione, che egli coglie e denomina per primo: “Si dice che y è funzione di x quando a certi valori di x, corrispondono valori determinati di y “. Proprio questo concetto di funzione ispira una nuova dottrina della conoscenza, nella quale le idee, in quanto simboli della realtà, non hanno bisogno di riprodurla a guisa di copie, ma consentono piuttosto di rappresentare e di elaborare le relazioni che sussistono fra gli eventi reali, permettendo di raggiungere una veduta razionale della realtà stessa. Dal punto di vista storico, questa radicale trasformazione della comune veduta gnoseologica, apportata per la prima volta da Leibniz, grazie al concetto di funzione, è di grande importanza, giacché permette di superare in modo definitivo l'idea della conoscenza esatta come copia della realtà: “Non occorre che ciò che conosciamo circa le cose esterne sia perfettamente simile ad esse, ma occorre piuttosto che le esprima, come un'ellisse esprime una circonferenza vista obliquamente, in modo che ad ogni punto della circonferenza ne corrisponde uno

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =5;!

dell'ellisse, e viceversa, secondo una certa legge di relazione”. A partire da tale concetto, Leibniz ripensa la distinzione democritea fra qualità primarie e secondarie, assoggettandola ad un approfondimento importante. Nei Nuovi saggi sull'intelletto umano egli osserva che idee come quelle di colore o di dolore non possono essere “semplicemente arbitrarie, e prive di connessione naturale con le loro cause... Esiste qui, fra causa ed effetto, una specie di somiglianza, la quale non si verifica fra i termini stessi, ma ha piuttosto natura espressiva, e si fonda su un rapporto di corrispondenza, così come un'ellisse o una parabola o un'iperbole assomigliano, sotto un certo aspetto, alla circonferenza. Perciò le qualità secondarie, o qualità confuse dei sensi esprimono proprietà reali dei corpi, anche se non sono assoggettabili alle analisi della matematica e della dinamica, a cui si prestano invece le qualità distinte (grandezza, figura, moto...). L'ottica, l'acustica, la meccanica, la termologia e la chimica—e, in una parola, tutti i progressi della scienza del secolo—non dimostrano che il mondo dei sensi è una illusione. Il compito di queste scienze esatte è soltanto quello di ridurre le qualità confuse dei sensi alle qualità distinte che le accompagnano, come numero, grandezza, figura, moto e solidità”. Solo grazie a tale riduzione—che riporta le qualità sensibili ad una determinata struttura geometrica o cinematica—potremo assoggettare al calcolo e alla dimostrazione i fenomeni del mondo sensibile. Tale riduzione non è, dunque, una rivelazione della vera natura delle cose. Essa è resa necessaria, piuttosto, dalla natura della nostra ragione, che deve servirsi dei concetti di grandezza, figura e movimento, per riferire il reale a percezioni precise atte a renderlo intelligibile, in modo da assoggettarlo al calcolo.

Così intesa, l’interpretazione meccanica dei fenomeni fisici non costituisce un argomento a favore del materialismo (Leibniz nega addirittura l'esistenza della materia), ma solo una prova che la realtà sensibile può e deve essere risolta in concetti trasparenti all'intelligenza dell'uomo, cioè, in ultima analisi, in quelle relazioni logiche e matematiche in cui esclusivamente risiede secondo Leibniz la verità. La teoria della conoscenza ci porta così, anch'essa, alla veduta di un universo completamente spirituale, in perfetto accordo con la dottrina dell'universo composto di monadi: “Nulla è nell'intelletto che prima non sia stato nel senso, ad eccezione dell'intelletto stesso” celebre assioma che già contiene in nuce quello che sarà il trascendentalismo kantiano.

=5=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&()!

La cosa più bella che possiamo sperimentare è il mistero; è la fonte di ogni vera arte

e di ogni vera scienza

Einstein

!"#0-))-*-&)%#-#"3(4%+-%#

'-""(#$-**(&!*(#

7.1 Introduzione

Il secolo XVIII segna il culmine dello sviluppo della scienza moderna prima che

essa subisse la grande trasformazione, e la conseguente crisi che, iniziatasi nell'epoca romantica, ha caratterizzato la scienza contemporanea. Il programma baconiano di procurare il dominio dell'uomo sulla natura e con esso il benessere per la società umana mediante il sapere scientifico, in questo secolo non appare un sogno utopistico, bensì uno scopo non solo storicamente attuabile, ma anzi in rapida via di attuazione, donde l'ottimismo circa le sorti del genere umano, e soprattutto circa le possibilità che a questo possono derivare dallo sviluppo della ragione e della scienza.

Ma quello che più caratterizza la posizione del pensiero scientifico nel Settecento è la centralità che viene assegnata alla scienza in tutta quanta la cultura, dalla politica fino all'arte e alla religione. Il progresso delle scienze, i nuovi orizzonti che in virtù di tali progressi esse vengono ad aprire facendo vaste brecce in tutti i campi della cultura tradizionale, l'autorità di cui esse godono fanno sì che tutti i campi della cultura vengano permeati di spirito scientifico e di fiducia in tale spirito. La scienza viene così a costituire non solo e non tanto il fondamento materiale, quanto con una ripresa dell'ideale cartesiano che va ben al di là dei limiti storici del cartesianesimo, un modello da imitare. La mente umana ravvisa nella ragione scientifica la base della propria sicurezza e della propria libertà il fondamento su cui edificare un sapere che la svincoli dai terrori dell'aldilà e dai pregiudizi tradizionali. E questo atteggiamento sarà detto Illuminismo e verrà assunto a definire non solo la cultura del Settecento ma un aspetto ricorrente della civiltà occidentale di tutte le epoche e di tutte le nazioni.

Il Settecento, pur non annoverando, sul piano strettamente scientifico, figure eccezionali e contributi originali come quelli dovuti nel Seicento a Galileo, Cartesio,

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =54!

Fermat, Newton, Huygens, Leibniz, è, però, nel Settecento che si consolida una vera e propria cultura scientifica e si plasma in maniera definitiva il volto della civiltà moderna, così come del resto accade sul terreno politico (dopo la preparazione del Cinquecento, nel Seicento si consolidano le forme degli stati moderni, ma solo nel Settecento si compie la rottura definitiva con le strutture medioevali e le loro eredità e sorgono gli stati veramente moderni). E questo è dovuto certamente allo straordinario contributo dell’Illuminismo, con la sua celebrazione della ragione come strumento d’indagine libera e scevra da dogmatismi. Proprio per questo suo ruolo centrale in una civiltà, quello che più interessa nella scienza settecentesca non è tanto la quantità di progressi tecnici da essa realizzati, quanto lo sforzo che tutti gli scienziati esercitano per dare un assetto il più possibile rigoroso alle loro discipline attraverso un paziente lavorio di sviluppi analitici, di esposizioni sistematiche, spesso anche di volgarizzamenti della scienza che appunto mira a metterne in rilievo i valori culturali attraverso il tentativo di raggiungere un certo rigore. E perciò la stessa opposizione tra empirismo e razionalismo si viene attenuando, degrada sempre più verso sfumature, oscilla in conciliazioni eclettiche, finchè il genio di Kant non riesce a superare l'opposizione stessa in una nuova e ardita posizione filosofica con la quale si apre il pensiero contemporaneo, chiarendo in maniera definitiva le caratteristiche di un autentico sapere. Non senza dimenticare i contributi di Berkeley e Hume soprattutto in relazione alla loro influenza su Einstein (Hume) e sulle interpretazioni della meccanica quantistica (Berkeley).

7.2 Il sogno di un mondo-orologio

Cartesio, Galileo, Bacone, Newton: sul piano della scienza e della filosofia la cosiddetta età della modernità fu indubbiamente l'epoca di un profondo riassestamento concettuale. Astronomia, fisica e cosmologia da un lato, metodo di ricerca filosofica dall'altro, furono solidali e costanti nel procedere secondo una sola direzione, quella che avrebbe portato a concepire il Mondo come un'unica grande macchina, il cui meccanismo poteva rivelarsi banale a un'indagine condotta more geometrico, usando cioè le costruzioni e le procedure tipiche della matematica. Galileo, inoltre, riteneva che la descrizione del mondo dovesse attuarsi passando per una riduzione di tutte le sue caratteristiche a quelle solamente che fossero quantificabili e misurabili. In questa tendenza al riduzionismo lo seguivano Bacone con il suo metodo induttivo e assai più da vicino Cartesio, con il suo dubbio metodico.

Con Cartesio la certezza della scienza fu sinonimo di chiarezza ed evidenza, il probabile e l'oscuro vennero spazzati via, nel nome ovviamente di una matematizzazione della conoscenza, di una geometrizzazione del sapere. La costruzione della nuova immagine dell'universo in Cartesio fu essenzialmente la costruzione di una macchina, un meccanismo perfetto al pari di un orologio, che rispondesse e vivesse armonicamente in virtù dell'adeguata disposizione delle sue parti. Fu sempre il riduzionismo a trionfare, la certezza matematica ebbe ragione anche dell'imponderabile e dell'irrazionale.

Ma fu con Newton che l'immagine dell'universo-macchina, dell'ideale riduzionista, ebbe il suo trionfo. Egli realizzò il sogno di Cartesio e sviluppò una completa formulazione matematica della visione meccanicistica della natura. L'universo

=55! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

newtoniano era un immenso sistema meccanico governato da leggi assolute ed esatte, leggi generali, valide per spiegare tanto la caduta di una mela dall'albero quanto i movimenti dei pianeti. Nei Principia mathematica Newton mette subito in evidenza il proprio atteggiamento riduzionista; anzitutto, gli elementi che formano il Mondo si muovono, per il fisico, in uno spazio e in un tempo assoluti, non condizionati cioè dagli eventi che si verificano dentro di essi, quindi eterni e immutabili. Questi elementi, poi, sono particelle, atomi, formati tutti della stessa materia e messi in movimento dalla forza di gravità, la quale agisce a distanza e istantaneamente. Nella meccanica di Newton tutti i fenomeni fisici si riconducono al moto di particelle elementari e materiali causato dalla loro attrazione reciproca; un'unica grande legge, quindi, a spiegazione della molteplicità degli eventi del Cosmo. L'equazione del moto di Newton diventa così la legge fondamentale del funzionamento dell'universo, la molla che carica l'orologio perfetto di Cartesio, eterna e immutabile. In questa maniera si connettono fra loro, in un'unione destinata a durare per tutto il Settecento e buona parte dell’Ottocento, la visione meccanicistica della natura e il determinismo, cioè quell'atteggiamento che tende a interpretare ogni fenomeno come la manifestazione di una semplice catena di causa-effetto.

Era in fondo l'antico sogno greco dell'epistéme, di una conoscenza coerente e completa. I Greci erano acutamente consapevoli del caos di fronte al quale si trovano i nostri sensi, della confusione del mondo percepito. Essi, però, avevano la forte sensazione che questa confusione non fosse la verità ultima del mondo, che al di là ci fosse un principio supremo, semplice e unitario. Cominciarono gli Ionici, filosofi della natura, a cercare l'Uno sotto il molteplice; seguirono le riflessioni di Parmenide ed Eraclito che spostarono il problema dall'individuazione di una sostanza generale al problema dell'Essere e del mutare. Anche i filosofi di scuola atomista, come Democrito, Epicuro e Lucrezio, avevano manifestato l'esigenza di ridurre entro uno schema comprensibile all'uomo, entro una struttura concettuale, l'immenso e il mutabile, l'eterno e il divenire. La scuola di Platone e di Aristotele, in seguito, dominò lo scenario filosofico: Aristotele, in particolare, sistematizzò tutte le conoscenze entro una rigorosa struttura categoriale, ponendo le basi della scienza occidentale che, in virtù della sua impostazione, si presenta organizzata e suddivisa in settori ben distinti e separati (la fisica, la matematica, la chimica, ecc.), con oggetti e metodi specifici. Teniamo presente che per questi scienziati filosofi la realtà delle cose, la loro esistenza, erano date dalla relazione di forza e materia entro una struttura delineata; quella struttura era tutto il Mondo conoscibile. E proprio il concetto di relazione, inteso come punto di vista privilegiato per la conoscenza, che va considerato come l'eredità più feconda del pensiero scientifico greco.

La scienza dell'età moderna aveva però sottovalutato questo aspetto della questione, preferendo soffermarsi sulla determinazione assoluta delle leggi, creando così delle chiusure, dei limiti alla comprensione messi in luce solo nel XX secolo, con la crisi del modello riduzionista e meccanicista e l’affermarsi dell’indeterminismo della meccanica quantistica e della relativizzazione dello spazio e del tempo.

Sul piano squisitamente teorico, questa distanza fra uomo e natura è stata resa possibile, di fatto seppure inconsapevolmente, proprio dalla delineazione del cosiddetto metodo sperimentale, grazie al quale, dietro alla maschera del dialogo con la natura, lo scienziato nascondeva il bisogno di ritrovare confermati i propri schemi mentali, le proprie strutture teoriche irrigidite in leggi.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =56!

Per tutto il Settecento la meccanica di Newton fu ritenuta così l'unica spiegazione possibile per i fenomeni della natura, applicata con successo in ogni campo, dall'astronomia alla chimica. Ne venne di conseguenza che tutte le branche della scienza si uniformarono, nel metodo e nei principi, alla fisica, che divenne la regina delle scienze, mentre Newton divenne il simbolo e il prototipo dello scienziato modello, una figura quasi eroica, l'uomo che va alla conquista del Cosmo armato solo del suo ingegno. Sembrava un sogno destinato ad avverarsi e a durare per sempre. Ma soltanto un secolo dopo il senso di questa conquista pareva già perdersi, inesorabilmente, insieme all'ideale di una conoscenza assoluta ed eterna.

7.3 La diffusione del newtonianismo Per comprendere lo sviluppo delle ricerche fisiche nel Settecento occorre senza

dubbio collegarle alla grande eredità scientifica lasciata da Newton. La diffusione del newtonianesimo nell’Europa continentale fu uno dei fatti più rilevanti della cultura dell’epoca, ricco di riflessi in tutti campi del sapere, tenuto conto dell'ostacolo più arduo che fu costretto a superare, il cartesianesimo, che s'era radicato nelle menti di molti scienziati, anche inglesi. L’adesione al newtonianesimo assunse, però, due significati alquanto diversi secondo che nel far proprie le teorie del grande pensatore inglese, si intendeva porre in primo piano l’una o l’altra delle due fondamentali esigenze metodologiche presenti nella sua opera: l’esigenza di inquadrare i fenomeni naturali entro costruzioni generalissime rigorosamente elaborate in precise formule matematiche, o quella di fondare le conoscenze fisiche su di una scrupolosa sperimentazione, evitando il ricorso a gratuite ipotesi esplicative. Newton era riuscito ad armonizzare con indubbia maestria queste due esigenze, scrivendo opere che potevano venire considerate come esemplari da entrambi i punti di vista. È incontestabile, però, che tali istanze indicavano due direttrici di ricerca tutt’altro che coincidenti tra loro. Non deve pertanto stupirci se, nel Settecento, si delineano fra gli stessi scienziati di origine newtoniana tendenze diverse, una delle quali accentua soprattutto la necessità di sistemare il sapere scientifico in astratte teorie di carattere matematico, mentre l’altra sottolinea principalmente la necessità di basare la fisica sopra un’esatta descrizione dei fenomeni.

Il newtonianismo piantò il primo seme sul continente in Olanda: Willem J. s'Gravesande (1688-1642) e Pieter van Musschenbroek (1692-1761) ne furono i primi araldi. s'Gravesande nel suo trattato Elementi matematici di fisica, confermati da esperimenti, ossia introduzione alla filosofia newtoniana (1719-20) presentò un corso di fisica da impartire col sussidio di una serie di strumenti, molti dei quali di sua invenzione, che divennero di uso corrente nei gabinetti di fisica dell'epoca. L'influenza dell'opera di s’Gravesande sulla fisica sperimentale fu grandissima per buona parte del Settecento. Musschenbroek si occupò principalmente di ottica ed elettricità, studiando la rifrazione della luce e realizzando, nel 1745, un po' per caso, uno dei primi condensatori della storia della fisica, più tardi perfezionato e noto come bottiglia di Leida. Comunque, grazie ad entrambi, notevole fu la loro influenza sulla cultura francese, abbarbicata nei primi decenni del Settecento al cartesianesimo. Il cartesianesimo dominava ancora nell'Academie des sciences di Parigi, quando, nel 1734, Voltaire (1694-1778), nelle Lettres

=57! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

philosophiqes, si dichiarava newtoniano. Nel 1738 pubblicava gli Elements de la philosophie de Newton, opera di volgarizzazione, che segna l'inizio della riscossa newtoniana negli ambienti colti d'Europa. L'affermazione della nuova filosofia scientifica fu rapida: quando comparve (1756) la prefazione dello stesso Voltaire alla traduzione francese dei Principia, il newtonianismo era accettato da tutti gli scienziati europei, con qualche eccezione non significativa.

Anche in Italia, dove il cartesianesimo aveva curiosamente trovato un modus vivendi con la più radicata tradizione galileiana, l'introduzione delle idee di Newton fu lenta e contrastata. Francesco Maria Zanotti (1691-1777) di Bologna è di solito annoverato tra i primi newtoniani d'Italia. Tuttavia, l'efficacia della sua opera pare dubbia, sia per i suoi trascorsi cartesiani, sia per il sospetto dei contemporanei di aver voluto, più che difendere il newtonianismo, metterlo in ridicolo, sia per i suoi ritorni al platonismo. Più incisiva fu l’opera del suo discepolo e amico Francesco Algarotti (1712-1764), che nel 1737 pubblicò Il newtonianismo per le dame, una trattazione popolare, divulgativa, tradotta in varie lingue, a dimostrazione del suo grande successo. L'opera di Algarotti si inseriva in un movimento europeo di diffusione della scienza, che da una parte era il naturale sviluppo del giornalismo scientifico sorto nel secolo precedente, e d'altra parte era una necessità imposta dalla difficoltà del trattato di meccanica di Newton, accessibile soltanto ai matematici (e non a tutti).

Nello stesso tempo che in Italia, le idee newtoniane penetravano in Germania, tramite soprattutto la rinnovata accademia delle scienze di Berlino, mentre in Russia la penetrazione era avvenuta alquanto prima per opera di Jakov Bruce o Brius (1670-1735). Bruce, un militare di profondi interessi scientifici, divulgò in Russia la teoria copernicana, tradusse parecchi libri scientifici occidentali, ebbe gran parte nella fondazione dell’accademia delle scienze di Pietroburgo, lasciò una ricca biblioteca nella quale figuravano tutti i maggiori scritti scientifici di Newton e i più importanti di divulgazione di discepoli e amici; da questo centro s'irradiò il newtonianismo nell'allora nascente scienza russa.

In definitiva, il secolo XVIII è caratterizzato dall'irrompere della scienza nella cultura e perciò nella vita sociale. Dipinge bene il nuovo ambiente culturale il solo titolo dell'Encyclopedie ou dictionnaire raisonné des sciences, des arts et des métiers, che, redatto sotto la direzione di Diderot e D'Alembert, cominciò a comparire a Parigi nel 1751. Il lavoro scientifico nel secolo fu principalmente di assimilazione, di sistemazione e di critica. Con l'organizzazione dei laboratori fisici si migliorò la costruzione degli strumenti, si assoggettarono a verifica i risultati sperimentali già ottenuti, si diffusero le dottrine del secolo precedente, soprattutto quella newtoniana. Rispetto al secolo XVII , il secolo in questione, dal punto di vista dichiaratamente scientifico, è certamente un periodo meno brillante; non affiora alcuna grande idea nuova (tranne che alla fine del secolo con l'elettrologia) e nessuna figura di scienziato è paragonabile a Galileo, Huygens, Newton. Ma le intuizioni dei grandi scienziati del Seicento stavano come vette isolate e compito del XVIII secolo fu di collegare questi picchi scientifici in uno svolgimento continuo e ordinato, ottenuto attraverso l'impiego programmatico dell'analisi matematica nello studio dei fenomeni fisici; fu questo il fatto più importante del secolo per l'ulteriore sviluppo della scienza.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =58!

Se si volesse fare un bilancio sintetico dei progressi della fisica nel XVIII secolo, si potrebbe forse dire: si afferma la meccanica di Newton che si trasforma nel corso del secolo da geometrica in analitica; accanto e in un certo senso in conseguenza della meccanica celeste, sorge in questo secolo la fisica matematica; si perfeziona la termometria e si fonda la calorimetria; si assimila l'ottica di Newton senza sensibili progressi; nella seconda metà del secolo sorge una nuova scienza, l’elettrologia.

7.4 L’illuminismo: libero e critico uso dell’intelletto

L'Illuminismo è quel movimento culturale che si sviluppa nel XVIII secolo nei maggiori paesi d'Europa e che, pur non coprendo tutta l'area filosofica del Settecento, rappresenta la voce più importante e significativa del secolo. Infatti, con l'Illuminismo ci troviamo di fronte ad una svolta intellettuale destinata a caratterizzare in profondità la storia moderna dell'Occidente. Prima di identificarsi con questo o quell'insieme di dottrine, l'Illuminismo consiste anzitutto in uno specifico modo di mettersi in rapporto con la ragione. Si afferma spesso che la sostanza di esso risiede in una esaltazione dei poteri razionali dell'uomo. Ciò è senz'altro vero, ma non è ancora sufficientemente caratterizzante, se non si aggiunge subito che l'Illuminismo è l’impegno di avvalersi della ragione in modo libero e pubblico ai fini di un miglioramento effettivo del vivere. Gli Illuministi ritengono infatti che l'uomo, pur avendo per natura quel bene prezioso che è l'intelletto, non ne abbia fatto, nel passato, il debito impiego, rimanendo in una sorta di minorità che lo ha reso preda di un insieme di forze irrazionali, da cui ha il dovere di emanciparsi.

Pertanto, usare la ragione liberamente e pubblicamente, traducendo in concreto l'oraziano sapere aude (abbi il coraggio di conoscere), significa quindi, per gli Illuministi, assumere un atteggiamento problematizzante nei confronti dell'esistente e di ogni tesi preconcetta, facendo valere il proprio diritto di analisi e di critica. Da ciò la battaglia contro il pregiudizio, il mito, la superstizione e contro tutte quelle forze che hanno ostacolato il libero e critico uso dell'intelletto, soffocando le energie vitali degli individui: la tradizione, l'autorità, il potere politico, le religioni, le metafisiche, ecc. Da ciò lo sforzo di sottoporre ogni realtà al “tribunale della ragione” e al vaglio dell'intelletto, per distinguere il vero dal falso e per individuare ciò che può essere di giovamento alla società. Questo concetto della ragione come organo di verità e strumento di progresso, ossia, per usare una metafora cara agli Illuministi, come lume rischiaratore delle tenebre dell'ignoranza e della barbarie, implica una mutata interpretazione dell'intellettuale e del suo compito tra gli uomini. Per gli Illuministi il filosofo, intendendo con questa espressione non solo il pensatore in senso stretto e tecnico, ma l'intellettuale in genere, non è più il sapiente avulso dalla vita e dedito alle speculazioni metafisiche, ma un uomo in mezzo agli altri uomini, che lotta per rendere più abitabile il mondo e che si sente utile al consorzio civile.

L'esaltazione della ragione e della libertà, il rifiuto del dogmatismo e dell'autoritarismo, la critica del presente e la denuncia delle istituzioni oppressive del passato, l'impegno nelle riforme, lo sforzo verso il progresso e la diffusione della cultura costituiscono dunque per gli Illuministi, altrettante manifestazioni concatenate di un unico atteggiamento globale di fronte al mondo.

=59! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

L’Illuminismo non nasce nel vuoto, perché sorge nell'ambito di determinate circostanze storiche, innestandosi su alcune linee di sviluppo della società e della cultura moderna. Innanzitutto, l'Illuminismo manifesta un legame con la civiltà borghese e protocapitalistica europea, e quindi con quella classe sociale che dal Cinquecento in avanti è apparsa economicamente in espansione e politicamente in ascesa, fungendo da forza trainante di quel fondamentale evento storico che è la Rivoluzione inglese. Anzi, da un certo punto di vista, l'Illuminismo si configura come l'espressione teorica e l'arma intellettuale del processo di avanzamento della borghesia settecentesca. Quest'ultima rappresenta infatti la classe oggettivamente portatrice del progresso, ossia la forza sociale che nel suo dinamismo crescente appare desiderosa di sottomettere a sé la natura e la società, rompendo con il passato e le sue consuetudini, incarnate, ai suoi occhi, dalle sopravvissute istituzioni feudali e dalla chiesa. Da ciò la lotta contro i pregiudizi, le tradizioni, i privilegi arbitrari, le ideologie del potere, ecc. e la ricerca di una razionalizzazione del vivere tramite lo sviluppo economico, scientifico e politico, ai fini del raggiungimento di un nuovo ordine umano e di una egemonia culturale antitetica a quella precedente.

Questo manifesto legame tra l’Illuminismo e borghesia è confermato del resto dall'estrazione di classe dei suoi rappresentanti, per lo più borghesi, e dall'ideale umano delineato dal secolo dei lumi. Infatti, se la civiltà comunale aveva celebrato l'intellettuale laico in contrapposizione a quello ecclesiastico, se l'Umanesimo aveva onorato il filosofo e il letterato amante dei classici, se il Rinascimento aveva magnificato il cortigiano colto e raffinato, l'Illuminismo si rispecchia nelle figure del filosofo e del mercante. E tutto ciò non è affatto contraddetto dalla presenza, nelle file degli Illuministi, di alcuni aristocratici, in quanto si tratta per lo più di una nobiltà dedita ad attività e a modi di vita della borghesia, e quindi facilmente portata a riconoscersi nelle esigenze di essa. E nel caso dei sovrani illuminati si tratta di regnanti che vogliono andare incontro alle richieste delle forze economicamente e intellettualmente più vive delle loro nazioni.

Erede del Rinascimento, l'Illuminismo lo è altrettanto della Rivoluzione scientifica. Anzi, sotto certi punti di vista, l'Illuminismo può essere considerato come il prodotto filosofico per eccellenza di tale evento, come l’espressione più matura e consapevole. Solo il movimento complessivo dell'Illuminismo, che ha visto nel metodo scientifico il modello del sapere, e lo ha contrapposto alle metafisiche tradizionali, cogliendone e propagandandone la connessione con il progresso civile, rappresenta la vera e propria filosofia della Rivoluzione scientifica e la coscienza più adeguata di essa. Solo con l'Illuminismo la scienza, ultima nata della cultura occidentale, pone la sua candidatura al primo posto nella gerarchia delle attività conoscitive.

Questo legame strutturale fra la scienza e l'Illuminismo (e quindi fra scienza e borghesia) è tanto più evidente se si pensa che, se l'Illuminismo può essere visto come il punto di arrivo della Rivoluzione scientifica, quest'ultima può essere interpretata, per certi versi, come il punto di partenza dell'Illuminismo. Infatti, la battaglia galileiana contro il principio di autorità e i dogmi intellettuali del passato, la sua polemica contro i teologi e la metafisica, la sua fiducia nella ragione e nell’esperienza, la ricerca di un sapere fondato e proficuo, rappresentano, al di là della consapevolezza dello scienziato stesso, altrettante posizioni potenzialmente illuministiche. Rifacendosi idealmente ad esse e ispirandosi al sogno baconiano di una civiltà scientifica in grado di padroneggiare la natura, l'Illuminismo crede infatti nella realizzazione dell'uomo tramite un sapere vero e utile al tempo stesso. Da ciò l'ottimistica esaltazione della

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =5:!

scienza (vista solo nei suoi aspetti positivi e non anche in quelli potenzialmente negativi) e la lotta aperta contro tutte le forze che potrebbero ostacolarla: i pregiudizi, l'autorità delle metafisiche, i dogmi delle religioni, ecc. Da ciò l'ideale di estendere il baconiano “sapere è potere” dalla natura alla società, mediante la costruzione di una scienza dell'uomo in grado di comprendere e dominare a proprio vantaggio i meccanismi economici, politici e morali. Programma razionalistico e programma scientifico, appello alla ragione e richiamo alla scienza, divengono quindi, per gli Illuministi, una cosa sola, poiché nel sapere positivo essi, vedono il frutto principale della ragione e la concretizzazione vivente del suo potere nel mondo e fra gli uomini.

L'Illuminismo è anche l'erede delle due grandi scuole filosofiche dell'età moderna: il razionalismo e l'empirismo. Quando Cartesio, nel Discorso sul metodo, stabilisce che si debba accettare per vero solo ciò che appare alla mente in modo evidente, dà avvio al razionalismo, ma nel contempo pone le basi dell'Illuminismo e della sua idea di un esercizio autonomo e spregiudicato dell'intelletto. Tuttavia, nei confronti del razionalismo, l'Illuminismo appare contrassegnato, in primo luogo, da una rigorosa autolimitazione della ragione nel campo dell'esperienza. Infatti, la ragione cartesiana aveva subìto, per opera di Locke e della metodologia scientifica di Newton, un ridimensionamento, che l'aveva trasformata da deposito infallibile di idee innate in un semplice strumento di acquisizione metodica di nuove conoscenze. In virtù di questo ridimensionamento, la ragione non può fare a meno dell'esperienza, perché è una forza che si nutre di essa e che funziona solo all'interno del suo orizzonte, fuori del quale non sussistono che problemi insoluti o fittizi. L'Illuminismo fa sua questa lezione di modestia e polemizza contro il dogmatismo e contro la presunzione della ragione cartesiana.

Dall'altro lato, pur essendo fortemente influenzato dall'empirismo, il concetto illuministico di ragione si distingue da quest'ultimo sia per una maggior fiducia nei poteri intellettivi dell'uomo (si pensi agli esiti scettici del filosofare humiano), sia per un'accentuazione della loro portata pratica e sociale. Una ragione operante all'interno dell'esperienza e criticamente rivolta ad approfondire ogni aspetto dell'esistenza umana ai fini del progresso sociale: ecco la ragione illuministica e il suo inconfondibile e irriducibile tratto di originalità.

7.5 L’immaterialismo di Berkeley e l’empirismo radicale di Hume Il Trattato dei principi della conoscenza umana, pubblicato da Giorgio Berkeley

(1685-1753) nel 1710 affronta già con rigore i problemi lasciati aperti da Locke soprattutto in relazione al rapporto tra la realtà mentale e la realtà esterna alla mente. Per Locke alle idee astratte non corrisponde nulla nella realtà esterna alla mente; Berkeley mostra che esse non esistono nemmeno nella mente. Ma il gran passo innanzi di Berkeley consiste nel modo in cui egli mostra che non esiste alcuna realtà materiale al di fuori della mente, non percepita da questa. Questa tesi era già stata avanzata da Leibniz, ma l'argomentazione di Berkeley è completamente diversa, non implica alcuna teoria metafisica, è semplice e stringente.

Le idee esistono nella mente. Dire che le cose estese, colorate, pesanti, calde, rumorose, cioè le varie idee di cose estese, colorate, pesanti, calde, rumorose esistono nella mente non significa che la mente sia estesa, colorata, pesante, calda, rumorosa, ma

=6<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

significa che tali idee sono percepite dalla mente. Si tratta di comprendere che: “l'esistenza di un'idea consiste nell'esser percepita”. Tutti riconoscono che le idee presenti nei nostri pensieri non possono esistere senza la mente; ma anche tutte le sensazioni e tutte le cose sensibili sono idee, e dunque non possono esistere se non in una mente che le percepisce. Dire che il tavolo su cui scrivo esiste, significa che lo vedo e lo sento, cioè lo percepisco; e se io mi trovassi in un'altra stanza, direi che questo tavolo esiste: “intendendo con ciò che se io fossi nel mio studio lo potrei percepire o che qualche altro spirito attualmente lo percepisce”. Ebbene, affermare che delle cose non pensate esistono in sé stesse, assolutamente, cioè senza alcuna relazione al loro essere percepite, implica una manifesta contraddizione. Sembra che non vi sia nulla di più facile che pensare case, montagne, fiumi e insomma tutte le cose della natura, senza che vi sia alcuno a percepirli. Ma questo pensare non è altro che formare nella mente certe idee, omettendo l'idea di qualcuno che le percepisce, e cioè dimenticando che ci siamo qui noi a percepirle e a pensarle. Per poter concepire che gli oggetti della nostra mente esistono al di fuori della mente: “è necessario che voi possiate concepire che essi esistono non concepiti, o non pensati; la qual cosa è una contraddizione manifesta”. Cioè “la mente, non accorgendosi di sé stessa, si illude, pensando, di poter concepire che esistano corpi non pensati dalla mente o fuori di essa”.

Se l'affermazione dell'esistenza di cose al di là della mente e non percepite è una contraddizione manifesta, l'esistenza delle cose percepite dalla mente, e tali cose sono appunto le idee, consiste nel loro essere percepite. “Il loro esse [essere] è percipi [essere percepite]”. Anche per Cartesio e tutti i filosofi moderni che precedono Berkeley, l'esse delle idee è il loro percipi. La novità di Berkeley consiste nell'escludere, e più precisamente nel modo in cui si esclude, che al di fuori di questo esse (cioè al di fuori dell'essere mentale) vi siano delle cose materiali che agiscono sulla mente e che sono i modelli di cui le idee sono copie più o meno fedeli. Si tratta della negazione più radicale dell'esistenza della materia; ma si deve anche dire che questa è la materia dei filosofi, e cioè la res extensa, non è la materia in cui si imbatte ogni giorno il senso comune degli uomini. Segue, da quanto si è detto, che per Berkeley non può esistere altra sostanza che quella spirituale ("spirito", "anima," "io", "mente") e che le qualità sensibili non possono avere come substratum una sostanza materiale o corporea (che da Cartesio a Locke è intesa appunto come una cosa esterna alla mente).

Il fondamento del sapere rimane per Berkeley l'indubitabilità dell'esistenza dell'io e di tutto ciò che è percepito dall'io, l'indubitabilità che Cartesio ha posto a fondamento dell'episteme. Ma né la ragione né i sensi, per Berkeley, possono condurre all'affermazione dell'esistenza della materia esterna: non la ragione, perché gli stessi difensori di questa sua funzione escludono che esista una connessione necessaria tra i corpi e la mente; non i sensi, perché “la testimonianza del senso non può essere portata come prova dell’esistenza di qualcosa che non è percepito dal senso”.

Che cosa può essere allora considerato reale, visto che non possiamo sperare di paragonare le nostre percezioni ad un mondo esterno? Reale è, secondo Berkeley, ciò che viene da noi percepito secondo una certa uniformità, costanza e regolarità; reali sono quei gruppi di sensazioni che, a differenza dei prodotti vaghi e continuamente mutevoli della fantasia e del sogno, si presentano alla percezione come immutabili, omogenei, costanti, uniformi. Il criterio di realtà non è quindi nelle cose, bensì in noi, in un canone del loro venire percepite da parte della nostra coscienza. Non solo, questa costanza e uniformità del reale non può essere basata su argomentazioni razionalistiche, ma esclusivamente sull’esperienza. E tuttavia non è l’esperienza da sola che ci fa dire

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =6;!

che cosa sia reale e cosa no; è un criterio ideale, o meglio coscienziale: l’uniformità e la costanza con cui percepiamo. Questa coincidenza tra criterio di realtà e criterio di uniformità porta Berkeley, per tanti versi antinewtoniano, ad un giudizio molto vicino a quello che Newton aveva dato della legge scientifica. Anche per Berkeley, reale è ciò che è possibile di una legge scientifica universale e necessaria; anche per Berkeley, la spiegazione di un fatto risulta così ridotta ad una sua correlazione rigorosa con i fatti che l’hanno preceduto e con quelli che lo seguono, senza che abbia luogo la pretesa di conoscere la causa ultima, il substrato ultimo dei fenomeni.

Per Berkeley l'immaterialismo rafforza la nuova scienza della natura, liberandola da quelle oscurità che ne compromettono lo sviluppo. Ne risulta una concezione singolarmente moderna della scienza, in particolare della fisica (si pensi alla interpretazione della meccanica quantistica). Per quanto riguarda la fisica, Berkeley rileva che mediante l'osservazione possiamo scoprire le leggi generali della natura che però non hanno valore assoluto, perché non si può essere certi che “l’autore della natura operi sempre conformemente”. Tali leggi non indicano "cause", ma "segni". “Il fuoco che io vedo [cioè il fuoco come fenomeno ottico] non è la causa del dolore che soffro avvicinandomi ad esso, ma è il segno che mi previene di questo fatto”. L'aspetto visibile, in quanto visibile, non può essere la causa di un'impressione tattile; e d'altra parte, che il fuoco visibile sia quello stesso oggetto che produce calore è solo un'ipotesi, e l'ipotesi avanzata appunto dal segno che indica l'esistenza del calore. La natura non appare come un nesso di cause e di effetti, ma piuttosto come un linguaggio che va interpretato.

È chiaro inoltre che per Berkeley è inaccettabile la distinzione di Newton tra tempo e spazio assoluti (o "matematici", o "puri") e tempo e spazio relativi (o "apparenti"): appunto perché tempo e spazio assoluti (e il concetto correlativo di "moto assoluto") sono "assoluti", proprio perché sono intesi come non percepiti e non percepibili, e quindi implicano quell'assurdità che è propria del concetto di una realtà non percepita. Ma Berkeley ritiene che la fisica non abbia bisogno di tali entità metafisiche. È la concezione della scienza che risulterà vincente nell'ambito della epistemologia contemporanea.

Infine, a differenza di Locke, Berkeley, anticipando Hume, critica il principio di causalità mostrando che tra le idee non può esistere un rapporto causale. Ma anche Berkeley, come Locke e Cartesio, ritiene che le idee attualmente percepite dai sensi, le idee che "impressionano" i nostri sensi, siano l'effetto di un'azione esercitata sulla mente da parte della realtà esterna. L'innovazione di Berkeley è che questa realtà esterna non può essere altro che una mente, e precisamente la Mente infinita di Dio.

L'effettivo passo innanzi di Davide Hume (1711-1776) rispetto a Berkeley riguarda la sua critica al principio di causalità e all'affermazione dell'esistenza di un qualsiasi tipo di sostanza. Per Hume, tutte le percezioni della mente si dividono in due classi: le "impressioni" e le "idee". Le "impressioni" sono le percezioni che hanno più forza, intensità, potenza, e comprendono non solo quelle percezioni che Locke e Berkeley (e naturalmente non solo essi) chiamano "sensazioni", ma anche le emozioni, le passioni, i sentimenti, le varie forme di volizioni e di desideri e in genere tutto ciò che Hume chiama "sensazione interna", per distinguerla dalle sensazioni degli oggetti esterni. Hume usa il termine "impressioni" come sinonimo di "esperienza". D'altra parte, ciò che Hume chiama "idea" non comprende soltanto le idee che per Locke sono ottenute dalla "riflessione", ma anche tutte le idee che Locke chiama "complesse" e che

=6=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sono costruite dalla mente; e ci si spiega quindi perché, per Hume, il pensiero e le idee non appartengono all' esperienza.

Dunque: tra le percezioni della mente, alcune (le impressioni) sono più intense e costituiscono l'esperienza; tutte le altre (le idee) sono meno intense e costituiscono ciò che viene chiamato il "pensiero". Ma non solo le impressioni hanno più intensità delle idee, esse sono anche i modelli, gli originali, di cui tutte le idee sono immagini e copie più o meno adeguate. Il che è comprovato anche dal fatto che le impressioni precedono sempre le idee corrispondenti. Nel Trattato sulla natura umana (1739) Hume dice che: “le nostre impressioni sono causa delle nostre idee, e non viceversa”. Le idee sono le “immagini sbiadite” che ci rimangono delle impressioni e di cui facciamo uso nel pensare e nel ragionare. Con un'operazione analoga a quella di Locke e di Berkeley, per stabilire il valore di ogni conoscenza umana che pretenda avere come contenuto il reale, si deve poter ricondurre tale conoscenza all'esperienza. È vero che Hume, dell'esperienza, sottolinea soprattutto la sua maggior intensità e forza rispetto al pensiero. Ma questa maggior potenza delle impressioni è il corrispettivo della minor potenza della mente rispetto a esse.

Dall’analisi che Hume fa sulle idee e le loro connessioni, discende la possibilità di distinguere due tipi fondamentali di conoscenze: quelle concernenti le “relazioni tra idee” e quelle concernenti le “materie di fatto”. Il teorema di Pitagora esprime una relazione tra idee, nel senso che per dimostrarlo non c’è bisogno di far ricorso all’esperienza. Che domattina sorgerà il sole, non è verità che si possa dedurre dallo studio delle relazioni intrinseche all’idea, derivata dall’impressione sensibile, che oggi ed in passato il sole è sorto. La verifica di una proposizione come “domani sorgerà il sole” è demandata all’esperienza, che sola può certificarla, e rappresenta una conoscenza delle “materie di fatto”. Mentre è inconcepibile ammettere la falsità del teorema di Pitagora, il contrario di ogni materia di fatto è sempre possibile. Le scienze matematiche hanno quindi tre caratteristiche fondamentali che le distinguono dalle conoscenze concernenti materie di fatto: sono a priori, necessarie, sintetiche. A priori perché possono essere escogitate con una pura operazione di pensiero, tanto che “anche se non esistessero in natura circoli o triangoli, le verità dimostrate da Euclide conserverebbero sempre la loro certezza ed evidenza”. Necessarie perché il contrario di una verità matematica implica una contraddizione che non può essere accettata dalla mente. Sintetiche perché accrescono le conoscenze umane, consentendo di scoprire proprietà, teoremi, ecc. prima ignoti.

Nel campo delle “materie di fatto”, invece, sono possibili tre forme di relazioni assai diverse: quella di identità (una cosa è identica a se stessa); quella di contiguità spazio-temporale (una cosa è vicina o lontana, nello spazio o nel tempo, ad un’altra); quella di casualità (una cosa è causa di un’altra). Hume dimostra, poi, che le prime due possono essere ridotte alla terza, giacchè quando, ad esempio, percepiamo del fumo, e ne inferiamo che poco distante (contiguità spaziale) deve esserci del fuoco, in ultima analisi ci basiamo sulla relazione causale che il fumo è un effetto del fuoco; quando oggi vediamo un amico, e rivedendolo domani gli applichiamo la relazione di identità per cui pensiamo che sia la stessa persona, ci basiamo ancora una volta, in ultima analisi, sulla relazione di causalità. In conclusione “tutti i ragionamenti riguardanti le materie di fatto sembra che siano fondati sulla relazione di causa ed effetto. Solo per mezzo di questa relazione si può andare al di là di ciò che risulta evidente per la testimonianza della memoria e dei sensi”.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =64!

Dunque, tutti i ragionamenti intorno alla realtà, osserva Hume, sono fondati sulla relazione di causa ed effetto, cioè sul principio di causalità. Ma la conoscenza di questa relazione non può essere raggiunta ragionando a priori, come abbiamo visto, e cioè indipendentemente dall'esperienza: tale conoscenza "sorge interamente dall'esperienza". Hume perviene a questa tesi nel modo seguente. Supponiamo di percepire una palla di biliardo A, in movimento verso la palla B. (A in movimento verso B, o A che diventa contigua a B, è considerata normalmente come causa del movimento di B, e questo movimento come effetto del movimento di A). E supponiamo che ci venga fatta una duplice richiesta:

1. stabilire quale effetto si produrrà quando A toccherà B; 2. rispondere a questa prima domanda senza basarsi sulle osservazioni fatte in

passato a proposito di situazioni analoghe.

Di fronte a questa duplice richiesta, la nostra mente non può che "inventare", o "immaginare", arbitrariamente, l'effetto che si produrrà quando A toccherà B. Giacché l'effetto (il movimento determinato di B) è un evento diverso dalla causa (cioè dal movimento di A verso B), e quindi la conoscenza dell'evento in cui consiste la causa non potrà mai far conoscere l'evento in cui consiste l'effetto. Proprio perché causa ed effetto sono eventi diversi, è impossibile che, conoscendo una certa causa, si riesca a conoscere a priori (cioè prescindendo dalle esperienze passate) quale effetto verrà prodotto da tale causa. Proprio perché la causa e l'effetto sono eventi diversi, quando l'effetto non si è ancora prodotto noi possiamo dunque affermare, a priori, tanto che A, toccando B, muoverà B, quanto che non lo muoverà; e inoltre possiamo affermare tanto che lo muoverà in un certo modo, quanto che lo muoverà in infiniti altri modi. Tutti i nostri ragionamenti a priori non potranno legittimare la preferenza accordata a una di queste svariate possibilità.

Conclusione: senza l'osservazione e l'insieme delle nostre esperienze passate sul comportamento delle palle da biliardo, ci è assolutamente impossibile sapere se A, toccando B, lo muova e quale movimento gli imprimerà. La conoscenza della relazione tra causa ed effetto e tutte le conclusioni che riguardano tale relazione sono interamente fondate sull'esperienza.

Ma a questo punto, Hume si chiede: “Qual è il fondamento di tutte le conclusioni che sono tratte dall'esperienza?”. In passato abbiamo esperimentato che il cibo sfama, l'acqua disseta, i corpi sono resistenti, il fuoco brucia, la nostra volontà guida i movimenti del nostro corpo, la palla di biliardo A muove B in un certo modo. Sono tutti esempi di relazioni causali; e la nostra vita non sarebbe possibile se non estendessimo al futuro queste nostre esperienze passate. Si tratta però di comprendere che se in passato abbiamo esperimentato che un certo evento è seguito da un certo altro evento, da ciò non segue necessariamente che il ripresentarsi di eventi simili al primo debbano essere sempre seguiti dal ripresentarsi di eventi simili al secondo. Non vi è alcuna contraddizione a supporre che il corso della natura abbia a cambiare e che un evento simile a quello già esperimentato possa essere accompagnato da eventi diversi o contrari a quelli che in passato hanno accompagnato quel primo evento. Ma non è nemmeno possibile dimostrare la regolarità della natura, perché ogni ragionamento intorno alla realtà è fondato appunto sul principio di causalità, che presuppone come esistente appunto quella regolarità della natura, che invece si vorrebbe dimostrare sul fondamento di esso. Anche ammettendo che il corso delle cose sia sempre stato

=65! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

regolare, questo fatto non costituisce dunque la minima prova che anche per il futuro sarà così.

Inoltre, sia che consideriamo gli oggetti esterni (=sensibili), sia che si consideri il rapporto tra la nostra volontà e il nostro corpo, l'esperienza non attesta mai l'esistenza di un "potere", di una "forza", di una "energia", esplicati da ciò che chiamiamo "causa" su ciò che chiamiamo "effetto"; e non attesta nemmeno l'esistenza di una "connessione necessaria" tra i due: l'esperienza non attesta mai, cioè, una qualsiasi qualità “che leghi l'effetto alla causa e faccia del primo un'infallibile conseguenza dell'altra”, l'esperienza attesta soltanto che l'uno segue all'altra: “… tutti i ragionamenti che riguardano la causa e l’effetto sono fondati sull’esperienza e che tutti i ragionamenti desunti dall’esperienza sono aloro volta fondati sulla supposizione che il corso della natura continuerà uniformemente lo stesso. Noi concludiamo allora che cause simili, in circostanze simili, produrranno sempre effetti simili”. Il principio di causalità è dunque una congettura. La sua evidenza non ha un valore logico, ma psicologico: l’abitudine a percepire che certi eventi simili tra loro sono seguiti da certi altri eventi simili tra loro, determina un sentimento di credenza e di fede, in base al quale l'uomo si aspetta che, verificandosi un certo evento del primo tipo, se ne verifichi un'altro del secondo tipo. Ma se l'esperienza non attesta l'esistenza di forze o di connessioni necessarie causali, tanto meno attesta il rapporto causale tra Dio e le cose. E, privata del principio di causalità, la mente non può in alcun modo dimostrare l'esistenza di Dio, così come non può dimostrare l'esistenza di una realtà esterna che sia la causa delle nostre percezioni degli oggetti sensibili.

Sono quindi due gli aspetti decisivi della critica di Hume al principio di causalità. Innanzitutto, il rilievo che, essendo la cosiddetta causa e il cosiddetto effetto due cose diverse, la nozione o il concetto dell'una non include la nozione o il concetto dell'altro, e quindi per sapere che l'una è collegata all'altro bisogna rivolgersi all'esperienza. Al contrario, nelle proposizioni che non si riferiscono alla realtà e che quindi esprimono semplici relazioni tra idee, è il caso delle proposizioni matematiche, la nozione del soggetto può includere la nozione del predicato. Ad esempio, la nozione di "10+5" include la nozione di "15" e quindi per affermare "10+5=15" non c'è bisogno di riferirsi all'esperienza. Il secondo rilievo decisivo è che quanto è attestato incontrovertibilmente dall'esperienza è soltanto un insieme di fatti e questa attestazione, da un lato, non esclude che i fatti possano susseguirsi in modo diverso da quello cui siamo abituati, dall'altro lato non contiene nulla di simile a una forza o a una connessione necessaria tra i fatti.

Se il fondamento di tutti i ragionamenti intorno alla realtà è il principio di causalità e se tale principio deve avere il suo fondamento nell'esperienza, e quindi è soltanto una congettura priva di necessità e universalità, appare allora come la filosofia di Hume venga a operare una riduzione radicale dell'estensione della ragione, e cioè dell'episteme: la ragione può avere come contenuto reale solo quello che per Cartesio era il punto di partenza della ragione, ossia il contenuto immediato della mente, l'indubitabilità delle nostre percezioni. Ogni credenza metafisica è priva di valore razionale. E anche ogni conoscenza scientifica. Con l'avvertenza che la scienza, a differenza della metafisica, ha una utilità pratica che la rende indispensabile. Di conoscenze universali e necessarie ne esistono certamente, ma non sono conoscenze intorno alla realtà, bensì intorno alle relazioni che sussistono tra semplici idee. E, come si è accennato, il caso delle proposizioni matematiche.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =66!

L’analisi humiana della causalità eserciterà un’influenza decisiva su Einstein e sui neopositivisti. Basti ricordare l’estrema importanza della conclusione che afferma il carattere meramente soggettivo della necessità tradizionalmente attribuita al legame fra causa ed effetto. È una conclusione che, per un lato, metterà in crisi la pretesa dei metafisici di fare appello al legame causale per risalire dal mondo dell’esperienza a una realtà assoluta non esperibile; per l’altro, autorizzerà epistemologi e scienziati a tentare nuove formulazioni di quel nesso fra i fenomeni, che costituisce l’oggetto principale di ogni ricerca scientifica.

Questi risultati diventano ancora più radicali in relazione alla critica di Hume all'idea di sostanza. Locke aveva affermato l'inconoscibilità della sostanza, e Berkeley aveva negato l'esistenza di ogni sostanza materiale. Hume mostra che, come la mente non possiede alcuna idea di causa, effetto, connessione necessaria, forza, potere e che queste parole sono completamente sprovviste di senso, altrettanto accade per ciò che viene chiamato "sostanza". Anche in questo caso, non esiste alcuna impressione corrispondente all'idea di sostanza, sia materiale che spirituale; cioè quest'ultima non è un’idea, ma soltanto una parola sprovvista di senso (appunto perchè non riconducibile all'esperienza). Quindi, in quanto per Hume il principio di causalità è privo di valore conoscitivo, è priva di tale valore anche ogni affermazione dell'esistenza della sostanza, giacché tale affermazione si fonda appunto su quel principio.

A proposito dello spazio e del tempo, Hume sviluppa considerazioni molto simili a quelle di Berkeley. Quest'ultimo sottolinea che lo spazio puro e il tempo puro, considerati cioè facendo astrazione da tutti i corpi e gli eventi, sono, appunto, idee astratte, cioè contraddittorie, e quindi non esistono nemmeno come "idee" (nel senso che Berkeley dà a questo termine). Hume ribadisce che l'esperienza non attesta nulla di simile allo "spazio puro" e al "tempo puro", ma solo corpi aventi una certa estensione e eventi che si succedono con un certo ordine. Anche per Hume, quindi, la struttura teorica della fisica e della matematica del suo tempo deve essere liberata da quegli impedimenti dogmatici che la mettono in contrasto con l'esperienza. La conoscenza della realtà può dunque avere soltanto un contenuto empirico, non è cioè possibile una conoscenza a priori della realtà. Ma Hume è ben lontano dall'affermare che non esista altra realtà oltre l'esperienza. La ragione non può spingersi oltre l'esperienza; la natura dell'uomo spinge l'uomo a credere che esista una realtà esterna e indipendente da lui. Ma il motivo per il quale Hume nega che l'esperienza sia la totalità della realtà non è che la natura umana spinge ad avere fede nella realtà esterna (questa fede ha infatti solo un valore pratico, non conoscitivo), ma è che per Hume la natura umana non è la natura del Tutto, ossia non coincide con la totalità della realtà.

In altri termini: Berkeley è giunto alla negazione della sostanza corporea; Hume nega l'esistenza di ogni tipo di sostanza (cioè anche di quella spirituale) e, in particolare, nega che la ragione, in quanto fondata sul principio di causalità, possa dimostrare l’esistenza di qualsiasi cosa esistente al di là dell'esperienza (e innanzitutto l'esistenza di Dio); tuttavia, anche se Hume non è mai esplicito su questo punto, al di là dell'esperienza e della natura umana, per Hume esiste pur sempre un qualcosa, senza di cui non avrebbe nemmeno senso parlare di esperienza e di natura umane, e senza di cui non avrebbe nemmeno senso affermare che noi abbiamo a che fare soltanto con percezioni: il concetto di percezione non rinvia forse inevitabilmente al concetto di ciò a cui la percezione si riferisce? Il concetto di percezione non è forse inevitabilmente relativo, e quindi relativo (se è vero che ciò che conosciamo immediatamente sono

=67! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

soltanto percezioni) a ciò che esiste al di là della percezione, ossia al di là dell'esperienza? Appunto questo sarà messo in rilievo da Kant, nel contesto di un grandioso ripensamento dei risultati raggiunti dalla filosofia razionalistica e empiristica.

7.6 La scienza nuova di Vico

Il pensiero di Gianbattista Vico (1668-1744), attraverso la scoperta di un nuovo criterio della conoscenza scientifica descritto nel suo capolavoro Scienza nuova (1730), si caratterizza per l’anticartesianesimo. Vico rimprovera a Cartesio e ai cartesiani soprattutto la pretesa di fondare la certezza conoscitiva unicamente sul criterio dell’evidenza e quindi di ammettere come scientificamente valide le sole spiegazioni ricavabili per via razionale da principi in sé evidenti. Il filosofo italiano obietta che il criterio dell’evidenza non offre in realtà la benchè minima garanzia; qualunque idea infatti, sia pure falsa, può apparire evidente a colui che la pensa. Da questa premessa metodologica al rifiuto dell’argomento cartesiano del cogito il passo è immediato: Vico non nega che dalla coscienza di pensare discenda con certezza la coscienza di esistere, ma nega che questa coscienza sia un autentico sapere.

Di qui l’assurdità di voler partire dal cogito, quale verità prima, assoluta e indubitabile, per giungere all’esistenza di Dio, e poi di voler ricavare dalle proprietà attribuite all’ente supremo la garanzia assoluta della realtà della natura, nonché la conoscenza necessaria delle leggi supreme che la governerebbero. La polemica di Vico contro ogni apriorismo della fisica è serrata e implacabile, non mancando di spunti ancora oggi validi. Nel modo di procedere dei fisici cartesiani (e di molti fisici matematici) si nasconde, a suo parere, un gravissimo pericolo: quello di confondere la macchina reale del mondo con il modello immaginario che possiamo tracciarne in termini matematici, e di credere per conseguenza che la dimostrazione teorica di una legge entro questo modello possa sostituire l’osservazione diretta della legge medesima entro il mondo effettivo dei fenomeni.

È sulla base di questa incontestabile frattura tra mondo delle teorie e mondo dei fatti che Vico sostiene con accanimento il primato del metodo sperimentale (baconiano) su quello matematico (cartesiano). In un certo senso Vico si fa interprete del profondo sentimento di divaricazione tra l’approccio sperimentale e quello matematico della fisica nel Settecento, e che Kant si rese pienamente conto della sua importanza al punto da assumerlo come uno dei problemi centrali da risolvere con la sua Critica.

Le obiezioni di Vico contro il metodo cartesiano dell’evidenza sono del massimo interesse non soltanto per le fondamentali conseguenze cui danno luogo nell’ambito della metafisica e della fisica, ma anche perché costituiscono la premessa a partire dalla quale Vico pervenne a formulare il suo nuovo celebre criterio della conoscenza. Tale criterio stabilisce che è possibile giungere a una vera conoscenza di un oggetto (qualunque esso sia) solo da parte di un soggetto che costruisca l’oggetto stesso. In altri termini la piena verità di una cosa è accessibile a colui che la produce (verum ipsum factum). Tale principio, proponendo la dimensione fattiva del vero, ridimensiona le pretese conoscitive del razionalismo cartesiano, e Vico si serve per avanzare in modo originale le sue obiezioni alla filosofia cartesiana trionfante in quel periodo. Il cogito cartesiano infatti potrà darmi certezza della mia esistenza ma questo non vuol dire conoscenza della natura del mio essere, coscienza non è conoscenza: avrò coscienza di

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =68!

me ma non conoscenza poiché non ho prodotto il mio essere ma l'ho solo riconosciuto. Il criterio del metodo cartesiano dell'evidenza mi procurerà dunque una conoscenza chiara e distinta ma che non è scienza se non è capace di produrre ciò che conosce.

Va subito osservato che questo criterio vichiano della conoscenza scientifica, mentre a prima vista parrebbe escludere la verità della matematica (che Cartesio pretendeva ricondurre a intuizioni chiare e distinte), riesce invece a salvarne appieno il valore. Nella matematica, infatti, Vico ritiene che sia l’uomo stesso a costruire gli enti trattati (numeri, figure, ecc.), per cui si ricava che egli può averne una conoscenza vera e completa. È un'interpretazione che nel Settecento poteva apparire estremamente ardita e discutibile ma che in tempi moderni ha dimostrato una straordinaria fecondità. Vico osserva tuttavia che tale costruzione degli enti matematici non ha un valore reale ma soltanto convenzionale e arbitrario, bastando che l’uomo modifichi le premesse di una teoria matematica perché se ne alterino anche tutte le conseguenze. Pur concedendo ai risultati di tale disciplina la qualifica di vere e proprie conoscenze, egli ne limita pertanto radicalmente la portata: afferma infatti che sono, sì, verità ma puramente convenzionali.

Riassumendo: il criterio vichiano della conversione del vero nel fatto restringe in limiti assai circoscritti il campo delle conoscenze umane autenticamente tali. La matematica è ammessa come scienza, ma solo di enti fittizi, convenzionali; la fisica è invece esclusa, per principio, dal campo delle scienze umane, perché solo Dio, e non l’uomo, è in grado di costruire il mondo della natura.

7.7 Kant e i confini della ragione

Fino a Cartesio l'atteggiamento prevalente del pensiero filosofico, cioè dell'epistéme, comprende sia l'affermazione che nell'epistéme il pensiero ha "certezza", ossia conosce la realtà così come essa è in sé stessa, sia l'affermazione che la realtà esiste indipendentemente dal pensiero. Si tratta dell'affermazione immediata dell'identità di certezza e verità.

A partire da Cartesio, la filosofia moderna scopre che la realtà, in quanto pensata, non è la realtà che esiste in sé stessa indipendentemente dal pensiero. In quanto realtà pensata, l'intero universo che ci circonda è quindi contenuto di pensiero. Per la filosofia moderna non si può quindi affermare immediatamente che, nell'epistéme, la certezza abbia come contenuto la verità (cioè sia identica alla verità): immediatamente, c'è invece opposizione tra certezza e verità e sorge quindi il problema di stabilire quale verità possa avere la certezza, e cioè che cosa corrisponda, nella realtà esterna, alla nostra conoscenza epistemica. Dall'affermazione dell'opposizione immediata di certezza e verità, il razionalismo giunge così all'affermazione dell'identità mediata, cioè dimostrata mediante una procedura razionale, tra certezza e verità.

Per Locke, invece, la corrispondenza tra idea e realtà esterna è determinata dall'analisi del modo in cui la realtà esterna agisce causalmente, attraverso l'esperienza, sulla mente dell'uomo. Anche in questo caso, si tratta però dell'affermazione mediata dell'identità tra il contenuto di alcune certezze e la verità.

Con Berkeley, da un lato, non esiste alcuna forma di opposizione tra certezza e verità, perché la realtà corporea non esiste (e quindi la verità, cioè la realtà, è il contenuto stesso della certezza); dall'altro rimane pur sempre, in Berkeley, una realtà

=69! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

esterna alla mente: la realtà di Dio e la realtà delle altre menti finite. Inoltre, anche per Berkeley è il principio di causalità applicato alle idee a consentire l'affermazione della realtà esterna alla mente.

In Hume, è vero che la critica del principio di causalità intende essere la critica dell'unico strumento in base al quale l'uomo potrebbe affermare una qualsiasi realtà al di là dell'esperienza, ma Hume non intende sostenere che l'esperienza sia la stessa totalità dell'essere. Con Hume l'epistéme consiste in quello che per Cartesio era soltanto il primo passo nella costruzione dell'epistéme: l'indubitabilità dell'esistenza della mente. L'unica verità è costituita, per Hume, dall'osservazione dei contenuti della mente (cioè della certezza), che non sono regolati da alcuna legge necessaria e che "si associano" tra loro secondo semplici "tendenze" che esistono di fatto, ma che, proprio per questo, potrebbero non esistere o essere sostituite da tendenze del tutto diverse. In questo modo, non solo la metafisica, ma anche ogni conoscenza razionale della natura è priva di ogni valore universale e necessario. E se la matematica possiede questo valore è solo perché le sue proposizioni non si riferiscono all'esperienza, ma si limitano a esplicitare, nel predicato, quanto è già stato incluso nella definizione del soggetto.

Con Emmanuele Kant (1724-1804) la filosofia moderna compie una svolta radicale e mostra nel modo più perentorio che le cose in sé stesse, esterne e indipendenti dalla conoscenza umana, non possono essere conosciute. Mostra cioè che l'opposizione tra certezza e verità è definitiva. Non nel senso che la filosofia kantiana rinunci a essere epistéme, ma nel

senso che, proprio per essere la forma più rigorosa di epistéme, deve escludere la conoscibilità della verità, ossia la conoscibilità delle cose come esse sono in sé stesse. In altri termini Kant concepisce la realtà non come qualcosa di dato, oggettivo (voluto da Dio o dalla natura) e come tale immodificabile, ma come una costruzione propria dell’uomo. In questo senso profondo Kant apre le porte del mondo moderno.

Il pensiero di Kant (detto criticismo) si contrappone all'atteggiamento mentale del dogmatismo (che consiste nell'accettare opinioni o dottrine senza interrogarsi preliminarmente sulla loro effettiva consistenza e la convinzione che il contenuto conosciuto, in cui si imbattono le costruzioni conoscitive edificate dall'uomo, possa essere l'insieme delle cose in sé stesse), e fa della critica lo strumento per eccellenza della filosofia. Criticare significa chiarire le possibilità, ossia le condizioni che permettono l'esistenza, la validità e i limiti dei fondamenti della ragione umana. Questa filosofia del limite non equivale tuttavia, nelle intenzioni esplicite di Kant, ad una forma di scetticismo, poiché tracciare il limite di un'esperienza significa nel contempo garantire, entro il limite stesso, la sua validità. Ovviamente il criticismo kantiano non è solo una scoperta geniale di Kant, ma anche l'esito di determinate condizioni e istanze intellettuali che affondano le loro radici nell'epoca del filosofo e in tutto il corso del pensiero precedente. Il kantismo si inserisce infatti nello specifico orizzonte storico del pensiero moderno e risulta definito da quelle due coordinate di base che sono la Rivoluzione scientifica da un lato e la crisi progressiva delle metafisiche tradizionali dall'altro.

Se l'Illuminismo aveva portato dinanzi al tribunale della ragione l'intero mondo dell'uomo, Kant si propone di portare dinanzi al tribunale della ragione la ragione stessa, per chiarirne in modo esauriente strutture e possibilità. Tuttavia, anche in questo andar oltre l'Illuminismo, Kant è pur sempre figlio dell'Illuminismo, in quanto ritiene che i confini della ragione possano essere tracciati soltanto dalla ragione stessa, che,

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =6:!

essendo autonoma, non può assumere dall'esterno la direttiva e la guida del suo procedimento. Prova ne è che Kant combatte instancabilmente, non solo nelle opere principali, ma anche negli scritti minori, ogni tentativo di fissare dei limiti alla ragione in nome della fede o di qualsiasi esperienza extrarazionale, presentandosi come l'avversario risoluto di ogni specie di fideismo o misticismo o fanatismo. Per Kant i limiti della ragione tendono a coincidere con i limiti dell'uomo: di conseguenza, volerli varcare in nome di presunte capacità superiori alla ragione significa soltanto avventurarsi in sogni arbitrari o fantastici.

Si può dire che i temi più elevati della speculazione filosofica e scientifica del secolo culminano nel poderoso sforzo compiuto da Kant per chiarire le ragioni del trionfale successo della fisica-matematica, per fornire uno sfondo filosofico al razionale cosmo newtoniano, per dare una valutazione critica dei metodi e degli scopi della ragione umana. Quantunque Kant non tratti quasi mai in modo specificamente tecnico i grandi problemi della matematica, dell'astronomia, della meccanica razionale e delle scienze empiriche, tuttavia egli proviene dalla scienza, e al suo pensiero sono presenti, nei loro aspetti essenziali, le questioni di fondo maturate nell'ambito della cultura moderna e della ricerca scientifica. Infatti, al 1747, quando era ancora studente universitario, risale il primo scritto che verte proprio su di un problema che in quell’epoca era di grande attualità presso i fisici: Pensieri sulla vera stima delle forze vive e valutazione delle prove, di cui si sono serviti in questa controversia il sig. Leibnitz e altri meccanici, insieme con alcune considerazioni preliminari riguardanti la forza dei corpi in generale. Ricorrendo ad argomentazioni prevalentemente metafisiche, l’autore vi distingue due tipi di forza: una “forza morta” misurata dalla quantità di moto mv e una “forza viva” misurata da mv2; la prima connessa a una considerazione puramente matematica dei corpi (presi nella loro reciproca esteriorità), la seconda invece facente riferimento alla loro sostanza interna non spaziale. Sulla base di questa distinzione risulterebbe possibile, secondo Kant, conciliare i due punti di vista difesi dai cartesiani e dai leibniziani, liberandoli dagli errori che derivano dal loro esclusivismo. Allo stesso anno risale la prima importante opera di Kant: Storia naturale generale e teoria del cielo, o ricerca intorno alla costituzione e all’origine meccanica dell’intero sistema del mondo condotta secondo i principi newtoniani. L’opera segna un notevolissimo passo avanti rispetto alla concezione newtoniana del mondo. Infatti, mentre l’ordinamento presente nell’universo rinvierebbe in modo necessario, secondo Newton, a un essere divino quale architetto e signore del mondo, Kant ritiene al contrario che tale ordinamento possa venire integralmente spiegato col semplice ricorso alle leggi generali della natura: la spiegazione da lui proposta, oggi nota come ipotesi di Kant-Laplace, afferma che il sistema celeste trarrebbe origine dal moto vorticoso di una nebulosa primitiva (Laplace vi giunse nel 1796 per via del tutto autonoma e, da grandissimo fisico quale era, seppe darle una formulazione assai più soddisfacente di quella kantiana, dal punto di vista tecnico). Va notato che Kant resta fedele alla concezione newtoniana nell’attribuire alla materia alcune proprietà non puramente geometriche (afferma infatti che essa può avere densità diversa da un luogo all’altro e che è sottoposta a forze di attrazione e di repulsione); ciò chiarisce il motivo per cui la sua spiegazione meccanicistica dell’attuale ordine dell’universo si collochi più sulla linea di Newton che non su quella di Cartesio, sebbene faccia uso della nozione essenzialmente cartesiana di vortice. Il fatto è che i vortici di cui parla Kant sono da lui concepiti come effetti delle forze elementari, attrattive e repulsive, che agirebbero sulla materia, e quindi risultano del tutto diversi

=7<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

da quelli ideati da Cartesio, il quale, partendo dall’identificazione della materia con la pura estensione geometrica, doveva escludere da essa ogni nozione di forza e doveva perciò concepire i vortici come moti assolutamente originari.

Fra gli scritti di carattere scientifico dei quindici anni successivi ci limitiamo a menzionare i seguenti: Nuove osservazioni sulla spiegazione della teoria dei venti; Nuova dottrina del movimento e della quiete e delle conseguenze che vi sono collegate nei principi della scienza della natura; Del primo fondamento della distinzione delle regioni nello spazio; Intorno alla forma e ai principi del mondo sensibile e di quello intelligibile. Per lungo tempo tutti gli scritti kantiani di argomento scientifico vennero arbitrariamente trascurati dagli studiosi quasi che rappresentassero un settore isolato della produzione di Kant. Oggi alla luce di nuovi studi si è giunti a sostenere che proprio questi scritti ci forniscono il filo conduttore per cogliere il senso oggettivo della filosofia kantiana.

Kant, prendendo le mosse dalle scoperte scientifiche del suo tempo e soprattutto dalla legge di gravitazione universale di Newton, nella sua opera maggiore Critica della ragion pura (1781), effettua una profonda analisi critica dei fondamenti del sapere, e per quanto riguarda la fisica, introduce l’idea della soggettività del tempo e dello spazio. Poiché ai tempi di Kant l'universo del sapere si articolava in scienza e metafisica, il suo capolavoro prende la forma di un'indagine valutativa circa queste due attività conoscitive, in particolare la Critica comprende tre parti: l’estetica e l’analitica trascendentale che hanno lo scopo di dimostrare la possibilità delle scienze esatte, come la matematica e la fisica, e la dialettica trascendentale che vuole dimostrare l’impossibilità di applicare le proposizioni scientifiche a considerazioni che sorpassano il mondo empirico, cioè l’impossibilità di una scienza metafisica. La scienza e la metafisica si presentavano in modo diverso, sia a Kant che ai suoi contemporanei. Infatti, mentre la prima, grazie ai successi conseguiti da Galileo e da Newton, appariva come un sapere fondato e in continuo progresso, la seconda, con il suo voler procedere oltre l'esperienza, con il suo fornire, nei vari filosofi, soluzioni antitetiche ai medesimi problemi, con le sue contese senza fine, non sembrava affatto, nonostante la sua venerabile antichità, aver trovato il cammino sicuro della scienza. Poiché Kant rileva l’impossibilità di conoscere una qualsiasi cosa in sé, la cosa in sé, come tale, è inconoscibile; poiché la metafisica intende essere una conoscenza delle cose in sé, ne segue che è impossibile come scienza. La metafisica, pertanto, non appartiene all’epistéme, cioè alla conoscenza, che per Kant non è un’opinione, non ha nulla a che fare con ipotesi, ma è assolutamente necessaria.

Kant apre il suo capolavoro con un'ipotesi gnoseologica di fondo: “benché ogni nostra conoscenza cominci con l'esperienza, da ciò non segue che essa derivi interamente dall'esperienza. Potrebbe infatti avvenire che la nostra stessa conoscenza empirica sia un composto di ciò che riceviamo mediante le impressioni e di ciò che la nostra facoltà conoscitiva vi aggiunge da sé sola (semplicemente stimolata dalle impressioni sensibili)”. Questa ipotesi, secondo Kant, risulta immediatamente convalidata dalla presenza dei giudizi sintetici a priori. Vediamo in che senso. Kant è convinto che la conoscenza umana e in particolare la scienza, che era sempre stata al centro delle sue attenzioni, offrano il tipico esempio di principi assoluti, ossia di verità universali e necessarie, che valgono ovunque e sempre allo stesso modo. Infatti, pur derivando in parte dall'esperienza, e pur nutrendosi continuamente di essa, la scienza presuppone anche, alla propria base, taluni principi immutabili che ne fungono da pilastri. Kant denomina principi di questo tipo giudizi sintetici a priori: giudizi perché consistono nell'aggiungere un predicato ad un soggetto; sintetici perché il predicato

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =7;!

dice qualcosa di nuovo e di più rispetto al soggetto; a priori perché, essendo universali e necessari, non possono derivare dall'esperienza, la quale, come aveva già insegnato Hume, non ci dice, ad esempio, che ogni evento debba necessariamente, anche in futuro, dipendere da cause, ma che sinora, nel passato, così è stato.

Dal punto di vista di Kant, i giudizi fondamentali della scienza non sono quindi né giudizi analitici a priori ne giudizi sintetici a posteriori. I primi sono giudizi che vengono enunciati a priori, senza bisogno di ricorrere all'esperienza, di conseguenza tali giudizi, pur essendo universali e necessari (=a priori), sono infecondi, perché non ampliano il nostro preesistente patrimonio conoscitivo. I secondi sono giudizi dati in virtù dell'esperienza, ovvero a posteriori (ad esempio i corpi sono pesanti). Questi giudizi, pur essendo fecondi (= sintetici), sono privi di universalità e necessità perché poggiano esclusivamente sull'esperienza. Invece, i principi della scienza, i cosiddetti giudizi sintetici a priori, risultano al tempo stesso sintetici, ossia fecondi, e a priori, ossia universali e necessari, e quindi irriducibili alle due classi precedenti.

Pur essendo formulata in modo logico, questa teoria kantiana dei giudizi sottintende un confronto storico con le scuole filosofiche precedenti. I giudizi analitici a priori richiamano infatti la concezione razionalistica della scienza, che pretendeva di partire da taluni principi a priori (=le idee innate) per derivare da essi tutto lo scibile, delineando in tal modo il modello di un sapere universale e necessario, ma sterile. I giudizi sintetici a posteriori richiamano invece l'interpretazione empiristica della scienza, che pretendeva di fondare quest'ultima esclusivamente sull'esperienza, delineando così il modello di un sapere fecondo, ma privo di universalità e necessità. Kant ritiene invece, contro il razionalismo, che la scienza derivi dall'esperienza, ma ritiene anche, contro l'empirismo, che alla base dell'esperienza vi siano dei principi inderivabili dall'esperienza stessa.

Pertanto, nella visione kantiana, la scienza, globalmente considerata, risulta feconda in duplice senso: sia per quanto riguarda il contenuto o la materia, che le deriva dall'esperienza, sia per quanto riguarda la forma, che le deriva dai giudizi sintetici a priori che ne rappresentano i quadri concettuali di fondo. Nello stesso tempo, proprio in virtù di questi ultimi, essa è anche a priori, cioè universale e necessaria. In sintesi:

scienza = esperienza + principi sintetici a priori

In altre parole, i giudizi sintetici a priori rappresentano la spina dorsale della

scienza, ovvero l'elemento che le conferisce stabilità e universalità, e in mancanza del quale essa sarebbe costretta a muoversi, ad ogni passo, nell'incerto e nel relativo. Infatti, senza taluni principi assoluti di fondo, e in ciò risiede il cuore di tutta l'epistemologia kantiana, la scienza non potrebbe sussistere, in quanto il ricercatore (humiano), ad ogni passo, sarebbe obbligato a brancolare nel buio, non sapendo ad esempio se anche nel futuro ogni evento dipenderà da cause o se ogni oggetto d'esperienza sarà nello spazio e nel tempo. Invece, lo scienziato kantiano è certo a priori di tale verità, anche se per sapere quali siano le cause che producono gli eventi o che cosa vi sia nello spazio e nel tempo ha bisogno di ricorrere alla testimonianza dell'esperienza.

Dopo aver messo in luce che il sapere poggia su giudizi sintetici a priori, Kant si trova di fronte al complesso problema di spiegare la provenienza di questi ultimi. Infatti, se non derivano dall'esperienza, da dove deriveranno i giudizi sintetici a priori? Per rispondere a questo interrogativo Kant, articolando la sua ipotesi gnoseologica di

=7=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

fondo, elabora una nuova teoria della conoscenza, intesa come sintesi di materia e forma. Per materia della conoscenza si intende la molteplicità caotica e mutevole delle impressioni sensibili che provengono dall'esperienza (=elemento empirico o a posteriori). Per forma s’intende l'insieme delle modalità fisse attraverso cui la mente umana ordina, secondo determinati rapporti, tali impressioni (= elemento razionale o a priori). Kant ritiene infatti che la mente filtri attivamente i dati empirici attraverso forme che le sono innate e che risultano comuni ad ogni soggetto pensante. Come tali, queste forme sono a priori rispetto all'esperienza e sono fornite di validità universale e necessaria, in quanto tutti le possiedono e le applicano allo stesso modo. La mente kantiana è simile ad un computer, che elabora la molteplicità dei dati che le vengono forniti dall'esterno mediante una serie di programmi fissi, che ne rappresentano gli immutabili codici di funzionamento. Quindi, pur mutando incessantemente le informazioni (= le impressioni sensibili), non mutano mai i loro schemi di recezione (= le forme a priori). Ma il fatto che in noi esistano determinate forme a priori universali e necessarie, che per Kant sono lo spazio e il tempo e le 12 categorie, attraverso cui incapsuliamo i dati della realtà, spiega perché si possano formulare dei giudizi sintetici a priori intorno ad essa senza il timore di essere smentiti dall'esperienza.

Questa nuova impostazione del problema della conoscenza, questo mutamento di prospettiva realizzato da Kant, che invece di supporre che le strutture mentali si modellino sulla natura, suppone che l’ordine della natura si modelli sulle strutture mentali, comporta una rivoluzione copernicana. Infatti, come Copernico, incontrando grosse difficoltà nello spiegare i movimenti celesti a partire dall’ipotesi che gli astri ruotino intorno allo spettatore, suppose che fosse lo spettatore a ruotare intorno agli astri, così Kant, incontrando delle difficoltà nello spiegare la conoscenza a partire dall’ipotesi che siano gli oggetti a ruotare intorno al soggetto, cioè che condizionino il soggetto, suppone che sia il soggetto a ruotare intorno all’oggetto, cioè che condizioni l’oggetto.

Così Kant, per spiegare la scienza, ribalta i rapporti fra soggetto e oggetto, affermando che non è la mente che si modella passivamente sulla realtà, nel qual caso non vi sarebbero conoscenze universali e necessarie, bensì la realtà che si modella sulle forme a priori attraverso cui la percepiamo. In secondo luogo, la nuova ipotesi gnoseologica comporta la distinzione kantiana tra fenomeno e cosa in sé. Il fenomeno è la realtà quale ci appare tramite le forme a priori che sono proprie della nostra struttura conoscitiva. Il fenomeno non è un'apparenza illusoria, poiché è un oggetto reale, ma reale soltanto nel rapporto con il soggetto conoscente. La cosa in sé è la realtà considerata indipendentemente da noi e dalle forme a priori mediante cui la conosciamo, e come tale costituisce un’incognita. L’originalità del copernicanesimo filosofico di Kant consiste nel cercare la garanzia ultima della conoscenza non negli oggetti o in Dio, ma nella mente stessa dell’uomo, fondando così le istanze dell'oggettività nel cuore stesso della soggettività. Con questo non si intende dire che la rivoluzione copernicana sia consistita semplicemente nel fondare sul soggetto, anziché sull'oggetto, la validità del sapere. L'originalità della soluzione kantiana è consistita anche nell'intendere il fondamento del sapere in termini di possibilità e di limiti, cioè conformemente al modo d'essere di quell'ente pensante finito che è l'uomo.

Su queste basi Kant costruisce la sua ontologia della fisica newtoniana. I concetti attraverso cui si sistema tutto il sapere scientifico e quindi contengono l’impalcatura concettuale della natura fisica, sono spazio e tempo, numero; le dodici categorie (unità,

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =74!

molteplicità, totalità; realtà, negazione, limitazione; sostanza e accidente, causa ed effetto, reciprocità di azione e passione; possibilità e impossibilità, esistenza e inesistenza, necessità e contingenza).

Per Newton, come sappiamo, lo spazio assoluto è il sensorium Dei occorrente a rendere intelligibili le leggi fisiche di un mondo governato dalla gravitazione universale, ed è una condizione indispensabile, assieme al tempo assoluto, per la validità delle leggi del moto e della meccanica razionale. Kant pretende di spingere oltre ancora questi argomenti, cercando non solo nella meccanica, ma anche nella geometria la prova di tale assolutezza: “Dai giudizi intuitivi dell'estensione, propri della geometria “ si può ricavare la prova “che lo spazio assoluto ha una propria realtà, indipendente dalla esistenza di ogni materia, ed anzi in quanto ragione prima della possibilità della sua composizione “.

Secondo le sue vedute, così difformi da quelle a cui ci ha abituato la critica moderna (si veda le geometrie non euclidee) le leggi della fisica debbono obbedire a quelle della geometria, che la precede. Lo spazio, che viene prima, non è tenuto a conformarsi alle leggi che scaturiscono dalla nostra indagine sulla materia, ma le sue leggi necessarie contribuiscono a rendere possibile la natura stessa.

Kant è pienamente conscio delle difficoltà e delle antinomie che sorgono dai concetti di spazio e tempo assoluti. Ad esempio: se spazio e tempo possiedono una realtà assoluta, oggettiva, precedente rispetto a quella degli oggetti, essi dovettero un giorno essere riempiti da oggetti che furono ordinati in essi. Vi fu, dunque, una creazione. E questa avvenne in un certo istante del tempo. Ma il tempo vuoto, assoluto, non ha in sé ragioni determinanti o discriminanti, per cui un dato istante temporale possa essere distinto da un altro. Non possiamo dare la preferenza, non possiamo individuare, un certo istante rispetto ad un altro qualsiasi: quel certo istante, non è un certo istante. Ed ecco la domanda critica decisiva: dal momento che i giudizi matematici sono certi, universali e necessari, come possono diventare universali dei giudizi sintetici o empirici? La risposta di Kant è: spazio e tempo non devono essere più considerati alla stregua degli altri oggetti dati esternamente, ma invece, pur nella loro assolutezza, li dobbiamo concepire quali forme e strumenti della nostra conoscenza, puri prodotti dell'intelletto stesso, forme della nostra sensibilità. Avendo accolto, sotto l'influenza di Newton, l'idea di uno spazio assoluto, e rifiutato quella di Leibniz, dello spazio relativo, che solo “rappresenta le cose nei loro scambievoli rapporti”, Kant conclude che, nella geometria, tali giudizi sono possibili in quanto lo spazio è: “la forma di tutti i fenomeni del senso esterno, cioè la condizione soggettiva della sensibilità, per mezzo della quale soltanto è possibile l'intuizione esterna. Poiché, dunque, l'attitudine del soggetto ad essere modificato dagli oggetti precede necessariamente ogni intuizione di essi, da ciò deriva che la forma di tutti i fenomeni possa essere data nello spirito prima di tutte le percezioni effettive, e quindi a priori, e che essa, come pura intuizione, in cui tutti gli oggetti debbono essere determinati, possa contenere i principi dei loro rapporti, prima di ogni esperienza... Noi possiamo perciò parlare solo dal punto di vista umano dello spazio, di esseri estesi, ecc. Ma se prescindiamo dalla condizione soggettiva, nella quale soltanto possiamo avere un'intuizione esterna, in quanto cioè possiamo venire modificati dagli oggetti, allora la rappresentazione dello spazio non significa più nulla. Questo predicato, dunque, viene conferito alle cose solo in quanto appaiono a noi, cioè in quanto sono oggetti della sensibilità”. L’idea centrale della nuova gnoseologia kantiana è dunque la soggettività dello spazio e del tempo.

=75! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Spazio e tempo, allora, non sono realtà esterne a noi ma solo un nostro modo di organizzare i dati sensibili della realtà, ossia sono intuizioni pure, forme dell'intuizione, i quadri entro cui vengono ordinati i materiali forniti dalla sensibilità. Ma d'altra parte essi restano distinti e dai materiali che in essi si ordinano e dai concetti matematici (numero, figura geometrica) mediante cui quei materiali vengono disposti per l'interpretazione categoriale; gli eventi sono percepiti nello spazio e nel tempo, e quindi (fenomenicamente, non metafisicamente) avvengono nello spazio e nel tempo, i quali quindi risultano essere, come sosteneva Newton, assoluti, lo sfondo sul quale sono ordinati i fenomeni, sfondo però strutturato e articolato, contenente lo schema (matematico) attraverso cui i materiali sensibili stessi acquistano rilievo per l'interpretazione concettuale della natura. Spazio e tempo non sono dei contenitori in cui si trovano gli oggetti, bensì dei quadri mentali a priori entro cui connettiamo i dati fenomenici. In sostanza, percepiamo le cose le une accanto alle altre (spazio) e le une dopo le altre (tempo) non perché esse effettivamente siano nello spazio e nel tempo ma perché questo è il nostro modo di percepire le cose, perché il mondo come noi lo vediamo è una nostra costruzione.

In sintesi, se Newton aveva fatto dello spazio euclideo uno spazio fisico assoluto, contenitore universale della materia, teatro degli eventi e base della loro discussione fisica, Kant, invece, lo concepisce come spazio dell’intuizione pura, come forma a priori dell’esperienza, ossia come legge strutturale della conoscenza priva di realtà fisica, e facendo, così, della geometria euclidea un insieme di giudizi sintetici a priori, valevoli universalmente e necessariamente. La concezione kantiana sullo spazio e sul tempo è una teoria suggestiva, forse inconfutabile da un punto di vista logico, ma tuttavia ipotetica. Kant passa a fornirne delle prove tratte dalla geometria in quanto scienza effettivamente costruita dai matematici, ma, come abbiamo detto e come vedremo, tali prove svaniscono al tocco dei progressi della matematica nell’Ottocento, con le geometrie euclidee, e della fisica ai primi del Novecento con la teoria della relatività.

E lo stesso discorso, mutatis mutandis, va ripetuto per ciò che riguarda le categorie. Queste sono propriamente le forme logiche, ossia le forme del discorso. Dunque le categorie, ossia i concetti fondamentali della scienza fisica (tra cui sostanza e causa), costituiscono dei semplici modi di sistemare le proposizioni empiriche, i dati della conoscenza sensibile, i quali vengono pensati (dalla mente umana, non da quella divina) entro quel quadro categoriale; ma d'altra parte restano distinte e dai materiali empirici in esse pensati e dalle stesse relazioni meramente sintattiche del discorso scientifico. La casualità, per esempio, è connessa con la forma dell'implicazione, ma non si riduce ad essa: è il rapporto che mediante tale forma viene a stabilirsi tra materiali empirici. Le categorie, essendo la facoltà logica di unificare il molteplice della sensibilità, funzionano solo in rapporto al materiale che esse organizzano, ossia in connessione con le intuizioni spazio-temporali cui si applicano. Considerate di per sè, cioè senza essere riempite di dati provenienti dal senso esterno o interno, sono vuote. Questo fa sì che esse risultino operanti solo in relazione al fenomeno, intendendo per quest'ultimo l'oggetto proprio della conoscenza umana, che è sempre sintesi di un elemento materiale e di uno formale. Di conseguenza, il conoscere, per Kant, non può estendersi al di là dell'esperienza, in quanto una conoscenza che non si riferisca all'esperienza possibile non è conoscenza, ma un vuoto pensiero che non conosce nulla, un semplice gioco di rappresentazioni.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =76!

Kant ha sempre ribadito che l'ambito della conoscenza umana è rigorosamente limitato al fenomeno, poichè la cosa in sé, che in contrapposizione al fenomeno (= l'apparenza sensibile), denomina con il termine greco noumeno (= la realtà pensabile, l'intelligibile puro), non può divenire, per definizione, oggetto di un'esperienza possibile. Anche la cosmologia razionale, che pretende di far uso della nozione di mondo inteso come la totalità assoluta dei fenomeni cosmici, è destinata, secondo Kant, a fallire. Infatti, poiché la totalità dell’esperienza non è mai un’esperienza, in quanto noi possiamo sperimentare questo o quel fenomeno, ma non la serie completa dei fenomeni, l’idea di mondo cade, per definizione, al di fuori di ogni esperienza possibile.

Kant giustifica ulteriormente l'apriorità dello spazio e del tempo mediante talune considerazioni epistemologiche sulla matematica, volte ad una fondazione filosofica della medesima. Kant vede nella geometria (che si fonda sullo spazio) e nell'aritmetica (che si fonda sul tempo) le scienze sintetiche a priori per eccellenza in quanto ampliano le nostre conoscenze mediante costruzioni mentali che vanno oltre l’esperienza. Qual è, allora, il punto di appoggio delle costruzioni sintetiche a priori delle matematiche? Kant non ha dubbi sul fatto che esso risieda nelle intuizioni di spazio e di tempo. Infatti, la geometria è la scienza che dimostra sinteticamente a priori le proprietà delle figure mediante l'intuizione pura di spazio, stabilendo ad esempio, senza ricorrere all'esperienza del mondo esterno, che fra le infinite linee che uniscono due punti la piu breve è la retta. Analogamente, l'aritmetica è la scienza che determina sinteticamente a priori la proprietà delle serie numeriche, basandosi sull'intuizione pura di tempo e di successione senza la quale lo stesso concetto di numero non sarebbe mai sorto. In quanto a priori, la matematica è anche universale e necessaria, immutabilmente valida per tutte le menti pensanti.

Per quale ragione, allora, le matematiche, pur essendo una costruzione della nostra mente, valgono anche per la natura? Anzi, perchè tramite esse siamo addirittura in grado di fissare anticipatamente delle proprietà che in seguito riscontriamo nell'ordine fattuale delle cose? Che cosa garantisce questa stupefacente coincidenza, su cui fa leva la fisica? A questi interrogativi di filosofia della scienza, Galileo, sulla base della sua epistemologia realistica aveva risposto sostanzialmente che Dio, creando, geometrizza, postulando in tal modo una struttura ontologica di tipo matematico. Kant, avendo dichiarato inconoscibile la cosa in sé non poteva certo presupporre simili armonie prestabilite. Escludendo ogni garanzia di tipo metafisico e teologico, egli afferma invece che le matematiche possono venir proficuamente applicate agli oggetti dell'esperienza fenomenica poiché quest'ultima, essendo intuita nello spazio e nel tempo, che sono anche i cardini della matematica, possiede già, di per sé, una configurazione geometrica e aritmetica. In altre parole, se la forma a priori di spazio con cui ordiniamo la realtà è di tipo euclideo, risulta evidente che i teoremi della geometria di Euclide varranno anche per l'intero mondo fenomenico.

Ma se l’io è il fondamento della natura, l'io è anche il fondamento della scienza che la studia. Infatti, i pilastri ultimi della fisica, che in concreto si identificano con i principi dell’intelletto puro, poggiano sui giudizi sintetici a priori della mente, che a loro volta derivano dalle intuizioni pure di spazio e di tempo e dalle dodici categorie. In tal modo, la gnoseologia di Kant si configura come l'epistemologia della scienza galileiano-newtoniana e come il tentativo di giustificarne filosoficamente i principi di base contro lo scetticismo di Hume. Questi riteneva infatti che l'esperienza, da un momento all'altro, potesse smentire la verità su cui si regge la scienza. Kant sostiene

=77! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

invece che tale possibilità non sussista in quanto l'esperienza, essendo condizionata dalle categorie dell'intelletto e dall’io penso, non può mai smentire i principi che ne derivano. In tal modo, le leggi della natura risultano pienamente giustificate nella loro validità, in quanto l'esperienza che le rivela non potrà mai smentirle, giacché esse rappresentano le condizioni stesse di ogni esperienza possibile.

Se dalla Critica della ragion pura emergeva una visione della realtà in termini meccanicistici, in quanto la natura, dal punto di vista fenomenico, appariva come una struttura causale e necessaria, nell'Analitica dei principi Kant tenta un'assiomatizzazione della fisica newtoniana e post-newtoniana fissando una serie di assiomi a priori, fondati non su rilievi empirici bensì sulle stesse intenzionalità nozionali delle categorie. È vero che oggi tutto questo apparato di assiomi conserva solo qualche interesse più che storico, tuttavia è notevole osservare in tale dottrina kantiana alcuni aspetti di grande importanza nei riguardi del pensiero scientifico moderno. Intanto questo: i principi che Kant espone sono piuttosto regulae philosophandi che non leggi scientifiche; tuttavia sorpassano lo stato di meri consigli metodologici per divenire le strutture di ogni scienza della natura in generale. Indipendentemente dal loro contenuto materiale, i risultati dell'esperienza non possono venire pensati e formare un sistema, una scienza, se non entro i quadri costituiti da tali principi. I quali, al solito, non sono dati empirici, ma neppure sono fondati su idee in senso platonico-cartesiano; perciò costituiscono soltanto condizioni di scientificità del nostro discorso. Tra questi principi è quello che Laplace (principio di ragione sufficiente) considerava fondamentale per la scienza, il principio del determinismo: Tutto ciò che accade presuppone qualcosa cui esso segua secondo una regola. Il determinismo dunque non è una struttura ontologica della realtà in sé, esso appartiene al nostro modo di costruire una scienza in generale; ma d'altra parte non vi è scienza senza un postulato deterministico.

7.8 Il trionfo della meccanica e la filosofia meccanicistica della natura

Il grande lavoro matematico del secolo XVIII, in primis l’analisi, non era fine a se stesso, perché il grande problema era l'elaborazione di un completo sistema deduttivo di meccanica analitica. Di problemi di geometria analitica applicata alla meccanica, di trattazioni analitiche mediante il nuovo potente strumento del calcolo infinitesimale si occupano più o meno i matematici del tempo, cosicché la meccanica diviene interamente un ramo dell'analisi; i concetti meccanici fondamentali (velocità, accelerazione, forza, energia, lavoro, ecc.) vengono risolti in formule analitiche, in derivate e integrali di funzioni; alla base di tutta la scienza della natura viene messa una nuova disciplina, altamente matematica come la cinematica analitica; e questo segna in seno alla filosofia della natura un trionfo, e un rinnovamento, della concezione razionalistica di fronte all'empiristica che era sembrata trionfare per l'autorità del grande Newton. Il passaggio dalla trattazione geometrica della meccanica di Newton a quella analitica non avvenne senza contrasti, soprattutto in relazione all’oscurità dei nuovi concetti dinamici come quelli di massa, inerzia, forza e dei concetti metafisici che li accompagnano, come quelli di causa, effetto, azione, ecc.

La prima formulazione matematica della seconda legge del moto, equivalente alla nostra F=ma, si trova in una memoria di Pierre Varignon (1654-1622) del 1700, che

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =78!

curiosamente la deduce non dalla seconda legge del moto, ma dalle leggi di caduta dei gravi e quindi senza alcun riferimento alla massa. Risalgono a Varignon anche la formulazione dei Principi della Statica, la formulazione della definizione di risultante di più forze e di momento statico e dimostrò razionalmente le due regole fondamentali della statica : la Regola del parallelogramma sulla somma di più forze inclinate concorrenti e il celebre Teorema di Varignon sui momenti statici di più forze e della loro risultante.

La trascrizione analitica della meccanica di Newton fu un’opera lenta, iniziata, con una chiara visione programmatica, da Leonardo Eulero (1707-1783). Eulero si propose di sviluppare la meccanica come scienza razionale ordinata su poche definizioni e assiomi, in modo che le leggi meccaniche appaiano, come sono, non soltanto certe, ma di “verità necessaria”. La dinamica euleriana è fondata sul concetto primitivo di forza. Egli distingue la forza o potenza esterna al corpo, che ne produce l'alterazione di moto, e la forza d'inerzia (vis inertiae), cioè la facoltà insita nel corpo di rimanere nello stato di quiete o di moto rettilineo uniforme in cui si trova. La forza d'inerzia è proporzionale alla quantità di materia e risiede nel corpo, sia che questo sia in quiete sia che si trovi in moto rettilineo uniforme. Ne risulta che la forza, cioè la causa che produce il cambiamento di stato dei corpi, è sempre esterna al corpo, mentre la forza d'inerzia o l'inerzia “esiste nel corpo stesso ed è una sua proprietà essenziale”: in sostanza, è una nuova sistemazione dei concetti newtoniani, che ne consente una più agevole traduzione analitica. Nell’opera Teoria motus corporum solidorum seu rigidorum (1765), Eulero tratta della dinamica dei solidi, sviluppando la teoria dei momenti d’inerzia e studia sistematicamente il movimento d'un corpo solido libero. Egli va oltre lo studio del moto centrale, tramandato da Newton, e tratta in generale tutti i movimenti di rotazione e i movimenti che obbediscono a forze qualunque, preparando così il terreno alla cinematica e alla cinetica moderne. In particolare è ammirevole, e in buona parte tuttora valido, lo studio analitico del moto della trottola che utilizza i concetti di momento e di asse d'inerzia. Ad Eulero dobbiamo anche un contributo importante all’acustica attraverso la teoria completa delle ondulazioni delle corde, giungendo al fondamentale risultato che la velocità di propagazione delle onde nelle corde è indipendente dalla lunghezza d’onda del suono prodotto, e alla dinamica dei corpi nei fluidi per il fatto che, nell’esperienza concreta, i corpi non si muovono mai in vacuo.

La trascrizione analitica della meccanica continua con Jean B. D'Alembert (1717-1783), che esercitò tale influenza sugli ambienti culturali più progrediti d'Europa da essere considerato, dopo la morte di Voltaire, il suo erede spirituale. Nella sua grande opera Traité de Dynamique (1743), che si occupa esclusivamente di dinamica del punto, D’Alemebert espone la sua filosofia della meccanica. La meccanica, secondo lui, appartiene alle scienze puramente razionali, cioè a quelle scienze fondate su principi necessariamente veri, e non su principi fisici o su ipotesi. Come scienza puramente razionale, la meccanica dev'essere epurata dai principi che hanno contenuto sperimentale ed essere tutta edificata su pochi principi necessari della più larga applicazione. Diminuire il numero di principi, estenderne l'applicazione: è questo il programma della meccanica di D'Alembert. Anche l’idrodinamica comincia ad essere trattata analiticamente e D’Alembert fu tra i primi, insieme ad Eulero e a Daniel Bernoulli (1700-1782), e ricavò le equazioni differenziali a derivate parziali che reggono il moto dei fluidi compressibili e incompressibili. Sebbene i principi di Newton bastino

=79! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

a trattare ogni problema meccanico, pure nel corso del secolo, si ritenne conveniente introdurre principi particolari (dei lavori o velocità virtuali, della conservazione del centro di gravità, del momento, delle aree, della forza viva ecc.), atti a consentire una più facile trattazione di alcuni gruppi di problemi, e D’Alembert, nel suo trattato di dinamica, enuncia il principio della quantità di moto:

PRINCIPIO DI D’ALEMBERT

Se si considera un sistema di punti materiali legati tra loro in modo che le loro masse acquisiscano velocità rispettive differenti a seconda se esse si muovano liberamente o

solidalmente, le quantità di movimenti acquisite o perse nel sistema sono uguali.

Nel 1747 D’Alembert trovò l'equazione alle derivate parziali del secondo ordine

che regge le piccole oscillazioni di una corda omogenea vibrante.

Pierre de Maupertuis (1698-1759) aveva definito un nuovo concetto meccanico, quello di azione (somma dei prodotti delle velocità per gli spazi percorsi) e, sulla base di considerazioni metafisiche legate al finalismo, cioè alla credenza che ci sia un progetto, uno scopo, un principio organizzativo o una finalità nelle leggi fisiche che regolano i processi naturali, e per la sua fedeltà alla fisica di Newton, aveva stabilito che le leggi meccaniche relative al cammino della luce dovevano rispondere ad un minimo di azione. In sostanza egli cercava di correggere il principio di Fermat (del minimo tempo impiegato da un raggio di luce per passare da un punto ad un altro), in modo da renderlo compatibile con l’affermazione di Newton, il quale ritiene che la velocità della luce sia più grande nelle sostanze più rifrangenti come acqua o vetro (Maupertuis però è in errore quando pensa che ciò sia vero, in quanto il principio di Fermat è in perfetto accordo con la teoria ondulatoria di Huygens). Vediamo come Maupertuis giunge alla sua scoperta che fa epoca. Se si considera un piccolo intervallo di spazio s durante il quale la velocità v, per esempio di un raggio di luce, è costante, il principio di Fermat ammette che è minimo il tempo, ossia il rapporto s/v. Maupertuis, però, osserva che non c’è nessuna ragione per cui il tempo debba avere una preferenza sullo spazio. Al contrario, dobbiamo portare questi due enti, che sono i grandi pilastri della teoria newtoniana, sullo stesso piano, e considerare non il quoziente, come Fermat, ma il prodotto dello spazio per la velocità (s⋅v), per cui la luce sceglie: “una via che ha il vantaggio più reale. Il cammino che essa segue è quello per il quale la quantità d'azione è minima”.

Se invece di un raggio di luce, si considera una particella di massa m, dobbiamo considerare il prodotto m⋅s⋅v, ed in questo senso il principio viene esteso alla meccanica in generale dallo stesso Maupertuis, che lo applica allo studio dell’urto, da Eulero, che lo applica al moto dei proiettili ed ad altre questioni, e soprattutto da Lagrange, che fece vedere come la sua applicazione permette di ricondurre la soluzione di problemi diversi ad un’unica legge generale, in modo che la meccanica razionale acquista in chiarezza e generalità. Riferendoci alla forma m⋅s⋅v, si può dire che l’azione è data dal prodotto

dell’energia cinetica per il tempo (mv2⋅t), e quindi il principio della minima azione dice, in definitiva, che, nel passare da uno stato all’altro, una massa sceglie quasi sempre, fra le varie vie possibili, quella che implica la minima azione. Pertanto, secondo Maupertuis, ad ogni movimento che avviene nell'universo, è associata una quantità chiamata azione, della quale è possibile dare un'espressione matematica. Inoltre tra tutti

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =7:!

i movimenti possibili, quello che avrà luogo, quello scelto dalla natura, è quello che minimizza tale azione. Sembrerebbe quindi che la natura abbia una capacità di decisione e per questo Maupertuis si sentì autorizzato a saltare dalla fisica alla metafisica. E' proprio questa economia dell'azione, affermò Mapertuis, a rivelarci la saggezza divina: “E’ questo un principio pieno di saggezza, degno dell’Essere Supremo”. In definitiva possiamo affermare che la natura segue sempre le vie più semplici, e le vie più semplici sono quelle che minimizzano il dispendio della natura, cioè l'azione.

Le critiche al principio non si fecero attendere, ma furono più feconde che nocive. Infatti il fisico olandese Samuele Koenig (1712-1757) fu il primo ad osservare che nell’enunciato occorre talvolta mutare la parola minimo con quella di massimo, sicché crolla dai fondamenti la conclusione teleologica che Maupertuis aveva posto alla base del suo principio. La validità delle critiche di questo genere è stata così pienamente riconosciuta dalla fisica moderna, che invece di parlare di principi di minimo, oggi si parla di principi variazionali, o estremali, cioè relativi a minimi o a massimi.

Sul principio di minima azione e sulle sue conclusioni teleologiche Maupertuis si scontrò con Voltaire, in una polemica dalla quale uscì sconfitto, ed il principio finì nel discredito totale e abbandonato. Una sorte ingiusta per un principio fisico fondamentale, che verrà riscoperto soltanto all'inizio del Novecento e rivalutato come una delle chiavi di passaggio dalla meccanica classica alla fisica quantistica e completamente riabilitato in tempi ancora più recenti, per aver permesso di scoprire un importante principio di incertezza della meccanica classica. Una generalizzazione del principio di Maupertuis si è rivelata significativa anche per la relatività. Basti osservare che nella scienza classica poteva apparire strano il fatto che un principio così fondamentale riguardasse una grandezza in certo senso artificiale (energia per tempo). La cosa è invece molto diversa nel continuo quadridimensionale (o spazio-temporale) che è alla base della relatività: una regione di questo continuo associa in modo naturale una certa quantità di energia (o la massa ad essa equivalente), ad un certo intervallo di tempo; il prodotto energia-durata (cioè l'azione) sorge in esso naturalmente. In altre parole un continuo spazio-tempo contiene l'azione tanto naturalmente quanto lo spazio ordinario contiene massa o energia. Guardando dal punto di vista della teoria di Einstein, ogni impressione di artificiosità scompare, e appunto dall'elaborazione di tale principio Einstein e Weil furono condotti alle leggi di curvatura del continuo spazio-temporale, cioè alla nuova legge di gravitazione.

Fu soprattutto Joseph Lagrange (1736-1813) che nella Mecanique analytique (1788) dedusse per via di mero calcolo di equazioni differenziali (la sua opera non correda il testo di neppure una figura) tutta quanta la meccanica razionale dal principio di d'Alembert, da lui riformulato in termini più rigorosamente analitici, definendo l'azione come l'integrale della quantità di moto esteso a tutto lo spazio. Così la meccanica diveniva disciplina interamente matematico-deduttiva, e conduce alle ben note equazioni dinamiche lagrangiane e all’equazione fondamentale della dinamica dei sistemi, basi della meccanica e della fisica moderne. Questa meccanica analitica ha poi in vista il perfezionamento del sistema cosmologico abbozzato da Newton fino a farne un ampio e complesso sistema della natura, una vera e propria dottrina scientifica destinata a competere con le costruzioni metafisiche dei secoli precedenti, e certo non scevra dell'influenza di tali costruzioni. Il sistema che si sviluppa si può definire una

=8<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

fisica delle forze centrali. Il cosmo viene rotto in sistemi parziali ma indipendenti, sul modello del sistema solare, entro i quali masse (idealmente assimilate a punti-massa, idealmente elastici, con la provvisoria scomparsa dell'atomo boyliano-newtoniano) sono considerate in movimento (attuale o potenziale) con determinate velocità iniziali, e assoggettate ad accelerazioni-forze (siano esse gravitazionali o di urto) che ne determinano le traiettorie nello spazio euclideo; tutti i fatti fisici sono riconducibili o a tali movimenti o agli effetti meccanici di tali movimenti.

Nel campo dell'astronomia questa concezione viene svolta da William Herschel (1738-1822) con la teoria degli universi-sole, ossia la teoria che ogni stella è un possibile sole attorno al quale si muove un possibile sistema planetario, naturalmente seguendo le leggi kepleriano-newtoniane. Questa concezione generale è già di per sé spiccatamente razionalistica, ma a sottolinearne tale carattere concorrono l'enfasi portata sulla cosiddetta semplicità della natura e l'affermarsi in tutte le correnti scientifiche del tempo di un punto di vista decisamente deterministico. La semplicità della natura agisce non solo come fede metafisico-religiosa, ma anche come principio metodologico che penetra profondamente nella struttura stessa della nuova meccanica analitica. Infatti non solo si parte dal principio del rasoio d'Occam, di un'economia di concetti, leggi ed entità ipotetiche per la spiegazione dei fenomeni; ma il principio della semplicità agisce anche come standard meccanico, in quanto si stabilisce in tutti i fenomeni meccanici il principio del minimo, per cui se non intervengono elementi disturbatori tutti gli eventi fisici obbediscono al principio della minima traiettoria, della minima azione, del minimo lavoro, eccetera.

Quanto al determinismo esso si afferma in seno alla scuola leibniziana, dove emerge la figura del filosofo Christian Wolff (1679-1754) il quale, trasformando in modo tipico il principio di ragion sufficiente del maestro, finisce con l'affermare che nulla accade nella natura senza una ragione, con il che intende una causa, sì che ogni evento è conseguenza di una situazione esistente nel cosmo (praticamente poi, per i fisici, nel sistema meccanico in esame) al momento dell'evento stesso, e contribuisce a determinare tutti gli eventi successivi. Fisicamente, questa ragione o causa si riconduce alle velocità ed accelerazioni di tutte le particelle coinvolte nell'evento fisico stesso, velocità ed accelerazioni che ne determinano in maniera univoca e necessaria l'andamento e le conseguenze successive. Ma anche in seno alla scuola newtoniana i progressi stessi dell'astronomia di osservazione e dell'astronomia matematica ne mettono in crisi il contingentismo originario.

L'astronomo Edmond Halley (1656-1742) studiando la cometa che porta il suo nome ne scopre la regolarità dell'orbita, riconducibile alle leggi di Keplero; Alexis Clairaut (1713-1765) riesce, sulla base della legge newtoniana di gravitazione, a predire il nuovo passaggio della cometa di Halley per l'aprile 1759, nonché a ricondurre alla regolarità delle leggi newtoniane le apparenti irregolarità del moto lunare; nel 1781 Herschel scoprirà un nuovo pianeta, Urano, e potrà dimostrare che la sua orbita obbedisce alle leggi kepleriano-newtoniane. Da allora l'astronomia viene concepita come scienza esatta, e il fatale movimento dei pianeti, completamente prevedibile a partire dalle formule di meccanica razionale in cui si esprimono le leggi di natura, diviene il modello di tutto il divenire naturale.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =8;!

Tipicamente illuministica è l’apertura di Pierre S. Laplace (1749-1827) a una vasta gamma di interessi (matematica, astronomia, fisica, chimica, ecc.). Questo carattere non specialistico della cultura di Laplace va connesso alla sua costante preoccupazione di diffondere fra i contemporanei la conoscenza dei più importanti risultati della ricerca scientifica, affinchè questi non si trasformino in patrimonio esclusivo di pochi iniziati. Per Laplace la scienza costituisce uno dei più forti elementi propulsori della civiltà, cosicchè la sua diffusione in strati sempre più larghi di popolazione fornirà una delle maggiori garanzie contro l’oscurantismo e la superstizione. In più Laplace ritiene che la scienza stessa sia un fenomeno eminentemente sociale, cosicchè non potrebbe fiorire e svilupparsi al di fuori di una società ben decisa a realizzare un vivere civile.

Altro tema tipicamente illuministico che ritroviamo in Laplace è la polemica contro i sistemi metafisici, i quali pretendono di cogliere la verità assoluta da cui dedurre l’intera realtà. Il loro errore dipende dal non riconoscere all’esperienza l’importanza primaria che le compete, e quindi non accettare che essa possa sempre insegnarci qualcosa di nuovo, capace, per la propria intrinseca novità, di mettere in crisi ogni precedente concezione. L’illusorietà delle presunte spiegazioni metafisiche si rivela, secondo Laplace, nel loro stesso fare appello a nozioni inverificabili che non possono venire smentite solo perché sono puramente verbali. Al contrario, le ipotesi scientifiche debbono venire suggerite dall’esperienza e risultare passibili di conferma empirica. Quanto ora accennato ci fa capire perché Laplace, mentre è decisamente contrario ai sistemi metafisici, non respinga affatto i sistemi scientifici, anzi ne asserisca la necessità; il fatto è che questi ultimi, in primis il sistema newtoniano di cui riconosce l’eccezionale importanza, non sono e non vogliono essere assoluti; sono invece correggibili, perfezionabili, integrabili partecipando in modo essenziale alla dialettica del progresso scientifico. Stando così le cose, può apparire singolare che proprio Laplace abbia voluto tracciare, sia pure soltanto in linea di principio, il piano generale e rigoroso di una spiegazione meccanicistica dell’intero universo (supposto quale un tutto unico, di cui ogni parte sarebbe legata alle altre da nessi causali infrangibili), spiegazione basata su di una presunta applicabilità illimitata delle leggi della dinamica settecentesca, nonché sull’ipotetica integrabilità di tutte le equazioni differenziali cui tali leggi conducono nei singoli casi. Sorge infatti spontanea la domanda se un tale edificio teorico non si collochi automaticamente al di fuori della dinamica storica che il nostro autore riconosceva all’effettivo sapere scientifico, e se pertanto esso non costituisca un implicito ritorno a quella metafisica che proprio Laplace aveva tanto criticato. Certo è che egli riuscì a tracciare le linee generali del meccanicismo scientifico con tale perfezione che il suo piano, o progetto, finì per costituire l’ideale di gran parte della ricerca scientifica ottocentesca. Data la sua importanza, riportiamo per intero il celebre passo di Laplace dedicato all’argomento in esame: “Dobbiamo dunque considerare lo stato presente dell’universo come l’effetto del suo stato anteriore e come la causa del suo stato futuro. Un’Intelligenza che, per un dato istante, conoscesse tutte le forze da cui è animata la natura e la collocazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi dati all’analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell’universo e dell’atomo più leggero: nulla sarebbe incerto per essa e l’avvenire, come il passato, sarebbe presente ai suoi occhi. Lo spirito umano offre, nella perfezione che ha saputo dare all’astronomia, un pallido esempio di quest’Intelligenza. Le sue scoperte in meccanica e in geometria, unite a quella della gravitazione universale, l’hanno messo in grado di abbracciare nelle stesse espressioni analitiche gli stati passati e quelli futuri del sistema del mondo”.

=8=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Ciò che è importante sottolineare in queste parole è il pieno riconoscimento dell’autonomia dell’esperienza; vero è infatti che l’Intelligenza in esame è in grado di dedurre, dalla conoscenza completa dello stato dell’universo in un istante t, quella di tutti i suoi stati in un qualunque altro istante passato o futuro, ma per compiere tale deduzione essa ha pur sempre bisogno di apprendere, per esempio attraverso un tipo di conoscenza non deduttiva e quindi non puramente razionale come l’esperienza (oggi diremmo con un’operazione di misura), la collocazione rispettiva degli esseri naturali all’istante t e la distribuzione delle forze che in tale istante agiscono su detti corpi. In altre parole: il sapere scientifico, anche a livello dell’Intelligenza di cui parla Laplace, ha bisogno di partire da un insieme di dati, di trovarsi di fronte a qualcosa su cui elevare il proprio edificio matematico; la ragione non costruisce a priori la natura, ma si limita a scoprirne le leggi che garantiscono l’inscindibile unità fra il passato, il presente e il futuro. La differenza tra sistema scientifico e sistema metafisico è, in ultima analisi, tutta qui; ma è una differenza che stabilisce fra essi un divario incolmabile. Laplace mira a una “grande scienza”, estremamente generale, capace di organizzare e sistemare tutta la realtà. Ma proprio la generalità conseguita da tale scienza dovrà risultare l’arma più efficace contro l’unità metafisico-teologica vagheggiata dai vecchi filosofi. Se infatti è comprensibile che l’uomo faccia ricorso al soprannaturale quando questo gli è indispensabile per concepire in forma unitaria la realtà, tale ricorso diventa automaticamente superfluo e perde di ogni consistenza quando l’unità si rivela perfettamente afferrabile già per semplice via scientifica. Tanto più che l’unità raggiunta dalla “grande scienza” è qualcosa di chiaro e ben controllabile, mentre l’altra è un puro nome, vuoto di contenuto, è una mera fantasia che sfugge per principio ad ogni verifica.

Su queste premesse Laplace costruisce il suo intero sistema cosmologico nella suprema opere Mécanique Celeste (1805), fondandolo unicamente sulle leggi della meccanica analitica, le quali gli servono non solo a spiegare matematicamente i fenomeni celesti, ma a formulare pure matematicamente la celebre ipotesi (detta di Kant-Laplace) sull’origine del sistema solare dalla nebulosa primitiva: raffreddandosi, una nebulosa gassosa si contrae e contraendosi la sua velocità di rotazione aumenta secondo le leggi della dinamica; le forze di rotazione producono una serie di anelli di materia che frantumandosi e aggregandosi sotto l’azione della gravità danno origine ai pianeti. Così si sarebbe reso conto del fatto che tutte le orbite sono quasi sullo stesso piano e tutte le rivoluzioni avvengono nello stesso verso. Tutte le altre stelle potrebbero essersi formate in un modo simile, e alcune di esse possedere pianeti che girino loro intorno. E tutto questo, come risponderà a Napoleone, senza bisogno dell’ipotesi di Dio. L’ipotesi di Laplace sull’evoluzione dell’universo completò la concezione meccanicistica estendendola fino ai tempi primordiali, ed il meccanismo della forza aveva decisamente rimpiazzato il meccanismo dell’urto, imponendo a Laplace l’assunzione, aborrita da Cartesio e Newton, che la gravità sia inerente alla materia.

Il famoso brano di Laplace riferito in precedenza si trova inserito nell’opera Essai philosophique sur les probabilités, quasi a sottolineare che l’autore non vede alcuna antitesi fra determinismo meccanicistico e uso del calcolo delle probabilità. È innanzitutto chiaro che il modello da cui Laplace ricava la propria concezione della conoscenza è quello della conoscenza astronomica, che sulla base di ben precisi dati osservativi e di elevate elaborazioni matematiche riesce a presentarci una visione unitaria del cielo, ove ogni fenomeno rinvia a tutti gli altri e non è quindi spiegabile indipendentemente da essi. Proprio l’astronomia, inoltre, è in grado di prevedere con notevole esattezza gli

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =84!

eventi futuri e anche di determinare la data precisa di quelli trascorsi. Proprio su queste considerazioni si inserisce la giustificazione del calcolo delle probabilità. Il determinismo meccanicista ci garantisce la perfetta razionalità del decorso dei fenomeni, esclude cioè l’irrazionalità. L’immagine laplaciana dell’intelligenza suprema pone però in luce due condizioni indispensabili per afferrare tale razionalità: 1) la conoscenza sicura dell’esatta distribuzione di tutti i corpi e di tutte le forze della natura in un dato istante t; 2) il pieno possesso dello strumento matematico. Entrambe sono da noi irraggiungibili, specialmente la prima che comporterebbe un’infinità di osservazioni, e di conseguenza noi sappiamo che non potremo mai avere una conoscenza piena e completa di tutto l’universo; sappiamo anzi qualcosa di più, che l’ignoranza di un evento non può far a meno di ripercuotersi negativamente sulla nostra conoscenza di tutti gli altri, data la loro rigida interconnessione. La realtà dei progressi scientifici ci dimostra però, con l’evidenza dei fatti, che siamo indiscutibilmente in grado di muoverci entro l’intervallo esistente tra ignoranza totale e onniscienza, avvicinandoci a questo secondo estremo e allontanandoci dal primo; si tratta di prendere atto di questo stato di cose e inventare uno strumento che tenga conto sia della nostra parziale ignoranza sia della nostra parziale conoscenza. Questo strumento è per l’appunto costituito dal calcolo delle probabilità, che secondo Laplace, rappresenta la chiave di tutte le scienze.

Se l’uomo non può entrare in possesso di una scienza completa ed esaustiva, come pretenderebbe il metafisico, non è nemmeno condannato ad una ignoranza completa. Se non può conoscere intuitivamente l’intera realtà, è tuttavia in grado di approssimarla, di avvicinarsi gradualmente ad essa, di formulare teorie che senza dubbio saranno sempre rivedibili (sempre solo parzialmente vere) ma che costituiscono comunque autentici importantissimi passi sulla via della verità totale. Laplace è ben disposto ad ammettere che la conoscenza probabile non esaurisce la verità, ma sostiene con estrema decisione che essa è pur sempre conoscenza. La conoscenza onnicomprensiva resta giustificata come limite cui possiamo e dobbiamo tendere; essa ha diritto di intervenire nel programma degli scienziati, ma non può essere considerata come qualcosa di reale. Reale è invece la conoscenza probabile, che rappresenta l’autentica situazione di tutto il conoscere umano. La conseguenza di queste argomentazioni è chiara: l’uso del calcolo delle probabilità nella fisica è non solo lecito ma indispensabile. Il determinismo della natura e l’uso del calcolo delle probabilità non si escludono ma si integrano a vicenda: è il presupposto di ogni conoscenza scientifica, l’unica via, realmente in possesso dell’uomo, per accertarsi che il mondo è effettivamente regolato da leggi ossia che è davvero un mondo ordinato anche se il suo ordine può in parte sfuggire allo studioso che si sforza di scoprirlo.

Quanto detto consente a Laplace di interpretare i rapporti tra la matematica e la fisica in modo diverso da come l’avevano interpretato i grandi scienziati del Settecento. Secondo lui la matematica non ha più il compito di fornire alla fisica principi necessari ed evidenti, capaci di garantirne a priori l’assoluta scientificità, o dare eleganza alla teoria fisica. Vi compie invece una funzione essenziale, che trasforma la fisica da pura registrazione dei fenomeni in conoscenza via via più approssimata di leggi. Le espressioni usate da Laplace per esporre la propria posizione possono a prima vista sembrare quasi contraddittorie. Per un lato infatti scrive che “bisogna bandire dalla scienza ogni empirismo”; per l’altro afferma che la stessa matematica deve piegarsi alle esigenze della conoscenza fattuale. Il fatto è che l’autentica scienza, per il nostro

=85! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

scienziato, non risulta né puramente induttiva, né puramente deduttiva. Essa deve riuscire a combinare questi due metodi come li ha combinati l’astronomia, che è giunta a conseguire una visione del cielo veramente mirabile: “Per giungervi si sono dovuti osservare gli astri durante lunghi secoli, riconoscere nelle loro apparenze i movimenti reali della terra, elevarsi alle leggi dei movimenti planetari e da queste leggi al principio della gravitazione universale, ridiscendere infine da esso alla spiegazione completa di tutti i fenomeni celesti fino alle loro più piccole particolarità”. Ecco “ciò che lo spirito umano ha fatto nell’astronomia”, ed ecco ciò che esso deve fare in ogni conoscenza che voglia davvero risultare scientifica. In questo doppio movimento di ascesa e discesa la fisica non può fare a meno di ricorrere alla matematica perché questa e solo questa le permette di dare alle leggi di natura una formulazione semplice, precisa e generale, nonché di determinare esattamente i rapporti fra una legge e l’altra. In conclusione: la matematica è uno strumento essenziale della conoscenza della natura, perché senza di essa è impossibile enuclearne le leggi e perché solo nelle leggi la natura svela realmente sé stessa.

È doveroso dare atto che nessuno, prima di Laplace, aveva saputo cogliere con altrettanta chiarezza questo complesso rapporto dialettico esperienza-matematica, e nessuno aveva affermato con altrettanta decisione che proprio in questo rapporto va cercata la radice profonda della scientificità. Da tale punto di vista, Laplace si è effettivamente saputo collocare nella grande via aperta da Galileo e da Newton, portandola a un grado di consapevolezza che questi due autori erano stati ben lungi dal raggiungere (tant’è vero che dopo Newton le ricerche fisiche si erano suddivise in due rami facenti perno o sulla sola matematica o sulla sola esperienza).

Se la concezione deterministico-meccanicistica risulta senza dubbio non più accettabile, l’indicazione metodologica elaborata da Laplace conserva invece tutta la sua validità. La scienza moderna ne ha dato ampie e ripetute conferme, sia mostrando l’importanza di salire dai meri dati empirici a leggi sempre più generali, sia mostrando la funzione essenziale che in questa graduale ascesa risulta compiuta dalla matematica ed in particolar modo dal calcolo delle probabilità.

Accanto all'attività teorica, la meccanica del XVIII secolo affina anche l'aspetto sperimentale. Macchine semplici, bilance idrostatiche e di precisione, tubi di Newton, piani inclinati di Galileo, macchine per la forza centrifuga, dispositivi per lo studio dell'urto, pompe idrauliche, pompe pneumatiche, areometri, barometri, tutti costruiti con cura, talvolta ingombranti, sempre costosi, costituivano le apparecchiature tradizionali correnti per ogni corso di meccanica sperimentale. In questo contesto George Atwood (1746-1807), aveva costruito una macchina per dimostrare la maggior parte dei teoremi sulla velocità, la forza, l'accelerazione, e l'uniformità del movimento rettilineo.

Verso la fine del XVII secolo i costruttori di macchine si trovavano in un curioso imbarazzo: se applicavano ai loro dispositivi le regole teoriche della nuova meccanica, quali s'erano stabilite da Galileo a Newton, le previsioni teoriche erano ampiamente smentite dal funzionamento pratico delle macchine, e Guillaume Amontons (1663-1705) indicava la cause del discredito nella scarsa attenzione prestata dai costruttori all'attrito e alla rigidità delle funi, cioè alla resistenza opposta dalle funi a essere arrotolate o srotolate da un cilindro. La diagnosi era esatta, sebbene il fenomeno fosse noto e menzionato fin dall'antichità da Erone, ma ignota ne era l'entità, perché mancavano

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =86!

studi sperimentali, prescindendo da quelli di Leonardo da Vinci, allora ignoti. Amontons li iniziò con un suo dispositivo sperimentale e trovò che l'attrito è proporzionale alla forza con cui un corpo preme sull'altro; che è indipendente dall'ampiezza della superficie di contatto; che è proporzionale alla velocità del moto relativo. Aggiunse infine che l'attrito volvente è minore dell'attrito radente. Altri studi dimostrarono che la forza d’attrito dipende anche dalla natura delle superfici a contatto e dal tempo di riposo, cioè dal tempo per il quale i corpi rimangono in contatto senza muoversi uno rispetto all’altro. In sostanza l’attrito al distacco è maggiore dell’attrito dinamico.

Con la bilancia di torsione Henry Cavendish (1731-1810) giunse a stabilire in 5,48 la densità della Terra rispetto all’acqua e la costante di gravitazione universale G=6,754⋅10-8 cgs contenuta nella legge della gravitazione di Newton.

7.9 L’ottica

Il trionfo della teoria corpuscolare nel XVIII secolo è comunemente attribuito all'autorità di Newton, ma ad esso va attribuito anche il freno alla teoria ondulatoria di Huygens, che solo agli inizi dell’ottocento avrà il suo momento di gloria. Nel XVIII secolo non c'erano ragioni scientifiche decisive a favore dell'una o dell'altra teoria. Il fenomeno di diffrazione, oggi invocato come experimetum crucis a favore della teoria ondulatoria, era rimasto un mistero anche per Huygens; il fenomeno d'interferenza luminosa non era ancora noto. Le due teorie che si fronteggiavano interpretavano entrambe, più o meno bene, i fenomeni più comuni; entrambe erano complicate. E allora, complicazione per complicazione, tanto valeva attenersi alla teoria emissionistica che si presentava come un'ottica del senso comune, in quanto spiegava, in una forma d'immediata intuizione, il fenomeno ottico più elementare, la propagazione rettilinea della luce.

Sebbene la grande maggioranza dei fisici del XVIII secolo abbia seguito la teoria emissionistica, che, privata di ogni elemento ondulatorio, non era neppure la teoria newtoniana, pure non mancarono, specialmente da parte dei matematici, critiche e riserve, rimaste però sempre reazioni personali, rivelatrici delle insufficienze teoriche della dottrina di Newton. Eulero, Daniel Bernoulli, Franklin respingono nettamente la teoria corpuscolare a favore di una teoria ondulatoria. Eulero, dopo una critica della teoria newtoniana nei suoi scritti, tentò di costruire una teoria ondulatoria, capace d'interpretare razionalmente i fenomeni luminosi allora noti. Egli non ricorda mai Huygens, sebbene sia difficile pensare che non ne abbia conosciuto l'opera e attribuisce a Cartesio la prima idea di una teoria ondulatoria, ma gli rimprovera di aver supposta infinita la velocità della luce. Alla teoria newtoniana rivolge critiche allora abbastanza comuni che si possono così riassumere: la continua emissione di particelle luminifere provocherebbe, entro un certo tempo, l'esaurimento del Sole; l'incrocio di fasci di luce provenienti dal Sole e dalle stelle, cioè da ogni direzione, ne modificherebbe la traiettoria rettilinea; i corpi trasparenti dovrebbero essere dotati di pori disposti in linea retta in tutte le direzioni; le particelle luminifere scagliate continuamente dal Sole e dalle stelle riempirebbero lo spazio astrale più della materia sottile cartesiana.

=87! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Alle assurdità del sistema newtoniano si deve opporre una nuova teoria, l'ondulatoria: la luce è una vibrazione di una materia sottile chiamata etere, diffusa in tutto l'universo e compenetrata nei corpi, la cui bassissima densità e grandissima elasticità ne spiega l'enorme velocità rispetto al suono. Per Eulero l'analogia tra luce e suono è perfetta: “la loro differenza è solo di grado”, dice, onde egli si assume il compito di riportare tutti i fenomeni ottici sotto il dominio della meccanica. Come l'altezza dei suoni dipende dalla frequenza, così la diversità dei colori dipende dalla diversità di frequenza delle vibrazioni dell'etere, corrispondendo alla massima e minima frequenza rispettivamente il colore violetto e il colore rosso. La luce bianca è una mescolanza di tutti i colori. La teoria del colore dei corpi illuminati è esemplata sul fenomeno di risonanza acustica. Se la luce, argomenta Eulero, fosse riflessa da un corpo opaco su cui cade, l'osservatore non vedrebbe il corpo opaco, ma la sorgente da cui proviene la luce incidente, come avviene in uno specchio: altrimenti, dunque, va interpretata la visibilità dei corpi opachi illuminati. Precisamente, secondo Eulero, la luce che vi arriva mette in moto vibratorio le particelle della loro superficie in risonanza con l'onda luminosa incidente. Ne deriva che, affinché un corpo appaia di un certo colore, la luce che lo investe deve contenere quel colore e le particelle della sua superficie debbono poter vibrare con la frequenza corrispondente. In altre parole, il corpo opaco capta la luce incidente e la riemette con la frequenza che le sue particelle superficiali sono capaci di assumere. In questa teoria s'inquadra perfettamente l'interpretazione della fosforescenza, fenomeno fino allora rimasto ai margini delle teorie ottiche.

La teoria di Eulero non ebbe seguito apprezzabile, i più la ignorarono, pochi la confutarono e il suo solo effetto benefico forse consistette nel confermare i dubbiosi, come D'Alembert, nel loro atteggiamento agnostico: poiché sulla natura della luce non sappiamo nulla, il comportamento scientifico più corretto è la pura descrizione dei fenomeni.

Ancora due voci nel deserto: la voce di Jean-Paul Marat (1743-1793), protagonista della rivoluzione francese, e quella di Johann Wolfgang Goethe (1749-1832), il poeta tedesco.

Prima della rivoluzione, Marat si dedicava con successo a studi di fisica, non privi di qualche aspetto interessante, ma tuttavia completamente ignorati dagli ambienti accademici. Tra altri lavori di ottica, Marat pubblicò nel 1780 un volume in cui espone una nuova teoria sulla natura dei colori e la rifrazione della luce. La luce, secondo Marat, è composta di tre colori primitivi: il rosso, l'azzurro e il giallo, la cui mescolanza, in dosaggi opportuni, dà tutti gli altri colori e la luce bianca. Nelle immediate vicinanze di un corpo opaco, un raggio di luce è decomposto in tre raggi corrispondenti ai colori primitivi, i quali incontrano il corpo opaco con angoli d'incidenza diversi, ne sono egualmente rifratti ed emergono pertanto separati. Secondo Marat, Newton ebbe il torto di fondere in uno due fenomeni distinti e successivi: la deviazione e la rifrazione.

Per Goethe l'interesse per la teoria dei colori non fu un passeggero capriccio d'artista, ma una passione che lo tenne occupato per buona parte della sua vita e alla quale dedicò numerosi scritti. Dopo essere stato newtoniano, lanciò violenti attacchi contro Newton, che accusava di aver considerato soltanto l'aspetto fisico dei colori, con la pretesa di spiegarli unicamente con la diversità dei raggi. Secondo Goethe, i “colori chimici” sono permanenti e inerenti ai corpi, mentre i “colori fisici” sono temporanei e

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =88!

sorgono dalla varia mescolanza di luce e d’ombra: si trattava di vecchie idee, che ormai erano state superate da un pezzo.

Nel Settecento si va chiarendo il concetto d'intensità luminosa e si cominciano a studiare i dispositivi che possono aiutare l'occhio nei confronti d'intensità luminose. Già Huygens nel 1698 aveva tentato un confronto tra l'intensità luminosa del Sole e di Sirio. Ma il primo studio sistematico fu compiuto dal francese Pierre Bouguer (1698-1758) che per confrontare tra loro l'intensità di due sorgenti luminose lo scienziato francese si serve di uno strumento costituito da un cartone verticale nel quale sono praticati due fori chiusi con sottile carta bianca, ciascuno illuminato da una sola delle due sorgenti in esame e che inviano raggi egualmente inclinati sulla superficie dei fori. Posto l'occhio dietro il cartone, si variano le distanze delle due sorgenti fino a che si giudicano egualmente illuminati i fori del cartone: ottenuta questa condizione, le intensità luminose delle due sorgenti stanno tra loro in ragione inversa dei quadrati delle loro distanze dallo schermo. I numerosi risultati sperimentali ottenuti col dispositivo descritto e l'impiego della matematica gli permisero di studiare la perdita d'intensità luminosa per riflessione. Bouguer determinò la perdita d'intensità nel passaggio della luce attraverso un mezzo, osservando anche l'assorbimento selettivo dell'aria per i diversi colori; misurò i rapporti d'intensità luminosa della Luna e del Sole, e del Sole a differenti altezze sull'orizzonte. Tutte queste ricerche furono organicamente esposte nel Traité d’optique, apparso postumo nel 1760.

Un decisivo progresso si ha con la comparsa nel 1760 di un lavoro del matematico e fisico tedesco Johann Heinrich Lambert (1728-1777), nel quale distingue tra lo splendore, grandezza che si riferisce alla sorgente, e l'illuminazione che riguarda i corpi illuminati. Lo studio teorico e sperimentale comincia dalla seconda grandezza, con la dimostrazione di quattro teoremi: l'illuminazione è proporzionale alla superficie del corpo illuminante, inversamente al quadrato della distanza tra corpo illuminato e illuminante, inversamente al seno dell'angolo d'incidenza alla superficie illuminata, direttamente al seno che i raggi luminosi fanno con la superficie illuminante. Dopo l'illuminazione, Lambert passò allo studio dello splendore; descrisse con molti particolari l'assorbimento dell’aria, confermò la legge di Bouguer sull'influenza dello spessore del mezzo nell'assorbimento della luce.

7.10 Termometria e calorimetria

I fenomeni termici erano già noti all'alba della civiltà. Ogni forma di tecnologia dei metalli richiedeva l'applicazione del calore, e le nozioni empiriche in proposito si dovettero accumulare molto presto. Prima di Platone si riteneva che fuoco e calore fossero la stessa cosa. Il filosofo greco cominciò a distinguere fra queste due entità, affermando che il calore fosse una percezione provocata dalla penetrazione della fiamma nella materia. Anche Aristotele elaborò una sua teoria in merito: egli sostenne che il calore fosse generato dall’eccitazione dell’etere da parte del Sole e del fuoco. Dovettero passare molti secoli prima che le concezioni dei filosofi greci venissero messe in discussione.

Per un lungo periodo di tempo, lo studio scientifico del calore si intrecciò con quello dei gas che, durante il XVIII secolo, era al centro dell'attenzione. Potremmo

=89! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

arbitrariamente segnare la data d'inizio dello studio scientifico del calore facendola risalire alla costruzione dei primi termometri dell'Accademia del Cimento, attorno al 1650. Già Galileo aveva costruito, tempo prima, un termoscopio, ma furono i membri dell'Accademia, in maggioranza suoi allievi, a usare ampiamente e sistematicamente i termometri. Si trattava comunque di uno strumento che non aveva punti fissi: i dati ottenuti con termometri differenti non potevano quindi essere confrontati tra loro.

Nel 1701 Newton aveva proposto una scala in cui il punto di congelamento dell'acqua era assunto come lo zero e la temperatura del corpo umano aveva il valore 12. Naturalmente si presupponeva che il coefficiente di espansione del fluido utilizzato nel termometro fosse costante, o, per meglio dire, si definiva la temperatura in modo da rendere costante quel coefficiente. Alcuni anni dopo Gabriel Fahrenheit (1686-1736) propose di assumere come punto zero la temperatura più bassa che si poteva allora ottenere usando una miscela di ghiaccio e di sale. Poco dopo la morte di Fahrenheit si scelsero come punti fissi la temperatura di congelamento e quella di ebollizione dell'acqua a pressione atmosferica (scala Celsius).

Per tutta la prima metà del Settecento la fisica si dedicò alla costruzione e al perfezionamento dei termometri, convinta che essi misurassero “i gradi di calore”. La generalità dei fisici riuniva in un unico confuso concetto tanto la sensazione termica che il calore. Le teorie, pur con numerose variazioni, erano sostanzialmente due, tramandate dall'antichità classica e rinverdite dal rinascimento: la teoria cinetica e la teoria sostanziale.

La teoria cinetica, che riteneva il calore un modo d'essere o un accidente della materia, era abbastanza seguita nella prima metà del Settecento, tanto che Eulero, nel 1738, vince il premio del concorso bandito dall'Academie des sciences di Parigi, sostenendo la tesi che “il calore consiste in un certo moto delle piccole particelle dei corpi”. Nello stesso anno il suo condiscepolo Daniel Bernoulli (1700-1782) precisava la secolare intuizione generica in un'opera classica. Le particelle dei fluidi elastici, cioè, come noi diremmo, dei gas, sono secondo Bernoulli in rapido movimento in tutte le direzioni. Se un certo numero si trova in un cilindro verticale vuoto, superiormente chiuso da un diaframma mobile, gli impulsi trasmessi al diaframma dalle particelle che si urtano ne equilibrano il peso: il diaframma si solleva se il proprio peso diminuisce e si abbassa se aumenta. Nel secondo caso, però, la forza elastica del gas racchiuso aumenta, sia perché il numero di particelle diventa maggiore rispetto allo spazio da esse occupato, sia perché ogni particella urta più frequentemente contro il diaframma. Bernoulli dimostra che, ammesse queste ipotesi, gli spazi che il fluido elastico occupa sono in ragione inversa della forza elastica del gas: è la legge di Boyle. Secondo Bernoulli, inoltre, la temperatura aumenta la velocità delle particelle e la forza espansiva del gas risulta proporzionale al quadrato dell'aumento di velocità, perché con l'aumentare della temperatura aumentano sia il numero di urti, sia l'intensità di ciascuno. Bernoulli verifica la propria teoria servendosi del termometro di Amontons.

La teoria di Bernoulli non affrontava specificamente il problema sulla natura del calore: era semplicemente una teoria cinetica dei gas, nella quale il calore interveniva, con un meccanismo non chiarito, come acceleratore delle molecole gassose. Fu Michail Lomonosov (1711-1765) a distinguere nettamente i due problemi, trattati in due memorie successive. Secondo Lomonosov, per ogni corpo solido, liquido o aeriforme, il

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =8:!

calore consiste nel moto intestino della materia, cioè nel moto delle sue ultime particelle. Ma dei tre movimenti che una particella può avere, traslatorio, oscillatorio, rotatorio, qual è quello nel quale propriamente consiste il calore? Lomonosov esclude i due primi movimenti per ragioni che oggi possono apparire insufficienti, ma che ai suoi tempi si presentavano come abbastanza ragionevoli (come puo esservi inavvertito tremolio di particelle in un corpo solido, compatto?), ed è perciò condotto ad affermare che il calore consiste nel moto rotatorio delle ultime particelle costituenti i corpi. La produzione di calore per attrito (fenomeno fondamentale da lui invocato a sostegno della teoria meccanica), la propagazione del calore, i cambiamenti di stato sono interpretati meccanicamente come trasmissione di moto rotatorio tra particelle a contatto con le loro superfici. La teoria prevede anche un limite inferiore del calore, cioè della temperatura, ma non un limite superiore: “perché non si può assegnare nessuna velocità di moto tanto grande che un'altra maggiore non si possa immaginare. .. Per contro il moto può essere diminuito sino a ridurre il corpo in quiete e non può esservi alcuna ulteriore diminuzione di moto”.

In conclusione, Lomonosov, senza dubbio ispirato dalla teoria di Bernoulli a lui ben nota, sostanzialmente accetta gli urti elastici bernoulliani, come fenomeno secondario, conseguente all'attrazione newtoniana e al moto rotatorio degli atomi, una teoria più elaborata, di più difficile comprensione, ma che aveva sulla bernoulliana il vantaggio di indicare che il meccanismo che consente di percepire il moto e un calore. Tanto la teoria di Bernoulli che quella di Lomonosov furono presto dimenticate, forse perché troppo premature rispetto alla scienza del tempo. Quando una teoria anticipa troppo i tempi, viene facilmente dimenticata.

Per tutto il XVIII secolo convisse con la teoria meccanica anche la teoria fluidistica, la quale, anzi, con l'inoltrarsi del secolo, andava via via acquistando maggiori simpatie. Alla teoria fluidistica si era avvicinato anche Galileo, che ipotizzava “atomi di fuoco” che si insinuano nei corpi, in particolare nei fluidi e ne determinano la dilatazione. La teoria fluidistica era un'ipotesi rappresentativa d'immediata intuizione, con facili nessi analogici, che nella prima metà del secolo fu in felice connubio con la teoria del flogisto.

La teoria del flogisto (dal greco=combustibile) era stata elaborata da Johan J. Becher (1635-1682), uno scienziato tedesco, e ampiamente sviluppata e perfezionata da un altro scienziato tedesco, Georg E. Stahl (1660-1734). La teoria del flogisto postulava l'esistenza di una sostanza, il flogisto, che si pensava fosse contenuta in tutti i corpi combustibili; il flogisto si liberava sia quando veniva bruciato materiale organico, sia trattando metalli con il calore in aria libera. Questa azione trasformava i metalli in metalli deflogisticati, quelli che noi oggi chiamiamo ossidi. Un ossido poteva tuttavia riacquistare il proprio flogisto per riscaldamento con carbone, il quale era un qualcosa contenente flogisto quasi puro. Stahl sapeva che gli ossidi pesavano più dei metalii dai quali originavano, ma si potevano trovare scappatoie attribuendo al flogisto un peso negativo o cercando altre vie per sfuggire a quelle difficoltà. La teoria del flogisto poteva essere adattata alla spiegazione di molti fatti, ha la sua importanza nella storia della chimica ed è servita a interpretare, sia pure erratamente, notevoli scoperte, come quella dell'ossigeno. Il flogisto non era calore, ma quando si liberava dai corpi produceva calore. La teoria non s’identificava, perciò, con la teoria sostanziale del calore.

=9<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Antoine Lavoisier (1743-1794) fece tramontare la teoria del flogisto, ma dette maggior vigore alla teoria sostanziale del calore, ponendo il calorico tra gli elementi.

La comunità scientifica iniziò a domandarsi, non solo quale fosse la natura del calore, ma come questa grandezza, distinta dalla temperatura, potesse essere quantificata. Il primo uomo che ne parlò come di un’entità fisica definita, misurabile, fu Joseph Black (1728-1799). Egli riteneva che il calorico fosse un fluido straordinariamente elastico, imponderabile e indistruttibile, capace di penetrare nella materia quando essa veniva riscaldata e di uscirne quando veniva raffreddata. L’equilibrio termico tra due corpi, posti a contatto, veniva giustificato come il risultato di un flusso di calorico dal corpo più caldo a quello più freddo, fino al raggiungimento della stessa temperatura. Da questa idea fondamentale Black è condotto a formulare regole di misura per il calore e un primo metodo di misura, quello delle mescolanze. Black definì poi la caloria ed affermò che quantità uguali di sostanze diverse portate alla stessa temperatura contengono quantità diverse di “calorico”. Nacque, in tal modo, il concetto di capacità termica delle diverse sostanze. Un altro importante concetto introdotto da Black fu quello di calore latente, cioè la quantità di calore necessaria per trasformare acqua in ghiaccio a 0 °C o per trasformare acqua bollente in vapor d’acqua a 100 °C. Sino a Black si riteneva che bastasse portare un solido alla temperatura di fusione, perché le forze di attrazione tra le sue molecole s'indebolissero tanto da far assumere al corpo lo stato liquido. Black fece tramontare la teoria con un esperimento fondamentale: a una massa di ghiaccio a 32 °F (0 °C) aggiunse un'eguale massa d'acqua a temperatura via via crescente sino a ottenere la fusione di tutto il ghiaccio, rimanendo la temperatura di tutta la massa a 32 °F. Trovò così che la temperatura dell'acqua calda da aggiungere era di 172 °F (circa 58,3 °C). Ossia, come oggi diremmo, il calore di fusione del ghiaccio è circa 76 cal/g⋅°C. Ma il risultato sperimentale smentiva il punto fondamentale della teoria sostanziale del calore: la costanza della quantità di calore nei fenomeni termici. Nell'esperimento l'acqua calda cedeva al ghiaccio calore, ma questo spariva, non si trovava più come aumento di temperatura del ghiaccio e perciò non era rivelabile al termometro. Come far rientrare l'andamento del fenomeno nella teoria? come aggiustare il conto? Black non ebbe esitazioni: saldò il conto inventando il calore nascosto o, in termini moderni, il calore latente. Durante la fusione una parte di calore si fissa sulle molecole del corpo e non è più rilevabile dal termometro, il quale rivela soltanto il calore libero. Imboccata la via del calore latente, altri fenomeni ricevevano interpretazioni del medesimo tipo. Le idee teoriche di Black, comunque, sono ancora dominate dal concetto di flogisto.

Anche per l’evaporazione il contributo di Black fu determinante. Aveva riscosso grande favore la teoria di Charles Le Roy (1726-1779), secondo il quale l'evaporazione è una soluzione di acqua in aria. Come per le soluzioni infatti, anche per le evaporazioni in ambiente chiuso si raggiunge la saturazione e il limite di saturazione aumenta con l'aumentare della temperatura. La teoria cominciò a impallidire quando Black provò che la produzione di vapore richiede somministrazione di calore. Egli, posta su un fuoco regolato una certa massa d'acqua, la riscaldava sino all’ebollizione e ne determinava, dopo un certo tempo, la perdita di peso; inversamente, constatava che una massa d'acqua si riscalda se in essa si fa condensare una certa quantità di vapore. Black, accertava, così, il grande calore latente del vapore. Lavoisier tentò di conciliare le due teorie: l'evaporazione è una soluzione di liquido parzialmente in aria e parzialmente in

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =9;!

calorico (vocabolo da lui usato per indicare il fluido calore), come dimostra la refrigerazione che sempre accompagna l'evaporazione. Ma l'evaporazione di un liquido in ebollizione è un fenomeno per sua natura completamente differente, nel senso che la parte di liquido sciolta nell'aria è quasi trascurabile rispetto alla parte di liquido sciolta nel calorico. Lavoisier, pertanto, proponeva di chiamare vaporizzazione quest'ultimo fenomeno ed evaporazione il primo: vocaboli che ci sono rimasti ormai come sinonimi, sebbene il primo abbia una certa sfumatura di rafforzamento. Ma la distinzione fisica saliente tra i due fenomeni è, secondo Lavoisier, che nell'evaporazione la quantità di vapore prodotto è proporzionale alla superficie evaporante e nella vaporizzazione alla quantità di calorico fornita. Lavoisier, insomma, fa un passo indietro rispetto alla scienza di Black.

In questo ambiente scientifico si cominciarono i primi esperimenti calorimetrici e a George W. Richmann (1711-1753), fisico estone, si deve la prima formula sulle mescolanze in base a una sua concezione fluidistica del calore. Gli esperimenti di Richmann furono ripetuti da Johann K. Wilcke (1732-1796), che verificò la formula delle mescolanze e introdusse l’unità di misura del calore, sostanzialmente definita alla maniera moderna. Ma il metodo delle mescolanze ottenne la sua massima applicazione con il calorimetro di Lavoisier, grazie il quale si misurarono con estrema precisione i calori specifici di molti corpi, solidi e liquidi.

La prima contestazione sulla natura del calorico fu avanzata da Benjamin Thompson (1753-1814), conte di Rumford, che fu tra i primi a rilevare fatti e a eseguire esperimenti che suffragavano le idee sull'origine meccanica del calore. Thompson aveva interessi tecnici e, a Londra, eseguì esperimenti su cannoni e su esplosivi, mostrando che una parte del lavoro compiuto durante l’alesatura della bocca da fuoco si trasforma in calore e, usando un attrezzo appositamente smussato, mostrò anche che il calore era prodotto in continuazione purché si fornisse lavoro e non era direttamente correlato al taglio del metallo. Thompson sostenne che esso era incompatibile con una teoria materiale del calore e che la causa del calore era un moto molecolare o un insieme di vibrazioni e dette anche dati quantitativi da cui si può ricavare un equivalente meccanico della caloria di circa 5,5 J/cal (il valore vero è 4,18 J/cal). Quindi Thompson fu il primo a concepire l’idea che il calore fosse dovuto ad una sorta di movimento interno dei corpi materiali e non ad una sostanza particolare, come affermava Black. L’origine dei suoi dubbi risiedeva nella constatazione che il calore era prodotto “dal nulla” in certi fenomeni di attrito che, apparentemente, non avevano nulla a che vedere con le trasformazioni chimiche. Il calore, dunque, non poteva essere considerato come una qualsiasi sostanza, ma doveva essere attribuito a qualche tipo di moto sconosciuto.

Seguendo i lavori di Thompson, Humphry Davy (1778-1829) fece un esperimento che accrebbe i dubbi sulla natura materiale del calore: egli dimostrò che due pezzi di ghiaccio, sfregati l'uno contro l'altro, fondono. L'esperimento era importante perché si sapeva che il calore specifico dell'acqua è maggiore di quello del ghiaccio, il che negava ogni interpretazione del fenomeno basata su una teoria materiale del calore.

Le ricerche compiute da Thompson e da Davy non riuscirono, tuttavia, a sconfiggere la teoria materiale del calorico. Per esempio Laplace corresse la formula della velocità del suono data da Newton, sottolineando che le onde sonore producono compressioni adiabatiche (senza trasporto di calore) e non compressioni isoterme (a

=9=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

temperatura costante) come aveva pensato Newton. In questo calcolo dell'elasticità adiabatica di un gas Laplace fece uso della teoria del calorico e ottenne risultati in accordo con l'esperienza. Il successo così ottenuto rafforzò la teoria del fluido calorico. Inoltre le misure dei calori specifici dei gas sembravano essere in accordo con questa teoria, anche se, in realtà, non lo erano.

In questo periodo andava anche sviluppandosi lo studio delle leggi dei gas che doveva essere di straordinaria importanza sia per la chimica che per la fisica. Esso era cominciato sin dai tempi di Newton. Una delle prime conquiste fu la scoperta della relazione tra il volume e la pressione di un gas ad opera di Boyle e Mariotte e si scoprirono molti nuovi gas e divenne possibile misurarne le proprietà fisiche: tutti obbedivano, approssimativamente alla legge di Boyle-Mariotte.

Alla fine del XVIII secolo finalmente la termologia aveva raggiunto dignità scientifica per i numerosi fenomeni termici scoperti e studiati, per la costruzione di strumenti e l’elaborazione di coerenti convenzioni di misura, per l’interpretazione non contraddittoria dei fenomeni di cambiamento di stato e per aver stabilito la differenza sostanziale tra calore e temperatura.

Un cenno va fatto sulle macchine a vapore, sia per la diretta influenza che avranno sullo studio della fisica, sia per il loro impatto dirompente sulla società in relazione alla rivoluzione industriale. Già alcuni cinquecentisti, come Cardano, si erano occupati della forza espansiva del vapor d'acqua. Denis Papin (1647-1714), discepolo di Huygens e suo collaboratore alla costruzione di una macchina nella quale lo stantuffo di un corpo di tromba si sollevava mediante la combustione di polvere pirica posta sul fondo del cilindro, scoprì che la temperatura di ebollizione dell'acqua aumenta se si aumenta la pressione, e applicò la scoperta per ottenere acqua a temperatura superiore a 80 °R, riscaldandola in una pentola chiusa; per evitare la possibile esplosione della pentola, inventò la valvola di sicurezza, un meccanismo di autoregolazione.

Il fabbroferraio Thomas Newcomen (1679-1730) riallacciandosi all'opera di Papin, ne riprendeva in particolare l'idea del pistone. Nella macchina di Newcomen il vapore, prodotto da una caldaia, sollevava lo stantuffo; chiusa quindi la valvola d'ammissione, si produceva la condensazione del vapore refrigerando il cilindro con acqua; allora lo stantuffo, spinto dalla pressione atmosferica, cadeva in basso e il moto alternativo dello stantuffo, attraverso un bilanciere, era comunicato all'albero di una pompa. La macchina, molto rudimentale, funzionò per decenni, con una perdita enorme di calore, dovuta principalmente al raffreddamento del cilindro a ogni colpo, mediante un getto d'acqua.

James Watt (1736-1819), propostosi il problema di diminuire lo spreco di calore nella macchina di Newcomen, gli sorse l'idea che l'espulsione del vapore dal cilindro si poteva ottenere anche aprendo al momento giusto una comunicazione tra il cilindro e un recipiente vuoto: il vapore vi si sarebbe precipitato. Nacque così il refrigerante, il terzo elemento della macchina termica, che in tal modo si trasformava veramente in una macchina a vapore, mentre i modelli precedenti erano piuttosto macchine atmosferiche, perché il loro funzionamento era basato sullo sfruttamento della pressione atmosferica. Incoraggiato dal primo grande successo, Watt continuò ad apportare alla macchina altri geniali perfezionamenti, e può essere così considerato l’inventore della macchina a vapore.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =94!

Già al principio del XIX secolo, l'Inghilterra contava cinquemila macchine a vapore in funzione, la Francia alcune centinaia, la Germania una decina. La diffusione della macchina a vapore, fattore primo della nuova era d'industrializzazione, richiama l'attenzione dei fisici dapprima sullo studio del vapor d'acqua e più in generale degli aeriformi, successivamente a considerazioni globali sul suo funzionamento. 7.11 Elettricità e magnetismo

La meccanica fu la prima parte della fisica a essere sviluppata secondo gli schemi che usiamo oggi e servì da modello per il lavoro successivo e, per molto tempo, vi furono la speranza o l'illusione di ridurre a essa tutta la fisica. L'elettromagnetismo costituisce l'altro grande pilastro della fisica classica, e, in ultima analisi, si dimostrò irriducibile alla meccanica.

Al tempo della morte di Newton, quando la meccanica aveva quasi preso la sua configurazione moderna, la maggior parte delle scoperte relative all'elettricità doveva essere ancora fatta, infatti, la fenomenologia dell'elettrostatica e della magnetostatica fu esplorata in larga misura solo nel XVIII secolo, che abbonda di studiosi dell'elettricità e di scoperte importanti anche se isolate da un contesto generate. L’elettricità fu la prima branca della fisica moderna le cui origini riposano interamente sull’esperimento, e non sullo sviluppo di una catena di idee risalenti fino all’antichità. In questo senso, l’elettrologia fu una scienza veramente baconiana.

Il primo passo necessario per progredire rispetto a quanto si era ottenuto strofinando il vetro e l'ambra era quello di costruire macchine che fossero in grado di eseguire lo strofinio in modo efficiente. Otto von Guericke, al fine di fare esperimenti sul comportamento di certi fenomeni in un vuoto pari a quello che doveva esistere nello spazio celeste e sull’esistenza di molte virtù che avrebbero dovuto agire a distanza, costruì una sfera di zolfo mescolato con vari minerali, che poteva essere elettrizzata per strofinio. Questa sfera gli permise di rilevare parecchie virtù, oltre a essere la prima macchina elettrostatica.

Il successivo passo nello studio dell'elettricità, la scoperta dei conduttori e degli isolanti, fu in gran parte merito di un inglese Stephen Gray (1666-1736), che cominciò facendo esperimenti con un lungo tubo di vetro elettrizzato a una delle estremità e chiuso da entrambe le parti con tappi di sughero. Osservazioni casuali lo portarono a modificare l'esperimento, inserendo in uno dei sugheri un bastoncino diretto verso l'esterno del tubo e così facendo notò che l'elettrizzazione impartita al vetro si propagava al sughero e al bastoncino. Egli in seguito estese la sperimentazione su grandi distanze e, mantenendo sospeso un filo per mezzo di cordicelle di seta, riuscì a trasportare l'elettricità per più di 90 metri. Tuttavia le cordicelle di seta si ruppero sotto il peso e, quando furono sostituite con fili metallici più robusti, gli effetti elettrici non vennero più trasmessi. Alla fine Gray interpretò questo esperimento e altri del genere introducendo la distinzione tra isolanti e conduttori.

Il successivo importante studioso dei problemi dell'elettricità è il francese Charles Dufay (1698-1739), che scoprì che vi sono due, e solo due, specie di elettricità e le chiamò elettricità vetrosa ed elettricità resinosa, perché si manifestavano strofinando rispettivamente il vetro o una sostanza resinosa (oggi parliamo invece di cariche

=95! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

positive e negative). È degno di nota che per stabilire questo fatto fondamentale siano stati necessari più di cento anni a partire da Gilbert; Dufay accertò che elettricità di specie uguali si respingono, mentre quelle di specie diverse si attraggono. Nel 1733 egli assunse un collaboratore per le ricerche sui fenomeni elettrici, l’abate Jean Antoine Nollet (1700-1770), che formulò una teoria dell’elettricità che andò per la maggiore per alcuni anni, ma che oggi non ha interesse per i fisici. Egli immagina l’esistenza di un fluido, forse il medesimo della materia del fuoco e della luce, sparso in tutto l’universo e compenetrato nei corpi. Lo sfregamento di un copro lo commuove ed esso ne zampilla in filetti di numero discreto fortemente divergenti. Questa fuoriuscita di materia effluente richiama dai corpi vicini la materia affluente di eguale natura, che, in quantità eguale, entra con minore velocità da più numerosi pori. I fenomeni elettrici sono effetti meccanici dei due flussi di materia elettrica, la cui sede è il corpo elettrizzato.

L'invenzione del condensatore elettrico segnò un progresso tecnico di grande importanza. Casualmente si scoprì che caricando un liquido in una bottiglia, e tenendo la bottiglia in mano, si potevano ottenere violente scariche. E.G. von Kleist (1700-1748) osservò il fenomeno nel 1745 e Pieter van Musschenbroek (1692-1761) di Leida, rilevò l'importanza del fatto, cosicché l'apparecchio che accumulava o condensava l'elettricità divenne noto sotto il nome di bottiglia di Leida. Si scoprì poi che la presenza del liquido non era necessaria e che esso poteva essere sostituito da un foglio conduttore ricoprente l'interno della bottiglia.

Alcuni anni dopo, John Canton (1718-1772), ispirato dalle teorie di Franklin, giunse a un'altra importante osservazione. Un conduttore posto vicino a un corpo carico, ma non in contatto con esso, manifesta una carica elettrica di segno opposto a quella del corpo carico nella parte più vicina a quest'ultimo, e una carica dello stesso segno nella parte più lontana. Questo effetto, noto come induzione elettrica, era radicalmente diverso dagli altri metodi di elettrizzazione noti fino ad allora.

La materia non poteva semplicemente consistere di particelle minute all’interno di un brodo di fluido etereo e calorifico: era necessario aggiungere un fluido elettrico come ulteriore ingrediente. Ai primi del Settecento, il “fuoco elettrico”, così chiamato per ovvie ragioni, fu infatti collegato o con la materia del calore o con l’etere, ma, poiché una nuova informazione sulla conduzione ed altri fenomeni doveva venir trovata nelle ipotesi dell’elettricità, il fluido elettrico venne inevitabilmente caratterizzato come una entità distinta, senza peso e impalpabile come la materia del calore. La postulazione di questa entità, con cui Benjamin Franklin (1706-1790) fu capace di render conto di un ampio campo di osservazioni empiriche, dipese in primo luogo dalla dimostrazione dei suoi effetti. La caratteristica distintiva della teoria elettrica di Franklin fu che essa sintetizzava il concetto newtoniano di una forza attrattiva tra le particelle ultime di materia con la postulazione di un singolo fluido elettrico consistente in particelle reciprocamente repulsive. Secondo la concezione di Franklin, esisteva una sola elettricità (dottrina monastica) e il caricare positivamente un corpo consisteva nel pompare in un corpo, dal grande serbatoio nella terra, una quantità di fluido elettrico maggiore di quello contenutovi normalmente, e tale eccesso si collocava per sua natura all’esterno del corpo, formando una specie di atmosfera elettrica aderente alla superficie del corpo stesso. Al contrario, il caricarlo negativamente implicava un prelevamento forzato di una parte della normale elettricità del corpo. Quindi nessun corpo poteva

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =96!

venire caricato in isolamento completo. In effetti, il solo fenomeno che la teoria dello scienziato americano non poteva spiegare era la repulsione tra due corpi caricati negativamente, un punto del quale all’inizio fu inconsapevole. Infatti, poiché la carica negativa indicava una mancanza del fluido elettrico, la materia normale dei due corpi avrebbe dovuto manifestare una mutua attrazione leggermente maggiore del solito. Lo scienziato americano attribuisce al fluido elettrico tre proprietà fondamentali: l’estrema sottigliezza, la mutua repulsione tra le sue parti; la forte attrazione tra la materia elettrica e la materia ordinaria.

Franklin fu un rappresentante dell’illuminismo nel contesto americano, e il principale apporto all'elettrologia fu l'idea della conservazione della carica elettrica e le conseguenze che ne trasse:

PRINCIPIO DI CONSERVAZIONE DELLA CARICA ELETTRICA

La carica elettrica di un sistema chiuso, somma algebrica delle cariche positive e delle cariche negative, si mantiene costante nel tempo

Si deve però aggiungere che parecchi studiosi, in primo luogo William Watson

(1715-1787), arrivarono indipendentemente a concezioni analoghe. Secondo Franklin un corpo contiene un'uguale quantità di elettricità positiva e di elettricità negativa che, in condizioni normali, si neutralizzano esattamente l'una con l'altra. L'elettrizzazione è la separazione delle due forme di elettricità, positiva e negativa, con la conseguenza che la loro somma deve rimanere costante e pari a zero. Franklin illustrò questi concetti con esperimenti nei quali due persone, in piedi su piattaforme isolate, ricevevano l'elettricità da un tubo di vetro strofinato con un panno: uno dei due soggetti la riceveva dal vetro, l'altro dal panno. Quando essi avvicinavano le dita, una scintilla passava dall'uno all'altro ed entrambi venivano neutralizzati. Altri esperimenti analoghi a questo ne variavano la forma ma non la sostanza. Per quanto questo risultato fosse importante, la fama di Franklin presso il grande pubblico è dovuta soprattutto ai suoi esperimenti sull'elettricità atmosferica, esperimenti culminati nell'invenzione del parafulmine. A quel tempo le idee riguardanti il fuoco, la combustione, il fulmine, le scintille e le scariche elettriche erano confuse. Franklin suppose che il fulmine fosse una gigantesca scintilla elettrica: egli aveva già dimostrato che un corpo appuntito perde facilmente la sua carica elettrica e, combinando questi due fatti, pensò di riuscire a scaricare un edificio in modo graduale, proteggendolo così dal fulmine. Gli esperimenti eseguiti, dapprima in Francia da altri e successivamente a Filadelfia da Franklin, dimostrarono che si poteva effettivamente estrarre l'elettricità dalle nuvole.

Accanto a Franklin va ricordato il suo amico Joseph Priestley (1733-1804), che scrisse un libro dal titolo The History and Present State of Electricity (1767) senza sospettare che lo studio dell'elettricità era appena cominciato. In questo libro riportò un esperimento che era già stato eseguito da Franklin e che egli confermò. In esso si dimostrava che all'interno di una scatola metallica chiusa non vi è alcuna carica. Priestley conosceva l'opera di Newton e giunse alla conclusione che questo esperimento indicava che le cariche elettriche di uguale segno si respingevano con una forza proporzionale all'inverso del quadrato della loro distanza. La deduzione era corretta, ma essa non fu ulteriormente elaborata e non attirò l'attenzione che meritava.

=97! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Il primo decennio della seconda metà del Settecento fu quindi fervido di discussioni, esperimenti e congetture teoriche sui fenomeni elettrici e magnetici, ed un altro importante protagonista di questo periodo è Ulrich Theodor Aepinus (1724-1802) che introduce l’uso della matematica nel settore in esame grazie soprattutto all’opera Tentamen theoriae electricitatis et magnetismi (1759). Egli cerca la soluzione dei problemi attraverso una originale ripresa dello schema newtoniano dei Principia. Si doveva, a suo avviso, compiere un’indagine formale sulle interazioni, senza entrare nel merito della natura delle forze in gioco e sviluppando un apparato deduttivo rigoroso. Invece di parlare di atmosfere elettriche, era assai meglio parlare di attrazioni e repulsioni in senso matematico. La visione frankliniana aveva ammesso l’esistenza di repulsioni tra le parti della materia elettrica e di attrazioni tra queste ultime e quelle della materia ordinaria. Secondo Aepinus una teoria completa poteva essere elaborata solo a patto di introdurre una terza forma di interazione, e cioè una repulsione tra le parti della materia ordinaria.

Attorno al 1770 la fenomenologia dell'elettricità statica poteva dirsi nota. Si sapeva che esistevano due tipi di elettricità, una positiva e l'altra negativa, ovvero, come altri pensavano, un tipo solo, ma tale da poter essere aggiunto o sottratto a un corpo elettricamente neutro. Si sapeva che l'elettricità si conserva, e cioè che la somma delle cariche positive e negative è costante. Si conoscevano gli isolanti nei quali l'elettricità non si può spostare, e i conduttori, nei quali essa si sposta liberamente. Si sapeva che cariche uguali si respingono tra loro, e che cariche opposte si attraggono Una volta capiti questi fatti fondamentali, i tempi erano maturi per stabilire una legge quantitativa per l'attrazione e per la repulsione, e probabilmente molti avevano presente il precedente newtoniano della gravitazione.

La prova sperimentale diretta della legge dell'inverso del quadrato della distanza fu ottenuta per la prima volta da John Robison (1739-1805) che costruì un ingegnoso apparecchio con il quale misurò la dipendenza della forza elettrica dalla distanza. Per parecchi anni, tuttavia, egli non pubblicò i suoi risultati, e, nel frattempo, Charles Augustin Coulomb (1736-1806) stabilì in modo chiaro la legge di tale forza, che ancora oggi giustamente è nota come legge di Coulomb, e la cui forma di interazione è analoga a quella newtoniana per l’interazione gravitazionale:

LEGGE DI COULOMB

La forza (attrattiva o repulsiva) fra due cariche elettriche puntiformi Q1 e Q2 ha modulo F direttamente proporzionale al prodotto delle cariche e inversamente proporzionale al

quadrato della distanza r che le separa:

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =98!

Coulomb dimostrò la sua legge, chiaramente enunciata in un saggio del 1788, servendosi della bilancia di torsione, uno strumento d’incomparabile sensibilità e versatilità da lui inventato. La ristrutturazione coulombiana della base empirica dell'elettricità e del magnetismo fu netta. Grazie alla legge di Coulomb la fenomenologia nota diventava ordinabile secondo schemi teorici generali, e si aprivano nuovi campi d'indagine guidati da tali schemi. Eppure, la scienza coulombiana non era esente da problemi e da difficoltà. Per un verso quella scienza era basata su procedimenti di misura raffinatissima, i cui risultati erano in forte dipendenza da una strumentazione delicata e sensibile. Non era facile riprodurre i dati sperimentali di Coulomb, soprattutto se si tentava di riprodurli attraverso dispositivi di laboratorio la cui geometria non era identica a quella descritta nei resoconti coulombiani: al variare della geometria, variavano anche i risultati delle misure e apparivano altre forme di interazione che non riproducevano quelle con andamento 1/r2. Per un altro verso, poi, l'intera trattazione coulombiana semplificava una fenomenologia nota ponendo una clausola molto forte sulla separazione tra fenomeni magnetici ed elettrici. Era una clausola che, alcuni anni piu tardi, Ampère avrebbe dovuto spezzare, in quanto essa impediva di prevedere l'esistenza di azioni reciproche tra elettricità e fluidi magnetici. Coulomb aveva posto basi sicure per l'elettrostatica e la magnetostatica, ma, nello stesso tempo, aveva creato barriere per l'elettrodinamica.

Il lavoro di Coulomb fu subito accettato in Francia, ma dovette passare del tempo prima che ciò accadesse in altri paesi, anche se la stessa legge era stata scoperta, ma non pubblicata, dal più eminente studioso inglese nel campo dell'elettricità, Cavendish. La fama di Cavendish è dovuta più alla sua attività di chimico che a quella di fisico, poiché le sue scoperte chimiche vennero pubblicate, mentre solo una piccola parte del suo lavoro nel campo dell'elettricità fu da lui resa nota in un difficile saggio pubblicato nel 1771. La maggior parte dei risultati da lui trovata in elettricità fu rivelata da Maxwell, che ne intraprese la pubblicazione avvenuta nel 1870. Nella parte del suo lavoro che non era stata pubblicata si trovò la prova della legge dell'inverso del quadrato della distanza, basata sull'assenza di campo elettrico all'interno di un conduttore carico ed elaborata usando teoremi trovati da Newton. Cavendish studiò il flusso di carica lungo i conduttori e la resistenza ad esso offerta da diversi materiali. Ma fino ad allora, a dispetto dell’ovvia analogia meccanica espressa nell’idea di un fluido elettrico, il flusso continuo o corrente di elettricità era del tutto ignoto. A parte la scintilla, l’elettricità era meglio conosciuta attraverso gli effetti meccanici di attrazione e repulsione. Sebbene la teoria di Franklin postulasse che il fluido elettrico fosse universalmente associato alla materia, questo fatto diventò evidente soltanto quando il suo stato normale venne disturbato. Perciò si trattò di un fenomeno veramente sorprendente quando, alla fine del settecento, l’elettricità si rivelò come una lenta corrente e non come una scarica violenta e rapida. La scoperta fu fatta accidentalmente e in maniera tale da essere interpretata erroneamente. La definizione data da Cavendish della capacità di un conduttore, deriva dal principio da lui enunciato, che conduttori caricati “allo stesso grado” (oggi diremmo allo stesso potenziale) contengono quantità di elettricità proporzionali alle loro capacità. La quantità di elettricità può essere misurata direttamente scaricando il corpo con un oggetto campione. Egli scoprì inoltre che due condensatori con la stessa geometria hanno una capacità che dipende dal dielettrico. Infine misurò la resistenza di vari corpi come quella dell'acqua satura di sale che è

=99! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

560000 volte più resistente al passaggio di elettricità del ferro, nelle stesse condizioni di configurazione geometrica.

Avendo a disposizione la fenomenologia dell'elettrostatica e conoscendo la legge dell'inverso del quadrato della distanza, era possibile ormai dare una descrizione matematica dei fenomeni dell'elettrostatica lasciandosi guidare dall'idea newtoniana di azione a distanza. I grandi fisici matematici del tempo di Napoleone o dell'epoca immediatamente successiva, Laplace e Poisson in Francia, Green in Inghilterra, Gauss in Germania, e altri, svilupparono questa teoria in una forma ancor oggi valida. Lagrange nel 1772 aveva già introdotto, per la gravitazione, il concetto fondamentale di potenziale, Laplace aveva trovato l'equazione differenziale a derivate parziali per il potenziale nel vuoto (1782) e Poisson aveva esteso l'equazione di Laplace al caso in cui fossero presenti delle cariche (1813). L'operatore differenziale 'Delta', detto anche laplaciano, doveva così diventare uno degli strumenti fondamentali della fisica matematica. Green e Gauss, infine, scoprirono le proprietà fondamentali del potenziale newtoniano, contenute nelle famose formule che portano oggi il loro nome.

Una buona parte delle ricerche sull'elettricità stava quindi giungendo a un certo stadio di maturità quando altre scoperte sperimentali aprirono nuovi orizzonti e rivelarono che quanto già si conosceva era appena la proverbiale punta dell'iceberg. I nuovi indirizzi provennero da una fonte del tutto inaspettata; le ricerche di un anatomista e biologo professionale, Luigi Galvani (1737-1798) di Bologna. Gli studiosi dell'elettricità avevano constatato per anni l'esistenza di effetti fisiologici delle scariche elettriche e di connessioni, reali o immaginarie, tra fenomeni elettrici e biologici. Gran parte di questo lavoro era sbagliata, talvolta anche fraudolenta, e, nel complesso, l'argomento non era considerato molto serio. Galvani, d'altronde, era molto stimato e quanto affermò in una pubblicazione in latino del 1791, intitolata De viribus electricitatis in motu musculari commentarius, attirò subito l'attenzione e l'accurato esame degli esperti. Egli modificò gli esperimenti fatti finora in molti modi, e scoprì che l'elettricità atmosferica agiva sulle rane e anche che le contrazioni aumentavano se si mettevano fogli metallici sui muscoli in modo da costituire una specie di bottiglia di Leida, con la rana stessa in funzione di bottiglia. Un notevole effetto si otteneva inoltre toccando i nervi e le gambe con un arco metallico, e la reazione era molto più intensa se l'arco era composto di due metalli differenti. Da questi esperimenti Galvani sperava di trarre conoscenze su quella natura dello spirito animale che egli studiava da anni; invece iniziò due grandi capitoli della scienza, l'elettrofisiologia e lo studio delle correnti elettriche. Che egli non riuscisse a dipanare la matassa è più che naturale: nessuno vi riuscì per molti anni, e Galvani si trovò presto immerso in una controversia scientifica soprattutto con Volta. Quest'ultimo peraltro aveva una visione chiara solamente di una parte del problema complessivo: la parte restante di elettrofisiologia non è ancora oggi chiarita del tutto.

È qui che incontriamo uno dei fondatori della scienza elettrica, Alessandro Volta (1745-1827), dal cui nome deriva il volt, l’unità di misura della tensione. Giovan Battista Beccaria (1716-1781), a quel tempo studioso di elettricità affermato e internazionalmente noto, stimolò Volta a fare poche teorie e a basarsi soprattutto sulla sperimentazione. Infatti le opinioni teoriche del giovane Volta erano assai meno importanti dei suoi esperimenti. Man mano che passavano gli anni, Volta approfondì la

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =9:!

conoscenza sull'elettricità statica giungendo al livello dei migliori studiosi del suo tempo, e cominciò a costruire strumenti originali.

Il loro successo e la loro importanza derivavano dal fatto che egli aveva ormai idee chiare (usando termini moderni) a proposito della quantità di elettricità Q, del potenziale (o tensione, come egli diceva) V e della capacità elettrica C, nonché della relazione Q=CV. Un ottimo esempio di strumento voltiano è l'elettroforo. Una piastra metallica conduttrice, appoggiata su una focaccia isolante, viene prima portata a terra, ossia a

potenziale zero, poi isolata e sollevata dalla focaccia. La piastra diventa così carica a potenziale elevato e l'operazione può essere ripetuta indefinitamente. L'invenzione era molto ingegnosa e fu successivamente sviluppata in una intera serie di macchine elettrostatiche. Volta era inoltre consapevole di dover misurare quantitativamente le grandezze elettriche, e inventò un elettrometro, il precursore di tutti gli elettrometri assoluti elettrostatici, che poteva misurare le differenze di potenziale in modo riproducibile.

Poco dopo aver compiuto 45 anni Volta lesse i lavori di Galvani che dovevano avviarlo alla sua più grande invenzione. All'inizio Volta concordava con l'opinione di Galvani, che assimilava la rana a una bottiglia di Leida, ma dopo alcuni mesi cominciò a sospettare che la rana fosse soprattutto un rivelatore e che la fonte dell'elettricità fosse esterna all'animale. Osservò anche che se due metalli diversi posti a contatto l'uno con l'altro vengono messi sulla lingua, si avverte una particolare sensazione, a volte acida e a volte alcalina. Egli suppose, e lo potè dimostrare con misurazioni elettrostatiche che suscitano ancora oggi la nostra ammirazione, che due metalli diversi, come il rame e lo zinco, assumono, una volta a contatto, potenziali diversi. Misurò poi questa differenza di potenziale, ottenendo risultati non eccessivamente diversi da quelli che oggi attribuiamo alla differenza di potenziale di contatto. Volta spiegò quindi gli esperimenti di Galvani, almeno nel caso in cui l'arco metallico che collegava i muscoli con i nervi era bimetallico, supponendo che la rana fosse semplicemente un elettrometro estremamente sensibile.

Naturalmente Galvani rispose che si potevano osservare le contrazioni anche quando l'arco metallico era composto di un solo materiale: si trattava di una obiezione seria e Volta, per difendere la sua tesi , invocò le disomogeneità nel metallo e altre cause. Uno studio più approfondito del problema da parte di Volta dimostrò che egli aveva sostanzialmente ragione e portò all'invenzione della pila, una delle meraviglie di tutti i tempi. Volta scoprì che i conduttori di elettricità possono essere divisi in due classi: la prima comprende i metalli che, una volta a contatto, raggiungono potenziali diversi, la seconda comprende i liquidi (elettroliti, nel linguaggio moderno) che non possono assumere un potenziale molto diverso da un metallo immerso in essi. Inoltre i conduttori della seconda categoria, una volta messi a contatto, non assumono potenziali sensibilmente diversi. Per di più quelli della prima categoria potevano essere ordinati in una scala tale che ciascuno di essi era positivo rispetto al successivo (per esempio lo zinco rispetto al rame): in una catena di metalli la differenza di potenziale tra il primo e l'ultimo era la stessa che ci sarebbe stata se i contatti intermedi non fossero esistiti e il primo e l'ultimo membro della serie fossero stati in contatto diretto:

=:<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

LEGGI DELL'EFFETTO VOLTA

PRIMA LEGGE: al contatto fra due metalli diversi alla stessa temperatura si stabilisce una differenza di potenziale caratteristica della natura dei metalli e

indipendente dall'estensione del contatto.

SECONDA LEGGE: in una catena di conduttori metallici tutti alla stessa temperatura, la differenza di potenziale fra i due metalli estremi è la stessa che si avrebbe se

essi fossero a contatto diretto.

TERZA LEGGE: fra due metalli della stessa natura si produce una differenza di potenziale se essi sono gli estremi di una catena della quale fanno parte due metalli diversi a contatto con

una soluzione elettrolitica.

Galvani morì nel 1798, ancora convinto che la sua tesi fosse giusta e che

l'elettricità animale non fosse uguale all'elettricità ordinaria. Volta proseguì nel suo lavoro e, basandosi sulle scoperte già citate, arrivò infine all'idea di combinare un certo numero di conduttori del primo e del secondo tipo in modo tale che le differenze di potenziale generate in ciascun contatto si sommassero tra loro. Egli chiamò tale strumento pila, perché era composto da una pila di dischi di zinco, di rame e di panno imbevuto di acido. La pila generava una corrente elettrica continua di intensità maggiore, per ordini di grandezza, di quella che si poteva ottenere con le macchine elettrostatiche, e in questo modo essa dava il via a una vera rivoluzione scientifica. Volta non solo aveva scoperto la prima nuova fonte di energia in duemila anni, ma aveva mostrato che la chimica è una scienza elettrica. In questo Volta, però, mostrò poco interesse, negando, erroneamente, che le azioni chimiche giocassero un ruolo primario nella produzione di elettricità da parte delle sue pile. Altri si impadronirono di questo punto, concettualmente così affascinante e sperimentalmente così fertile.

Dopo l'invenzione della pila Volta scomparve praticamente dalla scena e lo sfruttamento della sua scoperta fu lasciato ad altri. Probabilmente era troppo vecchio per competere con forze più giovani e fresche, ed è anche possibile che egli fosse psicologicamente bloccato dalla stessa grandezza dei suoi precedenti risultati. Egli non lasciò una scuola, il suo modo di lavorare era troppo personale e la mancanza di matematica nei suoi scritti e insegnamenti può aver limitato la sua capacità di comunicare.

La scoperta della pila pose un nuovo strumento nelle mani dei fisici sperimentali e questa nuova fonte di elettricità stimolò subito una nuova serie di ricerche sperimentali e richiese nuovi concetti teorici.

Il magnetismo seguì le sorti dell'elettricità, eccezion fatta per le cariche

magnetiche libere che non furono trovate, mentre furono invece trovati i dipoli con uguali quantità di magnetismo positivo e negativo. L'esistenza di cariche magnetiche, monopoli come vengono chiamate, è tuttora un soggetto di attiva indagine e ha ramificazioni profonde nella moderna teoria delle particelle. L'esistenza di monopoli, unita alla quantistica ci permetterebbe di spiegare la quantizzazione della carica elettrica, uno dei misteri della fisica contemporanea.

Tutto sommato fu facile estendere la matematica dell'elettrostatica alla magnetostatica. Ovviamente, i fenomeni magnetici non presentano la varietà e la

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:;!

dinamicità dei fenomeni elettrici, per cui è naturale che la letteratura scientifica del Settecento sul magnetismo non ha l’ampiezza e la prolificità di quella sull’elettricità. Comunque, tre furono le direttrici principali dell’indagine magnetica: ricercare la legge di attrazione e repulsione magnetica, analoga a quella di Coulomb; aumentare l’intensità di magnetizzazione delle calamite artificiali; studiare i fenomeni di magnetismo terrestre, in particolare determinare l’intensità del magnetismo terrestre e l’inclinazione magnetica, alla quale Bernoulli ed Eulero dedicarono delle memorie in cui mostravano che le difficoltà da superare non erano solamente di ordine empirico, ma più propriamente di natura concettuale. 7.12 Il sorgere di alcune istanze critiche Gran parte delle discipline, a parte la meccanica razionale, che si svilupparono nel Settecento traevano direttamente dall’esperienza la prova delle conclusioni via via raggiunte, ossia cercavano la garanzia della propria scientificità, non nell’evidenza razionale dei principi, ma nella verifica sperimentale. Ma una domanda cominciava a sorgere: quale può essere il tipo di certezza che un numero più o meno grande, ma comunque finito, di fatti attentamente registrati è in grado di fornire ad asserti di carattere generale, come solo le leggi scientifiche? Questa domanda, che oggi occupa una posizione centrale nelle ricerche epistemologiche, fu dibattuta da alcuni fra i massimi filosofi del Settecento (per esempio Hume) e cominciò ad affiorare anche nell’animo di alcuni scienziati di tale secolo, a ciò sollecitati dalle loro stesse indagini prettamente scientifiche. Uno dei primi ad occuparsene, in anticipo di qualche anno rispetto ad Hume, fu ‘s Gravesande, uno dei maggiori artefici della diffusione delle teorie newtoniane in Europa. ‘s Gravesande, abbandonando fra il 1720 e 1723 il punto di vista newtoniano per quanto riguardava la questione controversa della misura della forza e convertitosi al punto di vista leibniziano, si rende ben conto che le famose regulae philosophandi di Newton non sono regole logiche, onde non si può pretendere che valgano a priori; e nemmeno ha senso volerle giustificare per via induttiva, come si giustificano i singoli risultati della fisica, in quanto costituiscono, proprio esse, il fondamento di ogni induzione. La consapevolezza del carattere non logico delle regole applicate nella elaborazione della fisica, conduce ‘s Gravesande a porre una netta distinzione fra conoscenza matematica e conoscenza sperimentale: la prima concerne soltanto il mondo delle idee e perciò non può dirci nulla sulla realtà delle cose; la seconda invece riguarda proprio il mondo dei fatti e, poiché non siamo in grado di provare che le idee convengano alle cose, non può fare alcun riferimento a verità a priori, valide solo nel mondo delle idee. Ricollegandosi a questa concezione, anche van Musschenbroek, altro newtoniano, giunge a sostenere che le leggi naturali possono venire esattamente formulate anche senza l’ausilio della matematica: l’essenziale è, che chi vuole pervenire a conoscerle, sappia cogliere tutte le proprietà del mondo reale rivelateci dai sensi, senza trascurarne alcuna. L’antitesi fra questa concezione della scienza e quella alla base della meccanica razionale non potrebbe essere più netta. È una frattura che ricomparirà, sotto forme diverse, anche nel XIX secolo, e di cui solo l’epistemologia moderna sembra in grado di fornirci una soluzione soddisfacente.

=:=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

A proposito di questa soluzione è bene accennare agli importanti risultati cui giunse Lavoisier, secondo il quale lo scienziato non solo debba attribuire la massima importanza ai dati dei sensi, ma anche alla funzione del linguaggio. Partendo dal postulato che “noi pensiamo se non con l’ausilio delle parole”, la lingua deve costituire uno strumento fondamentale per la scienza. Ma che cosa è la matematica? Essa è essenzialmente una lingua, fornita di straordinaria precisione e proprio perciò estremamente utile alla descrizione dell’esperienza. Sviluppando il pensiero di Lavoisier potremmo dire: la matematica costituisce uno strumento preziosissimo per le scienze della natura, non già perché capace di dedurre le leggi particolari da principi assoluti ed evidenti, ma perché fornita di una chiarezza ed esattezza incomparabilmente superiori a quelle del linguaggio comune. Anche se non possiamo attribuire a Lavoisier una consapevolezza intorno alla funzione del linguaggio matematico, che verrà conquistata solo nel XX secolo, emerge comunque l’idea che un’impostazione sperimentalistica della fisica non poteva sviluppare tutte le istanze critiche, insite in essa, se non riusciva anzitutto a liberare il linguaggio scientifico dall’uso di termini, come quello di flogisto, di calorico e di etere, che pretendevano riferirsi ad entità empiricamente non verificabili né in forma diretta né in forma indiretta. Toccherà alla fisica dell’Ottocento dibattere a fondo l’ipotesi del calorico e quella dell’etere. La prima verrà gradualmente espunta dalla scienza durante la prima metà del XIX secolo, l’altra sarà definitivamente abbandonata solo all’inizio del Novecento ad opera di Einstein. Le vittoriose critiche contro di esse saranno condotte in nome di una radicale esigenza sperimentalistica.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:4!

!"#$%&'&()!

Il processo di una scoperta scientifica è, in effetti, un continuo conflitto di meraviglie

Einstein

"3%))%*-&)%5#"(#)-,$%'!&($!*(#-#

"3-"-)),%$(+&-)!0$%#

8.1 Introduzione L’inizio del XIX secolo fu senza dubbio uno dei periodi più agitati per l’Europa. Basti ricordare le guerre di Napoleone, le radicali trasformazioni da lui realizzate nell’apparato amministrativo della Francia e dei paesi ad essa via via sottomessi, il subitaneo crollo del suo impero, e il nuovo equilibrio fra le grandi potenze europee faticosamente raggiunto nel congresso di Vienna. Il periodo che succede alla caduta di Napoleone si suole designarlo con il nome di restaurazione, in quanto alle dinastie regnanti prima della rivoluzione francese vengono restituiti i loro vecchi domini, e più in generale si restaura il principio d’autorità, che ha come conseguenza un rinnovamento dello spirito confessionale, il controllo dell’insegnamento nelle università, il soffocamento della coscienza critica. Non ci si limita a denunciare il pericolo delle concezioni che si richiamano in qualche modo all’illuminismo, ma si guardano con sospetto perfino gli indirizzi filosofici che intendono combattere l’illuminismo in nome della libertà. Malgrado la buona volontà dei moderati, le forze più retrive e conservatrici riescono spesso a prendere il sopravvento, aggravando il disagio materiale e morale di larghi strati della popolazione. Si moltiplicano le misure repressive, che però si rivelano sempre meno efficaci. Si arriva così al 1848, anno in cui tutta l’Europa viene scossa da una profonda ondata rivoluzionaria. La spinta innovatrice, con tutte le sue contraddizioni, portata dalle armate napoleoniche in quasi tutti i paesi europei non poteva non ripercuotersi positivamente anche nel campo della tecnica. Il progresso tecnologico era ovunque sentito come un grande passo verso la modernità, e l’esigenza di modernizzarsi era certo uno dei pochi fattori che poteva disporre favorevolmente le popolazioni nei confronti dei conquistatori. Concluso questo travagliato periodo, l’interesse per il progresso tecnologico non venne peraltro a cessare. Le numerose e sanguinose guerre, di

=:5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

proporzioni mai viste prima d’allora, avevano recato immani guai a vinti e vincitori; in questo stato di cose, l’aumento della produzione si imponeva come esigenza primaria per una stabile ricostruzione dell’economia e per lo stesso consolidamento della pace. Ma tale aumento poteva soprattutto essere ottenuto con la modernizzazione delle tecniche produttive, di qui il diffondersi di una consapevolezza sempre maggiore circa l’importanza generale del progresso di queste tecniche. La classe sociale a ciò più interessata si rivelò immediatamente la borghesia, che, sola, possedeva i mezzi finanziari e le energie per impiantare stabilimenti in grado di utilizzare i nuovi ritrovati della tecnica. Essa divenne, così, la principale protagonista della rivoluzione industriale, che doveva in breve tempo trasformare la struttura economica dell’Europa. La cosa che ci interessa sottolineare è la straordinaria ed entusiastica fiducia che cominciò a venire riposta, nella prima metà dell’Ottocento, nel progresso tecnologico-industriale, non di rado considerato come capace di realizzare rivoluzioni ben più profonde e più solide di quelle attuate in campo meramente politico. L’ingenua illusione non potè tuttavia durare a lungo. Essa verrà dissolta dall’insorgere di gravissime contraddizioni sociali, generate proprio dal progresso dell’industria. Ma questa è un’altra storia. Le vicende economiche-politiche che hanno inizio verso la metà del XIX secolo sono: rafforzamento economico della borghesia, fondazione della I Internazionale socialista (1864), sua crisi dopo il fallimento della Comune di Parigi (1871), fondazione della II Internazionale (1889), guerra di secessione negli Stati Uniti d’America, intensificarsi dell’attività coloniale da parte delle grandi potenze europee, nascita della fase imperialistica del capitalismo. Un carattere generale della cultura durante il periodo in esame è l’importante aumento di peso specifico che vi assumono le ricerche scientifiche, e il parallelo graduale declino dell’importanza riconosciuta alle ricerche filosofiche. Ciò non significa che non affiorino grossi problemi di natura autenticamente filosofica (basti pensare a quelli connessi alla profonda crisi del meccanicismo o a quelli suggeriti dalle tesi innovatrici dell’evoluzionismo), ma sono problemi che si legano direttamente, non alle speculazioni dei filosofi, bensì al concreto travaglio delle scienze. Uno dei mutamenti essenziali fra la prima e la seconda metà dell’Ottocento è costituito dalla nuova importanza che vengono ad assumere le cosiddette scienze applicate. Mentre la prima rivoluzione industriale (XVIII secolo) si era spesso e largamente avvalsa delle ingegnose invenzioni di abili tecnici che lavoravano ai margini della scienza senza ricevere da essa precise istruzioni (si pensi alle prime macchine a vapore), la cosiddetta seconda rivoluzione industriale, che inizia appunto verso la metà dell’Ottocento, trova invece nelle scoperte scientifiche uno degli ausili principali per il proprio potenziamento. Si pensi, per esempio, al determinante contributo dell’elettrotecnica, resa possibile dalle grandi scoperte compiute dai fisici, allo sviluppo dell’industria o dei trasporti. Negli ultimi decenni dell’Ottocento diventa manifesto il fecondo interscambio tra scienza e tecnica, che si impone come un carattere fra i più significativi dell’epoca. Ciò implica l’impossibilità di guardare alle singole discipline come a qualcosa di isolato, di fornito di vita propria, di capace di svilupparsi indipendentemente dalla collaborazione delle altre discipline. Però, diversamente da oggi, la funzione dirigente in questa globalità spetta in modo incontestabile alla scienza, mentre le ricerche tecniche, pur fornendo utili strumenti a quelle scientifiche, non hanno in sostanza altro compito che quello di adeguarsi ai loro progressi. Come già accennato, l’utilizzazione sistematica

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:6!

delle scoperte scientifiche da parte dell’industria e gli straordinari successi ottenuti mediante tale utilizzazione non tardarono a procurare alla scienza una larghissima popolarità, alimentando le speranze che essa avrebbe finito per risolvere ogni problema all’umanità. È vero che di tanto in tanto l’economia subiva gravissime crisi, che toglievano a milioni di lavoratori le modeste conquiste civili e sociali faticosamente acquisite, ma nemmeno tali crisi riuscivano in realtà a fermare lo sviluppo della produzione e tanto meno ad arrestare il progresso scientifico-tecnico. Fiducia nella scienza e fiducia nel progresso risultano, così, abbinate nella mente dei più e determinano a poco a poco l’atmosfera culturale, positivistica, che si diffonde in gran parte dell’Europa, specialmente presso i ceti borghesi.

8.2 La filosofia romantica della natura Da Galileo in poi la natura era stata prevalentemente considerata come un ordine oggettivo e come un insieme di relazioni fattuali legate fra loro da cause efficienti, mentre la scienza era stata interpretata come un'indagine matematizzante e analitica sui fenomeni osservabili. Ciò aveva prodotto un rifiuto della concezione rinascimentale, e quindi greca e medioevale, del cosmo, generando ciò che va sotto il nome di meccanizzazione del quadro del mondo, ossia un'interpretazione della natura come un sistema di materia in movimento retto da un insieme di leggi meccaniche, escludenti ogni riferimento a presunti fini o scopi.

La scienza newtoniana della natura, che nel corso dell'età dell'Illuminismo era venuta sempre più assumendo la figura di un sistema meccanicistico logico-matematico, trova nel corso della reazione romantica seguita alla caduta del giacobinismo una violenta opposizione da parte del nuovo pensiero idealistico e spiritualistico. Ricollegandosi da un lato ad un filone di pensiero vitalista e dinamicista (da Leibniz allo stesso Kant) e riprendendo dall'altro la visione antico-rinascimentale della physis, i romantici, non senza influenze di tipo mistico e teosofico, pervengono ad una filosofia della natura organicistica (=la natura è una totalità organizzata nella quale le parti vivono solo in funzione del Tutto), energetico-vitalista (=la natura è una forza dinamica, vivente e animata), finalistica (=la natura è una realtà strutturata secondo determinati scopi, immanenti o trascendenti), spiritualistica (=la natura è anch'essa qualcosa di intrinsecamente spirituale “spirito in divenire”) e dialettica (=la natura è organizzata secondo coppie di forze opposte, formate da un polo positivo e uno negativo, e costituenti delle unità dinamiche).

Dunque, un vivo sentimento di unità e spiritualità della natura anima i protagonisti del Romanticismo contro la concezione newtoniana e meccanicistica del mondo. La vera novità del Romanticismo, però, consiste nel nuovo modo di considerare la ragione. L’Illuminismo aveva, sì, esaltato la ragione come una forza in grado di trasformare il mondo, ma non l’aveva considerata assoluta o onnipotente. Al contrario, con il Romanticismo la ragione viene considerata una forza infinita (=onnipotente) che abita il mondo e lo domina e, perciò, ne costituisce la sostanza stessa.

Analizziamo, per ciò che ci riguarda, due momenti caratteristici della filosofia romantica della natura, specialmente di quella tedesca. Il primo è il filone filosofico-scientifico legato prevalentemente alla teoria del dinamismo fisico, che cercava di interpretare unitariamente i nuovi ordini di fenomeni che si erano rapidamente imposti

=:7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

alla ricerca fisica e biologica, ed era rivolto soprattutto contro il meccanicismo atomistico, sostenendo che l’estensione dei corpi non è dovuta ad una sostanza materiale, ma all’effetto di forze repulsive agenti su punti geometrici inestesi. La materia era dunque un prodotto della forza o del movimento ed in ciò si vedeva, su un piano filosofico metafisico, la possibilità di stabilire una comune matrice per il mondo della natura e per quello dell’uomo. Vi era inoltre, nell’indagine complessiva dei fenomeni naturali, il problema di considerare i vari tipi di interazione fra i fenomeni ammettendo una continuità tra essi, e tale continuità risultava maggiormente plausibile ponendo l’accento più sul movimento e sulle forze, che non su una pluralità di sostanze ponderabili o imponderabili. L’idea di un’unica forza appariva come un criterio di unificazione estremamente suggestivo. Appariva inoltre importante, in una visione monistica ispirata allo spinozismo, che tale forza potesse costituire una fonte inesauribile di movimento, cioè che non occorresse rifarsi, come Newton, ad un intervento soprannaturale per garantire la continuità e la stabilità della natura. Nel suo complesso, anche per i tentativi di considerare i fenomeni luminosi, elettrici e chimici come stati di coesione della materia piuttosto che come effetto di fluidi o sostanze elementari, il dinamismo fisico può forse considerarsi come un tentativo di formulare una fisica del continuo analoga a quella che gli stoici propugnarono nell’antichità contro la tradizione atomistica democritea. Il secondo aspetto da analizzare della scienza romantica è la sua dimensione mitologico-scientifica, che appare evidente soprattutto nell’uso che essa fece del principio di polarità. L’origine di questo principio può farsi risalire all’antagonismo delle forze centrifughe e centripete che insieme determinano, per Newton, il comportamento dei corpi. La conoscenza più antica della polarità del magnete e l’introduzione nel 1778 dei termini positivo e negativo per indicare la tensione elettrica, portò a considerare la polarità come un’identità strutturale di fenomeni qualitativamente diversi, come un utile paradigma di ricerca fisica. Questo paradigma risultò ben presto come una condizione universale per la produzione del movimento, come un principio causale. Attraverso gli sviluppi che la polarità ebbe nella dialettica dell’idealismo apparve sempre più la possibilità di trovare in questo principio come in quello della forza, un criterio di unificazione per il mondo della natura e dello spirito. Il principio di polarità può considerarsi un tipico aspetto di quella mitologia scientifica che caratterizza la scienza romantica in quanto vi è la totale assenza di regole esplicite che estendono tale principio da un campo limitato di fenomeni a tutti i fenomeni e la sua assunzione quasi come un’idea archetipa, originariamente percepita.

L’esigenza di una nuova mitologia che tragga il proprio contenuto dalle conoscenze scientifiche è espressa in vario modo, ma con chiara consapevolezza, da Johannes G. Herder (1744-1803), Novalis (1772-1801) e Friedrich Schlegel (1772-1829). Emerge in essi la convinzione che l’infinita creatività della natura non può essere colta razionalmente ma solo intuita in forme estetico-simboliche, comuni a quelle dell’opera d’arte. Ma la convinzione di questa infinita creatività non comportava necessariamente il mito, cioè il considerare gli oggetti concreti quali principi astratti, quali modelli delle vicende più lontane e differenti dei fenomeni. Goethe, per esempio resiste a questa tentazione. La grande maggioranza dei naturalisti del periodo romantico, Goethe compreso, non pensavano come Kant che il grado di scientificità delle conoscenze naturali fosse commisurato all’adozione della matematica, ma partivano piuttosto dalla convinzione che la matematica poteva accordarsi con la realtà concreta solo in modo approssimativo e per una coincidenza del tutto empirica che non trovava nessuna

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:8!

garanzia a priori. Non l’applicazione della matematica quindi ma l’intuizione o la riflessione filosofica potevano permettere il superamento delle indagini troppo circoscritte ed il raggiungimento di una visione complessiva di tutta la realtà naturale che includesse anche l’uomo. Gli sviluppi mitologici della scienza romantica, soprattutto tedesca, non mancarono certo di stimoli fecondi per la cultura dei successivi decenni. È però necessario riconoscere che essi costituirono un momento negativo rispetto all’ampliarsi di quella coscienza critica che aveva trovato nello stesso illuminismo tedesco notevoli affermazioni.

La filosofia romantica della natura si sviluppa soprattutto per opera di Wolfgang Goethe (1749-1832), nel genio del quale poesia e scienza si sviluppano in intima fusione, non certo, per la verità, sempre a vantaggio del secondo termine. Nella Teoria dei Colori (1810) Goethe inizia contro Newton quella polemica che poi si protrarrà per tutto il Romanticismo, fino a Hegel compreso: l'ottica newtoniana, con il suo meccanicismo, manca totalmente di cogliere il valore sensibile, emotivo, estetico e quindi spirituale del colore, per ridurlo a mero movimento di particelle materiali. Goethe dunque, riallacciandosi in un certo modo alla scienza pre-galileiana (diciamo, aristotelica) vuole contrapporre alla riduzione fisica-matematica della natura un atteggiamento qualitativo ed estetizzante, per il quale essa si carica di valori e significati che oltrepassano la geometria del moto. L’idea direttrice di Goethe è quella che costituiva il nucleo più profondo dello spinozismo, cioè la concezione della natura come unica ed eterna realtà, perfettamente organizzata da cui l’uomo non può venire scisso essendo uno dei modi finiti in cui si estrinseca la sostanza infinita. In altri termini la natura è “l’abito vivente della divinità….c’è in lei una vita eterna, un eterno divenire, un moto perenne…E’ salda. Il suo passo è misurato, rare le sue eccezioni, invariabili le sue leggi. Ha pensato e non cessa mai di pensare; non come l’uomo, tuttavia, ma come natura. Si è riservata un’intelligenza propria, che abbraccia ogni cosa e di cui nessuno può carpirle il segreto”. Il mondo stesso dei fenomeni costituisce pertanto l’intermediario sicuro per giungere alla divinità, come il corpo è l’intermediario per giungere all’anima. Di qui l’assurdità di cercare una dimostrazione razionale astratta dell’esistenza di Dio, mentre essa ci viene rivelata immediatamente dall’esistenza medesima della natura. Proprio questa concezione conduce Goethe a pensare Dio come una forza spirituale impersonale che pervade l’universo, determinandone la finalità interna, che non appartiene soltanto a una considerazione soggettiva del mondo, ma che possiede un’esistenza effettiva e reale; ciò implica il ripudio di ogni forma di atomismo meccanicistico.

Che nessuno può “carpire il segreto della natura” va inteso nel senso che nessuno può raggiungere una conoscenza piena e completa del principio divino che vive in lei. È tuttavia possibile conoscerne le singole leggi (questo è ol compito della ricerca scientifica), in quanto però non ci si illuda di poter giungere ad esse con la pura ragione., bensì partendo dall’esperienza. A tal fine occorrerà osservare i fenomeni nella loro immediata concretezza, riproducendoli con cura un numero sufficiente di volte, fino a coglierne tutti i nessi e le affinità: “Non ci si guarderà mai abbastanza dal trarre da esperimenti conclusioni affrettate; giacchè è appunto al passaggio dall’esperienza al giudizio, dalla conoscenza all’applicazione, che, come ad una stretta, tutti i nemici segreti dell’uomo stanno in agguato, fantasia, impazienza, precipitazione, arroganza, caparbietà, forma mentis, preconcetti, pigrizia, volubilità … ci aspettano al varco, e inopinatamente sopraffanno sia l’attivo uomo di mondo, sia lo studioso pacato e apparentemente alieno da passioni”. Questo passo, anche se manifesta una seria

=:9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

preoccupazione metodologica, non conduce però il poeta tedesco a inserirsi pienamente entro la via maestra della scienza moderna. Ciò che impedì a Goethe questo inserimento fu soprattutto l’avversione per la matematica, che invece costituisce uno dei cardini della metodologia galileiano-newtoniana. È un’avversione che è presente in gran parte dei pensatori romantici che scaturiva, per un lato, dal timore (non del tutto ingiustificato) che gli schemi matematici potessero costituire un pericoloso schermo tra il ricercatore e l’autentico mondo dell’esperienza, per un altro lato però dal desiderio di sottrarsi al controllo dei calcoli, sostituendo ardite sintesi al rigore dell’analisi.

Da un punto di vista prettamente scientifico, come abbiamo già accennato, Goethe elabora una teoria dei colori vivacemente contrapposta a quella newtoniana. Mentre lo scienziato inglese aveva affermato che il bianco è un colore composto, e in quanto tale può venire analizzato in uno spettro di colori semplici, Goethe lo assunse invece come colore fondamentale non analizzabile, e sostenne che gli altri colori sono combinazioni di luce bianca e di ombra. Affermò poi, in base alla concezione filosofica generale secondo cui la natura possederebbe la capacità di rivelarsi direttamente all’uomo, che, anche nello studio dei colori, dobbiamo fidarci assai più dlla testimonianza diretta dei sensi che non di quella indiretta, fornitaci da artificiosi dispositivi sperimentali, come il prisma ottico per scomporre la luce bianca nelle sue componenti cromatiche.

Concezioni del genere vengono ampiamente sviluppate nelle filosofie della natura di Friedrich Schelling (1775-1854) e Georg W. F. Hegel (1770-1831).

Nella filosofia della natura di Schelling le numerose scoperte scientifiche del tempo nel campo della chimica, dell'elettricità, del magnetismo e della biologia, vengono ricondotte al concetto dell'Assoluto come identità e a costruire, attraverso tali scoperte, una visione unica e semplice del mondo naturale come realizzazione e rivelazione di un Assoluto che è nello stesso tempo natura e spirito, attività incosciente e ragione. Schelling anzi vede nei fenomeni elettrici la prova e quasi il simbolo del modo in cui l'Assoluto si manifesta come natura.

Le Idee per una Filosofia della natura (1797) partono dal fenomeno della combustione nella quale Lavoisier aveva scoperto (1783) un fenomeno di ossidazione, distruggendo la vecchia teoria del flogisto cioè di una speciale materia che intervenisse a produrre il fenomeno. Schelling si propone di vedere quale conseguenza la scoperta dell'ossigeno abbia per la ricerca naturale e non soltanto relativamente alla chimica, ma per l'intero dominio della vita vegetale e animale, alla quale l'ossigeno è indispensabile. Poiché i fenomeni che accompagnano la combustione sono la luce e il calore, strettamente congiunti, Schelling ritiene di poterli ricondurre ad un unico fluido elastico, che riconosce nell'aria, la quale è probabilmente il mezzo universale per cui la natura agisce sulla materia morta. In questo modo egli torna senza accorgersene ad una teoria di tipo flogistico. Più fortunata è la sua intuizione dell'unità della forza magnetica e della forza elettrica (si veda l’unificazione dell’elettricità e del magnetismo in un’unica teoria, l’elettromagnetismo, realizzata da Maxwell), che non ritiene distinte tra loro ma dovute ad un unico principio, riconoscendo nello stesso tempo questo principio nella forza di attrazione e di repulsione dei corpi. Attrazione e repulsione sono da lui considerate come i principi del sistema naturale. Difatti ogni fenomeno naturale è l'effetto di una forza che è come tale limitata e perciò condizionata dall'azione di una forza opposta; sicché ogni prodotto naturale si origina da una azione e da una reazione e la natura agisce attraverso la lotta di forze opposte.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =::!

Schelling ha raggiunto a questo punto chiaramente la sua dottrina dell'Assoluto come identità, e l'ha raggiunta attraverso la filosofia della natura. Lo scritto successivo Sull'anima del mondo (1798), al quale dà il sottotitolo di Ipotesi della più alta fisica per la spiegazione dell'organismo universale, è destinato a dimostrare la continuità del mondo organico e del mondo inorganico in un tutto che è esso stesso un organismo vivente: questo è ciò che, secondo Schelling, gli antichi intendevano con l'espressione anima del mondo. Schelling ammette qui che l'anima del mondo costituisca l'unità delle due forze opposte (attrazione repulsione) che agiscono nella natura, che il conflitto di queste forze costituisca il dualismo e la loro unificazione la polarità della natura. E avanza l'ipotesi che l'anima del mondo si manifesti materialmente nel fluido che gli antichi chiamavano etere, il dualismo nell'opposizione della luce e dell'ossigeno in cui l'etere si scinde, e la polarità nella forza magnetica. Ma la tesi fondamentale dell'opera è che la natura è un tutto vivente e che ogni cosa è provvista di vita.

Il concetto di natura nella dottrina di Hegel ha una funzione importante, e le divisioni fondamentali della filosofia della natura sono: la meccanica, la fisica, e la fisica organica. La meccanica considera l’esteriorità che è l'essenza propria della natura, o nella sua astrazione (spazio e tempo), o nel suo isolamento (materia e movimento), o nella sua libertà di movimento (meccanica assoluta). Lo spazio è l’esteriorità considerata nella sua forma universale ed astratta. Il tempo è “l’'essere che mentre è, non è, mentre non è, è: il divenire intuito”. La materia, considerata prima nella sua inerzia poi nel suo movimento (urto e caduta), è la realtà frazionata e isolata che determina e unifica tra loro lo spazio e il tempo, i quali in sé sono astrazioni. Infine, la meccanica assoluta raggiunge il vero e proprio concetto della materia, che è quello della gravitazione. La gravitazione è, secondo Hegel, un movimento libero e perciò i corpi nei quali essa si realizza, i corpi celesti, si muovono liberamente. La seconda grande divisione della filosofia della natura, la fisica, comprende la fisica dell'individualità universale, cioè degli elementi della materia, la fisica dell'individualità particolare, cioè delle proprietà fondamentali della materia (peso specifico, coesione, suono, calore) e la fisica dell'individualità totale, cioè delle proprietà magnetiche, elettriche e chimiche della materia. La terza divisione, fisica organica, comprende la natura geologica, la natura vegetale, e l'organismo animale. Per Hegel fa parte della fisica organica anche la particolare conformazione della terra, studiata dalla geografia fisica.

Hegel, però, nonostante l’enorme interesse per la realtà naturale, si collocò interamente al di fuori della scienza moderna e anzi contribuì ad allontanare da essa gran parte della filosofia dell’Ottocento. Vediamone i motivi. Hegel condivise con parecchi suoi contemporanei la convinzione della necessità di abbandonare, o per lo meno modificare radicalmente, la linea che Newton aveva impresso allo studio della natura; questa linea era stata accolta senza discussione da gran parte dei fisici del Settecento, e il proposito di sottoporla ora ad un’approfondita discussione sembrava dettato dalla generale esigenza di rinnovamento emersa nel nuovo secolo. Le critiche sollevate da Hegel contro la scienza newtoniana investivano, senza mezzi termini, i due pilastri fondamentali di tale scienza: la spiegazione matematica e l’appello all’esperienza.

La spiegazione matematica viene accusata di essere superficiale e illusoria, in base al fatto che la matematica non è capace di dimostrare razionalmente gli oggetti di cui si occupa, ma li presuppone come qualcosa di dato. Così, per esempio, la necessità della tridimensionalità spazio non viene dedotta ma accolta come un fatto assoluto e

4<<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

indiscutibile. Ad un’accusa molto simile viene sottoposto l’appello all’esperienza, cioè di presentare i dati empirici come parte integrante della spiegazione scientifica, mentre in realtà essi non spiegano nulla, richiedendo invece di venire essi stessi spiegati. La descrizione dell’esperienza costituisce nulla più che il primo passo dell’autentico lavoro scientifico; deve limitarsi a fornire il materiale e a fare il lavoro preparatorio, di cui la fisica empirica poi si avvale liberamente per mostrare la necessità con la quale le determinazioni naturali si concatenano in un organismo concettuale: “La nascita e la formazione della scienza ha come presupposto e condizione la fisica empirica; ma altra cosa è il processo di originazione e i lavori preparatori di una scienza, altra cosa la scienza stessa”. Per loro conto, i risultati dell'indagine empirica non hanno il minimo significato: “Se la fisica dovesse fondarsi sulle percezioni e le percezioni non fossero altro che i dati dei sensi, il procedimento della fisica consentirebbe nel vedere, ascoltare, fiutare, ecc., e anche gli animali in questo modo sarebbero dei fisici”. Un qualsiasi dato osservativo rappresenta in se stesso qualcosa di accidentale, di irrazionale; limitarsi ad accoglierlo, senza giustificarlo razionalmente, in una dottrina fisica, significa incrinare la scientificità di tale dottrina. Ancora più condannabile è infine, secondo Hegel, la pretesa di rivestire matematicamente i dati empirici. Essa è infatti viziata da un carattere doppiamente illusorio, per l’illusorietà di far intervenire i dati empirici nella spiegazione scientifica e per quella di confondere tali dati con le astratte nozioni della matematica. Caso tipico di questa assurda pretesa è il principio d’inerzia: la sua assurdità si rivela nel fatto che esso pretende postulare, come qualcosa di evidente, l’infinita prosecuzione di un moto che a rigore non esiste essendo irrealizzabile nell’esperienza (il moto inerziale dovrebbe infatti prescindere dalla gravità e da ogni forma di attrito, mentre in tutti i moti empiricamente verificabili sono sempre presenti sia la gravità che l’attrito).

Un’esame imparziale di queste critiche ci dice che esse non erano così prive di fondamento. È noto infatti che la matematica cui egli si riferiva era tutt’altro che esente da grossi equivoci e da presupposti ingiustificati, visto che, per esempio, solo alla fine del secolo fu discusso a fondo il problema della tridimensionalità o pluridimensionalità dello spazio. Né meno oscuro era, all’inizio dell’Ottocento, il problema dei rapporti fra aspetto teorico e aspetto empirico delle conoscenze scientifiche, tante è vero che esso costituisce ancora oggi argomento di dibattito fra gli epistemologi. In particolare va riconosciuto che era esattissima l’accusa di Hegel contro il principio d’inerzia, visto che la critica più moderna ha infatti chiarito, senza possibilità di equivoci, che tale principio non trova un fondamento diretto nell’esperienza. I motivi del mancato inserimento di Hegel entro il grande e complesso filone del pensiero scientifico moderno non possono dunque venire cercati nel suo antinewtonianesimo, che lo portò, spesso, su posizioni analoghe a quelle dei migliori scienziati della sua epoca, come il rifiuto della teoria corpuscolare della luce o della concezione sostanzialistica del calore.

Il vero motivo del completo distacco fra Hegel, e quindi l’hegelismo, e la scienza moderna va dunque cercato altrove, cioè in una distorsione che investe il centro stesso del pensiero hegeliano. Trattasi in primo luogo dell’interpretazione che tale pensiero fornisce alla razionalità. Hegel ripete più volte che la scienza mancherebbe ai propri scopi se non fosse in grado di dedurre la totalità dei fenomeni naturali, cioè di scoprire la “necessità logica” di ogni processo, di ogni legge, di ogni singolo fatto. Abbiamo ritrovato un atteggiamento del genere al fondo delle critiche sollevate alla fisica newtoniana; altre volte questo atteggiamento lo spinge ad affermazioni che hanno l’aspetto di autentici paradossi, come l’affermazione che la vera scienza deve “dedurre”

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<;!

il numero dei pianeti del sistema solare. Ebbene, anche a prescindere dall’aspetto paradossale di tali asserti, vi è in essi qualcosa che risulta veramente incompatibile con lo spirito scientifico, ossia la pretesa che la conoscenza scientifica sia una conoscenza esaustiva, e ciò in due sensi: 1) perché abbracci la totalità della natura; 2) perché spieghi in modo completo ogni singolo fenomeno, sì da non lasciare più aperto intorno ad esso alcun problema. Tutta la storia del pensiero moderno ci ha provato che la scienza respinge da sé, con la massima fermezza, l’aspirazione a un tale carattere esaustivo; la spiegazione scientifica non presume mai di essere definitiva. Anzi, il distacco fra essa e la spiegazione metafisica sta proprio qui, nel fatto che la metafisica pretende fornire la ragione ultima e assoluta del mondo, mentre la scienza si accontenta di fornircene conoscenze parziali e sempre perfezionabili. Hegel non ha capito questo carattere delle conoscenze scientifiche e perciò non ha potuto contribuire efficacemente al loro progresso, anche quando le singole tesi da lui sostenute, come quelle antinewtoniane, erano sostanzialmente corrette. Date queste premesse, non c'e da stupirsi che Hegel si serve nel modo più arbitrario e fantastico dei risultati della scienza del suo tempo, interpretandoli e concatenandoli in modo tale che essi perdono il loro valore scientifico senza perciò acquistare un qualsiasi significato filosofico.

Il Romanticismo si fa sentire, pure se in maniera meno caratteristica e meno diretta, in tutti i campi della conoscenza scientifica; si fa sentire come afflato rinnovatore, come libertà di fronte agli schemi e alle categorie tradizionali, come impulso creativo di nuovi campi di sapere e di ricerca. In particolare, in fisica, si notano importanti spunti di rinnovamento critico rispetto alla fisica dell’età dell’Illuminismo, ed a ciò contribuirono non poco gli strumenti matematici che nel frattempo si andavano sviluppando permettendo rappresentazioni analitiche di nuovi concetti che prima erano rimasti affidati all’intuizione. Importantissimo è il fatto che, nella teoria della luce, la concezione corpuscolare imposta dall'autorità di Newton entra in crisi, e si riafferma, su nuove basi sperimentali e matematiche, la teoria ondulatoria. E ad assestarsi su tale base tendeva anche l’elettrologia, dopo gli studi di Galvani e di Volta e le dispute relative. Si avvicina, così, l'era della fisica dei moti ondulatori, in contrasto con quella dell'era newtoniana che era stata essenzialmente una fisica dei moti corpuscolari. Con ciò nel campo del pensiero scientifico stava succedendo una cosa molto importante: cominciava a rompersi l'unità della scienza. Lo sforzo settecentesco di sistemare tutto il sapere naturalistico mediante un unico modello era in via di fallimento: ora c'erano due fisiche, la fisica dei corpuscoli e la fisica delle vibrazioni, la fisica del vuoto e la fisica dell'etere, due modelli non ancora antitetici, come diverranno nel XX secolo, perché per il momento invocati a spiegare classi diverse di fenomeni, ma già coesistenti e con una fisionomia e una ontologia della natura ben diverse.

Contemporaneamente si affaccia quello che sarà il carattere predominante della scienza contemporanea: lo sperimentalismo. Anche la scienza moderna era stata, in un certo senso, sperimentale. Ma l'esperimento moderno ha un significato ben diverso da quello contemporaneo: quello infatti è un modo di catturare la natura, una domanda rivolta a questa e un modo per costringerla a rispondere, ossia per procacciarsi dei dati e di verificare delle ipotesi, al massimo, la ricerca di un modello che riproduca in laboratorio, nelle sue linee essenziali, i processi che avvengono nel cosmo. L'esperimento contemporaneo è ancora tutte queste cose, ma anche una cosa nuova, è divenuto la natura stessa. L'uomo non riproduce più la natura, il canone della imitatio naturae ha perduto di senso: ora produce la natura stessa, le leggi della nuova scienza

4<=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sono le leggi del laboratorio, non le leggi del mondo esterno scoperte attraverso il laboratorio.

Paradossalmente, connesso con tale sperimentalismo è il formalismo della scienza contemporanea. Nella scienza moderna il linguaggio matematico era quello in cui si formulava la legge, di fronte alla formula stava la descrizione del fenomeno sperimentato. Invece nella scienza contemporanea il linguaggio matematico fornisce esso stesso, quasi direttamente, un'immagine dell'evento sperimentale, che nei suoi contenuti sensibili e toto coelo diverso da quello che è intuibile attraverso il linguaggio che lo descrive. Non c'e più da una parte una historia naturalis, raccolta più o meno ordinata di osservazioni ed esperimenti, e dall'altra la sistemazione teorico-matematica: le due cose tendono a fondersi, contenendo la formula le condizioni operative dello stesso esperimento. Anche questo carattere, soprattutto come distacco dall'intuizione e dal senso comune, ha origine nella scienza romantica. Le nuove teorie sulle estensioni del concetto di numero (Gauss), le geometrie non-euclidee, i nuovi metodi e le nuove discipline creati da Abel e da Galois portano le matematiche su un terreno estremamente sintattico, algoritmico, privo di possibilità di interpretazione immediatamente intuitiva, dall'intuizione al rigore, cioè al formalismo. Ma anche nella fisica, si tenta di sistemare le nuove scoperte dell'elettrodinamica mediante le categorie e i principi della fisica newtoniana: ma applicati fuori del loro originario modello corpuscolare questi acquistano un significato più astratto (vedi il concetto di campo).

Un altro aspetto interessante della fisica ottocentesca è che il lavoro scientifico si fa sempre più specializzato, e l’uomo di scienza versato in molti campi rimane un ricordo del seicento o del settecento. Il nuovo tipo di ricercatore può concentrare tutte le sue energie su un argomento rigorosamente delimitato, nel cui ambito può acquisire in breve una preparazione pressocché perfetta e quindi porsi in grado di impostare in termini molto esatti i pochi problemi affrontati, utilizzando altresì i risultati più aggiornati conseguiti da altri ricercatori nel medesimo settore. In tal modo era abbastanza probabile che, anche senza possedere una particolare genialità e originalità, egli sarebbe riuscito a ottenere qualche risultato arrecando il suo contributo alla soluzione di quel dato problema, soluzione che sarebbe poi scaturita in seguito all'accumularsi di altri contributi pazientemente arrecati da altri specialisti.

Tutto ciò è stato una conseguenza del dilatarsi del volume e dei campi del sapere. All’interno di scienze come la matematica, l'astronomia, o la fisica, si erano prodotti mutamenti molto significativi per quanto riguardava i metodi e le impostazioni generali, e che al loro interno si erano aperti capitoli nuovi che avevano assunto il carattere di vere e proprie discipline (si pensi per esempio, all'interno della fisica al costituirsi, accanto alla meccanica e all'ottica esistenti sin dall'antichità, dell'elettrologia e della termodinamica).

Tale privilegio della specializzazione doveva alimentare negli scienziati una certa diffidenza nei confronti della filosofia, che trova viceversa nell'indagine dei temi più generali la sua ottica più tipica, e ciò si riflette anche nel fatto che la filosofia che più si preoccupò di valorizzare le scienze, ossia il positivismo, marginalizzò buona parte dei problemi genuinamente filosofici. D'altro canto questa separazione tra filosofia e scienza fu incoraggiata dalle correnti idealistiche e romantiche che, pur senza essere esclusive, furono certamente predominanti nel pensiero ottocentesco.

La filosofia di Kant, ossia la parte del suo pensiero dedicata a rispondere alla domanda "che cosa possiamo conoscere?", era stata in effetti una chiarificazione delle

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<4!

condizioni e delle modalità con cui le scienze esatte (matematica e fisica matematica) realizzano la loro impresa conoscitiva. Kant si era spinto anche più in là del semplice discorso di teoria generale della conoscenza e aveva cercato di offrire nei Principi metafisici della scienza della natura (1786) un quadro in cui cercava di far discendere dalle considerazioni generali sulle possibilità della conoscenza, più dettagliate conseguenze circa i principi e le leggi fondamentali della fisica teorica. Anche l'idealismo trascendentale succeduto al criticismo kantiano, e di solito presentato come il responsabile della separazione tra scienza e filosofia e della sottovalutazione del sapere scientifico, in realtà non perseguì affatto un simile programma: pur interessandosi anche a diverse altre manifestazioni dello spirito umano oltre alla scienza, i suoi maggiori rappresentanti cercarono di inquadrare la scienza stessa fra le imprese importanti della ragione di cui la filosofia deve saper dar conto e giustificare la portata (pur superandole in quanto a fondatezza e rigore).

In realtà fu l'insuccesso concreto di simili "fondazioni" deduttive dei contenuti delle scienze naturali a partire da grandi principi metafisici che screditò le costruzioni idealistiche ed ebbe come effetto anche quello di far ritenere dannoso per le scienze ogni commercio con la filosofia e far considerare la filosofia come un complesso di ragionamenti astratti e confusi, di fronte al quale si pone l'esercizio umile, ma fecondo di apporti conoscitivi, delle singole scienze specializzate. Tuttavia un interesse di tipo fortemente teorico, che rispecchiava in qualche misura preoccupazioni filosofiche, veniva prendendo corpo all’interno delle stesse scienze. In senso lato possiamo dire che, mentre il Settecento era stato soprattutto caratterizzato dall'interesse preminente per la raccolta di dati e il conseguimento di risultati e scoperte, cui corrispondeva spesso un'elaborazione teorica piuttosto approssimativa, nell'Ottocento primeggia invece lo sforzo per la creazione di teorie unitarie e rigorose, capaci di fornire un inquadramento criticamente vagliato e logicamente solido delle conoscenze raggiunte nei vari ambiti disciplinari.

La rilevanza assunta dalla dimensione teorica nella costruzione del sapere scientifico è sufficiente a mostrare che una parte non trascurabile delle esigenze intellettuali dell'uomo trovava nelle scienze una sua soddisfazione, secondo caratteristiche di generalità e sforzi di comprensione globale e unificazione molto vicini allo stile della riflessione filosofica, fino a entrare in contatto diretto con dibattiti filosofici veri e propri, e ciò spiega perché questo mondo della scienza potesse rivelare un'indubbia vitalità culturale.

8.3 La filosofia positivistica

Il Positivismo è un movimento filosofico e culturale, caratterizzato dall'esaltazione della scienza, che nasce in Francia nella prima metà dell'Ottocento e che si impone, a livello europeo e mondiale, nella seconda parte del secolo. Il positivismo è il romanticismo della scienza. La tendenza propria del romanticismo a identificare il finito e l'infinito, a considerare il finito come la rivelazione e la realizzazione progressiva dell'infinito, è trasferita e realizzata dal positivismo nel seno della scienza. Il termine “positivo”, da cui deriva il nome di questa corrente, viene assunto, dai filosofi positivisti, in due significati fondamentali: 1) positivo è innanzitutto ciò che è reale, effettivo, sperimentale, in opposizione a ciò che è astratto, chimerico, metafisico; 2)

4<5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

positivo è anche ciò che appare fecondo, pratico, efficace, in opposizione a ciò che è inutile e ozioso.

Il Positivismo appare caratterizzato, sin dall'inizio, da una celebrazione della scienza, che si concretizza in una serie di convinzioni di fondo:

1. La scienza è l’unica conoscenza possibile e il metodo della scienza è l’unico valido; pertanto il ricorso a cause o principi che non siano accessibili al metodo della scienza non dà origine a conoscenza; e la metafisica, che fa appunto tale ricorso, è priva di valore.

2. Non avendo oggetti suoi propri, o campi privilegiati di indagine sottratti alle scienze, la filosofia tende a coincidere con la totalità del sapere positivo o, più specificamente, con l'enunciazione dei principi comuni alle varie scienze. La funzione peculiare della filosofia consiste quindi nel riunire e nel coordinare i risultati delle singole scienze, in modo da realizzare una conoscenza unificata e generalissima. In ogni caso, essa si costituisce come studio delle generalità scientifiche.

3. Il metodo della scienza, in quanto è l'unico valido, va esteso a tutti i campi, compresi quelli che riguardano l'uomo e la società.

4. Il progresso della scienza rappresenta la base del progresso umano e lo strumento per una riorganizzazione globale della vita in società, capace di superare la crisi del mondo moderno o di accelerarne lo sviluppo in modo sempre più rapido.

Le basi storiche e culturali di questo successo del Positivismo sono parecchie. Sul piano politico abbiamo un quadro europeo che, al di là dello scontro in Crimea (1854) e della guerra lampo tra Prussia e Francia (1870), appare sostanzialmente caratterizzato dalla pace e dall'espansione coloniale europea in Africa e in Asia. Dal punto di vista economico abbiamo un ulteriore balzo in avanti del capitalismo industriale, coincidente con una sua progressiva internazionalizzazione. In ambito sociale troviamo un profondo mutamento delle strutture e dei modi di vita delle città, che in pochi decenni sono investite da rivolgimenti più radicali di quelli conosciuti in altrettanti secoli. Nel settore scientifico abbiamo tutta una serie di importanti scoperte, mentre sul piano tecnico le applicazioni del vapore e dell'elettricità danno inizio ad un'era nuova, rappresentata soprattutto dalle ferrovie, divenute ben presto il principale simbolo della modernità e delle sue vittorie sullo spazio e sul tempo.

Il decollo del sistema industriale, della scienza, della tecnica, degli scambi e dell'estensione della cultura su larga scala, determina, in questo periodo, un clima generale di fiducia entusiastica nelle forze dell'uomo e nelle potenzialità della scienza e della tecnica. Questo ottimismo, presente soprattutto nelle classi dirigenti e capitalistiche, ma anche nelle classi popolari, che possono vivere in condizioni più agiate o meno grame rispetto al passato, si traduce in un vero e proprio culto per il pensiero scientifico e tecnico. Di conseguenza, se l'Umanesimo aveva celebrato, come ideale o tipo umano, soprattutto il filologo, l'Illuminismo soprattutto il filosofo, il Romanticismo soprattutto il poeta, il Positivismo esalta soprattutto lo scienziato.

Complessivamente riguardato, il Positivismo della seconda metà dell’Ottocento appare quindi come la filosofia della moderna società industriale e tecnico-scientifica, e non per nulla esso si sviluppa principalmente in quelle nazioni (come l'Inghilterra, la Francia e la Germania) che appaiono all'avanguardia del progresso industriale e tecnico-scientifico, mentre impiega tempo ad affermarsi nei paesi (come ad esempio

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<6!

l'Italia) in ritardo rispetto ad esso. Dall'altro lato, il Positivismo della seconda metà dell'Ottocento appare anche come l'ideologia tipica della borghesia liberale dell'Occidente.

Auguste Comte (1798-1857), padre del positivismo ottocentesco, fin dal principio si è rivolto alla scienza, non per quelle che sono le sue caratteristiche e finalità, ma perché vedeva nella scienza la rigenerazione totale dell’uomo e la realizzazione di tutto ciò che di più alto e perfetto possa esserci; vedeva, cioè, nella scienza, l’infinito racchiuso e rivelato. Comte ha enunciato uno schema secondo il quale, a suo giudizio, si articola la storia di un settore di conoscenza che pervenga a piena maturità.

Si inizia con uno "stadio teologico" in cui i fenomeni sono spiegati come effetto di cause soprannaturali, si passa a uno "stadio metafisico" in cui i fenomeni vengono compresi e spiegati in base a principi universali e astratti e si culmina con lo "stadio positivo" (ossia quello scientifico) nel quale lo spirito umano, riconoscendo l'impossibilità di raggiungere nozioni assolute, rinuncia a cercare l'origine e il destino dell'universo e a conoscere le cause intime dei fenomeni e si applica unicamente a scoprire, mediante l'uso ben combinato del ragionamento e della scrupolosa registrazione dei dati empirici, le loro leggi effettive, cioè le loro relazioni invariabili di successione e di somiglianza.

L'esempio più ammirabile della spiegazione positivistica è quello della legge di gravitazione universale di Newton. Tutti i fenomeni generali dell'universo sono spiegati, per quanto possono esserlo, dalla legge della gravitazione newtoniana giacché questa legge permette di considerare tutta l'immensa varietà dei fatti astronomici come un solo e medesimo fatto guardato da punti di vista diversi e consente di unificare con esso i fenomeni fisici.

Ora, sebbene varie branche della conoscenza umana siano entrate nella fase positiva, la totalità della cultura intellettuale umana, e quindi dell'organizzazione sociale che su di essa si fonda, non sono state ancora permeate dallo spirito positivo. In primo luogo, Comte nota che accanto alla fisica celeste, alla fisica terrestre, meccanica e chimica, e alla fisica organica, vegetale e animale manca una fisica sociale cioè lo studio positivo dei fenomeni sociali. In secondo luogo, la mancata penetrazione dello spirito positivo nella totalità della cultura intellettuale produce uno stato di anarchia intellettuale e quindi la crisi politica e morale della società contemporanea. È evidente che se una delle tre filosofie possibili, la teologica, la metafisica o la positiva, ottenesse in realtà una preponderanza universale completa, ci sarebbe un ordine sociale determinato. Ma poiché invece le tre filosofie opposte continuano a coesistere, ne risulta una situazione incompatibile con una effettiva organizzazione sociale. Comte si propone perciò il compito di portare a termine l'opera iniziata da Bacone, Cartesio e Galilei e di costituire il sistema delle idee generali che deve definitivamente prevalere nella specie umana, ponendo termine così alla crisi rivoluzionaria che tormenta i popoli civilizzati. Tale sistema di idee generali o filosofia positiva presuppone però che sia determinato il compito particolare di ciascuna scienza e l'ordine complessivo di tutte le scienze: presuppone una enciclopedia delle scienze che muovendo da una classificazione sistematica fornisca il prospetto generale di tutte le conoscenze scientifiche. L'enciclopedia delle scienze sarà dunque costituita da cinque scienze fondamentali: astronomia, fisica, chimica, biologia e sociologia. La successione di queste scienze è determinata da: “una subordinazione necessaria e invariabile, fondata, indipendentemente da ogni opinione ipotetica, sulla semplice comparazione

4<7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

approfondita dei fenomeni corrispondenti”. Della gerarchia delle scienze non fa parte, come si vede, la matematica, in quanto, per la sua importanza fondamentale, è la base di tutte le altre scienze.

La dottrina della scienza è la parte dell'opera di Comte che ha avuto più vasta e duratura risonanza nella filosofia e maggiore efficacia sullo sviluppo stesso della scienza. Come già Bacone e Cartesio (ai quali dichiara di collegarsi), Comte concepisce la scienza come essenzialmente diretta a stabilire il dominio dell'uomo sulla natura. Non che la scienza sia essa stessa di natura pratica o abbia esplicitamente di mira l'azione. Comte al contrario afferma energicamente il carattere speculativo delle conoscenze scientifiche e le distingue nettamente da quelle tecnico-pratiche, limitando ad esse soltanto il compito di una enciclopedia delle scienze. Tuttavia, considerato nel suo insieme, lo studio della natura è destinato a fornire: “la vera base razionale dell'azione dell'uomo sulla natura”; giacché “solo la conoscenza delle leggi dei fenomeni, il cui risultato costante è di farceli prevedere, può evidentemente condurci nella vita attiva a modificarli a nostro vantaggio”. Lo scopo dell'indagine scientifica è la formulazione delle leggi perché la legge permette la previsione; e la previsione dirige e guida l'azione dell'uomo sulla natura. La ricerca della legge diventa così il termine ultimo e costante dell'indagine scientifica.

La dottrina di Comte non è per nulla un empirismo. La legge, implicando il determinismo rigoroso dei fenomeni naturali e la loro possibile subordinazione all'uomo, tende a delineare l'armonia fondamentale della natura. Tra i due elementi che costituiscono la scienza, il fatto osservato od osservabile è la legge, è la legge che prevale sul fatto. Ogni scienza, dice Comte, consiste nella coordinazione dei fatti; e se le diverse osservazioni fossero del tutto isolate, non ci sarebbe scienza: “Si può anche dire generalmente che la scienza è essenzialmente destinata a dispensare, sino al punto in cui i diversi fenomeni lo comportano, da ogni osservazione diretta, permettendo di dedurre dal più piccolo numero possibile di dati immediati il più grande numero possibile di risultati”. Lo spirito positivo tende a dare alla razionalità un posto sempre crescente a spese dell'empiricità dei fatti osservati. Dice Comte: “Noi abbiamo riconosciuto che la vera scienza, apprezzata secondo quella previsione razionale che caratterizza la sua principale superiorità nei confronti della pura erudizione, consiste essenzialmente di leggi e non già di fatti, sebbene questi siano indispensabili al loro stabilirsi e alla loro sanzione”. E aggiunge: “Lo spirito positivo, senza misconoscere mai la preponderanza necessaria della realtà direttamente constatata, tende sempre ad aumentare il più possibile il dominio razionale a spese del dominio sperimentale, sostituendo sempre più la previsione dei fenomeni alla loro esplorazione immediata”.

A questa tendenza logica della scienza si collega, secondo Comte, il suo essenziale relativismo. Le nostre conoscenze reali sono relative da una parte all'ambiente, in quanto agisce su di noi, dall'altra parte all'organismo in quanto è sensibile a questa azione. Tutte le speculazioni umane sono perciò profondamente influenzate dalla costituzione esterna del mondo che regola il modo d'azione delle cose e dalla costituzione interna dell'organismo che determina il risultato personale; ed è impossibile stabilire in ogni caso l'apprezzamento esatto dell'influenza propria di ciascuno di questi due elementi inseparabili del nostro pensiero. In virtù di questo relativismo, si deve ammettere l'evoluzione intellettuale dell'umanità e si deve ammettere anche che tale evoluzione è soggetta alla trasformazione graduale dell'organismo. In tal modo rimane esclusa definitivamente l'immutabilità delle categorie intellettuali dell'uomo; e Comte dichiara che da questo punto di vista le teorie

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<8!

successive sono: “approssimazioni crescenti di una realtà che non potrebbe mai essere rigorosamente apprezzata, la migliore teoria essendo sempre a ogni epoca quella che rappresenta meglio l'insieme delle osservazioni corrispondenti”.

Sono, queste, le idee che hanno assicurato per lungo tempo il successo della dottrina della scienza di Comte. Ma queste idee sono anche il fondamento di un insieme di limitazioni arbitrarie e dogmatiche che Comte avrebbe voluto imporre alla ricerca scientifica. Già nel Corso di filosofia positiva (1830-1842) circola una continua polemica contro la specializzazione scientifica, polemica che vorrebbe immobilizzare la scienza sulle sue posizioni più generali ed astratte, e sottrarre queste posizioni ad ogni ulteriore dubbio ed indagine. Comte condanna tutti i lavori sperimentali che gli sembrano produrre una “vera anarchia scientifica”, condanna pure l'uso eccessivo del calcolo matematico; e vorrebbe determinare per ogni genere di osservazione: “il grado conveniente di precisione abituale, al di là del quale l'esplorazione scientifica degenera inevitabilmente, per un'analisi troppo minuziosa, in una curiosità sempre vana e qualche volta anche gravemente perturbatrice”. Fa parte dello spirito della sana filosofia riconoscere che: “le leggi naturali, vero oggetto delle nostre ricerche, non potrebbero rimanere rigorosamente compatibili, in nessun caso, con una investigazione troppo dettagliata”; e perciò nessuna sana teoria può oltrepassare con successo “l'esattezza reclamata dai nostri bisogni pratici”. E così, mentre afferma il carattere speculativo e disinteressato della ricerca scientifica, Comte vorrebbe imporre a tale ricerca i limiti propri dei bisogni pratici riconosciuti. In altri termini, la ricerca scientifica deve venire incontro ai bisogni intellettuali dell'uomo; e tutto ciò che sembra esorbitare da tali bisogni cade fuori di essa. Qui Comte ritiene evidentemente i bisogni intellettuali dell'uomo fissati e determinati una volta per tutte e pretende così di imporli come guida alla scienza; la quale, in realtà, ha essa stessa il compito di definirli e di farli emergere dai suoi problemi. Comte fa valere con estrema energia il principio che condanna qualsiasi ricerca scientifica la cui utilità per l'uomo non risulti evidente. Così l'astronomia è ridotta allo studio della terra: “In luogo del vago studio del cielo, essa deve proporsi la conoscenza della terra, non considerando gli altri astri che secondo i loro rapporti reali con il pianeta umano”.

Le branche della fisica sono dichiarate irriducibili perché corrispondono alla divisione dei sensi umani. Sono condannati come inutili gli studi che concernono: “le pretese interferenze ottiche o gli incroci analoghi in acustica”. Si accusa di spirito metafisico Lavoisier e si condannano “i lavori dispersivi della chimica attuale”. Insomma, “l'usurpazione della fisica da parte dei geometri, della chimica da parte dei fisici, e della biologia da parte dei chimici, sono semplici prolungamenti successivi di un regime vizioso” che dimentica il principio fondamentale dell'enciclopedia scientifica e cioè che “ogni scienza inferiore non dev'essere coltivata se non in quanto lo spirito umano ne ha bisogno per elevarsi solidamente alla scienza seguente, fino a giungere allo studio sistematico della Umanità, sol sua stazione finale”. Bisogna quindi sottrarre la scienza agli scienziati e affidarla invece a veri filosofi “degnamente votati al sacerdozio dell'Umanità”.

E’ pressoché inutile fermarsi a osservare che lo sviluppo ulteriore della scienza ha smentito in pieno la convenienza e l'opportunità di queste prescrizioni e proscrizioni di Comte, che avrebbero immobilizzato la scienza stessa e le avrebbero impedito di compiere quella stessa funzione utile all'umanità, cui Comte la chiamava. Speculazioni astronomiche, branche di calcolo astrattissime, ricerche fisiche apparentemente prive d'ogni possibile riferimento alla pratica e coltivate in un primo tempo a titolo

4<9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

puramente speculativo, si sono poi rivelate suscettibili di applicazioni utilissime, ed indispensabili alla stessa tecnica produttiva. Le limitazioni e i pregiudizi di Comte avrebbero in realtà troncato alla scienza ogni possibilità di sviluppo teoretico e pratico.

8.4 Indagine sui fondamenti nella scienza ottocentesca

Come abbiamo già sottolineato, nell'Ottocento viene a istituirsi un complesso rapporto tra la filosofia e le nuove scienze esatte, ossia l'esigenza filosofica tende a trasferirsi, per così dire, dall'esterno all'interno delle scienze, sostanzialmente secondo tre aspetti: attraverso lo sforzo di tener viva l'esigenza della generalità accanto alla crescente specializzazione di tutte le discipline scientifiche; mediante un impegno notevole posto nello sviluppo dell'aspetto teorico delle scienze accanto al loro netto impianto empirico e sperimentale; attraverso un impegno di riflessione critica quasi senza precedenti a proposito di quelli che poi vennero chiamati i fondamenti logici e concettuali delle scienze esatte.

Sin dagli inizi dell'Ottocento, venne manifestandosi quella che potremmo chiamare una preoccupazione di ricostruire le basi di parecchie discipline, in particolare della fisica e della matematica, di rigorizzare concetti, procedimenti e dimostrazioni. Non si trattò certamente di un puro lavoro di riassetto e consolidamento del già noto: infatti, mano a mano che le precisazioni e le rigorizzazioni critiche avvenivano, sgorgavano come loro conseguenze teoremi nuovi, nuove costruzioni, addirittura nuove discipline. Questa esigenza corrisponde a quello spirito di sistematicità e rigore che ha sempre caratterizzato l'ideale occidentale della scientificità, e che potremmo esprimere anche come aspirazione a "trovare l'unità del molteplice", non di rado confusa tuttavia con la "riduzione del molteplice all'uno". Abbiamo inoltre già avuto occasione di sottolineare come la costruzione della meccanica come prima scienza naturale moderna avesse predisposto le menti a concepire la meccanica come chiave di lettura scientifica di tutti i fenomeni naturali, preparando in tal modo il sorgere di un nuovo meccanicismo che prese corpo specialmente nell'Ottocento. Diciamo nuovo perchè già nel Seicento si era diffuso un meccanicismo filosofico, consistente in sostanza nella rinascita dell’antico atomismo democriteo, e questo aveva anzi costituito la metafisica di sfondo accettata dalla nuova scienza fisica galileiana e newtoniana. Il meccanicismo ottocentesco è in parte diverso, poiché non si limita all'accettazione di un quadro metafisico tutto sommato molto generale e generico, ma assume una ben precisa scienza, ossia la meccanica, come chiave di lettura di tutta la realtà fisica, il che significa, in sostanza, che ogni fenomeno naturale si presupponeva fosse spiegabile utilizzando concetti, leggi e principi della meccanica, ricorrendo se necessario a complesse modellizzazioni e calcoli matematici.

Questo programma sembrava ben avviato, perché alcune branche tradizionali della fisica, come l'acustica, l'ottica e la teoria del calore (i cui oggetti di studio erano in sostanza costituti da fenomeni sensibili diversi) erano state inglobate nella meccanica, rispettivamente nei capitoli della teoria delle vibrazioni, della propagazione di corpuscoli nel vuoto, oppure di onde in un mezzo elastico (l'etere luminifero), o come effetti cumulativi di moti caotici di molecole in agitazione all'interno dei corpi. Come espressione della fiducia che a simile riduzione dovesse venire perseguita per ogni fenomeno naturale basteranno due citazioni molto autorevoli. Afferma Helmoltz: “Il

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<:!

compito delle scienze fisiche si determina pertanto, in ultima istanza, come quello di ricondurre i fenomeni naturali a forze immutabili, attrattive o repulsive, la cui intensità dipende dalla distanza. La possibilità che questo compito sia assolto costituisce, nello stesso tempo, la condizione della completa intelligibilità della natura”. Gli fa eco ancora una quarantina d'anni dopo, Kelvin: “Io non mi sento soddisfatto se prima non sono riuscito a costruirmi un modello meccanico dell'oggetto che studio; se mi posso fabbricare un tale modello, comprendo, se non posso farlo, non comprendo”.

La frase di Helmholtz si legge nella fondamentale memoria Sulla conservazione della forza uscita nel 1847, anno in cui vari autori espressero, in forme diverse ma sostanzialmente equivalenti, il principio di conservazione dell'energia e questa sembrava ormai costituire la moneta comune mediante cui avvengono tutti gli scambi di fenomeni in natura e d'altro canto la dimostrazione dell'equivalente meccanico della caloria ottenuta Joule poco dopo (1850) mostrava che si poteva assumere una grandezza meccanica (il lavoro) come misura per esprimere l'energia. Quanto a Kelvin, la frase citata si legge nelle Lezioni sulla dinamica molecolare e sulla teoria ondulatoria della luce (1884), un'opera in cui il grande fisico si rifiuta di aderire alla teoria elettromagnetica della luce fondata da Maxwell, per il fatto di non riuscire a ottenerne un modello meccanico. Del resto lo stesso Maxwell, alla fine del suo Trattato di elettricità e magnetismo (1873) esprimeva ancora la tesi che il mezzo dentro cui si propagano le onde elettromagnetiche doveva possedere proprietà meccaniche e considerava un compito delle generazioni future quello di scoprirne la struttura meccanica. Ma né Kelvin, né altri valentissimi fisici matematici che si cimentarono nello sforzo di presentare una teoria fisicamente sostenibile di un tale etere elettromagnetico riuscirono a costruirla.

Il meccanicismo, per un certo periodo, fu la filosofia della natura imperante e anche dopo il suo tramonto il suo stile intellettuale si è conservato sotto forma di fisicalismo, ossia come concezione secondo cui tutti i fenomeni naturali sono riducibili a fatti fisici, nel senso che concetti, leggi e principi della fisica sono sufficienti per spiegarli completamente.

8.5 La teoria ondulatoria

Il maggior titolo di merito di Thomas Young (1773-1829) è il suo sostegno alla teoria ondulatoria della luce. Già nel 1800 egli aveva pubblicato una memoria sul suono e la luce, nella quale, come già aveva fatto Eulero, metteva in evidenza le analogie tra i due ordini di fenomeni: fu questo il punto di partenza della sua teoria delle interferenze. Al suo spirito non conformista la teoria corpuscolare di Newton appariva molto insoddisfacente. Specialmente gli sembrava inconcepibile la costanza della velocità delle particelle luminose, sia che fossero scagliate da piccole sorgenti, come una candela, sia che emanassero da sorgenti enormi come il Sole. E soprattutto gli sembrava profondamente oscura e insufficiente la teoria newtoniana degli accessi, con la quale Newton aveva tentato d'interpretare la colorazione delle lamine sottili. Ripetuto questo fenomeno e meditato a lungo su di esso, Young ebbe il lampo di genio di tentarne la spiegazione come effetto della sovrapposizione della luce riflessa dalla prima faccia della lamina sottile guardata per riflessione e della luce che, penetrata nella lamina, si riflette sulla seconda faccia ed emerge poi dalla prima: codesta sovrapposizione poteva portare all'estinzione o a un rinforzo della luce monocromatica impiegata.

4;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Affinché si abbia l'interferenza occorre che i due raggi di luce arrivino allo stesso punto dalla stessa sorgente (in modo che abbiano esattamente sempre lo stesso periodo), in direzioni pressapoco parallele, dopo aver percorso cammini diversi. Sicché, continua Young, quando le due parti della stessa luce arrivano all'occhio per vie diverse, praticamente nella stessa direzione, la luce diventa intensa al massimo quando la differenza dei cammini è multipla di una certa lunghezza e intensa al minimo nello stato intermedio; questa certa lunghezza è differente per luci di differenti colori:

INTERFERENZA COSTRUTTIVA

In un punto si ha interferenza costruttiva, e quindi una frangia chiara, se la differenza fra le distanze percorse dai due raggi è uguale a un numero intero m di lunghezze d'onda:

INTERFERENZA DISTRUTTIVA

In un punto si ha interferenza distruttiva, e quindi una frangia scura, se la differenza fra le distanze percorse dai due raggi è uguale a un multiplo dispari di λ/2:

Nel 1802 Young confortò il principio con la classica esperienza della doppia

fenditura. L'esperienza è ben nota: in uno schermo opaco si praticano, con una punta di spillo, due forellini vicini e si illuminano con la luce solare passata attraverso un piccolo foro della finestra; i due coni luminosi dietro lo schermo opaco, dilatati dalla diffrazione, in parte si sovrappongono e nella parte comune si formano, in luogo di un aumento uniforme di intensità luminosa, una serie di frange alternativamente scure e brillanti. Se si chiude un forellino dello schermo scompaiono le frange e appaiono soltanto gli anelli di diffrazione dell'altro forellino; le frange scompaiono pure se i due forellini s'illuminano direttamente con la luce del Sole o d'una fiamma artificiale. Adottando la teoria ondulatoria, Young interpreta il fenomeno in modo semplice: le frange scure compaiono dove il ventre di un onda passata da un forellino si sovrappone alla cresta di un’onda passata dall'altro forellino, in modo che i loro effetti si elidano; una frangia luminosa invece si ottiene dove si sovrappongono le creste alle creste e i ventri ai ventri di due onde passate attraverso i due forellini. L’esperimento consentiva a Young di misurare anche la lunghezza d'onda per i vari colori, ottenendo circa 0,7 micron per la luce rossa e 0,42 micron per l’estremo violetto. Sono queste le prime misure di lunghezza d'onda della luce che la storia della fisica ricordi, e per essere le prime sono di una sorprendente precisione.

I lavori di Young, pur rappresentando il più importante progresso portato alle teorie ottiche dall'epoca di Newton, furono accolte dai fisici del tempo con diffidenza,

x m∆ = λ

( )x 2m 12

λ∆ = −

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;;!

dovuta in parte all'abuso fatto da Young del principio d'interferenza applicato anche a fenomeni certo non interferenziali, in parte a una certa oscurità di esposizione che si nota oggi e che doveva essere più evidente allora per concetti affatto nuovi, in parte, come gli rimproverò Laplace, dall'essersi Young accontentato di dimostrazioni matematiche alquanto disinvolte e talvolta superficiali, certamente frutto della scarsa educazione matematica ricevuta in gioventù.

Huygens aveva scoperto, dichiarando di non saperlo interpretare, il seguente fenomeno: la luce passata attraverso lo spato d'Islanda assume un carattere speciale, per cui se incontra un secondo spato con la sezione parallela al primo non si birifrange, ma semplicemente si rifrange; se poi il secondo spato si ruota opportunamente si verifica nuovamente la birifrangenza, ma l'intensità dei due raggi rifratti dipende dall'angolo di rotazione. Nei primi anni del XIX secolo riprese lo studio del fenomeno Etienne-Louis Malus (1775-1812), sostenitore della teoria corpuscolare, il quale scoprì che si trattava del fenomeno della polarizzazione (un'onda è polarizzata linearmente se la vibrazione avviene costantemente su uno dei piani passanti per la direzione di propagazione), provocato dalla bilateralità del raggio. Young ne venne turbato e scoraggiato, anche perché l’opinione scientifica del tempo si opponeva decisamente alla teoria ondulatoria, e scrisse a Malus: “I vostri esperimenti dimostrano l’insufficienza di una teoria (quella delle interferenze) che io avevo adottato, ma non provano la sua falsità”.

Jean-Francois-Dominique Arago (1786-1853) provò che è polarizzata la luce della Luna, delle comete, dell'arcobaleno, onde si ha nuova conferma che queste luci sono luci solari riflesse; polarizzata è anche la luce emessa obliquamente da solidi e liquidi incandescenti, onde si prova che essa proviene da uno strato interno del corpo ed è stata rifratta uscendo nell'aria. Ma la più importante e più nota scoperta di Arago è la polarizzazione cromatica: facendo attraversare da luce polarizzata una lamina di cristallo di roccia di 6 mm di spessore e osservandone la luce emergente attraverso uno spato, egli otteneva due immagini colorate coi colori complementari: per esempio, se un'immagine prima era rossa, per un determinato senso di rotazione dello spato, essa passa all'aranciato, al giallo, al verde ecc. Jean-Baptiste Biot (1774-1862) riprese queste esperienze e dimostrò che, per ottenere un certo colore, la rotazione dello spato è proporzionale allo spessore della lamina. Nel 1815 scoprì, inoltre, il fenomeno di polarizzazione rotatoria e l’esistenza di sostanze destrogire e levogire.

In conclusione, i fenomeni fondamentali di polarizzazione della luce vasto erano stati scoperti dai fisici francesi nel settennio 1808-15. E siccome la scoperta di tali suggestivi fenomeni era avvenuta sotto il segno della teoria emissionistica, parve che questa ne ricevesse nuovo lustro.

Ma il sussulto di vitalità della teoria corpuscolare ebbe breve durata, grazie all’opera di Augustin Fresnel (1788-1827) che rianimò l’interesse per Young. Fresnel conobbe da Arago l'esperienza dei due fori di Young, che gli sembrava del tutto idonea a dimostrare la natura ondulatoria della luce. Idonea ma non per tutti. I newtoniani, infatti, attribuivano il fenomeno all'azione dei bordi dei fori. Per convincere gli ostinati, bisognava ideare un'esperienza nella quale fosse eliminata ogni possibile attrazione della materia sui raggi di luce. Fresnel vi riuscì e comunicò nel 1816 la ben nota esperienza dei due specchi e successivamente, nel 1819, del biprisma.

Messo il principio d'interferenza al riparo da ogni attacco, la teoria ondulatoria disponeva di tre principi: il principio delle onde elementari, il principio dell'inviluppo,

4;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

il principio d'interferenza. Erano tre principi staccati, che Fresnel genialmente fuse nel nuovo concetto d'inviluppo da lui elaborato. Per Fresnel l'inviluppo di onde non è un semplice inviluppo geometrico, come per Huygens. In un punto qualunque dell'onda l'effetto totale è la somma algebrica degli impulsi che vi producono tutte le onde elementari; la somma di tutti questi impulsi, che si sovrappongono secondo il principio dell'interferenza, può anche essere nulla. Così era superata la secolare difficoltà che aveva sempre impedito l'affermazione della teoria ondulatoria: la conciliazione tra la propagazione rettilinea della luce e il suo meccanismo ondulatorio. Ogni punto esterno a un'onda riceve luce da una piccolissima regione dell'onda attorno al punto a esso più vicino e tutto avviene dunque come se la luce si propagasse in linea retta dalla sorgente al punto illuminato. È vero che le onde dovrebbero aggirare gli ostacoli, ma l'affermazione non va presa grossolanamente in senso qualitativo, perché l'inflessione dietro gli ostacoli è funzione della lunghezza d'onda; nota la lunghezza d'onda si può calcolare come e quanto la luce s'inflette dietro gli ostacoli. Presi in esame i fenomeni di diffrazione, Fresnel calcola le inflessioni che debbono avvenire e i risultati dei suoi calcoli corrispondono in modo ammirevole ai risultati sperimentali. Le prime memorie di Fresnel sulla diffrazione, per il loro scarso rigore matematico, furono male accolte da Laplace, da Poisson, da Biot, fini analisti che del rigore matematico avevano un culto.

Stabilita la teoria della diffrazione, Fresnel passò allo studio dei fenomeni di polarizzazione. La teoria corpuscolare, nel tentare d'interpretare i numerosi fenomeni scoperti nel primo quindicennio del secolo, costretta a introdurre ipotesi su ipotesi, affatto gratuite, talvolta contraddittorie, era divenuta incredibilmente complicata. In collaborazione con Arago continuò le ricerche sperimentali sull'eventuale interferenza della luce polarizzata. I due scienziati stabilirono sperimentalmente che due raggi di luce polarizzati in piani paralleli interferiscono sempre e polarizzati in piani perpendicolari non interferiscono mai (nel senso che non si estinguono). Come spiegare questo fatto? Come spiegare tutti gli altri fenomeni di polarizzazione che non avevano nulla di analogo nei fenomeni acustici? Fresnel, non riuscendo a trovare altra via d'uscita all'interpretazione dei fenomeni di polarizzazione, si decise ad adottare la teoria della trasversalità delle vibrazioni.

Che l'ipotesi potesse servire alla spiegazione delle principali proprietà della luce, polarizzata o non polarizzata, fu ampiamente dimostrato da Fresnel; ma che essa non avesse nulla di fisicamente impossibile, era un altro discorso. La trasversalità delle vibrazioni portava di conseguenza che l'etere, pur essendo un fluido sottilissimo e imponderabile, doveva anche essere un solido rigidissimo, più rigido dell'acciaio, perché solamente i solidi trasmettono vibrazioni trasversali. L'ipotesi si presentava veramente ardita, quasi aberrante. Arago, fisico non certo irretito da pregiudizi, non se la sentì di condividere la responsabilità di questa strana ipotesi e rifiutò la sua firma alla memoria presentata da Fresnel. Dal 1821 Fresnel continuò quindi da solo il suo cammino, e fu un cammino di successi. L'ipotesi delle vibrazioni trasversali gli consentì di costruire il suo modello meccanico di luce. Ne è supporto l'etere che pervade tutto l'universo e compenetra i corpi, subendo da parte dei corpi modificazioni nelle sue caratteristiche meccaniche. Per effetto di queste modificazioni, quando un'onda elastica si propaga dall'etere puro all'etere commisto di materia, sulla superficie di separazione una parte dell'onda torna indietro e l'altra parte penetra nella materia: era così spiegato meccanicamente il fenomeno di riflessione parziale, rimasto per secoli un mistero per i fisici, e Fresnel dava le formule che portano il suo nome, rimaste sino a oggi immutate.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;4!

La velocità di propagazione della vibrazione che attraversa la materia dipende dalla lunghezza d'onda e, a parità di lunghezza d'onda, è minore nei mezzi più rifrangenti: ciò porta come conseguenza la rifrazione e la dispersione della luce. In questa teoria tutti i complicati fenomeni di polarizzazione sono interpretati in modo ammirevolmente coerente con i risultati sperimentali e appaiono come casi particolari delle leggi generali di composizione e scomposizione delle velocità. Lo studio della doppia rifrazione implicava la ricerca delle forze che in un mezzo elastico sviluppano i piccoli moti molecolari. Questo studio portò Fresnel a enunciare alcuni teoremi che contribuirono allo sviluppo di un nuovo ramo della fisica, la teoria generale dell'elasticità.

Fresnel affrontava i problemi e li risolveva affidandosi più alla sua potente intuizione che al calcolo matematico, per cui più volte sbagliò e spesso accennò appena alle soluzioni. Ma le sue idee, pur tra le opposizioni dei vecchi fisici, conquistarono rapidamente i giovani scienziati, ammirati dalla facile intuibilità e dalla semplicità del modello teorico, che ordinarono e rettificarono la teoria e ne svilupparono le conseguenze.

Nei primi anni della carriera di William R. Hamilton (1805-1865) la teoria ondulatoria non era unanimemente accettata, ed in presenza di questo atteggiamento dei maggiori scienziati del tempo, Hamilton si propose di costruire una teoria formale dei fenomeni ottici conosciuti, che fosse suscettibile tanto di un’interpretazione ondulatoria quanto di una interpretazione corpuscolare nel senso del principio di minima azione. Il suo scopo dichiarato era di fornire una teoria formale dell'ottica che avesse la stessa potenza, bellezza e armonia possedute dalla meccanica di Lagrange. Secondo Hamilton noi possiamo considerare le leggi di propagazione dei raggi luminosi in se stesse, indipendentemente dalle teorie che le interpretano e pervenire così a un'ottica matematica. Anzi, avviatosi su questa via, egli ne dedusse una dottrina di filosofia scientifica. Hamilton distingue nell'evoluzione delle scienze due momenti: nel primo lo scienziato si eleva dai fatti singoli alle leggi per induzione e analisi; nel secondo discende dalle leggi alle conseguenze per deduzione e sintesi. Insomma, secondo Hamilton, l'uomo raccoglie e raggruppa le apparenze finché l'immaginazione scientifica ne scopre le intime leggi, facendo sorgere l'unità dalla varietà; successivamente dall'unità l'uomo riottiene la varietà, costringendo le leggi scoperte a dare le rivelazioni del futuro. Questo il metodo di lavoro di Hamilton. Giunge così alla formulazione del principio che porta il suo nome, secondo il quale una certa grandezza ottica, matematicamente definita, è stazionaria nella propagazione della luce. Per questa via si perviene a razionalizzare ottica geometrica in una teoria formale che interpreta i fatti sperimentali senza costringere a scegliere tra l'ipotesi corpuscolare e l'ipotesi ondulatoria della luce. Hamilton estese, poi, la sua teoria ottica alla dinamica e la sviluppò sistematicamente, facendo dipendere la soluzione del problema generale della dinamica da due equazioni simultanee alle derivate parziali. C'è nell'opera di Hamilton una sintesi ammirevole tra problemi ottici e problemi dinamici, ed è interessante osservare a questo proposito come i più potenti strumenti matematici della meccanica quantistica siano stati forniti dalla meccanica analitica, formatasi nel quadro della fisica classica.

Ma fu Carl G. Jacobi (1804-1851) che, con i suoi celebri lavori, dette la più ampia applicazione della teoria di Hamilton, nello stesso tempo semplificandola e

4;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

generalizzandola in una forma divenuta classica: per questo motivo la teoria è spesso indicata come teoria di Hamilton-Jacobi.

Come abbiamo più volte accennato, la teoria corpuscolare richiede una maggiore velocità della luce nei mezzi più rifrangenti, mentre la teoria ondulatoria ne richiede una minore. Parve ad Arago, avversario della teoria corpuscolare ma non completamente convinto fautore di quella ondulatoria, che la misura della velocità della luce nei mezzi materiali fosse il modo migliore, l'experimentum crucis, per discriminare le due teorie. Arago aveva così dato un particolare spicco all'idea di un'esperienza cruciale per la definitiva affermazione della teoria ondulatoria, onde la misura della velocità con mezzi terrestri acquistò urgenza e importanza agli occhi dei giovani fisici. Il primo che riuscì a eseguirla fu Louis Fizeau (1819-1896) nel 1849, con un esperimento concettualmente identico a quello di Galileo. Fizeau ottenne per la velocità della luce il valore di 313.274.304 m/s. Il dispositivo di Fizeau non consentiva, però, misure di velocità nei vari mezzi.

Vi arrivò Lèon Foucault (1819-1868) nel 1850 con un dispositivo che traduce il seguente concetto: il tempo impiegato dalla luce nel percorso d'andata e ritorno tra due specchi, il primo dei quali in rapidissima rotazione, è misurato dalla rotazione subìta nello stesso tempo dallo specchio mobile, valutata dalla deviazione del medesimo raggio luminoso al suo ritorno sullo specchio mobile. Per misurare il numero di giri per secondo dello specchio mobile, Foucault adoperò, forse per la prima volta nelle ricerche fisiche, il metodo stroboscopico, cioè l'artificio di rallentare apparentemente un moto periodico per consentirne la comoda osservazione. Interponendo tra i due specchi, distanti tra loro qualche metro, una sostanza diversa dall'aria, si può misurare la velocità della luce in questa sostanza. Gli esperimenti di Foucault erano soltanto comparativi; egli, interponendo un tubo d'acqua tra i due specchi constatò che la velocità della luce nell'acqua è i 3/4 della velocità nell'aria. Per la velocità della luce ottenne un valore di 298.000 km/s, con un errore probabile di ± 500 km/s.

Le misure furono ripetute con successivi perfezionamenti al metodo di Foucault da Simon Newcomb (1835-1909), da Michelson e da altri. Tutte queste determinazioni, inoltre, concordano nel misurare minori velocità nei mezzi più rifrangenti. Ma queste misure hanno anche rivelato un fatto importante: l'indice di rifrazione di un mezzo non è esattamente eguale al rapporto tra le velocità della luce nel vuoto e nel mezzo in esame, come voleva la teoria di Fresnel; si osserva un costante disaccordo che supera di molto gli errori sperimentali. Il disaccordo fu interpretato nel 1881 da Lord Rayleigh il quale introdusse i concetti di velocità di fase, cioè di velocità della cresta dell'onda risultante di più onde monocromatiche sovrapposte: in un mezzo dispersivo la velocità di gruppo, che è quella direttamente misurata, non coincide con la velocità di fase.

Nel 1850 le esperienze di Fizeau e Foucault sembrarono il definitivo trionfo della teoria ondulatoria. Ma le teorie non sono mai definitive. La teoria di Fresnel avrà vita tranquilla ancora per una ventina d'anni, poi cominceranno i guai. La teoria ondulatoria era molto soddisfacente, ma lasciava i fisici alle prese con l’etere, questo “mezzo luminifero” trattabile matematicamente ma sperimentalmente non individuabile e concettualmente impossibile a raffigurarsi. L’imbarazzo venne aumentato dalla mancanza di una qualsiasi alternativa accettabile.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;6!

L'ipotesi delle vibrazioni elastiche poneva un primo problema: l'etere è fermo o si muove? In particolare, l'etere che si trova addensato in un corpo si muove col corpo? Arago, con belle esperienze, aveva dimostrato che il movimento della Terra non ha alcuna azione sensibile sulla rifrazione della luce che arriva dalle stelle. Il risultato era inconciliabile con la teoria corpuscolare, per cui chiedeva a Fresnel se esso s'inquadrava con la teoria ondulatoria. E Fresnel gli rispondeva che il risultato s'interpretava facilmente nella teoria ondulatoria, come s'interpreta il fenomeno d'aberrazione, pur d'ammettere il trascinamento parziale dell'etere: un corpo cioè che si muove non trascina con se tutto l'etere in esso contenuto, ma solamente l'eccesso di etere che esso contiene rispetto a quello che è contenuto in un volume eguale di spazio vuoto. Con questa ipotesi Fresnel riusciva a spiegare tutti i fenomeni risultanti dal movimento rapido d'un corpo rifrangente.

L'influenza del movimento dei corpi luminosi o sonori fu studiata teoricamente nel 1842 dal fisico austriaco Christian Doppler (1803-1853). Egli faceva osservare che se

una sorgente luminosa si avvicina all'osservatore, questi percepisce vibrazioni luminose di durata minore di quelle emesse dalla sorgente, cioè il colore di questa si sposta verso il violetto, mentre invece si sposta verso il rosso se la sorgente si allontana dall'osservatore. Analogamente se un corpo sonoro si muove avvicinandosi all'osservatore, questi percepisce un suono più acuto di quello emesso dalla sorgente, mentre lo percepisce più grave se la sorgente si allontana. Nel 1848 Fizeau propose di servirsi di questo fenomeno, detto effetto Doppler-

Fizeau, per la misura della velocità radiale degli astri dallo spostamento delle loro righe spettrali.

Anche l'effetto Doppler sembrava confermare le idee di Fresnel sul parziale trascinamento dell'etere, e tuttavia questa ipotesi fu combattuta da George G. Stokes (1819-1903), uno dei più illustri continuatori dell'opera di Fresnel. In un notevole lavoro del 1845 Stokes sosteneva il totale trascinamento dell'etere nell'immediata prossimità della Terra, che si mutava in parziale trascinamento gradatamente decrescente con la distanza dalla Terra. Nel 1851 Fizeau tentò di risolvere la questione facendo interferire due raggi di luce, di cui uno avesse attraversato una colonna d'acqua nel senso del moto da questa posseduto e l'altro in senso contrario. Se l'etere è trascinato nel moto, le frange d'interferenza si debbono spostare rispetto alla posizione che occupano quando l'esperimento si compie con acqua ferma: i risultati sperimentali ottenuti da Fizeau confermavano l'ipotesi di Fresnel. Ma Michelson e Morley nel 1887, con un’esperienza divenuta famosa, e che tratteremo nel capitolo sulla Relatività di Einstein, tentarono di rivelare sperimentalmente il moto della Terra rispetto all'etere supposto immobile, il cosiddetto “vento d'etere”. L’analisi dei risultati, secondo Michelson, dimostrava che l’etere si muove insieme con la Terra, ma il fenomeno di aberrazione della luce indicava che l’etere è in riposo. Le due conclusioni, in netto contrasto, posero la fisica in un grave imbarazzo, che verrà superato dal genio di Einstein con la sua teoria della relatività ristretta.

4;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

8.6 La spettroscopia Nel primo trentennio del XIX secolo le ricerche sulla polarizzazione e gli studi

sulla natura della luce fecero considerare come secondarie altre scoperte importanti collegate col fenomeno luminoso, che nello tesso tempo si venivano facendo.

Che ai raggi luminosi siano collegati effetti anche calorifici è un'ovvia osservazione, nota naturalmente fin dall'antichità. Nel 1800 Herschel fece una scoperta fondamentale. Egli voleva studiare se veramente il calore era distribuito uniformemente nello spettro solare, come da tutti si diceva, soltanto in base a una sbrigativa intuizione. Herschel spostò perciò un sensibile termometro lungo lo spettro solare e trovò che la sua temperatura non solo andava via via aumentando dal violetto al rosso, ma che era massima in una regione oltre il rosso, là dove l'occhio non discerneva nulla. Egli interpretò subito il fenomeno come dovuto a radiazioni calorifiche invisibili provenienti dal Sole, deviate dal prisma meno del rosso e poi dette perciò infrarosse; studiò allora queste radiazioni oscure su una sorgente terrestre costituita da un cilindro di ferro caldo ma non incandescente e ne dimostrò la rifrazione mediante lenti. Ma John Leslie (1766-1832), uno sperimentatore molto accurato, attribuiva il fenomeno di Herschel a correnti d'aria; le sue obiezioni non ebbero credito, né seguito. Più fortunate furono altre sue ricerche sperimentali, che dimostrarono che l'irraggiamento e l'assorbimento calorifico di un corpo dipendono dalla natura della sua superficie.

Il tedesco Johann Ritter (1776-1810) aveva fatto un'altra scoperta simmetrica a quella di Herschel e di eguale importanza. Egli, ripetendo nel 1801 gli esperimenti di Herschel, si propose di studiare gli effetti chimici delle varie radiazioni luminose. Egli s'accorse così che l'effetto delle radiazioni dello spettro andava via via aumentando dal rosso al violetto e raggiungeva il massimo dopo il violetto, in una regione dove l’occhio non percepiva luce: erano così scoperte nello spettro nuove radiazioni presenti nella luce solare, rifratte dal prisma più del violetto e dette perciò ultraviolette.

Allo studio delle radiazioni ultraviolette si ricollega la ripresa delle ricerche relative alla fluorescenza per opera di Stokes. Egli si propose di studiare il fenomeno consistente nell'azzurro brillante presentato dalla soluzione di solfato di chinina fortemente illuminata. Ben presto Stokes s’accorse che il fenomeno non s'inquadrava nella dottrina newtoniana dei colori prismatici, perché l'azzurro della chinina compariva anche quando la luce incidente non conteneva il colore azzurro. Stokes aveva scoperto il fenomeno della fluorescenza come il risultato che la luce secondaria provenisse da uno straterello superficiale del corpo investito dalla luce primaria.

Un progresso veramente fondamentale per gli studi sulle radiazioni invisibili fu compiuto da Macedonio Melloni (1798-1854), uno dei più grandi sperimentatori che abbia avuto l’Italia. Melloni si dedicò allo studio del calore raggiante servendosi di uno strumento molto più sensibile dei comuni termometri allora usati: il termomoltiplicatore. Dopo aver preso in esame i risultati ottenuti nello studio del calore raggiante dai fisici precedenti, e averne corretti alcuni, egli iniziò le ricerche personali con lo studio dell'assorbimento del calore raggiante da parte dei corpi, scoprendo che il salgemma è molto trasparente per il calore, onde esso è particolarmente adatto per la costruzione di prismi e lenti per lo studio delle radiazioni infrarosse; dimostrò la varia rifrangibilità dei raggi calorifici, che ancora si negava, e dei raggi chimici, cioè dei raggi ultravioletti; dimostrò la polarizzazione del calore raggiante; dimostrò con

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;8!

un'esperienza ingegnosa, oggi attribuita a John Tyndall (1820-1893), che l'intensità del calore raggiante varia in ragione inversa del quadrato della distanza. Fondamentale è la memoria di Melloni del 1842 in cui illustra il concetto che il calore raggiante, la luce, i raggi ultravioletti, sono radiazioni analoghe che differiscono soltanto nella lunghezza d’onda. Fu questa una delle maggiori conquiste della scienza del tempo e una forte spinta all’elaborazione di teorie unitarie, che caratterizza il progresso fisico del XIX secolo. E ancora Melloni dimostra che il fenomeno delle radiazioni infrarosse ha lo stesso andamento dell'assorbimento delle radiazioni visibili e come i corpi sono, sotto determinati spessori, diafani o opachi per la luce, così essi sono diatermani o atermani per il calore, secondo la terminologia da lui introdotta e tuttora in uso, e che l'irraggiamento calorifico non è un fenomeno soltanto superficiale, ma vi concorrono gli strati interni, di spessore variabile, del corpo raggiante. In La thermocrose ou la coloration calorifique (1850) Melloni riespose organicamente, in una forma avvincente, tutta la sua teoria del calore raggiante e i suoi classici esperimenti.

Un grande impulso allo studio della dispersione e alla costruzione di lenti acromatiche, dette Joseph von Fraunhofer (1787-1826). Per fare misure esatte della dispersione dei prismi, egli scelse come sorgente di luce una candela o una lampada a olio e trovò nello spettro una riga gialla chiara, ora conosciuta come riga del sodio, e s'accorse subito che essa era sempre nello stesso posto e quindi molto comoda per una esatta misura degli indici di rifrazione. Dopo di che, narra lo scienziato nella sua prima memoria del 1815: “Io desideravo di scoprire se una simile linea brillante si potesse vedere nello spettro della luce solare; e trovai col telescopio, invece di questa, quasi innumerevoli linee verticali forti e deboli, che però erano più oscure delle altre parti dello spettro, e alcune di esse apparivano quasi perfettamente nere”.

Fraunhofer, dopo accurate misure delle posizioni delle linee e variando in più modi le condizioni sperimentali giunse alla convinzione che “queste linee sono nella natura della luce del Sole e non sorgono da diffrazione o da illusioni dello sperimentatore”. Ne scoprì centinaia (precisamente 576) e le studiò attentamente; distinse le più forti con le lettere maiuscole e minuscole dell'alfabeto; notò la loro posizione costante nello spettro e quindi capì la loro importanza per la misura degli indici di rifrazione, costituendo punti fissi di riferimento; riconobbe che la riga D dello spettro solare è nella stessa posizione della riga gialla brillante della lampada. Il suo spettroscopio era costituito dal collimatore, dal prisma e dal cannocchiale, lo rivolse verso Venere e trovò che anche lo spettro della luce del pianeta presenta le stesse righe dello spettro solare. Negli ultimi anni di vita Fraunhofer si dedicò allo studio della diffrazione, costruendo reticoli anche con oltre 300 righe per millimetro.

I reticoli furono oggetto di studio teorico da parte di Ottaviano Fabrizio Mossotti (1791-1863), il più grande fisico matematico italiano della prima metà del secolo, il quale indicò la convenienza di usarli per una determinazione facile e precisa della lunghezza d'onda.

Gli esperimenti di Fraunhofer sugli spettri di emissione furono continuati in Inghilterra da Brewster, Herschel e William Fox Talbot (1800-1877). Quest'ultimo, già fin dal 1834, dopo numerosi esperimenti con fiamma di alcool nel quale erano stati sciolti sali diversi, concludeva: “Allorché nello spettro d'una fiamma compaiono certe righe determinate, queste righe sono caratteristiche del metallo contenuto nella fiamma”.

4;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

E l'anno successivo Charles Wheatstone (1802-1875), sperimentando sullo spettro dell'arco elettrico, credeva di poter concludere che le righe dipendessero soltanto dalla natura degli elettrodi, ma non dal gas in cui scocca la scintilla. Il fisico svedese Anders Jones Angstrom (1814-1874) dimostrò che, con un abbassamento di pressione del gas, si può eliminare l'influenza degli elettrodi e ottenere soltanto lo spettro del gas illuminato.

Il fortunato incontro tra Heinrich Geissler (I8I4-I879), un operaio costruttore d'apparecchi di fisica, e Julius Plucker (I801-I868), fisico e matematico tedesco, portò alla costruzione quasi contemporanea (1855) dei tubi di Geissler e dei tubi di Plucker, particolarmente adatti allo studio degli spettri dei gas.

Alcuni anni prima William Allen Miller (18I7-1870), continuando alcuni esperimenti iniziati da Herschel, studiava lo spettro solare dopo aver fatto passare i raggi del Sole attraverso vapori diversi (di iodio, di bromo ecc.) e osservava nello spettro righe oscure, onde nel 1845 egli concluse che le righe osservate erano d'assorbimento ed erano presentate soltanto dai vapori colorati e non dagli incolori; conclusione contraddetta da Pierre Janssen (1824-1907), astronomo francese, che trovò righe d'assorbimento anche col vapor d'acqua. Seguì una lunga discussione sull'interpretazione di queste righe e fu alla fine riconosciuto che si trattava proprio di righe d'assorbimento.

Una prima relazione tra spettri di assorbimento e spettri di emissione fu posta in evidenza nel 1849 da Foucault il quale osservava nello spettro di un arco elettrico tra elettrodi di carbone numerosissime righe chiare, tra le quali particolarmente brillante era la riga D del sodio. Ma facendo attraversare l'arco da un intenso fascio di luce solare e osservandone lo spettro, la riga D diventava oscura: egli concluse che l'arco che emette la riga D, la assorbe quando la radiazione arriva da altra sorgente. Ma i veri fondatori dell'analisi spettrale furono i tedeschi Gustav Kirchhoff (1824-1887) e Robert Bunsen (1811-1899). Ai lavori sperimentali eseguiti dai due scienziati dal 1859 al 1862 rese preziosi servizi un modesto dispositivo, il becco di Bunsen, che forniva una fiamma di alta temperatura e non luminosa che consentiva di portare allo stato di vapore sostanze chimiche, ottenendone lo spettro non mescolato con righe proprie della fiamma, che in molte occasioni avevano tratto in errore gli sperimentatori precedenti. Nel 1859 Kirchhoff e Bunsen pubblicarono la loro prima memoria sperimentale e l'anno successivo Kirchhoff trasse la conclusione, confortata anche da considerazioni termodinamiche, che ogni gas assorbe esattamente le stesse radiazioni che è capace di emettere. È il principio oggi detto d'inversione dello spettro o principio di Kirchhoff, che verrà usato per studiare il problema d'irraggiamento del corpo nero. I due scienziati ritennero inoltre sufficientemente accertato, dai propri e dagli altrui esperimenti, che ogni riga brillante degli spettri d'emissione fosse caratteristica dell'elemento che l'ha emessa. Armati di questi due principi, iniziarono l'analisi spettrale terrestre, che li condusse nel 1861 alla scoperta del rubidio e del cesio, due metalli da loro così denominati per le linee rispettivamente rosse e azzurre che ne avevano consentita la scoperta. Negli anni successivi altri scienziati scoprivano il tallio, l'indio, l'elio, e così via.

L'applicazione dell'analisi spettrale alla luce proveniente dai corpi celesti fu fatta da Kirchhoff e la sua interpretazione delle righe di Fraunhofer, rimaste sino allora un mistero, come righe di assorbimento dell'atmosfera solare segna una data memorabile

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;:!

nella storia della fisica e l'atto di nascita dell'astrofisica. Confrontando le righe di assorbimento dello spettro che proviene da un astro con le righe brillanti degli elementi noti sulla Terra, si possono dedurre gli elementi presenti nell'atmosfera dell'astro. Da questo confronto già Kirchhoff poteva affermare che nell'atmosfera solare esistono il sodio, il ferro, il magnesio, il rame, lo zinco, il boro, il nichelio. La conclusione generalissima a cui hanno condotto le innumerevoli indagini successive è che gli elementi esistenti sulla Terra sono diffusi dappertutto: insomma, l'universo è costruito in tutte le sue parti con lo stesso materiale.

Dopo un lungo lavoro Angstrom pubblicava nel 1868 un lavoro, rimasto per molti anni un libro di consultazione degli spettroscopisti, nel quale erano riferite le misure di lunghezza d'onda di quasi duecento righe dello spettro solare. L'aiuto portato agli studi dall'opera spettroscopica di Angstrom fu talmente grande che nel 1905 il suo nome fu adottato, per convenzione internazionale, per designare l'unità di lunghezza più diffusa in spettroscopia: 1 angstrom=10-10 m.

8.7 La termologia e la termometria

Gli studi sperimentali del XVIII secolo sulle dilatazioni termiche avevano prodotto una confusione d'idee, che si protrarrà fin quasi alla metà dei XIX secolo. Si diceva, per esempio, che il mercurio si dilata uniformemente, ma senza aggiungere rispetto a quale campione o a quale scala termometrica se ne riferiva la dilatazione. Bisogna, però, aggiungere che, se non si cavillava troppo, in pratica le cose andavano abbastanza bene, perché i termometri del tempo davano indicazioni sufficientemente confrontabili, tanto che Fourier, per esempio, definisce: “La temperatura di un corpo, le cui parti sono egualmente riscaldate, e che conserva ii suo calore, è quella indicata dal termometro”. Comunque, il problema di una scala termometrica indipendente dalla sostanza impiegata nel termometro sarà risolto soltanto nel 1848, da Thomson (Lord Kelvin), attraverso il secondo principio della termodinamica.

Pierre-Louis Dulong (1785-1838) e Alexis-Thérès Petit (1791-1820), notarono che in ogni termometro a mercurio si osserva la dilatazione apparente del liquido, sicché se solido e liquido non obbediscono alla stessa legge di dilatazione, le dilatazioni date dal termometro non possono assumersi come proporzionali alle dilatazioni assolute del mercurio: occorre, dunque, conoscere la dilatazione assoluta del mercurio. L'ingegnoso metodo adoperato era quello di misurare due temperature e due altezze. Le temperature erano misurate con un termometro ad aria e con un termometro a mercurio e le due altezze con uno strumento apposito, detto più tardi catetometro, e divenuto un prezioso strumento per determinare il dislivello tra due punti anche non posti sulla stessa verticale.

La conoscenza della dilatazione assoluta del mercurio consentì a Dulong e Petit lo studio sperimentale della dilatazione termica degli altri liquidi e dei solidi. Il risultato generale fu che la dilatazione del mercurio varia con la temperatura da 1/1550 per °C tra 0 °C e 100 °C a 1/5300 tra 0 °C a 300 °C e che varia pure la dilatazione degli altri solidi cimentati (vetro, ferro, rame, platino). Altre ricerche sperimentali fatte nella stessa scia aperta da Dulong e Petit dimostrarono che lo stesso andamento ha la dilatazione dei liquidi. Ma tanto nei solidi che nei liquidi si riscontrano forti anomalie in prossimità

4=<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

dei cambiamenti di stato. Da ciò la necessità di definire per ogni solido o liquido un coefficiente di dilatazione termica teoricamente per ogni temperatura e praticamente per intervalli ristretti di temperatura. Ne segue la necessità, indicata nel 1826 da Friedrich W. Bessel (1784-1846), della correzione di temperatura nella determinazione dei pesi specifici e la necessità di una tavola di correzione per le letture barometriche.

Già l'Accademia del Cimento aveva riconosciuto che l'acqua ha un massimo di densità e aveva condotto Andrè De Luc (1727-1817) a sistematiche esperienze sull'irregolarità di dilatazione dell'acqua. De Luc trovò che l'acqua raggiunge il suo massimo di densità a 41 °F (5 °C). Gli esperimenti furono continuati per tutto il secolo XIX e nel 1868 Francesco Rossetti (1833-1881) poneva il massimo di densità tra 4,04 e 4,07 °C, mentre nel 1892 Carl Scheel (1866-1936) lo poneva a 3,960 °C. La temperatura di 4 °C a cui tutti i testi di fisica fanno corrispondere il massimo di densità dell'acqua è un valore arrotondato.

Gli studi di Amontons sulla dilatazione termica dell'aria furono continuati da molti altri fisici nel corso del XVIII secolo, ma le conclusioni erano di uno scoraggiante disaccordo: alcuni ritenevano la dilatazione uniforme, altri variabile. Il coefficiente di dilatazione trovato da Volta, pari a 1/270 per grado centigrado, e pubblicato in una memoria, fu poco noto negli ambienti scientifici.

Gay-Lussac (1778-1850) certamente ignorava la memoria di Volta quando nel 1802, in una memoria rimasta classica, riprese lo studio della dilatazione termica dei gas, nella cui introduzione storica si apprende che quindici anni prima aveva condotto studi sperimentali sullo stesso argomento, senza mai pubblicare nulla, Jacques-Alexandre Charles (1746-1823), che aveva scoperto che l'ossigeno, l’azoto, l’idrogeno, l'anidride carbonica e l'aria si dilatano egualmente tra 0 °C e 100 °C. Gay-Lussac estese e completò il lavoro di Charles, giungendo a dimostrare che tutti i gas hanno eguale dilatazione totale tra 0 °C e 100 °C e, supponendola per tutti uniforme, calcolava il coefficiente per tutti i gas. Più tardi Gay-Lussac si accorse che l'uniformità di dilatazione da lui ammessa era un'affermazione gratuita, onde si adoperò per dimostrarla in una successiva serie di esperimenti. Il coefficiente 1/266,66 dato da Gay-Lussac fu considerato per trentacinque anni uno dei numeri più sicuri della fisica, prima che avvenisse una nuova determinazione.

Volta si occupò intensamente anche del comportamento dei vapori, senza tuttavia pubblicare mai una memoria organica. Volta credette di poter riassumere il comportamento dei vapori in tre leggi: le prime due (se le temperature crescono in progressione aritmetica, le tensioni del vapore crescono in progressione geometrica; le tensioni del vapore di tutti i liquidi sono eguali a eguale distanza dalla temperatura di ebollizione) furono ben presto riconosciute false; la terza dice che la pressione di un vapore è la stessa sia che esso occupi uno spazio vuoto, sia che occupi uno spazio pieno d’aria di qualsiasi densità. Volta, inoltre, condivide con lo spagnolo Augustin Bétancourt (1760-1826) il merito di aver dato un nuovo indirizzo alle ricerche sui vapori, volte a utilizzarli come potenza motrice. Alla ricordata terza legge di Volta giunse indipendentemente nel 1802 John Dalton (1766-1844), sotto il cui nome oggi la legge è conosciuta. Dalton dedusse, con considerazioni già fatte anche da Volta, che non poteva sostenersi la teoria secondo la quale l’evaporazione è un fenomeno chimico, cioè

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=;!

una combustione del vapore con l’aria. Nel 1816 Gay-Lussac estese la legge di Dalton anche alle miscele di vapore.

Il problema di ottenere artificialmente basse temperature cominciò ad avere un avvio di soluzione con le miscele frigorifere. I primi esperimenti scientifici furono compiuti da Gian Francesco Cigna (1734-1790) e provò che più l'evaporazione è rapida, più intenso è il raffreddamento. Antoine Baumé (1728-1804) scoprì che il raffreddamento è più intenso con l'evaporazione dell'etere solforico che con l'acqua. In base a queste conoscenze Fernand Carré (1824-1894) pubblicò il suo metodo di fabbricazione del ghiaccio mediante evaporazione dell'etere, in seguito sostituito con ammoniaca. Nel 1871 Karl Linde (1842-1934) descrisse la sua macchina per ghiaccio in cui il raffreddamento è ottenuto mediante espansione di un gas. Nel 1896 egli combinò la macchina col suo apparecchio a controcorrente, col quale riuscì a ottenere idrogeno liquido.

Il problema della liquefazione dei gas ha una storia secolare che comincia dalla seconda metà del XVIII secolo con la liquefazione mediante solo raffreddamento, dell'ammoniaca, dell'anidride solforosa e del cloro ottenuta nel 1805. Un progresso decisivo fu compiuto contemporaneamente e indipendentemente da Charles Cagniard de la Tour (1777-1859) e da Faraday. Il primo riuscì a determinare la temperatura critica di alcuni liquidi cimentati, ma non riuscì a stabilire la temperatura critica dell'acqua, anzi non riuscì neppure a evaporare completamente l'acqua. Risultati più concreti ottennero gli esperimenti di Faraday del 1823. Gli esperimenti di Cagniard de la Tour e di Faraday fecero capire che si poteva ottenere la liquefazione dei gas sottoponendoli ad alte pressioni.

Nel 1845 Henri-Victor Regnault (1810-1878) osservava che la compressibilità dell'anidride carbonica presentava irregolarità alle basse temperature e seguiva la legge di Boyle verso i 100 °C, onde emise l'ipotesi che per ogni gas esista un campo di temperature entro il quale essi seguono la legge di Boyle. Regnault rese più precise le misure di molte grandezze relative a gas e vapori, accumulando dati che per lungo tempo rimasero senza paragone per precisione. Il suo laboratorio parigino era un modello per quanto riguardava la tecnica delle misure di precisione della tensione dei vapori saturi, dei calori specifici, per il controllo dell'equazione di stato nel caso di gas reali che si allontanano leggermente dal comportamento previsto dalla legge di Boyle e così via. Regnault stesso divenne la massima autorità nel campo e il suo materiale sperimentale servì egregiamente per la verifica delle teorie del calore, la termodinamica e la meccanica statistica. Inoltre il gusto scientifico e lo stile sperimentale di Regnault si propagarono, ad opera dei molti visitatori e allievi del suo laboratorio, e influenzarono la formazione di una intera generazione di fisici in tutta l'Europa.

Nel 1860 l'idea di Regnault fu ripresa e modificata da Dimitrij Mendeleev (1834-1907), secondo il quale per tutti i fluidi deve esistere una temperatura assoluta di ebollizione sopra la quale essi esistono gassosi sotto qualunque pressione. Lo studio della questione fu ripreso nel 1863 in forma nuova da Thomas Andrews (1813-1885). Egli introduceva anidride carbonica in un tubo capillare e la chiudeva con una colonna di mercurio. Spingendo mediante una vite il mercurio si sottoponeva l'anidride carbonica alla pressione voluta, mentre si variava gradatamente la temperatura. Ottenuta, mediante sola pressione, la parziale liquefazione del gas, e poi via via

4==! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

riscaldando, Andrews osservava gli stessi fenomeni che trent'anni prima aveva studiato Cagniard de la Tour. Quando la temperatura dell'anidride carbonica raggiungeva i 30,92 °C scompariva la superficie di separazione tra liquido e gas, e con qualsiasi pressione non si riotteneva più la liquefazione dell'anidride carbonica. In un'importante memoria del 1869 Andrews proponeva di chiamare punto critico dell'anidride carbonica la temperatura di 30,92 °C; con la stessa tecnica egli determinò i punti critici per l'acido cloridrico, per l'ammoniaca, per l'etere solforico, per l'ossido nitroso. Propose anche di riservare il vocabolo vapore agli aeriformi a temperatura inferiore alla temperatura critica e il vocabolo gas agli aeriformi a temperatura superiore: così era posta una fondamentale distinzione per la ricerca fisica.

Una conferma a queste vedute di Andrews vennero da esperimenti in cui i gas permanenti erano stati sottoposti a una pressione di 3000 atmosfere senza ottenerne la liquefazione. Questi risultati avvalorarono l'ipotesi avanzata da Andrews secondo la quale i gas permanenti sono aeriformi a temperature critiche più basse delle temperature allora raggiunte: la loro liquefazione si sarebbe quindi potuta ottenere mediante un preventivo forte raffreddamento seguito eventualmente da compressione. L'ipotesi fu brillantemente confermata nel 1877 da Luigi Cailletet (1832-1913) e Raoul Pictet (1846-1929), che, lavorando indipendentemente, liquefecero l'ossigeno, l'idrogeno, l'azoto, l'aria, mediante un forte raffreddamento preventivo. Altri fisici continuarono i lavori di Cailletet e Pictet, ma soltanto la macchina di Linde, più sopra ricordata, rese pratico il procedimento, consentendo la produzione di grandi quantità di gas liquidi e il loro impiego, divenuto oggi divenuto comune, nella ricerca scientifica e nell'industria.

I metodi per la determinazione dei calori specifici (metodo delle mescolanze) presentavano difficoltà nella loro applicazione agli aeriformi a causa del piccolo peso specifico di gas e vapori. Perciò nel 1813 Francois Delaroche (?-1813?) e Jacques Bérard (1789-1869) proposero d'introdurre nel calorimetro un serpentino nel quale si facesse passare, a temperatura nota, il gas a pressione costante. Il merito di Delaroche e Berard è soprattutto nell'aver attirato l'attenzione sulla necessità di distinguere il calore specifico di un gas a pressione costante da quello a volume costante. Ma qualche anno prima dei lavori di Delaroche e Bérard si era cominciato a studiare sistematicamente un curioso fenomeno segnalato da Erasmus Darwin (1731-1802), nonno del più celebre Charles, e da Dalton: la compressione dell'aria produce riscaldamento e la sua espansione raffreddamento. Questo comportamento termico dell'aria faceva capire che il calore specifico a pressione costante doveva essere maggiore del calore specifico a volume costante, indipendentemente da qualunque teoria sulla natura del calore: infatti è chiaro che se un gas espandendosi si raffredda, quando lo si riscalda consentendogli di dilatarsi bisogna fornirgli tanto calore da compensare il concomitante raffreddamento d'espansione, e da riscaldarlo ulteriormente. Dalla conoscenza di questi fatti sperimentali, nel 1816 Laplace ebbe la felice idea di attribuire la discordanza notata tra la velocità sperimentale di propagazione del suono e la velocità teorica calcolata dalla legge di Newton alle variazioni di temperatura che gli strati d'aria subiscono per effetto delle alternative compressioni e rarefazioni. Partendo da queste considerazioni teoriche Laplace corresse la formula di Newton, introducendovi un termine che è il rapporto per l'aria dei calori specifici a pressione e a volume costanti: dai dati forniti da Delaroche e Bérard, Laplace deduceva in 1,5 il valore del rapporto.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=4!

Nonostante tutti i precedenti lavori e altri che li seguirono, le conoscenze sui calori specifici dei gas a volume costante erano poche e talvolta inattendibili. Un esame critico delle diverse vie seguite convinse Dulong che il metodo indiretto, suggerito da Laplace, fosse il migliore, purché le velocità del suono nei gas fossero determinate con l'accuratezza che era mancata da quando Ernst Chladni (1756-1827), considerato il padre dell’acustica sperimentale, aveva iniziato questo genere di misure. Con sagacia e molta pazienza Dulong misurò la velocità del suono in vari gas (aria, ossigeno, idrogeno, anidride carbonica, ossido di carbonio, ossido d’azoto, etilene) e dal fatto che questi rapporti (e specialmente quelli relativi all'aria, all'ossigeno, all'idrogeno, all'ossido di carbonio) fossero pressappoco eguali, Dulong concluse che i fluidi elastici (gas e vapori), in eguali condizioni di volume, pressione e temperatura, sviluppino una stessa quantità di calore allorché sono compressi o dilatati subitamente della medesima frazione di volume, e le corrispondenti variazioni di temperatura sono in ragione inversa dei loro calori specifici a volume costante. Aggiungiamo che il metodo di Dulong fu migliorato nel 1866 da August Kundt (1839-1894) con l'introduzione del tubo che porta il suo nome e che costituisce tuttora uno dei migliori metodi per la determinazione del rapporto tra il calore specifico a pressione costante e quello a volume costante.

La conducibilità calorifica, come fatto empirico, era conosciuta fin dalla più remota antichità. Ma i primi studi sperimentali si possono far risalire a Richmann, che impiegò un dispositivo sperimentale, ripreso poi da molti altri fisici, costituito da una sbarra di ferro con piccoli fori pieni di mercurio in ciascuno dei quali è immerso un termometro. Scaldando un'estremità della sbarra, si trova che le temperature lungo l'asta decrescono non linearmente. Nel 1789 impiegando questo dispositivo, Jan Ingenhousz (1730-1799) aveva dato la seguente scala di conducibilità: oro, rame, stagno, platino, ferro, piombo. Il dispositivo precedente ed altri del genere trascuravano fattori importanti, come la capacità termica e la conduzione esterna, e la critica a tali procedimenti sperimentali cominciò con Jean-Baptiste-Joseph Fourier (1768-1830), che intraprese lo studio teorico della propagazione del calore, introducendo nella trattazione concetti che orientavano per vie nuove anche la ricerca sperimentale. L'equazione fondamentale trovata da Fourier che regola la conduzione termica è l'equazione differenziale alle derivate parziali, detta anche equazione del calore o di Fourier:

Nell’opera di Fourier, così come in quella di Hamilton, si rileva una esigenza di rigore che si esprime essenzialmente mediante un poderoso sforzo di matematizzazione delle teorie prese in esame. Il fatto può apparire del tutto naturale se pensiamo alla funzione che ha sempre avuto l’applicazione della matematica alle altre scienze e se teniamo presente l’alto livello di rigore raggiunto dalla matematica ottocentesca. Qui vi è però qualcosa di nuovo: la matematizzazione viene usata non solo per rendere esatto il linguaggio della fisica, ma anche per liberarla dal ricorso a modelli di valore incerto e contestabile; per stabilire, cioè, un nesso immediato fra le teorie e i fenomeni, senza dover far appello a ipotesi inverificabili circa la realtà sottostante ai fenomeni stessi (per esempio la trattazione del calore non condizionata da questa o quella ipotesi sulla

2

2

T 1 T

C tx

∂ ∂=

∂∂

4=5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

natura del fenomeno esaminato; oppure tra la scelta del modello corpuscolare o ondulatorio della luce). Si tratta, in ultima analisi, di un primo e significativo passo verso quella formalizzazione e assiomatizzazione delle teorie, in cui gli epistemologi moderni vedono la condizione indispensabile per uno studio veramente critico del significato e del valore conoscitivo di una qualsiasi scienza.

Grandi difficoltà presentava il problema della conducibilità dei liquidi e dei gas, tanto che al principio del secolo liquidi e gas si considerarono da molti fisici assolutamente non conduttori. Ma César Despretz (1789-1863) nel 1839 e Angstrom nel 1864 dimostrarono senza possibilità di dubbio la piccola conducibilità dei liquidi. Per i gas dette prove certe di conducibilità Heinrich G. Magnus (1802-1870) nel 1861 e Clausius l'anno successivo, mentre Boltzmann nel 1875 dimostrò la proprietà teoricamente.

8.8 La termodinamica

La teoria fluidistica, dopo aver coesistito pacificamente per secoli con la teoria

meccanica del calore, prende il sopravvento nella seconda metà del XVIII secolo e alla fine dello stesso secolo la lotta si acuisce ed entra nella sua fase decisiva.

I più importanti studi sul calore nella prima meta del XIX secolo avevano lo scopo pratico di migliorare il funzionamento delle macchine a vapore e Dalton lamentava questo indirizzo delle indagini scientifiche, che a lui sembrava troppo tecnico. Era stato Watt a porre il problema in termini di cruda praticità: quanto carbone occorre per produrre un certo lavoro e con quali mezzi, a parità di lavoro, è possibile ridurne al minimo il consumo.

Allo studio di questo problema pratico si accinse Sadi-Nicolas Carnot (1796-1832), che riassunse i risultati dei suoi studi sulla macchina a vapore in un opuscolo apparso nel1824 col titolo Reflexions sur la puissance motrice du feu et sur les machies propres a developper cette puissace. La comparsa delle Reflexions segna una data memorabile nella storia della fisica; non soltanto per il risultato raggiunto, ma anche per il metodo imitato poi innumerevoli volte. Carnot pone a base del suo ragionamento l'impossibilità del moto perpetuo che non era ancora assurto a principio scientifico. Carnot avvia il suo studio specifico con un elogio della macchina a vapore; constata che la relativa teoria è molto arretrata; osserva che, per farla progredire, è necessario prescindere un po' dalla sua empiricità e considerare in astratto la potenza motrice del fuoco, “indipendentemente da ogni meccanismo e da ogni agente speciale”. A tal fine cominciò a schematizzare la macchina a vapore nel modo piu astratto, facendosi guidare dall'analogia con una turbina ad acqua, e cioè da un caso in cui l'acqua scende da un livello superiore a uno inferiore e la sua energia potenziale si trasforma in potenza motrice. Nel caso della macchina a vapore, egli pensava, il calore cade da una temperatura alta a una più bassa e, nel far questo, fornisce potenza motrice: "la produzione di calore non basta a creare energia propellente, in quanto è necessario che ci sia del freddo; senza di esso il calore sarebbe inutile".

A quell'epoca Carnot seguiva la teoria del calorico, e per questa ragione gli sfuggì la differenza fondamentale tra l'acqua e il calore: mentre la quantità d'acqua è costante, la quantità di calore ceduta alla temperatura più bassa diminuisce per un ammontare

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=6!

proporzionale al lavoro ottenuto. Carnot non era a conoscenza di questo fatto e credeva che il calore (il calorico) si conservasse. Carnot pose la domanda fondamentale: qual è il massimo lavoro ottenibile quando il calore cade da una temperatura a un'altra, e da quali fattori dipende? Nell'esempio della macchina a vapore il calore è ceduto a un cilindro chiuso da un pistone. È ragionevole pensare che il calore debba essere ceduto con il minor salto possibile di temperatura, perché quando il calore passa a una temperatura più bassa per conduzione, non si ottiene lavoro. Sviluppando questo concetto Carnot si accorse che tutte le trasformazioni eseguite dalla macchina dovevano costituire una successione di stati di equilibrio. Di conseguenza, la macchina doveva poter funzionare in una data direzione, oppure, rovesciando tutte le operazioni, nella direzione opposta: la macchina, insomma, doveva essere reversibile. In una macchina dobbiamo avere una sorgente di calore ad alta temperatura, un refrigerante a temperatura inferiore e un sistema capace di trasferire il calore dall'una all'altro: per esempio, un cilindro con un pistone. È molto importante, per poter ragionare chiaramente, che la trasformazione durante la quale il calore passa dalla sorgente ad alta temperatura al refrigerante a temperatura più bassa lasci completamente inalterato il sistema che trasferisce il calore stesso.

Un'operazione così fatta fu descritta da Carnot ed è nota con il nome di ciclo, formato da due isoterme e due adiabatiche, perché essa è tale che, dopo un certo numero di passi parziali, l'apparecchio che trasferisce il calore ritorna nel suo stato originale. La macchina è evidentemente reversibile. Carnot giunge così al teorema che porta il suo nome: “La

potenza motrice del calore è indipendente dagli agenti messi in opera per ottenerla; la sua quantità è fissata unicamente dalle temperature dei corpi tra i quali avviene in ultima analisi il trasporto del calorico”.

Insomma, il rendimento di una macchina termica è determinato dalle temperature della sorgente e dal refrigerante, elemento quest'ultimo, affermò esplicitamente Carnot, essenziale come la caldaia, sostituito dall’ambiente quando nella macchina manchi come elemento costruttivo, e non dipende dalla sostanza usata nel ciclo. Tutto questo costituisce l'essenza del principio di Carnot o secondo principio della termodinamica:

TEOREMA DI CARNOT

Tutte le macchine reversibili che lavorano fra due temperature fissate hanno lo stesso rendimento e nessuna macchina reale (irreversibile) che scambi calore con due sorgenti a

quelle temperature può avere un rendimento maggiore:

2 1

rev rev

2

T Tdove

T

−η ≥ η η =

4=7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Possiamo ora accoppiare due macchine reversibili, l'una che lavora in un senso e l'altra nel senso opposto. Se una di esse avesse un'efficienza superiore a quella dell'altra, potremmo realizzare un moto perpetuo, il che, secondo il teorema di Carnot, è una assurdità. Osserviamo che il principio di Carnot, come il principio sul moto perpetuo, è un principio d’impossibilità, sul quale la termodinamica si è costituita come scienza deduttiva, a somiglianza della geometria. Ora, principi d’impossibilità s'incontrano nell'elettromagnetismo, nella relatività, nella meccanica quantistica, onde è possibile pensare che capitoli della fisica abbastanza sviluppati attraverso la ricerca sperimentale, possano essere organizzati in forma deduttiva a partire da postulati d'impossibilità, come è avvenuto per la termodinamica.

Un'altra osservazione: Carnot non si occupa esplicitamente della natura del calore. Dice che adopererà indifferentemente i termini “calore” e “calorico”, il che fa supporre, come abbiamo già detto, che egli credesse alla sostanzialità del calore, per il quale accetta il principio di conservazione già enunciato da Black. Stabilito il teorema fondamentale, Carnot lo applica alla soluzione di altri problemi; per esempio, al lavoro di espansione isotermica, giungendo alla conclusione che il rapporto Q/T tra calore e temperatura corrispondente dava un valore costante per un dato processo isotermico. Carnot calcola il lavoro prodotto per percorrere un ciclo infinitesimale da un grammo di aria, di vapore, di alcool, ottenendo una conferma all'indipendenza del lavoro prodotto dalla sostanza che percorre il ciclo.

Dopo la pubblicazione del trattato, Carnot si convinse pienamente della teoria meccanica del calore, come risulta dal seguente brano, trovato nei suoi manoscritti e pubblicato nel 1878 in appendice alla ristampa delle sue Reflexions: “Il calore non è altra cosa che la potenza motrice, o piuttosto che il movimento che ha cambiato di forma. È un movimento nelle particelle dei corpi. Dovunque c'è distruzione di potenza motrice vi è, nel medesimo tempo, produzione di calore in quantità precisamente proporzionale alla quantità di potenza motrice distrutta. Reciprocamente, dovunque c'è distruzione di calore, vi è produzione di potenza motrice. Si può dunque porre in tesi generale che la potenza motrice è una quantità invariabile nella natura, che essa non è mai, propriamente parlando, né prodotta, né distrutta. In verità essa cambia di forma, vale a dire che essa produce ora un genere di movimento, ora un altro, ma non è mai annientata”.

L'opuscolo di Carnot passò quasi inosservato; il disinteresse si può spiegare con le poche aderenze accademiche del giovane e soprattutto con la novità dei concetti espressi, pur essendo la redazione molto chiara ed elegante. Solo dieci anni dopo, nel 1834, richiamò l'attenzione sull'opera Benoit Clapeyron (1799-1864), il quale in questa occasione enuncia l'equazione di stato o caratteristica dei gas perfetti, che pone una semplice relazione tra pressione volume e temperatura di una determinata massa gassosa, sintetizzando le leggi di Boyle e di Volta e Gay-Lussac:

EQUAZIONE DI STATO DEI GAS PERFETTI

Il prodotto fra la pressione p di un gas perfetto e il volume V da esso occupato è direttamente proporzionale alla temperatura assoluta T e al numero n di moli del gas:

!" ! !"#

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=8!

Dall'epoca di Rumford sino al 1840 circa non si registra alcun lavoro importante per la termodinamica, ad eccezione dei già ricordati lavori di Carnot e di Clapeyron. Il capovolgimento di mentalità si operò, soprattutto tra i giovani fuori degli ambienti accademici, dove il peso della tradizione e l'autorità dei maestri talvolta impacciano il rinnovamento delle idee. Si spiega così come quasi contemporaneamente e indipendentemente fosse avanzato da diversi giovani, non legati alla scienza ufficiale, come Carnot, Mayer, Joule, per citare i più famosi, il concetto di equivalenza tra calore e lavoro.

Il principio di conservazione dell’energia si sviluppò in un lungo periodo di tempo segnato da osservazioni e da generalizzazioni sempre crescenti, finché raggiunse, attorno alla metà del XIX secolo, una posizione centrale non solo per la fisica ma per ogni scienza, anche per le sue implicazioni filosofiche. Fu come se una nuova "scienza dell'energia" riprendesse le differenti teorie fisiche e le inglobasse come altrettanti casi particolari nel quadro di una concezione che si proponeva in qualità di verità finale della fisica. In questa prospettiva, la scienza dell'energia diventava e dissimulava al tempo stesso la potenza della natura. Sin dai primi anni del XIX secolo si sapeva, in meccanica, che, per punti materiali interagenti secondo forze derivabili da un potenziale, la somma dell'energia potenziale e dell'energia cinetica era costante. Questo teorema poteva suggerire una forma generalizzata della conservazione che comprendeva anche il calore, purché il calore stesso fosse identificabile con il moto, ed è probabile che parecchi scienziati e pensatori siano stati influenzati da considerazioni del genere. Le scoperte nel campo dei fenomeni elettrici, d'altra parte, ponevano nuovi problemi su come inserirle nello schema della conservazione dell'energia. Il termine energia era vecchio di secoli quando nel 1807 Young lo introdusse nella scienza per indicare il prodotto mv2, ma il suo uso era tutt'altro che preciso. Pensatori chiari come Carnot ed Helmholtz usarono parole come puissance motrice (il cui significato letterale è potenza motrice) e Erhaltung der Kraft (che alla lettera significa conservazione della forza) per parlare del lavoro o dell'energia.

Le carenze nella formulazione e le incertezze nella nomenclatura fanno sì che sia impossibile attribuire a una singola persona la scoperta della conservazione dell'energia, ma gli scienziati che contribuirono maggiormente alla scoperta furono Mayer, Joule e Helmholtz. Non citiamo Carnot perché, anche se fu indubbiamente uno dei primi ad avere idee chiare sull'argomento, il suo lavoro fu pubblicato soltanto nel 1878, quando la termodinamica era ormai una scienza stabilita, per cui i suoi pensieri sulla conservazione dell'energia non poterono esercitare alcuna influenza sull'opera dei suoi successori.

Robert Mayer (1814-1878) ebbe una subitanea intuizione della legge nel luglio 1840 e in una sua memoria pubblicata si chiede che cosa noi intendiamo per “forza” e quali siano le differenti forze in relazione tra di loro (per capire la memoria di Mayer il lettore moderno sostituisca la parola “forza” con la parola “energia”). Per lo studio della natura è necessario che si abbia un concetto di forza altrettanto chiaro come quello di materia. Mayer continua: “Le forze sono cause; in conseguenza noi possiamo nei loro confronti fare una completa applicazione del principio causa aequat effectum”. Mayer prosegue in questa impostazione di sapore metafisico e giunge alla conclusione che: “Le forze (probabilmente la “forza viva” come veniva chiamata allora l’energia cinetica) sono oggetti indistruttibili, convertibili e imponderabili”; e che se la “causa è materia, l'effetto è materia; se la causa è una forza, l’effetto è una forza”. Ne segue: “se, per

4=9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

esempio, strofiniamo fra loro due lastre di metallo, vediamo il moto scomparire e d’altro canto fa la sua comparsa il calore”. Seppure genericamente, in queste parole è espresso il principio di conservazione dell’energia.

Con poche considerazioni Mayer mostra che sarebbe irragionevole negare una connessione causale tra il moto (ossia, secondo la nostra terminologia, il lavoro) e il calore; come irragionevole sarebbe supporre una causa, il moto, senza effetto, o un effetto, il calore, senza causa. Mayer chiude la disquisizione con una deduzione pratica: “Qual è la quantità di calore che corrisponde a una data quantità di moto o forza di caduta?” Con un'intuizione veramente geniale egli dedusse questo equivalente dalla conoscenza dei calori specifici dei gas a pressione e a volume costante. Questo metodo di Mayer consiste nel dire che la differenza tra i due calori specifici equivale al lavoro fatto per vincere, nell'espansione del gas, la pressione esterna. Utilizzando i valori dei calori specifici dati da Dulong, Mayer, con un calcolo appena accennato nella memoria, trova che una grande caloria equivale a 365 chilogrammetri, e subito commenta: “Se noi compariamo con questo risultato il lavoro delle nostre migliori macchine a vapore, noi vediamo che una piccola parte solamente del calore applicato sotto la caldaia è realmente trasformata in moto, ossia nel sollevamento di pesi”. Data la insufficiente cultura matematica, Mayer non riuscì ad esprimere il principio di equivalenza in un’equazione compiuta.

Mayer deve essere considerato anche come il primo ad aver compreso l’unità di tutte le manifestazioni energetiche della natura. Con intuizione metafisica dice:

“Affermo quanto segue: la forza di caduta, il movimento, il calore, la luce, l’elettricità e la differenza chimica tra corpi ponderali costituiscono un solo oggetto sotto apparenze diverse”. E ancora: “Il movimento si trasforma in calore. In queste cinque parole è implicita tutta la mia teoria”. Il principio della conservazione dell'energia offre a Mayer spunti per il suo materialismo filosofico, col quale nega l'esistenza di qualsiasi principio spirituale che possa essere ipotizzato come causa sia della vita e sia del pensiero, considerandoli meri esiti di un processo di trasformazione della materia, che si evolve dallo strutturalmente semplice al sempre più complesso.

James Joule (1818-1889) nel 1843, ancora ignorando il lavoro di Mayer, determinò sperimentalmente l'equivalente meccanico della caloria, ossia stabilì l’esistenza di una proporzionalità diretta tra la quantità di calore prodotto ed il lavoro eseguito. Il dispositivo di Joule consiste nel riscaldare l'acqua di un calorimetro agitandola con un frullino e fare quindi il rapporto tra il lavoro occorso per il riscaldamento e il calore prodotto. Annunciando i risultati delle sue ricerche, Joule scrisse: “Il lavoro eseguito dal peso di una libbra lasciato cadere da un’altezza di 722 piedi a Manchester, se viene utilizzato per produrre calore per attrito di acqua, fa aumentare di 1 °F la temperatura di una libbra d’acqua”. Con questo esperimento e queste parole, Joule è uno dei primi scienziati a formulare con chiarezza il principio di conservazione dell’energia, che usando un linguaggio moderno, può essere così espresso:

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=:!

PRINCIPIO DI EQUIVALENZA

Il lavoro L (espresso in joule) necessario per ottenere un dato incremento di temperatura è direttamente proporzionale alla quantità di calore Q (espressa in calorie) che bisogna

fornire per ottenere lo stesso incremento:

dove J=4,186 J/cal è noto come equivalente meccanico del calore.

Joule interpreta così come una conversione, un mutamento quindi, gli effetti

dell'azione del calore in un sistema meccanico, e getta le basi per l'interpretazione di questi effetti in chiave di scambio, trasformazione d'energia. Nell'ottica di Joule, l'energia non si dissipa, ma si conserva pur trasformandosi. Con Mayer e Joule l'antico "calorico" fu definitivamente abbandonato e il calore e lavoro diventano due aspetti diversi dell’energia che è possibile trasformare l’uno nell’altro e viceversa.

Però, dalle pubblicazioni di Mayer e Joule passarono alcuni anni prima che i fisici si accorgessero del principio di equivalenza. Nel 1847 Hermann von Helmholtz (1821-1894) pubblicava la sua celebre memoria Uber die Erhaltung der Kraft (Sulla conservazione dell’energia) senza conoscere ancora l'opera di Mayer (ma conosceva quella di Joule). Il lavoro di Helmholtz, anche se presenta alcune analogie con le precedenti pubblicazioni di Mayer, è assai più solidamente strutturato, contiene meno considerazioni filosofiche e fornisce innumerevoli esempi tratti dalla meccanica, dalla termologia, dall’elettricità e dalla chimica e utilizza valori numerici presi dalle solide misure di Joule. Pertanto, Helmhotz, non si limita a prendere in esame la forza (ossia l'energia) meccanica e calorifica, ma anche le altre forme di energia. Sostanzialmente Helmholtz, riprendendo il concetto di Mayer, chiama energia qualunque ente che possa convertirsi da una forma in un'altra e, come Mayer, le attribuisce il carattere d'indistruttibilità onde essa si comporta come qualunque sostanza: non può essere nè creata, nè distrutta. Tra materia ed energia c'è un'intima relazione: “La materia e la forza sono astratte dalla realtà, e formate in modo del tutto eguale; e noi possiamo percepire la materia proprio soltanto attraverso le forze, insite in essa, ma non mai in sé e per sé”.

Helmholtz, come già Carnot a cui si richiama, pone a fondamento della propria trattazione l'impossibilita “di produrre continuamente forza motrice dal nulla”. Per applicare il principio ai fenomeni meccanici, egli imita l'esperimento mentale e il ragionamento di Carnot: se un sistema di corpi passa da uno stato a un altro consuma una certa quantità di lavoro, che dev'essere eguale a quello che si deve fornire al sistema per farlo ritornare dal secondo stato al primo, a prescindere dal modo, dalla traiettoria e dalla velocità del ritorno; infatti, se i due lavori fossero diversi, si produrrebbe (o si distruggerebbe) a ogni ciclo una forza motrice dal nulla. Ciò che si conserva nei processi meccanici è la somma della forza di tensione (energia potenziale, secondo la nostra terminologia) e della forza viva. È questo il principio di conservazione della forza. Helmholtz passa poi a dimostrare che il principio si applica ai fenomeni meccanici (urto dei corpi, attrito, compressione o espansione dei gas) da produzione di calore, ai fenomeni elettrostatici o elettrodinamici, magnetici o elettromagnetici, e infine ai fenomeni del mondo organico. Quest’ultima estensione ci sembra di particolare importanza dal punto di vista storico. L'impossibilità del moto perpetuo era, come

L JQ=

44<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

abbiamo accennato, uno stato d'animo dei fisici, che stentava ad assurgere a principio scientifico generale, perché sembrava contraddetto dall’esperienza più comune: il lavoro degli animali. Sino a quando non si mette una relazione tra il lavoro eseguito dagli animali e i cibi ingeriti la produzione di forza motrice dal nulla pare possibile.

Oggi che siamo familiarizzati col concetto di energia, può sembrare che la memoria di Helmholtz non aggiungesse nulla a quanto avevano asserito Mayer e Joule. Ma, per apprezzare la concezione nuova di Helmholtz, basta riflettere che Mayer e Joule s'erano riferiti a un caso particolare, anche se importantissimo, mentre Helmholtz introduce una grandezza nuova, prima ignota alla fisica o equivocamente confusa con la forza, presente in tutti i fenomeni fisici, mutevole nelle forme ma indistruttibile, imponderabile ma regolatrice delle apparenze della materia. Tutta la fisica della seconda metà del XIX secolo poggiò su due concetti, materia ed energia, obbedienti entrambe a leggi di conservazione. Il peculiare carattere distintivo dei due enti era la ponderabilità della materia e l'imponderabilità dell'energia.

Le vedute di Helmholtz ispirarono la scuola degli energetisti, il cui programma fu l'abbandono della concezione meccanicistica dell’universo secondo la quale tutti i fenomeni debbono essere spiegati mediante i concetti di materia e di forza, e al posto di questa concezione se ne sostituiva un'altra nella quale il gioco delle energie, attuali e potenziali, esistenti nei corpi, spiega i vari fenomeni. L'energia è per gli energetisti l’unico ente fisico reale e la materia ne è l'apparente supporto.

Il problema della scala termometrica, che aveva affaticato generazioni di scienziati per due secoli, ebbe la più razionale soluzione da parte di William Thomson (poi Lord Kelvin) (1824-1907), il maggior fisico dell’impero britannico, che aveva conosciuto l'opera di Carnot attraverso l'esposizione analitica di Clapeyron, nella cui memoria si propone, tra le altre cose, il calcolo del lavoro prodotto da una macchina perfetta, nella quale una caloria passa tra due corpi la cui differenza di temperatura sia un grado (centigrado), e calcola che codesto lavoro non è costante, ma va diminuendo con l'aumentare della temperatura. Il calcolo di Clapeyron fermò l'attenzione di Thomson, il quale intuì che per questa via sarebbe stato possibile definire una scala assoluta delle temperature, assoluta nel senso d'indipendente dalla sostanza termometrica adoperata. Thomson ebbe l’idea di definire la temperatura per mezzo di una macchina di Carnot, il cui rendimento è indipendente dal fluido. Secondo la nuova definizione, una certa quantità di calore che cade di un grado nella nuova scala fornisce una certa quantità di lavoro fissa. Thomson, nel lavoro scritto nel 1848, aderiva, come Carnot, all’ipotesi della conservazione del calorico, e presuppose, sbagliando, che la quantità di calore che entrava nella macchina alla sorgente fosse eguale a quella che ne usciva al refrigerante. Ma il metodo, alcuni anni dopo, potè essere facilmente adattato alla conservazione dell’energia. Il risultato fu il seguente: sapendo che il rendimento di una macchina reversibile è funzione delle sole temperature della sorgente e del refrigerante (η=T2-T1/T2), doveva esistere uno zero assoluto perché il rendimento non può essere superiore all’unità. La scala assoluta delle temperature, definita in questo modo, doveva essere confrontata con le scale pratiche, e ciò fu fatto in pochi anni, dando i risultati sperati, ossia le scale termometriche coincidevano con quella assoluta, stabilendo ovviamente la grandezza del grado, per esempio fissando che la temperatura dell’acqua bollente supera di 100 gradi quella del ghiaccio fondente.

Thomson fu uno scienziato molto eclettico, trattò problemi svariatissimi mostrando di possedere una superba maestria professionale, sia che si trattasse di

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 44;!

elettrostatica, che di correnti transitorie o altro; seppe mettere in luce le analogie tra la teoria di Fourier sulla conduzione del calore e la teoria del potenziale, discusse alcuni aspetti delle idee di Faraday sulla propagazione dell'azione elettrica, analizzò i circuiti oscillanti e le correnti alternate da essi generate, e i suoi scritti influenzarono Maxwell, che gli chiese consigli e persino il permesso di lavorare sulla sua stessa linea di ricerca.

Thomson applicò la fisica anche in un campo lontano da quelli già ricordati, speculando sulle possibili origini del calore solare e sulle condizioni di temperatura della Terra. I suoi metodi erano validi e ingegnosi, ma poiché non conosceva l'origine nucleare dell'energia del Sole e la radioattività della Terra, non gli era possibile giungere a risultati corretti. Tentò di spiegare l'origine del calore solare facendo l'ipotesi o di meteoriti precipitanti sul Sole o di una contrazione gravitazionale: ma l’eta' del Sole, secondo i calcoli che egli fece attorno al 1854, era inferiore a 5⋅108 anni, valore troppo piccolo rispetto ai risultati moderni (maggiori di un fattore 10). Inoltre basandosi sul gradiente della temperatura in zone superficiali della Terra cercò anche di ricostruire la storia termica della Terra e di assegnare a quest'ultima un'età. Qui pure il suo calcolo portava a valori troppo piccoli: 4⋅108 anni, mentre i dati odierni danno circa 4,6⋅109 anni. I geologi, che si basavano sui tempi necessari per i fenomeni geologici, non potevano aderire alle sue stime. Essi non criticavano la matematica di Thomson ma sostenevano che le sue ipotesi di partenza dovevano essere sbagliate. Anche i biologi non riuscivano a far rientrare le recenti idee sull'evoluzione nella scala temporale suggerita da Thomson. La controversia durò per molti anni, e Thomson non prestò mai troppa attenzione alle giuste obiezioni dei geologi e dei biologi. La scoperta della radioattività e delle reazioni nucleari indicò infine l'origine dell'errore presente nelle premesse del fisico inglese.

Thomson era profondamente legato ai modelli meccanici a cui aspirava ridurre tutti i fenomeni fisici. Naturalmente non era il solo ad avere questa visione meccanicistica della natura, ma menti più profonde della sua, pur ricorrendo ai modelli come strumenti euristici, erano andate al di là di essi, lasciandoli cadere al momento opportuno. Sta qui una delle differenza tra Kelvin e Maxwell, in cui si manifesta la superiorità del secondo rispetto al primo. Gli studi sulla termodinamica sono forse il massimo e più duraturo contributo portato da Thomson alla fisica, anche se era stato preceduto da un lavoro simile di Clausius. Le due ricerche si erano svolte indipendentemente l'una dall'altra, e furono entrambe di importanza capitale. Questo lavoro di Thomson è però alquanto astruso e i suoi contemporanei lo ricordavano e lo onoravano per altre investigazioni scientifiche, come quelle precedentemente analizzate.

Il principio di Carnot, dedotto nel quadro della teoria fluidistica del calore, poteva apparire in contraddizione col principio di equivalenza, perché supponeva che in una macchina ideale la quantità di calore “caduta” da una temperatura a un'altra più bassa rimanesse costante, come costante rimane la quantità di acqua che cadendo in una cascata produce lavoro meccanico. Rudolf Clausius (1822-1888) e Thomson quasi contemporaneamente e indipendentemente, si assunsero il compito d'inquadrare i due principi in una nuova assiomatica, più organica e chiara quella del primo, che pose i fondamenti della teoria meccanica del calore.

Clausius osservò che la costanza del rapporto tra lavoro speso e calore prodotto si ha soltanto nelle trasformazioni cicliche, nelle trasformazioni, cioè, nelle quali il corpo in esame, dopo una serie di cambiamenti, ritorna nelle condizioni iniziali. Per esempio,

44=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

non ci si trova in questo caso nel calorimetro di Joule, perchè in esso si ha acqua fredda a principio della trasformazione e acqua calda alla fine. Se la trasformazione non è ciclica, il rapporto non è costante; ossia la differenza, misurata nelle stesse unità di misura, tra calore speso e lavoro prodotto o viceversa non è nulla. Muovendo dal principio secondo cui non vi è mai perdita di energia, bensì trasformazione (primo principio della termodinamica), Clausius intuì che era necessario che vi fosse un processo di compensazione della trasformazione del calore in energia meccanica, qualcosa che permettesse il mantenimento dell'energia termica interna al sistema nei valori di partenza, o comunque su valori omogenei. Di fatto, ciò era possibile solo nell'ipotesi che una parte dell'energia, paradossalmente, si perdesse, che all'interno del sistema termico si assistesse ad una degradazione dell'energia complessiva. Clausius comprese che, mentre le altre forme d'energia si potevano trasformare una nell'altra integralmente e reversibilmente, l'energia termica non si riconvertiva completamente, ma dissipava una parte di sé nelle trasformazioni e perdeva dunque una parte della sua capacità di svolgere lavoro. Da qui l'impossibilità di costruire sistemi termici idealmente conservativi. Pertanto, Clausius ebbe la felice idea di saldare il conto che non tornava, introducendo il concetto di energia interna. Per esempio, se si vaporizza una certa quantità di acqua, mantenendola a temperatura costante, il calore fornito è molto maggiore del lavoro di espansione del vapore: l’altra parte di energia dove è andata? Il calore fornito all'acqua in parte si trasforma in lavoro esterno di espansione del vapore (e dell'acqua) e in parte si trasforma in energia interna, che il vapore restituisce sotto forma di calore condensandosi.

Con l'invenzione del concetto di energia interna Clausius dette forma matematica precisa al principio di equivalenza anche per le trasformazioni aperte:

PRIMO PRINCIPIO DELLA TERMODINAMICA

Per ogni sistema termodinamico, qualunque sia la trasformazione che esso subisce, la variazione DU dell'energia interna è uguale alla differenza fra la quantità di calore Q che il

sistema assorbe dall' esterno e il lavoro L che il sistema compie verso l'esterno:

Tanto Clausius che Thomson dedussero il principio di Carnot da un altro più

intuitivo e quasi identico, che rappresentano forme alternative del secondo principio della termodinamica. Thomson, parte dall’idea che è impossibile produrre con continuità energia meccanica dal solo raffreddamento di un sistema, cioè a costruire una macchina reale che possa trasformare in lavoro il calore sottratto a una sola sorgente, senza cederne una certa quantità a un'altra sorgente a temperatura più bassa, in quanto tale macchina produrrebbe un moto perpetuo. L'impossibilità di realizzare un simile processo costituisce il secondo principio della termodinamica nella formulazione data da Kelvin:

SECONDO PRINCIPIO DELLA TERMODINAMICA: ENUNCIATO DI KELVIN

È impossibile realizzare una trasformazione il cui risultato finale sia solamente quello di convertire in lavoro meccanico il calore prelevato da un'unica sorgente.

U Q L∆ = −

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 444!

Ciò che rende questo enunciato veramente restrittivo è quel "solamente"; infatti, se si ammette che avvengano altri fatti concomitanti, altre modificazioni del sistema, non è

affatto impossibile trasformare integralmente il calore in lavoro.

Clausius, invece, osserva che in natura i fenomeni spontanei avvengono sempre nello stesso verso; sono, cioè, fenomeni irreversibili. È da notare che, se una trasformazione avviene in un certo verso, non sarebbero violati né il primo principio della termodinamica né gli altri princìpi di conservazione nel caso in cui la stessa trasformazione avvenisse inversamente. Quindi questi princìpi non forniscono alcuna indicazione circa il verso in cui effettivamente

si svolge un processo spontaneo. L'irreversibilità dei fenomeni è messa in evidenza nel seguente principio, che

rappresenta l’enunciato del secondo principio della termodinamica dato da Clausius:

SECONDO PRINCIPIO DELLA TERMODINAMICA: ENUNCIATO DI CLAUSIUS

È impossibile realizzare una trasformazione il cui risultato finale sia solamente il passaggio di calore da un corpo a una data temperatura a un altro a temperatura maggiore.

Ovviamente i due enunciati sono perfettamente equivalenti fra loro, nel senso

che se non fosse vero il primo non sarebbe vero neanche il secondo, e viceversa. Possiamo così concludere che fissato un fenomeno reale, che avvenga

spontaneamente senza alcun intervento esterno, è impossibile come unico risultato finale far avvenire, nelle medesime condizioni, il processo in senso inverso. Più precisamente è impossibile trovare un processo inverso che possa riportare nello stato iniziale sia il sistema considerato sia l'ambiente con cui esso è a contatto. I due enunciati, ed altri simili (i fenomeni naturali sono irreversibili; i fenomeni avvengono in modo che l'energia che vi interviene si degradi; ecc.) sono totalmente in antitesi con le tradizionali leggi dinamiche reversibili, e ciò rappresenterà uno dei motivi della crisi del meccanicismo nella seconda metà del XIX secolo.

L'impossibilità di costruire sistemi termici idealmente conservativi, la diminuzione della capacità di conversione di calore in lavoro, questa degradazione dell'energia, indusse Clausius nel 1865 ad introdurre una nuova grandezza fisica, l’entropia S (dal greco entropè=trasformazione), che doveva assumere un ufficio fondamentale nell'ulteriore assetto della termodinamica: “Nello stesso modo in cui diciamo che U (energia) è il contenuto di calore e di lavoro di un corpo (primo principio), anche S (entropia) può essere considerata il contenuto di trasformazione di un corpo… per questo motivo ho utilizzato la parola entropia dal greco entropè che significa trasformazione, affinché questa quantità fosse il più possibile simile a energia, in quanto entrambe sono così strettamente connesse l’una all’altra che mi è parso utile una certa analogia nei loro nomi”. In particolare l’entropia doveva servire a distinguere un processo reversibile da uno irreversibile e di attribuire un significato preciso al concetto di degradazione dell'energia.

445! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Precisamente, se si indica con dS la variazione d'entropia per una trasformazione infinitesima nella quale trasformata la quantità di calore dQ alla temperatura T, si ha per definizione:

Clausius dimostrò che si tratta di una grandezza di cui non si conosce il valore assoluto, ma soltanto le variazioni, e tale che essa aumenta sempre nei sistemi irreversibili termicamente isolati; rimarrebbe costante soltanto nel caso ideale di trasformazioni reversibili. L'entropia è una grandezza caratteristica di un corpo (funzione di stato), come il volume, la temperatura, l'energia interna.

Perciò possiamo formulare, in maniera del tutto generale, il secondo principio della termodinamica in termini di entropia:

PRINCIPIO DELL'AUMENTO DELL'ENTROPIA

L'entropia totale dell'universo (il sistema più il suo ambiente, che insieme sono isolati dall'esterno) non cambia in un processo reversibile, ma aumenta sempre in un processo

irreversibile.

In generale possiamo affermare che, se il valore dell'entropia di un sistema in un

certo stato B è maggiore di quello che compete a un altro stato A, il sistema si evolve nel verso che porta da A a B. L'aumento dell'entropia indica il verso secondo il quale si succedono gli eventi, cioè caratterizza lo scorrere del tempo; per questo l'entropia è stata chiamata anche la "freccia del tempo".

Il principio dell’aumento dell’entropia, a differenza degli altri enunciati, non si applica solamente ai processi che coinvolgono trasformazioni di calore in lavoro o flussi di calore fra corpi a diversa temperatura, ma anche a ogni altro tipo di processo, e Clausius intendeva caratterizzare con il concetto di entropia non soltanto un aspetto particolare dei fenomeni termici, ma uno stato generale di qualunque sistema, una legge universale: la crescita dell'entropia in un sistema, la degradazione dell'energia dovevano essere indicatori di un'irreversibile evoluzione spontanea. L'unico requisito necessario affinché si potesse parlare di entropia era che il sistema studiato fosse comunque un sistema isolato, senza scambi con l'esterno, e per Clausius l'universo intero poteva essere considerato un sistema isolato.

Così l'entropia divenne la chiave di lettura dei fenomeni su scala macroscopica, cosmologica: l'energia del mondo è costante. L'entropia del mondo tende fino a un massimo:

LEGGI FONDAMENTALI DELL’UNIVERSO COSMOLOGICO

∆EUniverso = 0 L’energia dell’Universo è costante

∆SUniverso > 0 L’entropia dell’Universo tende sempre ad aumentare

Riguardo a quest’ultima relazione, Clausius fece osservare che tutti i processi

naturali, rappresentati per esempio dal calore che spontaneamente passa dal caldo al freddo, o dal lavoro che inutilmente si trasforma in calore per attrito, originano sempre variazioni di entropia positive. Al contrario tutti i processi innaturali, rappresentati, per

dQdS

dT=

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 446!

esempio, dal calore che forzatamente viene trasformato in lavoro utile, o che viene costretto a passare da un corpo freddo ad un ambiente più caldo con un consumo di energia, originano sempre variazioni di entropia negative. Poiché calcoli teorici suggerivano che l’insieme delle variazioni positive di entropia dovesse essere maggiore dell’insieme delle variazioni negative, Clausius giunse alla conclusione che: l’entropia dell’Universo è destinata sempre ad aumentare, fino al raggiungimento di un valore massimo coincidente con uno “stato di morte immodificabile” dell’Universo, la cosiddetta “morte termica”, uno stato in cui vi è la totale assenza di ogni processo fisico, chimico e biologico.

Come diceva il giovane Freud quando Clausius era ormai anziano: “Lo scopo finale di tutte le forme di vita è la morte”.

L'opposizione dei fisici all'introduzione di questa nuova grandezza fu vivissima, specialmente per il suo carattere misterioso, dovuto principalmente al fatto che essa non è percepibile dai nostri sensi.

I fondatori della termodinamica, Mayer, Joule, e Carnot, in buona sostanza si erano disinteressati della natura del calore. Essi si limitavano solamente ad affermare che il calore, in certe condizioni, si può trasformare in lavoro meccanico, e viceversa. I pionieri della teoria non credettero mai necessario indagare quale fosse l'intimo rapporto tra i fenomeni meccanici e le manifestazioni termiche. Fu Helmholtz, nella citata memoria del 1847, ad affacciare l’ipotesi che l'intima ragione della trasformabilità tra calore e lavoro potesse essere ricercata, secondo una via che egli non indicava, riconducendo i fenomeni termici a fenomeni meccanici, cioè a fenomeni di movimento, come era stato tentato nel secolo precedente.

Verso la metà del secolo la teoria atomica aveva fatto notevoli progressi e già poteva essere utilizzata dai fisici con confidenza, onde essa venne a confluire con la teoria meccanica del calore per la costruzione dell'edificio della teoria cinetica dei gas. Ne posero le fondamenta il fisico e chimico tedesco August Kronig (1822-1879) e l'anno successivo Clausius. Prima di accingerci a narrare la storia essenziale della teoria cinetica dei gas, che s'intreccia, ripetiamo, con la storia della teoria atomica, è necessario ricordare, per la sua enorme importanza per la meccanica statistica, la legge fondamentale enunciata nel 1811 da Avogadro:

PRINCIPIO DI AVOGADRO

Volumi uguali di gas diversi, nelle stesse condizioni di temperatura e di pressione, contengono lo stesso numero di molecole. Inversamente, uno stesso numero di molecole di gas, di qualunque specie, nelle stesse condizioni di temperatura e di pressione, occupa lo

stesso volume.

All'epoca della fondazione della teoria cinetica, però, il numero di Avogadro

NA=6,02·1023 mol-1 non si conosceva ancora. Nella memoria Fondamenti d'una teoria dei gas pubblicata nel 1856, Kronig

suppone un gas costituito da un insieme di molecole, assimilate a sferette perfettamente elastiche, in continuo moto assolutamente disordinato. Egli ritiene anche trascurabile il volume delle molecole rispetto al volume totale del gas e nulle le azioni reciproche tra le molecole. Per effetto del continuo moto, le molecole si urtano tra loro e urtano contro le pareti del recipiente, con conseguenti variazioni della loro velocità. In base a queste

447! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ipotesi tenuta presente la legge di Avogadro e applicando la meccanica dei punti materiali, Kronig riusciva a dedurre la legge di Boyle, che porta a concludere che il prodotto della pressione per il volume di una massa gassosa è eguale a 2/3 dell'energia cinetica traslatoria di tutte le molecole della massa gassosa. Il suddetto prodotto perciò, rimane costante finché rimane costante l'energia cinetica traslatoria delle molecole. Ma l'equazione caratteristica dei gas avverte che il prodotto varia col variare della temperatura, quindi l'energia cinetica deve variare con la temperatura, ossia l'energia cinetica dipende dalla temperatura. Ne viene spontanea l'idea di definire la temperatura mediante l'energia cinetica media delle molecole, ponendo tra le due grandezze una ben determinata relazione matematica, che nella terminologia moderna assume la forma:

A queste basi della teoria aveva pensato, indipendentemente a suo dire, anche

Clausius. Mentre Kronig supponeva le molecole dotate di solo moto traslatorio, Clausius osservò che l'urto reciproco delle molecole provoca necessariamente anche un loro moto rotatorio. Ciascuno di questi moti, chiamato “grado di libertà”, è un modo indipendente in cui un atomo può ricevere e immagazzinare energia. Secondo il teorema di equipartizione dell’energia, l’energia di un gas dovrebbe essere distribuita in modo uniforme tra le sue molecole e quindi suddivisa in parti uguali tra i differenti modi in cui una molecola può muoversi:

PRINCIPIO EQUIPARTIZIONE DELL’ENERGIA

In un gas alla temperatura T, ad ogni grado di libertà del moto molecolare corrisponde un’energia cinetica media pari a:

!! !!

!!!!

Inoltre, gli atomi che costituiscono una molecola si muovono gli uni rispetto agli altri secondo un moto forse oscillatorio. Su queste basi teoriche, Clausius calcola così, per esempio, che a 0 °C la velocità delle molecole d'ossigeno è 461 m/s e delle molecole d'idrogeno 1844 m/s. I valori, quasi eguali a quelli calcolati oggi, sembrarono enormi e incompatibili con la piccola velocità di diffusione di un gas in un altro e con il basso potere conduttore dei gas. Ma già nel 1858 Clausius osservava che il processo di diffusione non dipende tanto dalla velocità delle molecole, quanto dal libero cammino medio di una molecola, definito come il valore medio del percorso rettilineo compiuto da una molecola tra due urti successivi (nel 1860 calcolato da Maxwell) e in conseguenza il numero di urti di ogni molecola in un certo tempo. Si ottengono, come si sa, numeri grandissimi, che, in condizioni normali, sono dell'ordine di 5 miliardi per secondo. Lo schema teorico di Kronig e Clausius è un po' semplicistico, onde le conseguenze tratte si potevano ritenere confermate dall'esperienza soltanto in prima approssimazione. In particolare l'equazione di stato che la teoria dava come verificata in ogni circostanza era seguita da gas molto rarefatti.

Nel 1873 comparve la prima memoria di Johannes Van der Waals (1837-1923), nella quale si dimostrava che basta correggere la precedente teoria in due punti soltanto per giungere a conclusioni applicabili ai gas reali. Basta, in primo luogo, tenere presente

CB

3E k T

2=

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 448!

che il volume delle molecole non è nullo, ma, con l'aumentare indefinito della pressione, esso non tende a zero, ma a un certo valore finito, detto covolume, legato al volume totale delle molecole; in secondo luogo, bisogna non trascurare l'attrazione mutua tra le molecole, cioè la coesione del gas, che ha per effetto di diminuire la pressione, perché ogni molecola all'istante dell'urto contro la parete è, per così dire, frenata dall'attrazione delle altre molecole. Tenendo conto di queste due correzioni, Van der Waals scrisse l'equazione di stato che porta il suo nome:

EQUAZIONE DI STATO DEI GAS REALI

a e b costanti caratteristiche del gas reale

Abbiamo osservato che il secondo principio della termodinamica, nell'enunciato

di Clausius, era in antitesi con i tradizionali concetti meccanici. La meccanica aveva considerato sempre i processi meccanici come reversibili, mentre il secondo principio della termodinamica li riteneva irreversibili. La teoria cinetica mutò l'antitesi in antinomia: se il calore si riduce a moto delle singole molecole, retto da leggi dinamiche reversibili, come è possibile conciliare la reversibilità dei processi singoli con l'irreversibilità della massa?

Forse una delle ragioni dell'aspra lotta degli energetisti (Rankine, Helmholtz, Ostwald, Mach) contro la teoria atomica, da loro giudicata troppo rozza e ingenua, è proprio da ricercare nell'antinomia tra i processi dinamici reversibili e il secondo principio della termodinamica. Secondo loro l'antinomia si sarebbe eliminata quando fosse venuto a mancare uno dei termini e perciò propendevano per l'abbandono della teoria cinetica. Ma l'antinomia fu superata per altra via; la tracciò Maxwell, nell’articolo Illustrations of the dynamical theory of gas (1860), ponendosi un preciso problema di teoria cinetica: se le molecole di un gas sono in continuo moto, qual è la velocità che in un certo istante ha una determinata molecola di gas? Ma seguire mentalmente o con il calcolo l'evoluzione di tutte le singole molecole dello sterminato numero contenuto in una massa gassosa non è possibile. Ciò che si può fare, secondo Maxwell, è la statistica delle velocità; cioè, non chiedersi quale sia la velocità di una singola molecola, ma quante siano le molecole che in un certo istante hanno una determinata velocità. A fondamento del suo calcolo, Maxwell pose le seguenti considerazioni intuitive: nessuna direzione di moto è privilegiata; nessuna velocità è privilegiata o proibita, cioè una molecola può assumere tutti i valori delle velocità compresi tra un massimo e zero; ogni gas abbandonato a se stesso finisce per assumere uno stato stazionario nel quale la distribuzione statistica delle velocità rimanga costante col tempo. In altre parole, se due molecole di velocità rispettiva a e b collidono e dopo la collisione assumono le velocità p e q, contemporaneamente altre due molecole di velocità p e q collidono e assumono velocità a e b, in modo che rimanga costante il numero di molecole di velocità rispettivamente a, b, ..., p, q. In base a queste ipotesi e ad altre meno importanti che si trovano nelle pieghe del ragionamento, Maxwell dette la formula della distribuzione delle velocità nelle molecole di un gas:

2

ap (V b) RTV

+ − =

2

B

mv3 /2

2k T2

B

N 4N mv e

v 2k T

− ∆=

∆ π

449! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

che determina, in funzione della velocità v, la probabilità che una molecola abbia una velocità compresa fra v e v+dv, quando sia data la temperatura del gas. In questo modo non solo si ammette che le velocità delle molecole siano diverse ma introduce l’ipotesi molto importante che le velocità delle molecole varino distribuendosi secondo la stessa legge con cui si distribuiscono gli errori in una serie di osservazioni. Tale distribuzione può cioè considerarsi casuale. Le velocità varieranno da zero all’infinito, ma è possibile calcolare il numero medio delle molecole, e quindi la loro probabilità, la cui velocità si colloca entro certi limiti. Oltre al calcolo delle velocità e del percorso libero medio (la lunghezza media percorsa dalla particella fra due urti successivi), queste ipotesi permettevano a Maxwell di spiegare importanti proprietà osservabili dei gas. La teoria cinetica dei gas sviluppata da Maxwell e Clausius apriva in tal modo una nuova prospettiva teorica nella conoscenza dei fenomeni naturali. In primo luogo con essa assumeva un ruolo molto importante nella fisica il calcolo delle probabilità. L'introduzione di leggi statistiche nella fisica considerate non più, dunque, leggi dinamiche causali, ma leggi statistiche che permettono di prevedere l'evoluzione futura non con assoluta certezza, ma solamente con probabilità, talvolta grandissima. In secondo luogo si aveva una completa rivalutazione dell’atomismo tradizionale e soprattutto si poteva dare una nuova interpretazione della termodinamica che risolveva le difficoltà sorte dall’apparente contrasto fra il primo e secondo principio della termodinamica. Se si considera infatti l’energia, che si conserva in base al primo principio, come la somma delle energie delle singole molecole di un corpo, allora il secondo principio non nega affatto, con la dissipazione dell’energia, che l’energia, cioè la capacità di compiere lavoro, delle singole molecole diminuisca. Tale principio afferma soltanto che essa non è più utilizzabile per l’uomo, ad esempio quando si ha un livellamento di temperatura fra i corpi, cioè si ha una distribuzione più uniforme della velocità delle molecole in essi. In altre parole non vi è una velocità, in media, più probabile di un’altra.

La teoria di Maxwell sollevò molte critiche. Ci limitiamo a riferire soltanto l'obiezione fondamentale mossa da Joseph Loschmidt (1821-1895) nel 1876. I fenomeni meccanici, diceva Loschmidt, sono reversibili; quindi se esiste una serie di processi che porta un gas da uno stato anormale di distribuzione non maxwelliana delle velocità allo stato di distribuzione maxwelliana, dovrà esistere anche la serie di processi inversi che porta il gas dallo stato di distribuzione maxwelliana allo stato non maxwelliano, il quale pertanto non è stazionario, contrariamente all'ipotesi fondamentale di Maxwell. Le polemiche si placarono solamente dopo la verifica sperimentale della legge di distribuzione maxwelliana, oggi ritenuta estremamente probabile.

Per superare le difficoltà sollevate dal secondo principio della termodinamica, il concetto di probabilità degli eventi fisici, non esplicitamente introdotto da Maxwell, fu avanzato nel 1878 da Ludwig Boltzmann (1844-1906). Boltzmann si propose di porre la teoria cinetica di Maxwell su basi concettualmente più solide.

Nel 1871 Maxwell aveva immaginato il seguente esperimento mentale, rimasto classico: consideriamo due recipienti A e B contenenti un gas, a pressione e a temperatura uniforme, e comunicanti fra loro per mezzo di

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 44:!

un setto perfettamente scorrevole, che possa essere manovrato senza alcuna spesa di lavoro. Immaginiamo ora un essere diabolico, noto come diavoletto di Maxwell, che tenga aperto il setto solo quando una particella, durante il disordinato moto molecolare, tende a passare da B in A, tenendo chiusa la comunicazione in caso contrario. Dopo un certo tempo, teoricamente anche molto lungo, tutte le molecole sono passate in A, mentre in B si è formato il vuoto. Si è così invertita l'esperienza di Joule, essendosi prodotto, senza alcun lavoro esterno, uno squilibrio di pressione fra i due recipienti. In modo analogo l'equilibrio termico nei due scomparti potrebbe essere alterato mediante il passaggio delle molecole più veloci in B e di quelle più lente in A. In definitiva, in entrambi i casi, il secondo principio della termodinamica sarebbe violato.

Dobbiamo ora chiederci se durante il moto molecolare, per una successione di casi fortuiti, i fantasiosi fatti illustrati da Maxwell possano realmente verificarsi. A rigore di logica non è assurdo pensare che a un certo istante tutte le molecole siano passate in A o che si sia spontaneamente prodotta nei due ambienti, lasciati in comunicazione, una disomogeneità macroscopica di pressione o di temperatura. Tuttavia, la probabilità di simili eventi fortuiti dipende dal numero di molecole presenti nei recipienti, nel senso che, col crescere del numero di molecole, la probabilità diviene così piccola che praticamente i casi considerati non si realizzano mai. Boltzmann, quindi, sulla base della precedente considerazione, propose un’innovazione radicale: il secondo principio della termodinamica non è una legge naturale certa, ma solo di estrema probabilità. Quindi le ragioni del secondo principio della termodinamica derivano esclusivamente da osservazioni effettuate su sistemi formati da numeri enormemente grandi di molecole, con intenzionale esclusione di ogni processo elementare. Da tutto ciò discende che, se il numero delle molecole è molto piccolo, il concetto di irreversibilità non ha alcun significato fisico, mentre, quando un sistema è formato da un numero molto grande di elementi, esiste un'impossibilità pratica di violare l'unidirezionalità dei processi reali. Per un sistema termodinamico, pertanto, fra tutti i processi possibili si verificherà con quasi assoluta certezza quello avente la massima probabilità. Allora, i vari enunciati del secondo principio dovrebbero affermare, piuttosto che l'impossibilità di determinati fenomeni, la loro estrema improbabilità. Anche la legge dell'accrescimento d'entropia nei processi adiabatici irreversibili è una legge di probabilità. S'intuisce, dunque, che dev'esserci una relazione tra entropia e probabilità, messa in luce da Boltzmann nel suo teorema enunciato nel 1887, una delle più alte conquiste della fisica teorica:

EQUAZIONE DI BOLTZMANN

L'entropia S(A) dello stato macroscopico A di un sistema è espressa in funzione della probabilità termodinamica P(A) di quello stato dalla relazione:

! ! ! !!!"#!!!

dove la probabilità termodinamica P(A) di uno stato macroscopico A, è una grandezza proporzionale al numero delle configurazioni microscopiche.

Dall’equazione di Boltzmann discende che ogni aumento di entropia in un processo irreversibile significa che la natura preferisce uno stato più probabile a uno meno probabile. L’aumento di entropia in un processo irreversibile, cioè l’aumento di una grandezza, definita come il rapporto Q/T, che sembrava sfuggire ad ogni comprensione di tipo meccanico tradizionale, viene così ricondotto al variare delle

45<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

proprietà meccaniche di un sistema di particelle in interazione. La dissipazione dell’energia in tal modo non risulta più soltanto una valutazione tecnica ed economica di processi macrofisici irreversibili, come la conduzione di calore, ma è il risultato di un comportamento meccanico nella struttura invisibile della materia. Boltzmann trovò quindi un modo per definire l’entropia come una misura statistica del movimento di un insieme di atomi e mostrò che le collisioni tra gli atomi spingono l’entropia verso il suo massimo valore. Se in un contenitore di gas atomi veloci, e quindi caldi, si mescolano con atomi lenti, quindi freddi, il rimescolamento energetico e casuale tende a rallentare gli atomi veloci ed accelerare quelli lenti fino al raggiungimento di una velocità mediamente uguale per tutti. A questo punto la temperatura è identica dappertutto (equilibrio termico) e l’entropia massimizzata. In sostanza, lasciando gli atomi mescolarsi tra di loro, urtarsi e condividere l’energia nel modo più uniforme possibile, essi raggiungeranno uno stato di massima entropia. Il disordine degli atomi a questo punto è massimo, nel senso che sono disposti nel modo più casuale possibile.

E sotto questo nuovo punto di vista che la complessità si affaccia per la prima volta. Con Clausius essa mostra il proprio volto catastrofista se è vero che l'entropia è la manifestazione di una perdita della capacità di trasformazione energetica (lo stato di massima entropia corrisponde a quello di una omogeneizzazione dei potenziali energetici, a una morte termica) e bisogna quindi leggere le scoperte della termodinamica come un attentato all'armonia prestabilita dell'universo, lo svanire dell'illusione di un ordine interno e immutabile, l'irruzione del caos. Con Boltzmann si scopre il carattere fondamentalmente disordinato dei movimenti molecolari interni ad un sistema. Collega così l’intuizione dell'entropia di Clausius a questo nuovo risvolto della questione e ne ricava una relazione fondamentale: il calore e l'energia propria ai movimenti disordinati delle molecole, nell'ambito del sistema stesso, e ogni aumento di calore corrisponde ad un aumento dell'agitazione molecolare, ad un'accelerazione dei movimenti disordinati. È dunque perché la forma calorica di energia comporta un disordine che si verificano perdite e degradazione della capacità di lavoro. L'aumento di entropia è pertanto connesso con il passaggio da una condizione di ordine a una di disordine. Siamo così in grado di giustificare l'origine dell'irreversibilità e quindi il verso naturale degli eventi: esso proviene dall'ordine che si trasforma in disordine o, il che è lo stesso, dal passaggio da una condizione poco probabile a una più probabile.

L'entropia diventa così la metafora del disordine: quando l'una cresce, cresce l'altro, e allo stato massimo, quello verso cui, secondo Clausius, l'universo stesso tenderebbe, corrisponde un disordine molecolare completo, che si manifesta con l'equilibrio termico e l'omogeneizzazione. Il limite massimo di disordine e agitazione molecolare, se inteso come limite fisico del sistema-universo, pone subito un interrogativo drammatico: come può il Cosmo, apparentemente ordinato, tendere alla propria disorganizzazione? Ogni armonia prestabilita verrebbe così, nel campo dell'entropia su scala universale, sistematicamente bandita dal discorso della scienza. Il disordine è così presente nella microstruttura di tutte le cose, soli e pianeti, sistemi aperti o chiusi, cose inanimate ed esseri viventi; è un disordine costitutivo, che fa parte necessariamente della natura di ogni essere fisico.

Infiltratosi nel mondo fisico, con il secondo principio della termodinamica e nel mondo microfisico, al disordine mancava soltanto una conferma definitiva, che arrivò, per così dire, dallo spazio profondo, con la scoperta nel XX secolo dell’espansione

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 45;!

dell’universo e della radiazione cosmica di fondo distribuita uniformemente alla temperatura di circa 4 °K, eco del big bang.

Il finale più appropriato all’esame della termodinamica e della meccanica statistica spetta a Josiah Gibbs (1839-1903), che rappresenta l’ingresso dell’America nel campo della fisica teorica. La memoria On the equilibrium of heterogeneous substances (1876-1878) fu molto apprezzata da Maxwell, anche se poco nota alla maggior parte dei fisici per il suo carattere piuttosto astratto. La conseguenza di tutto ciò fu che dopo molti anni alcuni grandi fisici, come Planck ed Einstein, riscoprirono i risultati ottenuti da Gibbs. Il secondo contributo fondamentale fu rivolto alla meccanica statistica. In un breve libro Elementary principles of statistical mechanics (1901), Gibbs rielaborò la materia in una forma estremamente generale, originale ed elegante, e che esercitò una profonda influenza sulla meccanica statistica e che viene studiato ancora oggi.

Nell'ultimo decennio del XIX secolo la fisica aveva accettato le idee rivoluzionarie di Maxwell e di Boltzmann, accogliendo nel suo seno leggi probabilistiche; ma tra certezza e probabilità c'e un abisso. La fisica classica si trovò, dunque, di fronte a un dualismo inevitabile. In presenza di una qualunque legge che credesse d'interpretare un fenomeno, la fisica si doveva chiedere: è questa una legge dinamica, causale o una legge statistica di probabilità? Davanti a questo dualismo i fisici si divisero in due schiere. I pochi volevano superarlo negando l'esistenza di leggi certe e dando a tutte le leggi fisiche carattere di probabilità; i molti volevano ricondurre tutte le leggi statistiche a leggi dinamiche elementari. Le leggi statistiche, dicevano, sono sintesi di leggi individuali dinamiche causali, che la nostra mente non riesce a seguire tutte assieme; la probabilità che risulta dalle leggi statistiche è solamente la misura della nostra ignoranza; la scienza non si può fermare alle leggi statistiche, ma deve risalire da queste alle leggi individuali dinamiche che le compongono, perché solamente così la nostra mente può seguire i nessi causali. Ovviamente questi fisici ritenevano pienamente valido il rigido determinismo dei fenomeni naturali, affermato da Laplace. Ma gli ultimi anni del XIX secolo dovevano mettere in discussione questo rigido determinismo e dare il via alla crisi della fisica classica che si concretizzerà nei primi decenni del XX secolo ad opera della teoria della relatività e della meccanica quantistica.

8.9 La complessità e il disordine “[…] Per gli antichi la Natura era una fonte di saggezza. La Natura medievale parlava di Dio. Nei tempi moderni la Natura è divenuta così silenziosa che Kant pensò che scienza e saggezza, scienza e verità dovessero essere completamente separate. Abbiamo vissuto con questa dicotomia nel corso degli ultimi due secoli. È tempo che essa giunga alla fine. [...] Una prima tappa verso una possibile riunificazione della conoscenza è stata la scoperta, nel corso del XIX secolo, della teoria del calore, delle leggi della termodinamica. Nella nostra attuale prospettiva la termodinamica appare dunque come la prima scienza della complessità” (Prigogine, Premio Nobel per la chimica, 1977).

Il problema è intanto quello di capire la differenza epistemologica che corre tra i due termini, complicato e complesso, che sono solo apparentemente simili.

45=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

In primo luogo: parlando di un fenomeno la cui spiegazione ci obbliga a mettere in gioco un numero considerevole di variabili, dipendenti o indipendenti, soprattutto per quanto riguarda la sua espressione in chiave simbolico-numerica (una formula) o in chiave descrittiva (un teorema), cos'e che ci autorizza a considerarlo un "fenomeno complesso"? E inoltre: la messa in evidenza, all'interno di questo fenomeno, osservato nel suo sviluppo, di alcune congruenze e condizioni di ordine ricorrenti deve farci pensare che vi è una semplicità della spiegazione sotto un'apparente difficoltà di lettura, che esiste una struttura nascosta?

La fisica ha compreso che nella conoscenza della realtà non si tratta soltanto di raccogliere un numero considerevole di dati relativi ad un fenomeno, per meglio definirlo, e che non è il numero elevato di variabili in gioco a stabilire la presenza di una complessità, quanto piuttosto il loro essere visibilmente intrecciate in una rete di relazioni.

Ciò che fa davvero la differenza tra i due concetti di complesso e complicato è la scoperta che tutti i fenomeni fisici mostrano un'apparente mancanza di ordine nella propria evoluzione e a volte nella stessa struttura, caratteristiche che non permettono di ricostruire certe serie di eventi se non come processi caotici. Il contesto entro cui la fisica scopre la complessità si individua così nella scoperta del carattere imprevedibile di alcuni fenomeni, e nella comprensione del fatto nella fisica non esistono oggetti semplici, cioè la ricostruzione di un evento osservato sembra rispondere a leggi deterministiche, ma va ben oltre queste leggi e che la previsione dello stato futuro di un sistema può sembrare possibile, ma a costo di ridurre qualitativamente la portata del fenomeno studiato. Il criterio che permette di differenziare complicatezza e complessità dovrebbe comunque scaturire anche dall'evidenza del limite intrinseco alle spiegazioni che la fisica classica ha dato dei fenomeni, quelle cioè che puntano a semplificare, a ridurre, a sminuire la portata di un fenomeno, ad ignorare le innumerevoli relazioni possibili fra fenomeni ed eventi diversi. Quindi, nel momento in cui si prende coscienza dell'esigenza di una nuova situazione teorica si dovrebbero, per così dire, ridisegnare anche gli strumenti e le procedure d'indagine della fisica e il sistema delle pratiche sperimentali. La strada nuova intrapresa dalla ricerca scientifica solo apparentemente rompe con la tradizione, ma che in realtà recupera il senso dell'eredità greca, del pensiero dinamico dei primi atomisti, molto più vicini alla termodinamica (e alla meccanica quantistica) di quanto non siano state le categorie di Aristotele e i miti demiurgici di Platone. Arriva quindi dal passato, un passato per troppo tempo dimenticato, il cuore teorico di queste nuove sfide che la natura lancia alla scienza.

Tutto questo implicherà, soprattutto nel Novecento, un notevole spostamento di prospettiva: si mostra anzitutto come ogni idea di esattezza nella scienza, se è scaturita da una concezione del Mondo come meccanismo semplice, sia fittizia. Di conseguenza, si è manifestato il carattere puramente descrittivo delle leggi scientifiche, la loro incapacità, cioè, di andare oltre la semplice supposizione di uno stato di cose, di spiegare davvero un fenomeno, fatto questo che mette sotto una luce diversa anche il concetto di osservazione e di esperimento, nonché quello di verità. Se le leggi non ci dicono nulla di preciso e affidabile riguardo il verificarsi di un fenomeno nello spazio e nel tempo, se sono ormai soltanto la descrizione di una possibilità che le cose accadano, allora la scienza si riduce ad essere solo uno dei possibili discorsi sul mondo, non più l'unico esatto. Del resto, l'osservazione di un fenomeno non è più il punto di partenza per individuare una spiegazione; compiere un

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 454!

esperimento non è più un atto costitutivo della conoscenza, ma piuttosto una pratica esplorativa, un modo come un altro per conoscere. Siamo passati così da un'immagine della scienza come episteme, cioè sicurezza, certezza, raggiungimento della verità, alla scienza come doxa, sapere fallibile, ipotetico, opinione, un discorso intorno alle cose. Forse è questo l'aspetto più importante che porterà alla crisi della fisica classica e che rappresenterà l’aspetto fondamentale della scienza del '900.

Esaminiamo a questo punto più nel dettaglio l'evoluzione della crisi, che è la storia del crollo dell'immagine del Mondo-orologio cartesiano e newtoniano e dell'ideale della scienza come portatrice di verità, nonché dell'affacciarsi di un nuovo modo di vedere il mondo.

Tutto comincia con la Rivoluzione industriale, con la scoperta che il fuoco trasforma la materia, permette ai corpi di dilatarsi, di fondersi o evaporare, e soprattutto permette al combustibile di bruciare con grande produzione di fiamma e calore. La scienza del XIX secolo comprende il fatto che la combustione produce calore e che il calore produce lavoro (effetto meccanico). La teoria del calore nasce come problema squisitamente tecnico ed economico: non riguarda la natura del calore o la sua azione sui corpi, ma piuttosto l'uso di tale azione. Si tratta di sapere, cioè, in quali condizioni il calore produce energia meccanica e fa girare un motore. Ma da questo interesse pratico della scienza deriverà, di anche la scoperta sconvolgente del fatto che il fenomeno della trasformazione del calore, per la sua natura e i suoi effetti, non era assolutamente riconducibile, né riducibile, alla meccanica newtoniana, alla fisica classica. Sfuggiva, inevitabilmente, ad ogni tentativo di spiegazione.

Se infatti la termodinamica nasceva con l'enunciazione del principio secondo cui l'energia si conserva intatta, attraverso le più diverse trasformazioni, e non va mai perduta in nessuna delle sue parti, a questo Primo Principio fece presto seguito l'individuazione, nell'ambito dello studio delle macchine a vapore, di un altro fattore assai meno tranquillizzante: se è vero che la quantità di energia complessiva di un sistema termico (una macchina vapore, ad esempio) si mantiene costante, la parte d'energia effettivamente utilizzabile per compiere un lavoro invece diminuisce, si dissipa a causa dell'attrito e di altre forze che entrano in gioco nel sistema. Questo Secondo Principio trasformava di fatto la termodinamica, fino a quel momento scienza dell'Ordine e della stabilità, in una scienza del Disordine e dell'incertezza. In sostanza, si affermava che uno scambio termico, o di qualunque altra forma di energia, è un processo di continua trasformazione, ma anche che la direzione seguita dal processo non è mai invertibile, non è mai possibile riportare tutte le grandezze e le variabili che intervengono in un fenomeno al loro stato iniziale. Nei processi termodinamici niente torna indietro: così come mescolando acqua caldissima e fredda si ottiene acqua tiepida, e continuando a mescolare la temperatura si uniformerà sempre più, allo stesso modo la crescita costante del disordine è il destino dei sistemi termici; la parola che individua questa circostanza è di origine greca: entropia. Da un punto di vista filosofico, l'ingresso di questa variabile disordinata nell'universo newtoniano, razionale e immutabile, rappresentò il bisogno di un profondo mutamento di prospettiva, ma non necessariamente un ritorno dell'irrazionalità: soprattutto significò in qualche modo scrollarsi di dosso la convinzione che tutto nell'universo avvenga secondo un Piano prestabilito, che l'equilibrio sia il risultato di un progetto stabile, che le leggi del Cosmo siano interpretabili in un'ottica di semplicità. La termodinamica, con la sua attenzione

455! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

per i processi irreversibili, con l'uso dei concetti di probabilità e di caos, fu anzi la prima vera scienza della complessità.

Alla fine dell’800 le lacune interne alla meccanica classica messe in luce da Carnot, Clausius, Boltzmann lasciavano intendere che l'immagine tipica dell'universo, quella di un perfetto meccanismo prevedibile nel suo funzionamento, era ormai improponibile. Spazio, Tempo, Materia, Causa ed Effetto, le parole chiave della scienza, si misero all'improvviso a parlare un linguaggio nuovo, mentre quello di Newton, la sua sintassi e il suo vocabolario, si mostravano ormai troppo semplici.

8.10 La corrente elettrica e i suoi effetti: nascita dell’elettrodinamica

La notizia dell’invenzione della pila si sparse rapidissima, destando un interesse quale forse non s’era mai avuto dai tempi di Newton, ed aprì nuovi scenari sui numerosi e sorprendenti fenomeni che si andavano scoprendo. Le ricerche scientifiche presero subito tre vie: studio della natura della corrente elettrica (chiamata all’inizio fluido galvanico in ottemperanza alla secolare idea fluidistica) prodotta dalla pila, costruzione di pile sempre più potenti, studio dei nuovi fenomeni.

La polemica sulla natura del nuovo ente messo in gioco dalla pila di Volta non fu sterile, ma ebbe un’azione stimolante nel suggerire nuove ricerche. Uno dei primi fenomeni osservati da Volta nel suo apparato elettromotore fu la decomposizione dei sali del liquido della pila e la calcinazione delle lastre metalliche, in particolare dello zinco.

Anthony Carlisle (1768-1840) e William Nicholson (1753-1815) nulla sapevano degli esperimenti voltiani, quando, costruitisi una pila, cominciarono i propri. Dopo qualche mese gli sperimentatori inglesi scoprirono il fenomeno di scomposizione dell'acqua. L'annuncio degli esperimenti di Carlisle e Nicholson dettero il via a una moltitudine di ricerche analoghe. Nello stesso anno 1800 Henry annunciava di aver decomposto l'ammoniaca; Cruikshank osservò che nelle soluzioni di sali metallici attraversati dalla corrente si deposita il metallo al capo del conduttore dove si sviluppa l'idrogeno nel caso delle soluzioni acide.

Condusse ricerche sistematiche sugli effetti chimici della corrente Humphry Davy (1778-1829) dimostrando che l'acqua non era direttamente scissa dalla corrente, ma questa, invece, produceva la scissione degli acidi e dei sali disciolti nell'acqua. Nel 1806, dopo lunghi e pazienti tentativi, Davy riuscì a scomporre, mediante la corrente, la potassa, ottenendo un metallo, da lui battezzato potassio, con proprietà affatto inattese: era un metallo di poco più pesante dell'acqua, mentre sino a quell’epoca si conoscevano soltanto metalli molto più pesanti dell'acqua, ed era un metallo che s'infiammava spontaneamente a contatto con l'acqua. Poco tempo dopo Davy scompose anche la soda, ottenendo un altro metallo nuovo, da lui detto sodio. Con Davy sorse una nuova scienza, l'elettrochimica, che nei corso del secolo si va progressivamente staccando dalla fisica, per riavvicinarsi, come vedremo, verso la fine del secolo.

Il francese Nicolas Gautherot (1753-1803) e l’inglese William Hyde Wollaston (1766-1828) nel 1801, quasi contemporaneamente e indipendentemente, enunciarono la

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 456!

teoria chimica della pila, secondo la quale l'origine della forza elettromotrice della pila va ricercata nell'azione chimica tra i metalli e il liquido interposto.

Sin dai primi esperimenti sugli effetti chimici della corrente elettrica, gli scienziati si chiesero: perché in una soluzione di acqua acidulata, percorsa da corrente, si sviluppa, sempre allo stesso capo del circuito, idrogeno e all'altro capo ossigeno? Alcuni sostenevano che la corrente elettrica libera a un capo del circuito l'idrogeno di una molecola d'acqua e il corrispondente ossigeno rimane sciolto nella rimanente acqua, mentre all'altro capo la corrente libera l'ossigeno e nell'acqua si scioglie il corrispondente idrogeno; poi idrogeno e ossigeno sciolti si mescolano e ricompongono l'acqua. Altri che il fluido galvanico sottrae a un'estremità del circuito l'idrogeno di una molecola d'acqua e trasporta l'ossigeno corrispondente all'altra estremità. Rimaneva, però, nel vago il meccanismo di queste scissioni e ricomposizioni. Ma, proprio in quei primi anni di secolo diventava sempre più consistente l'ipotesi atomico-molecolare con la scoperta delle leggi degli equivalenti, delle proporzioni costanti, delle proporzioni multiple.

In questo ambiente di fervida operosità per la chimica quantitativa, portò un geniale contributo al meccanismo di scissioni chimiche osservate al passaggio della corrente Christian Grotthus (1785-1822) che nel 1805 pubblica una memoria, nella quale assimila la pila a colonna di Volta a un magnete elettrico e in conseguenza introduce i termini polo positivo e polo negativo per indicare i due capi della pila. Egli estende l'analogia alle molecole elementari dell'acqua, cioé agli atomi d'idrogeno e d'ossigeno uniti in ogni particella d'acqua; al passaggio della corrente avviene il distacco degli atomi e forse per effetto di frizione tra le due parti, l'idrogeno acquista l'elettricità positiva e l'ossigeno la negativa, onde, per una fila di molecole tra i poli, l'atomo O della molecola OH è attratto verso il polo positivo e vi cede la sua carica, mentre l'atomo H, con un meccanismo che Grotthus non indica, si ricombina con l'ossigeno O’ della molecola successiva, il cui idrogeno H' si ricombina con l'ossigeno della molecola successiva, e così di seguito. Una cosa analoga avviene per l'idrogeno delle molecole che si trovano vicine al polo negativo. Così, con questo gioco di successive scissioni, elettrizzazioni e ricombinazioni, si spiega, secondo Grotthus, il fatto che l'idrogeno si sviluppi sempre a un'estremità e l'ossigeno all'altra. La teoria di Grotthus, nonostante la primitività, la sua oscurità in qualche punto e qualche errore tecnico, durò per oltre mezzo secolo, con perfezionamenti successivi, tra i quali fu fondamentale la teoria dualistica enunciata completamente nel 1814 dal chimico svedese Jakob Berzelius (1779-1848): tutti i composti chimici sono costituiti da due parti oppostamente elettrizzate. La teoria di Grotthus, integrata dall'ipotesi di Berzelius, rappresenta un caposaldo dell'evoluzione del pensiero scientifico, perché preparò il terreno alle teorie ioniche.

Tra gli effetti termici prodotti dalla corrente della pila, il più vistoso senza dubbio fu l'arco tra conduttori di carbone. Davy sperimentò subito l’altissima temperatura dell’arco, che fondeva il platino. Se l' esperimento dell'arco era spettacolare, altri fenomeni termici parvero capricciosi; per esempio, due fili di platino di eguale lunghezza e di differente diametro, messi in serie in un circuito, si portava all'ignizione soltanto il filo più sottile, mentre posti in parallelo si portava all'ignizione soltanto il filo più grosso; Davy riscaldando con una lampada una parte di un circuito portato tutto al calor rosso, diminuiva la temperatura di un'altra parte e raffreddandola con ghiaccio

457! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

l'aumentava. Fino al 1841 tutti i tentativi di spiegare queste e molte altre capricciose esperienze andarono falliti; ma si rinsaldò sempre più la convinzione che il riscaldamento dei conduttori fosse legato alla resistenza che essi opponevano al passaggio della corrente, corrispondendo a maggior resistenza maggiore sviluppo di calore. Davy, dagli accennati suoi esperimenti, andò più oltre, affermando che: “il potere conduttore dei metalli varia con la temperatura ed è più basso quasi nello stesso rapporto in cui la temperatura è più alta”. Una prima eccezione alla legge fu trovata nel 1833 da Faraday, che, sperimentando sul solfuro d'argento, constatava che il suo potere conduttore aumenta con la temperatura.

Che potesse esistere un'intima relazione tra elettricità e magnetismo fu sospettato fin dai primi sperimentatori, colpiti dall'analogia dei fenomeni di attrazione e repulsione elettrostatica e magnetostatica. Raggiunta con la pila di Volta la possibilità di ottenere una corrente elettrica di lunga durata, i tentativi di scoprire i legami tra fenomeni elettrici e fenomeni magnetici s'intensificarono e si moltiplicarono. Eppure, nonostante questa ricerca febbrile, la scoperta si fece attendere vent'anni. Le ragioni del ritardo vanno ricercate nelle idee scientifiche allora dominanti; precisamente nel fatto che si concepivano soltanto forze di tipo newtoniano, cioè forze che si esercitano tra particelle materiali, lungo la retta che le congiunge, per cui a partire da quella analogia tra legge di Coulomb e legge di Newton erano state elaborate delle teorie raffinate sui fenomeni elettrostatici e magnetostatici, sorrette da ipotesi sui fluidi elettrici e magnetici e dall'idea complessiva che la meccanica fosse un sicuro fondamento concettuale. Sicché gli sperimentatori tentavano di rivelare forze di questo tipo, montando dispositivi coi quali si ripromettevano di scoprire una presunta attrazione o repulsione tra un polo magnetico e una corrente elettrica (più generalmente tra il fluido galvanico e il fluido magnetico); oppure tentavano di magnetizzare un ago d'acciaio lanciandovi una corrente.

Nel 1820, tuttavia, il quadro delle indagini sui fenomeni elettrici e magnetici subì una scossa di notevoli proporzioni, a seguito della pubblicazione di un breve scritto in latino intitolato Experimenta circa effectum conflictus electrici in acum magneticam. L'autore dello scritto era Hans Christian Oersted (1777-1851), un fisico danese il quale aveva osservato che una corrente elettrica circolante lungo un filo conduttore era in grado di far deviare un ago magnetico fino a formare un angolo retto con la direzione del flusso elettrico, e che la deviazione era del tutto anomala. Essa infatti appariva solamente quando la corrente circolava, e si manifestava in modo tale da far escludere che la forza responsabile fosse diretta lungo la retta che congiungeva ago e filo. In tal modo venivano violati dalla natura stessa due presupposti basilari delle teorie fisiche allora disponibili: la forza che faceva deviare l'ago si manifestava infatti solo nel caso che la corrente circolasse e non era immediatamente riconducibile a effetti dovuti a cariche elettriche statiche, mentre la deviazione sembrava coinvolgere non tanto un'interazione lungo rette quanto un’interazione lungo curve. L'interesse e lo stupore degli scienziati furono grandi, non tanto per la soluzione di un problema lungamente ricercata, quanto perché si vide subito che il nuovo esperimento rivelava una forza non di tipo newtoniano. Si intuì anche un fatto grave, del quale, peraltro, si ebbe piena coscienza col volger degli anni: questo esperimento di Oersted rappresentava la prima lacerazione alla costruzione newtoniana del mondo.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 458!

Descritto l'esperimento, Oersted osserva che la declinazione dell'ago diminuisce con l'aumentare della sua distanza dal conduttore parallelo, non muta col mutare del mezzo interposto, s'inverte con l'inversione della corrente. Ciò che sembra veramente oscura nella memoria di Oersted è la spiegazione che egli tenta di dare dei fenomeni osservati, dovuti, secondo lui, a

due moti elicoidali in senso inverso attorno al conduttore di “materia elettrica”, rispettivamente positiva e negativa, e definisce il conflitto elettrico, cioè la corrente, che dà il titolo alla memoria, come “l'effetto che ha sede nel conduttore e nello spazio circostante”. Questo è un concetto troppo nebuloso per essere avvicinato alle idee di Faraday, come quella di campo che esamineremo in seguito.

Quando Oersted morì, la sua fama era giustamente assicurata in quanto egli aveva saputo porre la prima pietra nel cammino della scienza verso l'esplorazione dei fenomeni elettromagnetici; infatti, con il suo esperimento, oltre a porre dubbi sulla possibilità di trovare spiegazioni soddisfacenti nell'ambito delle teorie note e affermate, rendeva manifesta una fenomenologia che sino ad allora era stata negata. Si pensava infatti che esistessero analogie tra elettricità e magnetismo, ma si era nello stesso tempo convinti che i fenomeni elettrici e magnetici fossero tra loro indipendenti, mentre l'esperimento di Oersted mostrava che questa indipendenza era illusoria. Vari scienziati come Biot, Savart, e Laplace presero dunque in seria considerazione l'esperimento di Oersted e produssero congetture e schemi di spiegazione tendenti a ricondurre l'effetto osservabile all'interno dei quadri teorici tradizionali. Altri scienziati discussero invece di vortici magnetici nell'etere, facendo a volte riferimento alla possibile rinascita di nozioni fisiche tipiche della scienza di Cartesio.

Arago montò il suo ben noto dispositivo della corrente verticale che attraversa un cartoncino orizzontale cosparso di limatura di ferro, senza però vedere le circonferenze di limatura di ferro, forse perché non si poteva ancora vedere ciò che ancora non si conosceva; infatti sarà Faraday con la teoria delle curve magnetiche o linee di forza, a rendere visibili alla mente degli sperimentatori tali circonferenze di limatura di ferro. Arago vide solamente, come indipendentemente vide Davy un mese dopo di lui, che il conduttore: “si carica di limatura di ferro come farebbe un magnete” onde dedusse che “esso sviluppa il magnetismo nel ferro che non è stato soggetto a una preventiva magnetizzazione”.

Sempre nello stesso anno 1820 Biot lesse due memorie in cui comunicava i risultati di una ricerca sperimentale da lui condotta insieme con Felix Savart (1791-1841). Biot si proponeva di scoprire la legge che regola l'intensità della forza elettromagnetica alle diverse distanze, qualitativamente già enunciata da Oersted. Per raggiungere lo scopo, Biot pensò di servirsi del metodo delle oscillazioni, già usato da Coulomb. Montò perciò un dispositivo costituito da un grosso conduttore verticale, perpendicolare all'asse di un ago magnetico di declinazione: lanciando nel conduttore una corrente, l'ago si pone in oscillazione con un periodo che dipende dalla forza elettromagnetica esercitata sui poli alle varie distanze della corrente dal centro dell'ago.

459! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Dalle loro misure Biot e Savart dedussero che la forza elettromagnetica è normale al piano formato dal filo e dalla normale a esso condotta dal polo magnetico ed è inversamente proporzionale alla distanza del polo dal filo. Nell'enunciato non si fa cenno all'intensità della corrente, per la quale non c'era ancora possibilità tecnica di confronto. Nella formulazione moderna, la legge diventa:

LEGGE DI BIOT-SAVART

Il modulo B dell'induzione magnetica generata da un filo rettilineo molto lungo percorso da una corrente di intensità i in un punto a

distanza r dal filo è direttamente proporzionale all'intensità di corrente e inversamente proporzionale alla distanza:

L'esperimento di Arago, interpretato da molti fisici del tempo come effetto della

magnetizzazione di un filo percorso da corrente, fu intuito nella sua essenza da Ampère, il quale subito predisse, e poco dopo sperimentalmente provò, che una sbarra d'acciaio introdotta in un'elica percorsa da corrente si magnetizza permanentemente: si era trovato così un nuovo metodo di magnetizzazione, enormemente più efficace e pronto e comodo degli antichi. Ma soprattutto s'era dato l'avvio alla costruzione di un semplice apparecchietto prezioso, l'elettrocalamita, costruita per la prima volta nel 1825 dall'americano William Sturgeon (I783-1850).

Alla prima memoria di Oersted ne seguì una seconda, che ebbe scarsa diffusione. In essa Oersted dimostrava la reciprocità del fenomeno elettromagnetico da lui scoperto. Egli sospendeva un piccolo elemento di pila a un filo, chiudeva il circuito e ne otteneva la rotazione avvicinandovi un magnete; lo stesso esperimento fu eseguito da Ampère a cui comunemente si attribuisce. E, più semplicemente, Davy dimostrò l'azione di un magnete su una corrente mobile avvicinando il polo di una calamita a un arco elettrico. Sturgeon, costruita la sua elettrocalamita, modificò l'esperimento di Davy in cui l'arco ruota continuamente in campo magnetico.

L'avvio alla soluzione del problema sollevato da Oersted fu dato dal matematico francese André-Marie Ampère (1775-1836) il 18 settembre 1820, qualche giorno dopo essere venuto a conoscenza dell’esperimento di Oersted, annunciando all'Academie des sciences di Parigi la scoperta sperimentale delle azioni ponderomotrici tra correnti, che egli chiamò azioni elettrodinamiche, un insieme di “attrazioni e repulsioni completamente diverse da quelle ordinarie”. Ampére, nel descrivere le osservazioni che costituivano l'argomento principale della sua scoperta, sosteneva che questi nuovi fenomeni erano fatti, dati da esperienze facilmente ripetibili. Ma, come spesso accade nelle vicende scientifiche, i primi passi verso la soluzione di un problema dato sono anche i primi passi verso la scoperta di problemi insospettati. Le indagini di Ampére sfociarono infatti nella costruzione di una nuova teoria fisica, l'elettrodinamica, e, nello stesso tempo, fecero apparire nuovi quesiti sulla natura dei fenomeni elettromagnetici e sui rapporti tra elettrodinamica e teorie fisiche esistenti.

Subito dopo la scoperta di Oersted, si presentò come naturale ai fisici questa interpretazione: al passaggio di una corrente, un conduttore diventa un magnete e Biot, accettata questa concezione, interpretava le azioni elettrodinamiche come dovute

0 iB2 r

µ=

π

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 45:!

all’azione mutua dei magnetini elementari suscitati dalla corrente in ogni conduttore; in sostanza, ogni conduttore, percorso da corrente, diventa un tubo magnetico. Ma Ampère propose un’altra interpretazione, che costituisce la parte più geniale della sua opera: non il conduttore percorso da corrente diventa un magnete, ma il magnete è un complesso di correnti. Infatti, diceva Ampère, se supponiamo che in un magnete esista un complesso di correnti circolari, giacenti in piani esattamente perpendicolari all’asse, tutte nello stesso senso, una corrente parallela all’asse del magnete si viene a trovare ad angolo con le predette correnti e ne sorgono azioni elettrodinamiche che tendono a rendere parallele e nello stesso senso le correnti. Se la corrente rettilinea è fissa e il magnete mobile, questo devierà; se il magnete è fisso e la corrente mobile, questa si muoverà. È facile rendersi conto che l’ipotesi di Ampère, nel 1820, era eccezionalmente innovatrice, onde si capisce il riserbo con cui fu accolta. Non v'erano dubbi che si trattasse di una ipotesi e non di un fatto osservabile. Ma Ampere sosteneva che “dal semplice accostamento dei fatti, non mi sembra possibile dubitare che non esistano realmente tali correnti attorno all'asse dei magneti”. Se si accettava una simile impostazione, come lo stesso Ampere faceva notare, “si giunge al risultato inatteso che i fenomeni del magnete sono unicamente prodotti dall’elettricità”. In conclusione Ampere scriveva che tutti i fenomeni collegati all'interazione tra correnti e magneti rientravano completamente nelle leggi di attrazione e di repulsione tra correnti, a patto che si accettasse l'ipotesi sulla natura elettrica del magnetismo.

Pertanto, se una corrente genera un campo magnetico e un campo magnetico produce una forza su una corrente, allora due correnti devono necessariamente interagire con una forza. Con i suoi esperimenti elettrodinamici Ampère dimostrò che:

L'intensità F della forza d'interazione è direttamente

proporzionale a ciascuna delle due intensità di corrente e alla lunghezza dei conduttori, mentre è inversamente proporzionale

alla loro distanza:

La forza è attrattiva o repulsiva a seconda che i versi delle

correnti sono concordi o discordi.

Infine, Ampère giunge al famoso principio di equivalenza, come degna

conclusione dello stretto legame tra elettricità e magnetismo:

PRINCIPIO DI EQUIVALENZA

Un circuito percorso da corrente si comporta come un magnete.

Ld

iikF

21 ⋅⋅

⋅=

46<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Secondo Ampère, il merito della sua teoria è quello di aver ricondotto sotto una causa unica, l'azione tra due elementi di corrente, tre ordini di fenomeni apparentemente diversi: le azioni magnetostatiche, le elettromagnetiche e le elettrodinamiche; ma soprattutto, con la sua formula sull’azione elettrodinamica delle correnti, di avere bandito dalla fisica le forze rivolutive, riconducendo tutte le forze della natura ad azioni tra particelle, lungo la retta che le congiunge. Ampere era consapevole dello scetticismo che circondava l'ipotesi sul magnetismo e che derivava da una lunga consuetudine a ragionare in termini di fluidi magnetici e da una altrettanto abitudinaria tendenza a interpretare la legge di Coulomb come una prova dell'impossibilità di interazioni fra fluidi elettrici e fluidi magnetici. D'altra parte l'elettrodinamica era effettivamente in grado di ordinare un numero elevatissimo di fenomeni entro uno schema matematico soddisfacente. L'ortodossia newtoniana di Ampere aveva probabilmente la funzione di dirottare da quest’ultima le critiche che potevano esserle rivolte in quanto essa non poteva fare a meno dell'ipotesi sulla natura elettrica dei fenomeni magnetici.

Tutti i precedenti risultati sono raccolti nella memoria Teoria matematica dei fenomeni elettrodinamici unicamente dedotta dall'esperienza (1825). Con questa grande memoria, giudicata da Maxwell “perfetta nella forma e incensurabile nella precisione”, Ampère rappezzava la concezione meccanicistica, fortemente scossa dall'esperimento di Oersted. Ma proprio l'opera di Maxwell avrebbe fatto scorgere che si trattava di un semplice rammendo. A ogni modo, con i lavori di Ampere del periodo 1820-25 si aprivano per le scienze fisiche delle sorprendenti direttrici di sviluppo, in quanto quei lavori mostravano il manifestarsi di una complessa fenomenologia elettromagnetica.

Che cos’è un conduttore? È un elemento puramente passivo del circuito elettrico risposero i primi sperimentatori dei fenomeni galvanici; occuparsene non ha senso perché soltanto la sorgente è l'elemento attivo. Questa mentalità spiega il disinteresse degli scienziati, protrattosi almeno sino al 1840, nei riguardi dei pochi studi sull'argomento. Trascorsero oltre vent'anni dall'invenzione della pila, prima che si riprendessero, pur in un clima di disinteresse, le ricerche settecentesche sulla resistenza elettrica; solamente i bisogni della telegrafia spinsero più tardi a un serio impegno; non è un caso che animatore degli studi sulla resistenza elettrica (e in generale sulle misure elettriche) sia stato un tecnico, Wheatstone. Tra i primi a riprendere le ricerche fu Davy, che nel 1821 sperimentò sulla conducibilità relativa di alcuni metalli, trovando l'argento il miglior conduttore. Lo seguì nel 1825 Antoine-Cesar Becquerel (1788-1878) che impiegò il galvanometro nel quale ciascun avvolgimento era inserito in derivazione ai capi di ciascuno dei due conduttori in esame, a loro volta derivati ai poli della stessa pila: i due conduttori hanno eguale o diversa resistenza a seconda che, al passaggio della corrente, l'ago del galvanometro non devia o devia. Sperimentando con fili diversi per diametro e per lunghezza, Becquerel giunse alla conclusione che due fili di egual natura hanno eguale conducibilità quando le lunghezze sono nel rapporto delle sezioni dei fili, enunciato coincidente col moderno.

Della resistenza interna della pila si occupò Stefano Marianini (1790-1866). Gliene dette occasione lo strano risultato a cui giunse nello studio della tensione delle batterie di pile: egli osservò che aumentando il numero di elementi di una pila a colonna non si accresce sensibilmente l'effetto elettromagnetico sull'ago, onde pensò subito che ogni coppia voltaica opponga sempre un ostacolo al passaggio della corrente.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 46;!

Georg Simon Ohm (1789-1854), ispirato dalla teoria analitica del calore di Fourier, ebbe l’idea che il meccanismo del flusso di calore si potesse assimilare al flusso di elettricità in un conduttore. E come nella teoria di Fourier il flusso di calore tra due corpi o tra due punti dello stesso corpo si attribuisce alla loro differenza di temperatura, così Ohm attribuisce alla differenza di forza elettroscopica tra due punti di un conduttore la causa del flusso di elettricità dall'uno all'altro. Vale la pena aggiungere come prova della lentezza della diffusione dei nuovi concetti, che Ohm definisce la forza elettroscopica come la densità dell'elettricità nel punto considerato e fu solamente nel 1850 che Kirchhoff, osservato che questo punto di vista era in contraddizione con i principi dell'elettrostatica, interpretò la forza elettroscopica come la funzione potenziale della quantità totale di elettricità libera. Guidato dall'analogia col flusso di calore, Ohm iniziò i suoi studi sperimentali con la determinazione dei valori relativi delle conducibilità dei diversi conduttori.

Negli esperimenti del tempo parecchie erano le cause d'errore (impurità dei metalli, calibrazione dei fili, loro esatta misura ccc.), tra le quali era massima la polarizzazione delle pile, cioè il fatto che, non conoscendosi ancora pile costanti, il tempo necessario per le misure ne alterava la forza elettromotrice. Furono queste cause d'errore a condurre Ohm a riassumere in una legge logaritmica i risultati sperimentali da lui ottenuti nello studio della variazione dell'intensità di corrente col variare della resistenza inserita tra due punti del circuito. Dopo la pubblicazione della prima memoria, Ohm cominciò ad utilizzare la pila termoelettrica, recentemente introdotta da Seebeck, e montò un dispositivo con tale pila e nel cui circuito esterno inseriva successivamente otto fili di rame di eguale diametro e di varia lunghezza. Misurava l'intensità di corrente con una specie di bilancia di torsione costituita da un ago magnetico sospeso con un filo metallico appiattito: quando la corrente, parallela all'ago, lo deviava, Ohm torceva il filo di sospensione sino a riportare l'ago nella posizione di riposo e riteneva l'intensità di corrente proporzionale all'angolo di torsione del filo. Ohm concluse che i risultati sperimentali: “possono essere rappresentati molto soddisfacentemente dall'equazione X=a/b+x dove X indica l'intensità dell'effetto magnetico del conduttore la cui lunghezza è x, a e b essendo costanti dipendenti rispettivamente dalla forza eccitatrice e dalla resistenza delle rimanenti parti del circuito”. Nel 1827 Ohm pubblicò il suo capolavoro Die galvanische Kette, mathematisch bearbeitet. La teoria, ispirata, come abbiamo accennato, alla teoria analitica del calore di Fourier, introduce i concetti e le definizioni di forza elettromotrice o forza elettroscopica, di conducibilità elettrica, di caduta di forza elettroscopica o caduta di potenziale, secondo la nostra terminologia, d'intensità di corrente. In termini moderni le leggi di Ohm vengono così enunciate:

PRIMA LEGGE DI OHM

A temperatura costante, la differenza di potenziale ∆V applicata a due estremità di un

conduttore metallico è direttamente proporzionale all'intensità i della corrente che

percorre il conduttore:

Il coefficiente di proporzionalità R è chiamato resistenza

elettrica del conduttore.

SECONDA LEGGE DI OHM

La resistenza di un filo conduttore è direttamente proporzionale alla lunghezza L e inversamente proporzionale alla sezione S:

in cui ρ è una costante di proporzionalità, chiamata resistività, dipendente solo dalla natura fisica del

conduttore.

V R i∆ = ⋅

LR

S= ρ

46=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Ohm provò che la prima legge è valida anche per i conduttori liquidi e nel 1877 Edmund Hoppe (1854-1928) la estenderà a tutti i conduttori.

Già nel 1825 Marianini aveva dimostrato che nei circuiti derivati la corrente elettrica si suddivide in tutti i conduttori, qualunque ne sia la natura, contro l’idea di Volta, il quale aveva ritenuto che se un ramo derivato è metallico e gli altri liquidi tutta la corrente sarebbe passata per il conduttore metallico. L'osservazione di Marianini fu fatta propria da Claude Pouillet (1790-1868) che nel 1837, ancora ignorando la legge di Ohm, dimostrò che la conducibilità del circuito equivalente a due circuiti derivati è eguale alla somma delle conducibilità dei due circuiti. Con questo lavoro di Pouillet s'inizia lo studio dei circuiti derivati, che Gustav Robert Kirchhoff (1824-1887) generalizza nel 1845 con suoi famosi principi:

1° PRINCIPIO DI KIRCHHOFF

La somma delle correnti entranti in un nodo è uguale alla somma delle correnti uscenti:

2° PRINCIPIO DI KIRCHHOFF

La somma algebrica delle f.e.m. (V) applicate in un circuito è uguale alla somma delle

cadute di tensione (VR = R·I) provocate dal passaggio della corrente nelle resistenze

presenti nel circuito:

Il più forte impulso alle misure elettriche, in particolare alle misure di resistenza,

venne dalle esigenze della tecnica, come l'introduzione del telegrafo. Nel 1840 Charles Wheatstone (1802–1875) trovò il metodo di eseguire misure di resistenza indipendenti dalla costanza della forza elettromotrice impiegata (metodo del ponte di Wheatstone).

Come abbiamo già visto, Volta aveva scoperto un fenomeno secondo il quale mettendo a contatto due metalli diversi, per esempio rame e zinco, alla stessa temperatura si stabilisce fra di essi una differenza di potenziale. Thomas Seebeck (1770-1831), forse ignaro di tale esperimento, nel 1821 annunciava la scoperta del seguente fenomeno noto come effetto Seebeck: se un'estremità di una sbarretta di bismuto, saldata a entrambe le estremità con i capi di una spirale di rame, è riscaldata con una lampada e l'altra estremità tenuta fredda, l'ago di declinazione entro la spirale ruota, indicando il passaggio d'una corrente che nella saldatura non scaldata va dal rame al bismuto.

Nel primo quarantennio dall'invenzione della pila non erano mancati i tentativi, alcuni sfortunati e altri incompleti, per scoprire a quale legge obbedisse la produzione di calore da parte della corrente elettrica. Gli insuccessi si possono spiegare con la scarsa chiarezza dei concetti d'intensità di corrente e di resistenza elettrica e la conseguente mancanza di ben definite unità di misura e di appropriati strumenti di misura.

L'ignoranza della legge di Ohm, poi, portava gli sperimentatori a inserire nel circuito successivamente fili di resistenza diversa, credendo di variare così solo la resistenza e non l'intensità della corrente. Nel 1841 Joule iniziò il lavoro sperimentale sul calore prodotto dalla corrente. In tre successivi esperimenti in ciascuno dei quali erano disposte in serie due resistenze immerse in due calorimetri eguali, Joule ottenne che, per la stessa intensità di corrente, le quantità di calore prodotto erano proporzionali alle rispettive resistenze dei conduttori. Questo primo risultato lo condusse a formulare

Entranti UscentiI I=∑ ∑

V R I= ⋅∑ ∑

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 464!

un'ipotesi sull'effetto dell'intensità di corrente, attraverso il seguente, non molto chiaro, ragionamento: “Considerando la suddetta legge, pensai che l'effetto prodotto dall’aumento dell'intensità di corrente elettrica dovesse variare come il quadrato dell'intensità di corrente; perché è evidente che in questo caso la resistenza deve variare in un doppio rapporto, provenendo dall’aumento della quantità di elettricità passata in un dato tempo e anche dall'aumento di velocità della stessa”.

Probabilmente Joule vuole dire che il calore prodotto dalla corrente è dovuto agli urti delle particelle del fluido elettrico contro le particelle del conduttore. Ora, se aumenta l'intensità della corrente, aumenta la velocità delle particelle di fluido elettrico e perciò gli urti saranno più vigorosi e saranno più numerosi per l'aumentata quantità di fluido elettrico che passa, in un dato tempo, attraverso una sezione del conduttore. Comunque sia, Joule sottopose al controllo sperimentale la sua ipotesi e trovò che la quantità di calore misurata dal calorimetro in cui era immersa la spira di rame differiva così poco dalla calcolata, da poter senz'altro ritenere la legge pienamente verificata, almeno nei conduttori metallici:

LEGGE DI JOULE

Un conduttore ohmico di resistenza R, percorso per un tempo ∆t da una corrente di intensità costante I, dissipa per effetto Joule un’energia elettrica pari a:

Q=RI2∆t

Ripetuti gli esperimenti con numerosi tipi di pila, Joule concluse che la legge

trovata per i metalli vale anche per la resistenza interna della pila, e con eguale acume e accuratezza sperimentale, estese la legge agli elettroliti.

Numerosi scienziati verificarono la legge di Joule traendone le prime conseguenze. Per esempio Domenico Botto (1791-1865) e Lenz, in maniera indipendente, stabilirono che la massima quantità di calore che un generatore qualunque può fornire al circuito esterno si ha quando la resistenza di questo è uguale a quella interna del generatore.

8.11 Faraday e l’elettromagnetismo

Le scoperte di Ampère, come quelle di altri studiosi di elettricità del suo tempo quali Poisson, erano formulate in un linguaggio matematico perfetto che rappresentava lo sviluppo finale della fisica newtoniana trapiantata in Francia. Anche se Newton aveva espresso dubbi sul concetto di azione a distanza, la maggior parte della fisica successiva (come pure quella di Newton) si basava su quell'idea. L'attribuire un ruolo fondamentale al mezzo attraverso il quale le forze elettriche si propagano ha rivoluzionato la scienza elettrica facendole compiere giganteschi progressi. Essi sono dovuti in larga misura a Faraday e a Maxwell, che hanno portato lo studio dell'elettricità classica al suo punto più alto.

Anche se non ci addentreremo nelle applicazioni pratiche, saremmo ciechi se non rilevassimo come l'elettricità ha modificato il nostro sistema di vita e ha generato un vasto campo di applicazioni tecniche. Per molte di queste - i motori elettrici, i generatori

465! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

e i trasformatori - è sufficiente l'elettricità, secondo lo schema dell'azione a distanza. Tuttavia le onde elettriche e le comunicazioni radio richiedono, per la loro spiegazione, la conoscenza della teoria elettromagnetica di Maxwell.

Trattando del concetto di campo dobbiamo partire con la presentazione di Michael Faraday (1791-1867). Alla fine della sua carriera, intorno al 1860, gli appunti di laboratorio di Faraday contenevano più di sedicimila annotazioni. La molteplicità degli argomenti studiati dal grande 'filosofo naturale', come egli si definiva, è la seguente, in ordine cronologico: Ricerca sulle leghe dell'acciaio (1818); Composti del cloro e del carbonio (1820); Rotazioni elettromagnetiche (1821); Liquefazione dei gas (1823, 1845); Vetri ottici (1825); Scoperta del benzene (1825); Induzione elettromagnetica (1831); Identità dell'elettricità proveniente da varie fonti (1832); Decomposizione elettrochimica (1832); Elettrostatica e dielettrici (1835); Scariche nei gas (1835); Luce, elettricità e magnetismo (1845); Diamagnetismo (1845); Considerazioni sulle vibrazioni dei raggi (1846); Gravità ed elettricità (1849); Tempo e magnetismo (1857).

L'elettricità si manifesta in forme assai diverse e ha una fenomenologia complicata: una corrente elettrica può essere per esempio generata dalle tradizionali macchine elettrostatiche, dalla pila di Volta o dall'induzione elettromagnetica. Quali sono i rapporti esistenti tra le correnti elettriche generate in ciascuno di questi modi? Sono esse identiche? Il problema era serio ed era stato posto da tempo. Le prove pesavano a favore della tesi secondo cui esisteva un unico tipo di corrente elettrica, ma non c'erano studi inequivocabili e analisi sistematiche. I successivi sforzi di Faraday si volsero a dare una risposta definitiva al problema, ed escogitò metodi per misurare quella che noi oggi chiamiamo quantità di elettricità. La conclusione del lavoro fu la seguente: “La potenza chimica, come la forza magnetica, è direttamente proporzionale alla quantità assoluta di elettricità che passa”. Ulteriori studi sull'elettrolisi portarono alla scoperta di quelle che oggi chiamiamo le leggi di Faraday:

LEGGI DI FARADAY SULL' ELETTROLISI

Prima legge: la massa di sostanza che si deposita a un elettrodo è direttamente proporzionale alla quantità di carica elettrica che passa nel voltametro.

Seconda legge: in più voltametri, contenenti elettroliti diversi, e collegati in serie in modo che siano attraversati dalla stessa quantità di carica elettrica, le masse delle sostanze che si depositano agli elettrodi sono direttamente proporzionali agli equivalenti chimici.

Questo fatto praticamente forzava la conclusione che tutti i portatori di elettricità

hanno la stessa carica e masse proporzionali al peso atomico, o, più precisamente, al peso atomico diviso per la valenza. Il passo dalla natura atomica della materia alla natura atomica dell'elettricità e all'elettrone era breve, ma Faraday non lo fece. Egli confermò con una famosa dimostrazione (fatta servendosi di un grande cubo conduttore) che l'elettricità si trovava tutta sulla superficie dei conduttori, e che una carica conferita al cubo non aveva alcuna influenza al suo interno. Questo è un esperimento che dimostra la legge dell'inverso del quadrato della distanza.

Faraday fu spinto dall'idea di linea di forza a meditare sullo stato degli isolanti posti tra corpi carichi, e giunse alla conclusione che essi dovevano essere in una specie di stato di tensione. Per verificarlo riempì lo spazio tra sfere conduttrici concentriche con isolanti diversi. Scoprì quindi che i condensatori così formati avevano capacità

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 466!

diverse, benché fossero geometricamente identici, e attribuì pertanto all'isolante un potere induttivo specifico. In questa scoperta era stato anticipato da Cavendish, ma nessuno lo sapeva perché i manoscritti di Cavendish a quel tempo erano ancora ignoti. Faraday spiegò qualitativamente il fenomeno introducendo il concetto di polarizzazione di un dielettrico.

Il periodo più fecondo per Faraday va dal 1830 al 1839. In quegli anni fu il principale creatore della moderna elettricità. Nel 1821 aveva analizzato l'azione scoperta da Oersted, sottolineando il fatto che l'azione magnetica era perpendicolare alla direzione della corrente che la produceva. Riuscì inoltre a costruire una specie di motore elettrico che mostrava la rotazione di un filo metallico percorso da una corrente elettrica in un campo magnetico costante, e fece vedere tale rotazione anche nel campo magnetico terrestre. Negli scritti di Faraday si trovano alcuni termini che a uno studioso moderno possono sembrare vaghi e imprecisi, come ad esempio i termini 'azione' e 'potere', ma quando li usava aveva idee piuttosto chiare, come quei concetti che lo portano ad avvicinarsi di molto alla moderna idea di campo. In alcuni casi la sua descrizione diventa molto precisa e le sue linee di forza, rese visibili con la disposizione di limatura di ferro nei caso dei campi magnetici, sono perfette.

Faraday era convinto che il rapporto tra l'elettricità e il magnetismo doveva essere esteso oltre i risultati di Oersted e che, se una corrente poteva produrre un campo

magnetico, anche un campo magnetico doveva essere in grado di produrre una corrente. Egli non era certo il solo fisico di questa opinione, Ampère e Arago, tra gli altri, ebbero certamente idee analoghe. L'idea di un nesso tra corrente elettrica, moto e campo magnetico era quindi nell'aria. Faraday la meditò per circa dieci

anni e fece anche numerosi esperimenti in proposito, tutti però negativi. Nel 1831 riprese i tentativi di vedere se un campo magnetico concatenato con un circuito conduttore chiuso poteva produrre una corrente. I risultati furono negativi nel caso statico. Era ormai la quinta volta che egli tentava esperimenti volti a produrre una corrente elettrica per azione di un campo magnetico. Nell'estate costruì un anello di ferro attorno al quale si avvolgevano due spire di rame. Egli allora osservò che se mandava della corrente in una spira e collegava l'altra a un galvanometro, l'apparecchio segnalava una corrente ma non nello stato stazionario, bensì solo quando si iniziava o si interrompeva la corrente nell'altra spira. Questo era il nodo da sciogliere. Alla fine di settembre era infatti già giunto alla comprensione e alla dimostrazione sperimentale dell'induzione elettromagnetica, e aveva afferrato il punto fondamentale secondo cui, per generare una corrente, un conduttore deve tagliare quelle linee di forza magnetica che erano una delle sue concezioni predilette.

LEGGE DI FARADAY-NEUMANN

La f.e.m. indotta f che si genera, in media, in un circuito conduttore durante un intervallo di tempo ∆t è:

dove ∆Φ è la variazione del flusso del campo magnetico concatenato con il circuito che si verifica nell'intervallo di tempo considerato.

ft

∆Φ= −

467! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Il segno meno che figura nell'espressione della legge di Faraday-Neumann indica la polarità della f.e.m. indotta e quindi il verso della corrente, in accordo con quanto stabilito da una legge scoperta dallo scienziato russo Emilij Lenz (1804-1865) nel 1834:

LEGGE DI LENZ

Il verso nel quale la corrente indotta scorre in un circuito è tale da opporsi, tramite il flusso del campo magnetico da essa generato, alla variazione di flusso che ha dato origine alla

corrente.

Una volta capita la natura dell'induzione elettromagnetica Faraday potè spiegare le osservazioni fatte da Arago e anche inventare un generatore elettromagnetico di correnti, una primitiva dinamo. Nel corso di alcuni mesi di lavoro, verso la fine del 1831, egli fece enormi progressi e, oltre alle fondamentali scoperte che fecero epoca, pose anche le basi, almeno concettuali, della futura industria elettrica. Si narra che quando un uomo politico gli chiese a che cosa servissero quelle scoperte, egli abbia risposto: “Al momento attuale non lo so, ma un giorno sarete in grado di tassarle “.

Faraday era profondamente interessato alla spiegazione teorica delle sue scoperte, e non aveva molta simpatia per l'azione a distanza. Anche Newton aveva avuto dubbi in proposito; tuttavia, nella sua successiva evoluzione, la fisica matematica newtoniana dimenticò questi problemi e la legge dell'inverso del quadrato della distanza divenne il concetto dominante, mettendo in seconda linea la funzione del mezzo. Faraday non era tecnicamente un matematico e quindi era meno colpito degli altri dai risultati ottenuti con i formalismi della teoria newtoniana. D'altra parte egli aveva visto con i suoi occhi le linee di forza così come si formano mettendo limatura di ferro vicino a un magnete, e aveva anche osservato che esse potevano essere curve, il che costituiva per lui una prova del fatto che l'azione non si propagava sempre in linea retta. Quando il suo disco di rame ruotava tra i poli di un magnete a ferro di cavallo, egli diceva che: “il disco stava tagliando delle curve magnetiche. Per curve magnetiche io intendo linee di forza magnetica che potrebbero venir evidenziate con della limatura di ferro”. In occasione della sua grande scoperta dell'induzione elettromagnetica, egli si era poi reso conto che il taglio delle linee di forza da parte del conduttore era il punto fondamentale. Non c'è da meravigliarsi, quindi, che queste linee di forza fossero diventate la guida dei suoi pensieri.

Il fatto che le linee di forza potessero esser rese visibili mostrò a Faraday, come egli credeva, che vi fosse una evidenza sperimentale della loro esistenza come invece non ve ne era per l’etere. La successiva posizione di Faraday è del tutto peculiare: egli rifiutò l’azione a distanza, rifiutò l’atomo, eppure sostenne una teoria sulla struttura della materia tra le più astratte che siano mai state formulate. Secondo Faraday la materia consisteva di centri di forza circondati da linee di forza. La vibrazione di queste linee rendeva conto dell’elettricità, della luce, della gravità e del magnetismo, cioè di tutti i fenomeni radianti, come egli richiamava. Il fatto che tutto lo spazio sia riempito da linee di forza spiega perché il magnetismo o la gravità siano onnipresenti nello spazio.

Che le forze elettriche e magnetiche fossero simili alla gravitazione nell’osservare la legge dell’inverso del quadrato della distanza era stato dimostrato da Coulomb nel 1777. A questo punto, risultò ovvio da alcuni esperimenti che, seppure la gravità e le forze elettromagnetiche agissero in modo simile sui corpi, esse lo facevano per vie

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 468!

diverse. Il campo gravitazionale non viene disturbato dall’interposizione di corpi, mentre così non avviene per i campi elettrici e magnetici, che possono esserne vistosamente alterati. Sotto questo aspetto, il meccanismo di propagazione dell’elettricità e del magnetismo era più chiaro di quello della gravità. Queste differenze nella propagazione non furono chiaramente riflesse nella prima teoria elettromagnetica, la quale, non diversamente dalla teoria della gravitazione di Newton, non si fondava né sulla natura dell’elettricità e del magnetismo né sul modo della loro trasmissione, se non che essi erano dei fluidi.

La principale sfida a questo modo di vedere le cose venne quindi avanzata da Faraday, le cui ipotesi riguardavano l’esistenza di un autentico campo, un mezzo continuo che circonda il corpo agente e attraverso cui si trasmette l’azione di quest’ultimo. Usando tali criteri d’indagine, Faraday aveva distinto tra gravità (non propagata da alcun mezzo), radiazione (propagata ma indipendentemente da ogni corpo ricevente) ed elettricità (anch’essa propagata, ma da linee di forza dipendenti sia dalla sorgente sia dal ricevente). Questi concetti fanno di Faraday il fondatore dell’odierna teoria del campo.

Una delle idee favorite da Faraday era che le varie forze della natura come l'elettricità, il magnetismo, la luce, la gravità e forse anche altre, si influenzino l'una con l'altra. Egli parlava anche di unità delle forze. Alcune di queste congetture possono sembrare metafisiche, ma bisogna ricordare il fatto importantissimo che esse riuscivano a guidarlo verso grandi scoperte. Nel 1845 decise di verificare l'influenza esercitata sulla luce da vari agenti. La luce polarizzata, che ormai era ben conosciuta ed era già stata capita nelle sue linee essenziali sin dai tempi di Fresnel, divenne uno degli argomenti preferiti da Faraday. Egli cercò di vedere se poteva verificarsi un cambio di polarizzazione facendo passare la luce attraverso un pezzo di vetro o di cristallo soggetto a un campo elettrico.

I risultati furono negativi, anche se in seguito John Kerr (1824-1907), servendosi di mezzi sperimentali piu raffinati, riuscì a trovare l'effetto che Faraday aveva invano cercato. Tuttavia il 13 settembre 1845 Faraday conseguì finalmente un primo grande successo. Egli fece passare la luce polarizzata linearmente attraverso un particolare tipo di vetro pesante che egli stesso aveva preparato anni prima. Quando si eccitava un campo magnetico che investiva il vetro con linee di forza parallele alla direzione di propagazione della luce, il piano di polarizzazione di quest'ultima subiva una rotazione. Dopo la scoperta Faraday fece immediatamente un certo numero di esperimenti per controllare se l'effetto osservato era genuino e riuscì a coglierne correttamente le caratteristiche essenziali.

La scoperta successiva riguardò il diamagnetismo. La maggior parte dei materiali se disposti a forma di ago, si orientano perpendicolarmente alle linee di forza di un campo magnetico. Essi vengono inoltre respinti sia dall'uno che dall'altro polo di un magnete. Questo comportamento è provocato da forze assai deboli, molto inferiori a quelle che agiscono sul ferro in un campo magnetico. Il fenomeno meritava studi accurati e Faraday dedicò parecchi mesi all'argomento.

Nel 1846, in un breve saggio dal titolo Thoughs on ray vibration (Riflessioni sulla vibrazione dei raggi), Faraday espone, anche se in modo non molto chiaro, alcuni concetti sorprendenti e fondamentali, che sembrano una proposta alla teoria elettromagnetica della luce. Questa affermazione può sembrare esagerata, ma essa è corroborata dallo stesso Maxwell che, 18 anni dopo, nel formulare la teoria

469! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

elettromagnetica della luce, scriveva: “Aggiungasi che alcuni appunti di Faraday, pubblicati solo di recente, mostrano come egli avesse effettivamente approfondito molto la natura elettromagnetica della luce”. Se Faraday avesse sostenuto la tesi che la luce consiste di un flusso di corpuscoli (l’opinione più diffusa nel settecento) è improbabile che egli avrebbe mai provato a connettere la luce con l’elettricità e il magnetismo, e gettate le basi per una teoria elettromagnetica della luce. Ma la teoria corpuscolare era stata violentemente attaccata all’inizio dell’ottocento ed intorno al 1850 si era verificata nell’ottica un’autentica rivoluzione.

Negli anni cinquanta Faraday si dedicò alla ricerca di una possibile interazione tra gravità ed elettricità, ma i risultati furono negativi. Ancora una volta Faraday era nel giusto, solo che i tempi non erano ancora maturi per questa scoperta. Dobbiamo aspettare il genio di Einstein qualche decennio dopo. Nel 1862 egli fece il suo ultimo esperimento, cercò di trovare l'influenza di un campo magnetico sulla luce emessa da una sorgente in esso collocata. Il risultato fu negativo, perché gli strumenti di Faraday non erano sufficientemente precisi per rivelare effetti molto piccoli. Trentaquattro anni dopo il giovane Pieter Zeeman (1865-1943), ispirato direttamente da quanto aveva letto sul tentativo di Faraday, ripetè l'esperimento con strumenti più raffinati e scoprì l'effetto Zeeman, che costituisce una delle premesse della nuova fisica atomica.

Faraday fu riconosciuto, sia ai suoi tempi che successivamente, come uno dei più grandi filosofi naturali. Quali erano le sue qualità straordinarie? Un'immaginazione potente accompagnata da una straordinaria ingegnosità nello sperimentare; una passione indomabile per il lavoro sorretta da un'adeguata resistenza fisica; uno spirito critico che gli permetteva di distinguere rapidamente un effetto spurio da una vera scoperta; e infine uno spirito di osservazione cui nulla sfuggiva. Aveva alcune idee generali che lo guidavano, e compensò l'ignoranza della matematica formale con un profondo intuito geometrico e spaziale, e con la capacità di concentrarsi a lungo su un soggetto. Il modo di far fisica di Faraday era adatto a un tempo in cui vi era da scoprire una fenomenologia del tutto nuova, mentre le basi teoriche erano quasi inesistenti.

L’idea che magneti e cariche possano produrre rispettivamente campi magnetici ed elettrici costituisce un fondamentale progresso concettuale. Dall’epoca di Newton in poi, il modo in cui le forze, come la gravità, potevano concretamente agire su oggetti lontani aveva continuato a rappresentare un assoluto mistero. La cosiddetta “azione istantanea a distanza” sembrava fisicamente inaccettabile. I campi di Faraday risolvevano l'enigma, almeno in linea di principio. Se tutto lo spazio era permeato da campi elettrici o magnetici, che circondavano rispettivamente ogni oggetto carico e ogni magnete, allora un oggetto carico o un magnete, posto a notevole distanza dall'altro, avrebbe potuto sperimentare una forza dovuta indirettamente a quella carica o a quel lontano magnete, ma velocemente manifesta in virtù dell'interazione con il campo magnetico o elettrico presente nelle sue immediate vicinanze. Non ci sarebbe stato più bisogno di nessuna azione diretta a distanza. Faraday ne arguì che anche la gravità potesse essere descritta in termini di linee di forza, evitando così di ricadere nell'enigma newtoniano.

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 46:!

8.12 Maxwell e la teoria dei campi

Sicuramente spetta a Faraday il merito di avere ideato la nozione di “campo”, come un continuum di forze espandentesi ovunque entro lo spazio (onde non avrebbe più senso il concetto di spazio vuoto) e tali da determinare completamente i fenomeni elettrici che ivi hanno luogo. Ma il grande fisico sperimentale non aveva una adeguata preparazione matematica per compiere una trattazione rigorosa di questo concetto, cosicchè la nozione di campo fu interpretata dalla maggior parte della comunità scientifica come un comodo artificio per descrivere i fenomeni, la cui vera origine andava in ogni caso ricercata nelle cariche elettriche che generano il campo. Affinché quella tesi diventasse realmente convincente, ci sarebbe stato bisogno di un fisico il cui talento di teorico equivalesse a quello di Faraday in quanto sperimentatore, e

fortunatamente un teorico del genere si era appena trasferito in Inghilterra, proprio nel periodo in cui Faraday proponeva quelle nuove idee, e si chiamava James Clerk Maxwell (1831–1879), grazie al quale il concetto di campo di Faraday assunse una realtà tangibile ed una formulazione matematica nel senso moderno della teoria dei campi: “Procedendo nello studio degli scritti di Faraday osservai che il suo metodo di considerare i fenomeni era un metodo matematico, benché

non fosse espresso con i soliti simboli. Vidi pure che questo metodo poteva essere esposto matematicamente”.

L’elaborazione della teoria dei campi e la sua traduzione in un preciso sistema di equazioni differenziali (le famose equazioni di Maxwell) costituì, secondo Einstein e Infeld, così come è riportato letteralmente nel loro libro L’evoluzione della fisica, “l’avvenimento più importante verificatosi in fisica dal tempo di Newton in poi, e ciò non soltanto per la dovizia di contenuto di tali equazioni, ma anche perché esse hanno fornito il modello di un nuovo tipo di legge”. Questa importanza risiede nel fatto che la teoria maxwelliana si presenta quale una fisica del continuo, contrapposta a quella del discontinuo che aveva dominato per circa due secoli la mente dei ricercatori e considerata come la candidata più autorevole ad assumere il ruolo di scienza universale della natura. Già gli antichi filosofi avevano intuito la possibilità di due modi antitetici di concepire la natura: la teoria del pneuma ideata dagli stoici era, in sintesi, una fisica del continuo, antitetica a quella atomistica di Democrito e degli epicurei che era palesemente una fisica del discontinuo. Però, mentre quest’ultima aveva compiuto da Galileo in poi enormi progressi ed era stata fatta oggetto di una precisa e fecondissima elaborazione matematica, la fisica del continuo, pur sostenuta e difesa da larghi strati di filosofi, non era invece riuscita a trovare una soddisfacente traduzione in formule matematiche, cosicchè veniva giudicata come priva di una vera scientificità. Il grande merito di Maxwell è stato proprio quello di avere dimostrato che risulta possibile renderla anch’essa matematicamente rigorosa, purchè si usino strumenti opportuni (diversi da quelli usati da Newton e dai suoi continuatori) e che, così elaborata, la fisica del continuo si rivela in grado di descrivere con esattezza i fenomeni elettrici e magnetici, assai più semplicemente e chiaramente della fisica newtoniana. Stando così le cose, non è difficile comprendere la portata anche filosofica delle nuove idee introdotte da Maxwell, se teniamo presente che esse comportano in definitiva una modificazione che ci costringe a prendere atto che la strutturazione concettuale della scienza tramandataci dai grandi pensatori delle generazioni precedenti può talvolta

47<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

costituire una pesante ipoteca e che in certi casi occorre liberarsene coraggiosamente se non si vuole arrestare il progresso scientifico.

Aveva appena ventiquattro anni, quando, nel dicembre 1855, Maxwell presentò alla Cambridge Philosophical Society la sua prima memoria sulle teorie elettriche. Aveva per titolo Sulle linee di forza di Faraday. Il giovane scienziato intuì molto bene l’enorme importanza della nuova interpretazione, abbozzata da Faraday, dei fenomeni elettrici e magnetici. Si rese cioè conto che essa costituiva una vera e propria svolta nel modo di concepire tali fenomeni, comportando il totale abbandono dell’interpretazione, di tipo newtoniano, fino a quel momento accolta dalla maggioranza dei fisici, che voleva scorgervi un caso di azione a distanza. Pur riconoscendo la piena validità degli esperimenti ideati da Faraday per dimostrare che nei fenomeni anzidetti è anche interessato il mezzo interposto fra le cariche o fra i poli magnetici, Maxwell si rese pure conto che il concetto di campo introdotto per spiegare teoricamente gli ingegnosi esperimenti eseguiti era ingenuo e confuso. Faraday aveva sì tentato di descrivere il campo elettrico e magnetico come un insieme di linee di forza che si estendono in varie direzioni a partire dalle cariche o dai magneti, ma non si era poi preoccupato di fornire una esatta definizione di queste linee. I suoi avversari avevano pertanto buone ragioni di sostenere che esse non erano altro che un’arbitraria idealizzazione di ciò che accade per la limatura di ferro quando viene sparsa sopra un foglio appoggiato su una calamita. Per rispondere alle loro critiche, occorreva trovare il modo di dare a tali linee un vero e proprio status scientifico, svincolandole dall’esempio prima citato, ed il modo ingegnoso con il quale si poteva sperare di aggredire con successo la questione era quello di prendere in esame le analogie fisiche. Dice Maxwell: “Per analogie fisiche intendo quelle parziali similitudini tra le leggi di una scienza e quelle di un'altra che rendono ciascuna di esse idonea a illustrare l'altra”. In altre parole, il suo proposito era di dare una spiegazione meccanica completa dei fenomeni elettrici, cioè un modello meccanico, in modo da ricondurre tutti i fenomeni fisici ai principi fondamentali della dinamica. Consiste in questa concezione la famosa teoria dei modelli, che tanto appassionò fisici e filosofi della seconda metà del XIX secolo: un fenomeno fisico è “spiegato quando di esso si può dare un modello meccanico”. Poincarè dimostrerà più tardi che, trovato un modello meccanico per la spiegazione di un fenomeno fisico, se ne potrebbero trovare infiniti altri, onde, per questa via, lungi dall'avvicinarsi alla verità, la scienza se ne allontanerebbe. I sostenitori della teoria dei modelli ribattevano che non importa sapere se il modello corrisponda intrinsecamente al fenomeno: la scienza non dà la verità, ma modelli di verità. La polemica sarà ripresa in altra forma nel XX secolo.

Nel saggio del 1855, Maxwell si sforza di raggiungere questo scopo sulla base di una semplice ma chiara analogia fra l’insieme delle linee di forza di cui parlava Faraday e un insieme di sottilissimi tubicini di sezione variabile, pieni di fluido incompressibile. Assimilando la trasmissione dell’energia elettrica allo spostamento di questo fluido (spostamento analizzabile sulla base delle leggi di una teoria avente indiscussa dignità scientifica come l’idrodinamica), Maxwell potè giungere ad una prima formulazione abbastanza precisa e coerente della teoria di Faraday. Non era ancora un risultato definitivo, ma era certo un passo in avanti nella descrizione dei fenomeni. È interessante notare che, in tale elaborazione, non viene introdotta nessuna ipotesi sulla natura dell’elettricità; e anche questo poteva essere utile per non suscitare sospetti o diffidenze presso i fisici-matematici della scuola classica. Maxwell, incamminatosi su questa via, nel lavoro Sulle linee fisiche di forza (1861-62) viene delineato un vero e proprio modello

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 47;!

meccanico dell’induzione elettromagnetica, modello che risulta pure idoneo a spiegare l’attrazione e repulsione fra le cariche elettriche e fra poli magnetici. Il modello maxwelliano è costituito da un complesso meccanismo di cilindri ruotanti (o vortici), tra i quali sarebbero interposte lunghe file di sferette, ciascuna capace di un moto rotatorio. Gli assi di rotazione dei vortici risulterebbero paralleli a quelle che Faraday aveva chiamato “linee di forza” del campo magnetico; le varie velocità di rotazione di tali vortici produrrebbero in essi una tendenza a contrarsi o a dilatarsi. Le sferette sarebbero invece particelle di elettricità, e il loro moto costituirebbe una corrente elettrica. Le leggi della meccanica classica applicate al moto dei vortici anzidetti e delle sferette interposte risulterebbero in grado di spiegare come una variazione del campo magnetico possa produrre una corrente elettrica e, viceversa, il moto delle particelle elettriche generi una deformazione del campo magnetico. Un seguito di ingegnose considerazioni mostrerebbe poi che il complesso meccanismo è anche in grado di spiegare i fenomeni dell’elettrostatica e della magnetostatica. Il ricorso ad un modello siffatto rientrava perfettamente nel programma della scienza meccanicistica. Però nel saggio Una teoria dinamica del campo elettromagnetico (1865) Maxwell non fa più parola del modello descritto nell’opera precedente, ma si preoccupa unicamente di sviluppare una teoria matematica dei fenomeni elettromagnetici, di tradurli in equazioni e di ricavare da esse tutte le conseguenze che ne discendono logicamente. Il risultato ottenuto è una prima formulazione delle famose equazioni del campo, che verranno poi esposte in termini più rigorosi nel Trattato del 1873, che, suscitò, ed era da aspettarselo, forti perplessità tra i fautori del meccanicismo.

Nel lavoro Sulle linee fisiche di forza è abbozzata una delle più importanti scoperte in fisica, quella delle onde elettromagnetiche, che richiedeva un discorso specifico su di un problema più generale, quello dell’etere, la speciale sostanza richiesta dal modello ondulatorio della luce e che riempirebbe l’intero spazio. Il modello dei cilindri e delle sferette induceva Maxwell ad attribuire al sistema portante del magnetismo e dell’elettricità una vera e propria elasticità, grazie alla quale non solo i mutamenti nella forza magnetica producono mutamenti in quella elettrica e viceversa, ma tali mutamenti si propagano dal punto in cui hanno avuto luogo in tutte le direzioni dello spazio circostante. È stato lo studio approfondito di questa propagazione a far nascere l’idea in Maxwell delle onde elettromagnetiche, ed a fargli scoprire che esse debbono venire considerate come trasversali rispetto alla direzione lungo la quale si propagano. Ma già i fisici della generazione precedente erano stati condotti ad ammettere qualcosa di molto simile per la luce, cioè ad ammettere che questa consista di vibrazioni dell’etere, trasversali rispetto alla direzione del raggio luminoso. Di qui l’ipotesi sorta quasi spontaneamente in Maxwell, che tra le onde elettromagnetiche e le onde luminose dovesse esistere una stretta affinità; ma il nostro scienziato non poteva accontentarsi di un’ipotesi generica, per quanto affascinante. Si trattava dunque di darle una formulazione rigorosa, che potesse garantirne la piena dignità scientifica. Ancora una volta lo strumento cui fa ricorso è quello di costruire con dovizia di particolari un modello meccanico dell’etere. Esso dovrà risultare capace, per un verso, di spiegare la funzione attribuitagli ormai unanimamente dagli studiosi di ottica (cioè la funzione di trasmettere le onde luminose concepite come onde trasversali), e capace, per un altro verso, di spiegare l’affinità fra le onde luminose e quelle elettromagnetiche. Effettivamente, il modello ideale ideato da Maxwell si rivelò discretamente idoneo ad adempiere i due compiti sopra accennati. Esso gli permise fra l’altro di cogliere il

47=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

grande significato di un risultato sperimentale scoperto pochi anni prima (1852) dai due fisici Wilhelm Weber (1804-1891) e Rudolf Kohlrausch (1809-1858): la quasi identità tra il valore della velocità della luce e quello del rapporto tra unità elettrostatica e unità elettrodinamica delle cariche (rapporto avente le dimensioni di una velocità). I due valori sono tanto vicini tra di loro che, nonostante le ipotesi arbitrarie di partenza, Maxwell non sa trattenersi dal commentare: ”Noi difficilmente possiamo esimerci dal dedurre che la luce consista in ondulazioni trasversali dello stesso mezzo che è causa dei fenomeni elettrici e magnetici”.

Riflettendo su tale risultato, Maxwell giunse all’importantissima conclusione che le onde elettromagnetiche e le onde luminose si propagano con la medesima velocità. Non era ancora, a rigore, la formulazione esplicita della natura elettromagnetica della luce, ma era un passo decisivo verso questa conclusione. Anche la costruzione del modello meccanico dell’etere rientrava nel programma della fisica meccanicistica. Certo è, comunque, che quello maxwelliano si rivelò particolarmente felice, riuscendo ad eliminare parecchie difficoltà riscontrate da quasi tutti i fisici in tale strano fluido, e quindi accrescendo l’accettabilità della sua esistenza. Con esso il programma meccanicista dimostrava di essere ancora in grado di fornire agli scienziati utili suggerimenti. Però anche questo modello, col trascorrere del tempo, perse gran parte del proprio interesse nell’opera di Maxwell. Esso gli era servito per intuire la profonda identità fra onde elettromagnetiche e onde luminose; una volta compiuta questa funzione, poteva ormai venire abbandonato come i modelli precedenti. Già nell’opera del 1865, Una teoria dinamica del campo elettromagnetico, il geniale scienziato si limita a parlare dell’etere come di un mezzo elastico, estremamente sottile, che ha l’unico compito di fungere da veicolo delle onde elettromagnetiche e luminose. La teoria è detta dinamica, perché i fenomeni elettromagnetici sono attribuiti al moto del mezzo elastico in cui sono immersi i corpi elettrici e magnetici. Ma non si fanno ipotesi sui moti, non si specificano le tensioni del mezzo, insomma, non si danno modelli meccanici. Anzi, è evitata persino la terminologia meccanica, e fa eccezione il vocabolo energia, usato nella sua propria accezione meccanica; ma, mentre i predecessori localizzavano l'energia nei corpi elettrici o magnetici, Maxwell ritiene il campo elettrico sede dell'energia, la quale si presenta nella duplice forma di energia di moto (o cinetica) o di tensione (ossia potenziale) del mezzo elastico che riempie il campo. Nel Trattato del 1873, tale “fluido immaginario” sarà identificato con il mezzo portante delle onde elettromagnetiche, senza attribuirgli alcuna altra proprietà fisica se non quella, appunto, di trasportare tali onde. È chiaro che a Maxwell non interessa più costruire un’immagine visualizzabile dell’etere, ma solo di formulare con esattezza le equazioni differenziali che regolano i fenomeni in esso verificantisi. La trattazione matematica ha finito per eclissare ogni spiegazione modellistica. I fisici conobbero la concezione maxwelliana del campo elettromagnetico, e in particolare la teoria elettromagnetica della luce, attraverso l’opera A Treatise on Electricity and Magnetism (1873). Verso il 1860 l'elettrodinamica, dopo i lavori di Neumann, Weber e Helmholtz, sembrava una scienza ormai definitivamente sistemata, dai confini netti. Il Trattato di Maxwell turbò questa prospettiva di sereno lavoro, facendo intravedere ben più vasti campi di dominio per l'elettrodinamica. Come abbiamo più volte affermato, il principale scopo propostosi da Maxwell nelle sue ricerche sull’elettromagnetismo fu quello di tradurre in forma matematica precisa le idee di Faraday, dimostrando con ciò ai fisici-matematici seguaci della grande

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 474!

tradizione newtoniana che anche la fisica del continuo poteva venire elevata al rango di autentica scienza, altrettanto bene quanto la fisica del discontinuo. Talvolta egli sembra sostenere che il valore dell’una equivale a quello dell’altra, malgrado l’opposizione radicale dei loro metodi e dei loro punti di partenza: “Quando ebbi vestita di forma matematica quelle che mi parevano le idee di Faraday, vidi che in generale le conclusioni ottenute coi due metodi si accordavano, sicché dello stesso fenomeno si poteva dar ragione nei due modi arrivando a stabilire le stesse leggi, ma i metodi di Faraday somigliavano a quelli dei quali partendo dal tutto si procede all'analisi delle parti, mentre i soliti metodi matematici cominciano dalle parti e per sintesi costruiscono il tutto”. In realtà, se in taluni casi i due metodi conducono effettivamente alle medesime leggi, è pur vero che in molti altri il nuovo metodo porta a conclusioni che sfuggivano completamente al metodo precedente. Basti citare a titolo di esempio la polarizzazione elettrica dei dielettrici che resta inspiegabile dal punto di vista classico, mentre assume un ruolo fondamentale nella concezione maxwelliana; essa permette di definire con esattezza le cosiddette correnti di spostamento, facendo appello alle quali Maxwell riesce ad eliminare il grave divario fin allora esistente nella trattazione dei circuiti chiusi e di quelli aperti. Maxwell riassume tutta la costruzione teorica in un gruppo di quattro equazioni, Le famose equazioni di Maxwell, che mettono in relazione, in perfetta simmetria fra loro, il campo elettrico e il campo magnetico:

EQUAZIONI DI MAXWELL

Grazie a queste equazioni, il campo elettrico e magnetico, nel caso dinamico,

sono due aspetti diversi di un unico ente fisico, il campo elettromagnetico e quindi non è possibile studiare E o B, prescindendo dall’altro. Queste equazioni, pertanto, definiscono la struttura del campo elettromagnetico e sono molto diverse dalle ordinarie equazioni della meccanica. Mentre le leggi meccaniche si applicano nelle regioni dello spazio in cui esiste materia, le equazioni di Maxwell sono valide nell'intero spazio, vi esistano o non vi esistano corpi o cariche elettriche; esse regolano le evoluzioni del campo, mentre le leggi meccaniche regolano le evoluzioni delle particelle materiali. Inoltre, mentre le leggi della meccanica di Newton avevano rinunciato alla contiguità dell'azione nello spazio e nel tempo, le equazioni di Maxwell, invece, stabiliscono la continuità dei fenomeni; esse collegano eventi contigui nello spazio e nel tempo: dalle condizioni del campo qui e ora possiamo predire le condizioni del campo nell’immediata vicinanza e nell'istante appena trascorso.

Le differenze di fondo tra l’impostazione maxwelliana e quella classica della trattazione dei fenomeni elettromagnetici, sono state mirabilmente illustrate da Einstein ed Infeld nel volume L’evoluzione della fisica: “ Le equazioni di Maxwell definiscono la struttura del campo elettromagnetico. Sono leggi valide nell’intero spazio e non soltanto nei punti in cui materia o cariche elettriche sono presenti, com’è il caso per le leggi meccaniche. Rammentiamo come stanno le cose in meccanica. Conoscendo posizione e velocità di una particella, in un dato istante, e conoscendo inoltre le forze agenti su di essa, è possibile prevedere l’intero percorso futuro della particella stessa. Nella teoria di

Φ(E!

) =ΣQ

ε0

Φ(B"!

) = 0 C(E!

) = −dΦ(B"!

)

dtC(B"!

) = µ0i + ε

0

dΦ(E!

)

dt

475! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Maxwell invece basta conoscere il campo in un dato istante per poter dedurre dalle equazioni omonime in qual modo l’intero campo varierà nello spazio e nel tempo. Le equazioni di Maxwell permettono di seguire le vicende del campo, così come le equazioni della meccanica consentono di seguire le vicende di particelle materiali. Ma fra le leggi della meccanica e quelle di Maxwell sussiste una ulteriore differenza essenziale. Un confronto fra le leggi di gravitazione di Newton e le leggi del campo di Maxwell porrà in rilievo alcuni dei tratti caratteristici di queste ultime e delle rispettive equazioni. Mediante le leggi di Newton possiamo dedurre il moto della Terra, dalla forza agente fra Sole e Terra. Dette leggi collegano il moto della nostra Terra con il lontano Sole. Benchè così distanti l’una dall’altro, Terra e Sole prendono ambedue parte allo spettacolo delle forze agenti, in qualità di attori. Nella teoria di Maxwell non vi sono attori materiali. Le equazioni matematiche di questa teoria esprimono le leggi governanti il campo elettromagnetico. Non collegano, come nelle leggi di Newton, due eventi separati da una grandissima distanza; non collegano ciò che succede qui con le condizioni imperanti colà. Il campo qui ed ora dipende dal campo nell’immediata vicinanza, e nell’istante appena trascorso. Le equazioni del campo consentono di predire ciò che avverrà un poco più lunghi nello spazio ed un poco più tardi nel tempo, se sappiamo ciò che avviene qui ed ora. Esse ci mettono in grado di estendere a piccolissimi passi la nostra conoscenza del campo. Sommando tutti questi piccoli passi, possiamo dedurre ciò che succede qui, da ciò che avviene a grande distanza. Nella teoria di Newton al contrario, non si hanno che lunghi passi fra eventi distanti. Gli esperimenti di Oersted e di Faraday possono dedursi dalla teoria del campo elettromagnetico, ma soltanto sommando tanti piccoli passi, ognuno dei quali è governato dalle equazioni di Maxwell”.

Nell'ambito della nuova teoria, Maxwell sottolineava la centralità della nozione di campo, senza però eliminare quella di etere. Ma come si è ampiamente discusso, Maxwell progressivamente abbandona ogni riferimento a modelli meccanici dell'etere in favore di un uso sempre più accentuato dell'astrazione matematica, autonoma dai dettagli dei modelli eterei e più vicina a quelli che saranno gli esiti novecenteschi della sua teoria. In definitiva, l’immagine del mondo di Maxwell non è più quella semplice descritta da Newton, fatta da particelle che si muovono nello spazio al passar del

tempo. Con l’introduzione di questa nuova entità il “campo”, il mondo è sempre descritto in maniera elegante da equazioni, ma è un po’ più complicato.

Il passo finale da compiere per Maxwell era quello di arrivare a considerare la luce come un’onda elettromagnetica. Dice Maxwell nel suo Trattato: “[…] si è tentato di spiegare i fenomeni elettromagnetici con un'azione meccanica trasmessa da un corpo a un altro con l'intermediario di un mezzo che riempirebbe lo spazio compreso tra i corpi. La teoria ondulatoria della luce suppone anche l'esistenza di un mezzo. Noi dobbiamo ora mostrare che il mezzo elettromagnetico ha proprietà identiche a quelle del mezzo dove si propaga la luce […]. Possiamo ottenere il valore numerico di certe proprietà del mezzo, per esempio della velocità con la quale si propaga la perturbazione, velocità che possiamo calcolare da esperienze elettromagnetiche e che possiamo osservare direttamente nel caso della luce. Se si trova che la velocità di propagazione delle perturbazioni elettromagnetiche è la stessa della velocità della luce, e ciò non solamente nell'aria, ma in tutti gli altri mezzi trasparenti, noi abbiamo forti ragioni per credere che la luce è un fenomeno elettromagnetico, e, con la combinazione di prove ottiche ed elettriche, ci convinceremo della realtà di questo mezzo, proprio

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 476!

come, nel caso di altre qualità di sostanze, ci convinciamo dalla combinata testimonianza dei sensi”.

Supponiamo che in una certa regione dello spazio si verifichi una variazione temporale del campo elettrico, dovuta, per esempio, al moto accelerato di una carica elettrica. Nei punti immediatamente vicini si produce allora, per la quarta equazione di Maxwell, un campo magnetico anch'esso variabile nel tempo. La variazione del campo magnetico, per la terza equazione, origina nei punti immediatamente vicini un campo elettrico variabile, e così via. Nasce in tal modo una perturbazione elettromagnetica che si propaga nello spazio, ossia un’onda elettromagnetica. Questo fatto nuovo previsto da Maxwell è una notevole conseguenza dell'esistenza della corrente di spostamento. In altri termini, la configurazione dei campi non è immobile, ma viaggia nello spazio, in modo che i valori che il campo elettrico e il campo magnetico assumono in un punto in un dato istante si ritrovano, dopo un certo intervallo di tempo, in un punto lontano. Maxwell usando le sue equazioni riuscì a calcolare la velocità di tale perturbazione, formulandola in termini di due costanti fondamentali della natura e scoprì che la perturbazione aveva le stesse caratteristiche di un'onda. Inoltre, una volta calcolata la velocità di quell’onda elettromagnetica, Maxwell finì per rendersi conto che si trattava di un valore familiare: ! ! !

!!!!! !"""!!!!!!"!!, infatti corrispondeva alla velocità della

luce. Ciò lasciava ipotizzare (come fu successivamente confermato sperimentalmente) che la luce stessa poteva essere fatta di onde di campi elettromagnetici. Questo fu un risultato clamoroso, che mise in evidenza lo straordinario potere unificante della teoria elaborata da Maxwell. Egli, avendo notato che le onde elettromagnetiche e la luce, oltre a essere caratterizzate entrambe da vibrazioni trasversali, si propagano con la stessa velocità, avanzò l'ipotesi della natura elettromagnetica della luce.

Le equazioni di Maxwell costituivano così una teoria unitaria non solo dei fenomeni elettrici e magnetici, ma anche di quelli luminosi.

La prima grande unificazione della fisica, cioè descrivere la luce, l’elettricità e il magnetismo attraverso un unico complesso di equazioni matematiche, era avvenuta e segnò il culmine della fisica classica e suggerì anche una teoria della materia e della radiazione dalla quale deriva l’odierna teoria del campo.

Nella prefazione alla prima edizione del Trattato del 1873 Maxwell traccia le linee generali del proprio programma, che possiamo così riassumere: 1) mostrare che i più importanti fenomeni elettrici e magnetici possono venire sottoposti a misurazione; 2) cercare le relazioni matematiche che intercorrono tra le qualità così misurate; 3) ricavare le conseguenze più generali dai dati d’osservazione, valendosi per l’appunto di tutti gli strumenti che ci sono forniti dalla matematica; 4) applicare questi risultati a casi semplici, che permettano una facile verifica dei risultati stessi; 5) porre in luce i rapporti esistenti tra le formule matematiche della teoria elettromagnetica e quelle della dinamica classica.

I primi quattro punti collocano in maniera evidente la metodologia di Maxwell entro la grande tradizione galileiano-newtoniana della scienza moderna; ci dicono infatti che la ricerca scientifica deve fare simultaneamente appello all’esperienza e all’elaborazione matematica dei dati d’osservazione. Il quinto è forse il più interessante perché ribadisce, sia pure in forma implicita, la posizione di Maxwell di fronte ai fisici meccanicisti dell’Ottocento: mentre questi si dimostravano certi a priori che le formule matematiche usate con tanto successo dalla dinamica newtoniana sarebbero riuscite, se ben applicate, a farci comprendere in modo altrettanto perfetto anche i fenomeni

477! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

elettrici e magnetici, Maxwell si limitava a dire che il Trattato dovrà analizzare con la massima cura i rapporti effettivamente esistenti fra il tipo di matematica usato nella teorizzazione di questi fenomeni e quello usato in altri settori della fisica da Newton e dai newtoniani. Ciò che egli propone è dunque nulla più che un esatto confronto fra i due; ma già sappiamo che da questo confronto scaturirà proprio la loro radicale differenza. In effetti le equazioni di Maxwell, che sono equazioni differenziali alle derivate parziali, posseggono una struttura nettamente diversa da quella delle equazioni più caratteristiche della meccanica newtoniana; ed è per l’appunto la loro nuova struttura ciò che ci permette di applicarle con successo allo studio delle vicende del campo anziché allo studio delle vicende di particelle materiali.

Ora sorge spontanea la domanda: quale è la teoria generale in cui Maxwell pensava di inquadrare le proprie equazioni? La risposta più interessante è stata fornita da Hertz, lo scopritore delle onde elettromagnetiche e uno dei massimi conoscitori delle opere maxwelliane: “La teoria di Maxwell è il sistema delle equazioni di Maxwell”. Prendere le equazioni di Maxwell come ipotesi fondamentali, come postulati sui quali poggiare l'intero edificio delle teorie elettriche. In sostanza, Maxwell non riteneva di dover completare la matematizzazione dei fenomeni con l’aggiunta di una teoria in quanto matematizzazione e teorizzazione erano per lui coincidenti. Ci sembra opportuno sottolineare l’importanza di questa tesi. Quando per spiegare un fenomeno si pensava di doverlo inquadrare in una concezione filosofica della natura, o per lo meno di doverne costruire un modello di immediata intuibilità, è ben comprensibile che teorizzazione e matematizzazione dovessero costituire due momenti diversi della ricerca scientifica: alla teorizzazione spettava il compito più elevato di farci effettivamente capire i fenomeni fisici, alla matematizzazione era invece riservato un compito più modesto, di fornirci i mezzi per calcolare il loro decorso e di guidare in tal modo la scienza applicata. Ma una volta messa veramente da parte l’esigenza di una conoscenza metafisica della natura e ridotti i modelli a semplici ausilii della ricerca (da abbandonarsi a ricerca compiuta), che senso potrebbe avere la pretesa di cercare qualcos’altro, oltre i dati osservativi e la loro traduzione in formule? In questo modo il sistema delle equazioni di Maxwell operò, entro lo sviluppo della scienza ottocentesca, come un potente stimolo a fare della fisica-matematica una disciplina autonoma, sganciandola da ogni vecchio impegno filosofico e avviandola alla ricerca di formule generalissime capaci di sintetizzare in un unico sistema i più ampi settori fenomenici. Fu proprio questa nuova impostazione della fisica-matematica a permetterle un più immediato contatto con la fisica sperimentale elevando la matematica al rango di strumento unico, necessario e sufficiente, per l’elaborazione teorica dei dati osservativi.

Alla morte di Maxwell i sostenitori della sua teoria erano pochi giovani entusiasti di lingua inglese, legati al maestro da affetto e rispetto. Lo stesso Maxwell aveva riconosciuto questa situazione nel penultimo paragrafo del suo Trattato: “Nelle menti di uomini eminenti sembra rimanga ancora qualche prevenzione o obiezione a priori contro l'ipotesi di un mezzo nel quale prenderebbero origine i fenomeni di radiazione luminosa o calorifica e le azioni elettriche a distanza. È vero che in una certa epoca storica coloro che si abbandonavano a speculazioni sulle cause dei fenomeni fisici avevano l'abitudine di spiegare ogni specie di azione a distanza per mezzo d'un fluido etereo speciale, che aveva la funzione o la proprietà di produrre azioni. Essi riempivano lo spazio di tre o quattro specie di etere sovrapposti, le cui proprietà erano immaginate per salvare le apparenze; sicché i ricercatori più ragionevoli preferivano non solo la legge di Newton sull'azione a distanza, ma addirittura il dogma di Cotes che

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 478!

l'azione a distanza è una proprietà primitiva della materia, onde nessuna spiegazione potrebbe essere più intelligibile del fatto. Perciò la teoria ondulatoria della luce ha incontrato una viva opposizione, motivata non tanto dalla sua importanza a spiegare i fenomeni quanto dall'ipotesi stessa d'un mezzo in cui si propagherebbe la luce”.

E chiude il trattato con le parole: “In conclusione, tutte queste teorie conducono a concepire un mezzo nel quale si produce la propagazione; se ammettiamo l'ipotesi di questo mezzo, credo che esso debba occupare un posto dominante delle future nostre ricerche e che noi dobbiamo sforzarci di combinare nel nostro spirito e di rappresentarci tutti i particolari della sua azione: è lo scopo che mi sono costantemente proposto lungo tutto questo Trattato”.

Ma appunto la nuova concezione fisica di Faraday e di Maxwell stentava a farsi strada, anche, ma non unicamente, come osserva Maxwell, per il timore di cadere nel settecentesco vizio dei fluidi. Il problema fisico era: esistono le onde elettromagnetiche previste da Maxwell? Si possono produrre? Si possono rivelare? Hanno le proprietà loro attribuite dalla teoria? Era passato più di un decennio dalla prima edizione del Trattato e ancora nessun fisico aveva osato porsi le domande.

Cominciò nel 1884 il giovane fisico Heinrich Hertz (1857-1894) a intuire che solamente la risposta a quelle domande avrebbe potuto consentire di formulare un giudizio non preconcetto sull'intera teoria elettromagnetica di Maxwell, di cui la teoria della luce costituiva il punto centrale. Hertz fece acutamente una prima fondamentale osservazione: le equazioni di Maxwell mostrano che le onde elettromagnetiche possono sorgere da oscillazioni elettriche. Ora, intorno al 1870 era ben noto che la scarica di un condensatore poteva essere oscillatoria e Kirchhoff nel 1864 ne aveva data una teoria completa, mentre Helmholtz, nel 1869, aveva dimostrato che si possono ottenere oscillazioni elettriche anche in una spirale di induzione, i cui capi fossero collegati alle armature di un condensatore. Hertz adoperò dapprima le bobine del suo maestro Helmholtz, ma poi si orientò verso la scarica in aria di un condensatore. Dovette superare molte difficoltà, prima di ottenere onde adatte allo scopo. Le difficoltà consistevano essenzialmente nel fatto che le frequenze misurate erano dell'ordine di centinaia di migliaia per secondo; se la velocità delle onde era veramente quella della luce, un semplice calcolo dimostra che le lunghezze d'onda risultano dell'ordine di chilometri, troppo lunghe per essere rivelate, anche tenuto conto che l'energia irradiata si affievolisce col quadrato della distanza dalla sorgente. Se si voleva avere la possibilità di rendere percepibili le onde, occorreva produrre scariche di frequenza molto più elevata di quelle che i fisici erano allora in grado di ottenere. Hertz si dedicò quindi per due anni allo studio delle scariche oscillatorie e ottenne alla fine un completo successo, ideando un oscillatore costituito da un condensatore a piatti paralleli o da due sfere collegate con un'asta metallica interrotta nella parte mediana; gli estremi affacciati dell'interruzione terminano con sferettine distanti tra loro alcuni millimetri. I calcoli mostrarono che le onde elettromagnetiche prodotte avevano una velocità dello stesso ordine di grandezza della velocità della luce, come prevedeva la teoria di Maxwell. I primi risultati sperimentali furono pubblicati da Hertz nel 1887 e l’anno successivo, con l'impiego di specchi parabolici cilindrici, dimostrò la riflessione, la rifrazione e la polarizzazione delle onde prodotte. Dimostrò inoltre che vettore elettrico e vettore magnetico sono tra loro perpendicolari, conformemente alla teoria maxwelliana.

Molti sperimentatori imboccarono subito la via aperta da Hertz e furono proposti nuovi dispositivi per la produzione e la rivelazione delle onde. Nei primi anni

479! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

successivi alle scoperte di Hertz gli sforzi degli sperimentatori s’erano concentrati specialmente sui rivelatori e poca attenzione era stata rivolta agli oscillatori, sicché poco si era aggiunto all’opera di Hertz. Gli scienziati continuavano a sperimentare con la stessa lunghezza d’onda (circa 66 cm) usata da Hertz, onde i fenomeni di diffrazione mascheravano ogni altro fenomeno. Un grande passo fu compiuto da Augusto Righi (1850-1920), che con il suo oscillatore ottenne onde di pochi centimetri e riuscì così a riprodurre tutti i fenomeni ottici, in particolare la doppia rifrazione delle onde elettromagnetiche.

Hertz aveva esplicitamente escluso la possibilità di servirsi delle onde elettromagnetiche per trasmissioni a distanza di segnali, e la maggioranza dei fisici ne aveva condiviso lo scetticismo. Non mancarono, in verità voci discordi, come quella di Cookes, che fin dal 1892 aveva preconizzato una telegrafia senza fili. Anzi, tentativi concreti erano stati fatti, con risultati molto modesti, da Nikola Tesla (1856-1943).

Nel 1894 Guglielmo Marconi (1874-1937; Premio Nobel) iniziò una serie di sperimentazioni e nel 1895 il giovane scienziato autodidatta ebbe un’idea geniale e fondamentale: munire l'oscillatore di un'antenna, costituita in un primo tempo da una lastra metallica sospesa per aria a un palo di legno, collegata elettricamente a una sfera dell'oscillatore di Hertz, mentre l'altra sfera era posta a terra. Nel luglio del 1896 cominciarono a Londra gli esperimenti di Marconi sulla radiotelegrafia, le cui rapide evoluzioni e i mirabili risultati hanno inciso e incidono profondamente sulle condizioni di vita e sui destini dell'uomo.

Ma ancora più importanti furono gli sviluppi teorici della teoria maxwelliana. La fisica dei campi venne inizialmente accolta soprattutto come linguaggio, come strumento atto ad agevolare la comprensione dei fenomeni dal punto di vista meccanico. Non deve dunque stupirci se tale linguaggio fu ben presto largamente applicato anche alla teoria newtoniana della gravitazione, onde si cominciò a parlare di capo gravitazionale oltrechè di campi elettrici e magnetici. Il più delle volte l’uso di questo termine termine veniva utilizzato senza rendersi conto delle profonde innovazioni categoriali implicate da tale nozione, come la sostituzione di una fisica del continuo alla vecchia fisica del discontinuo. Sarà merito di Einstein non fermarsi all’aspetto tecnico della nuova teoria, cioè limitarsi a cercarne formulazioni matematiche via via più rigorose e più generali. In realtà egli seppe penetrare ad un tempo sia la grande portata filosofica, come dimostrano le citazioni in precedenza riportate, sia la straordinaria fecondità per la descrizione fisica del mondo (basti ricordare la sua famosa dichiarazione che senza la nozione di campo “sarebbe impossibile formulare la teoria della relatività generale”). Vale la pena ricordare già adesso che, approfondendo il concetto di campo gravitazionale in stretta analogia con quello di campo elettromagnetico, Einstein giungerà a sostenere (nel 1918) che il campo gravitazionale si propaga in modo pressochè identico a quello delle onde elettromagnetiche (onde il termine di onde gravitazionali) e quindi con una velocità finita. Va notato che questa tesi costituisce in un certo senso il naturale sviluppo della polemica di Maxwell contro l’azione a distanza; in essa, infatti, il concetto di azione a distanza (azione istantanea) viene respinto a favore dell’azione per contiguità (propagazione che avviene nel tempo) non solo nella trattazione dei fenomeni elettromagnetici ma anche per quelli gravitazionali. Anche il concetto di etere ci porta

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 47:!

alle soglie della teoria della relatività. Maxwell non abbandonò mai completamente la nozione tradizionale di etere, ma dopo averne costruito un complicato modello meccanico, finì per lasciar cadere anche questa ingegnosa visualizzazione del singolare fluido, da lui stesso qualificato come immaginario, per interessarsi esclusivamente della traduzione delle sue proprietà in termini matematici. Pur così volatilizzato, l’etere continuò, in ogni modo, a venir concepito, da Maxwell e dai suoi immediati continuatori, come qualcosa di reale, come il supporto, non meglio definito, dei campi elettromagnetici, pensati appunto come “stati” dell’etere. Proprio la trattazione matematica della teoria dei campi, mentre per un lato favoriva questa volatilizzazione del concetto di etere, per un altro lato sembrava invece destinata a dargli nuova dignità scientifica. Si dimostra infatti che le equazioni di Maxwell, diversamente da quelle della meccanica classica, non restano invarianti se le riferiamo a due differenti sistemi inerziali, ossia non obbediscono al principio di relatività galileiana. Se ne ricava che la validità stessa delle equazioni di Maxwell sembra provarci l’esistenza di un sistema di riferimento privilegiato o sistema inerziale assoluto; di qui l’idea che fosse appunto l’etere a costituire tale sistema. In altre parole, le equazioni di Maxwell risulterebbero valide se riferite proprio all’etere, concepito come immobile, mentre cesserebbero di esserlo se riferite a un sistema in movimento rispetto all’etere. L’importanza di questa conclusione è evidente: essa suggeriva ai fisici della generazione immediatamente successiva a Maxwell di cercare nei fenomeni elettromagnetici, e in particolare in quelli luminosi, una nuova via per dare un significato concreto, scientificamente attendibile, ai vecchi termini newtoniani di “quiete assoluta” e di “moto assoluto”. La possibilità di verificare sperimentalmente questa congettura, misurando la velocità della luce rispetto a quella della Terra, fu avanzata dallo stesso Maxwell. Fu proprio tale suggerimento a spingere Michelson e Morley a compiere il famoso esperimento, che analizzeremo nel capitolo sulla relatività, che fallì con grande delusione di tutto il mondo scientifico (sarà il genio di Einstein, con la sua teoria della relatività, ad abbandonare l’idea dell’etere e a dare una nuova visione dei fenomeni elettrodinamici). E sarà proprio questo fallimento a segnare il punto di rottura fra la meccanica classica e la meccanica relativistica. Eppure, nonostante i profondi legami fra la teoria maxwelliana dei campi e la teoria einsteiniana della relatività, la teoria di Maxwell non può venire considerata come una teoria veramente moderna. Se è vero, infatti, che costituì una delle basi essenziali per i successivi lavori di Einstein, è pur vero che questi potè giungere alla sua concezione tanto innovatrice dello spazio e del tempo solo con la negazione di alcuni punti basilari della teoria maxwelliana (in primo luogo col rifiuto completo dei concetti di quiete e moto assoluto). Né va dimenticato che anche sotto altri aspetti la teoria di Maxwell entrò presto in crisi, infatti la fine del secolo vide un rapido ritorno alla fisica del discontinuo, sotto forma di fisica dei quanti. Basti ricordare che la teoria dei campi dovette trasformarsi profondamente per adeguarsi alla nuova importantissima concezione; ne nacque la cosiddetta teoria quantistica dei campi (di cui tutti riconoscono la straordinaria fecondità per le più raffinate ricerche atomiche e subatomiche), radicalmente diversa dalla teoria classica di Maxwell.

La scoperta della radiazione elettromagnetica non fu solo di enorme interesse per realizzare l’unificazione dell’ottica e dell’elettrodinamica; essa comportò anche l’unione con la termodinamica, riempiendo così il vuoto lasciato nella teoria dell’energia attorno la metà del 1800. Il lavoro sperimentale era cominciato con l’osservazione di Boyle che i colori chiari assorbono meno calore di quelli scuri. La scoperta di “calore scuro” (la

48<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

radiazione infrarossa) da parte Herschel non solo rafforzò la separazione qualitativa tra radiazioni termiche e radiazioni luminose, ma suggerì un espediente, il “corpo nero”, che è il perfetto corpo assorbente e radiante. Tuttavia, durante la prima metà dell’ottocento, mentre prevaleva la teoria del calorico, la radiazione termica venne interpretata come una semplice dispersione del fluido calorico nel mezzo circostante. I principi termodinamici diedero nuovo vigore allo studio della radiazione poiché si poteva ora dedurre, anche con l’aiuto del principio di conservazione dell’energia, che la radiazione è esattamente l’inverso dell’assorbimento.

Questa verità venne espressa in diverse forme: Balfour Stewart ( 1827-1887) dedusse che a paragone di un “corpo nero” una sostanza, ad ogni data frequenza, assorbirà con la stessa efficienza con cui irradia; Kirchhoff provò attraverso un esperimento mentale che per ogni data frequenza e a temperatura costante, il rapporto tra energia assorbita ed energia irradiata è lo stesso per qualsiasi corpo; e ancora, Tyndall mostrò che sia la radiazione che l’assorbimento di calore ad opera dei gas sono proporzionali al numero di atomi nelle molecole. L’equivalenza così determinata spiegava l’esistenza di linee luminose negli spettri di emissione e di linee scure in quelli di assorbimento.

Di questo fenomeno e dell’evidente periodicità delle linee spettrali che le formule empiriche cercavano di esprimere non vi fu alcuna spiegazione soddisfacente (bisogna aspettare l’ipotesi di Planck formulata nel 1900). Tuttavia, si suppose, in base al carattere vibratorio della luce, da considerazioni di meccanica generale e da risultati come quelli di Tyndall, che gli spettri, e quindi la radiazione e l’assorbimento di energia in generale, fossero prodotti da movimenti di molecole. Ma dire che la luce deve esser simile al calore essendo riconducibile a un teoria cinetica non era dire molto.

Newton fu il primo a ottenere in base a esperimenti una regola per determinare la velocità con cui i corpi caldi cedono calore a quelli più freddi che li circondano: la diminuzione di temperatura in un dato tempo è proporzionale all’aumento della temperatura del corpo.

Nel 1879, Josef Stefan (1835-1893) propose una relazione più semplice, della quale, cinque anni dopo, Boltzmann ne fornì una giustificazione teorica basata sulle equazioni di Maxwell, e cioè che una radiazione deve esercitare una pressione sulla superficie su cui cade:

LEGGE DI STEFAN-BOLTZMANN

Il calore perso è proporzionale alla quarta potenza della temperatura assoluta:

In questo periodo Samuel Langley (1834-1906) stava effettuando delle

misurazioni dell’energia irraggiata a frequenze diverse da corpi riscaldati a varie temperature. Questo ed altri lavori sulla distribuzione energetica si dimostrarono del tutto coerenti con la legge di Wilhelm Wien (1864-1928; Premio Nobel):

4STt

Qσ=

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 48;!

LEGGE DI WIEN

la temperatura alla quale un corpo è sottoposto e la lunghezza d’onda alla quale corrisponde l’emissività massima sono inversamente proporzionali:

A questo punto la teoria elettromagnetica di Maxwell, confermata da Hertz,

sembrava saldamente legata alla termodinamica. La struttura complessiva della fisica si andava nettamente unificando, ed il numero di connessioni incrociate andava aumentando in modo costante.

Il concetto che la radiazione fosse un pompare energia da parte di qualche oscillatore in un mezzo; che questa energia resti nel mezzo finché non venga trasferita a qualche ricevitore ove produce nuovi effetti fisici, tutto ciò era stato trattato con completezza da un punto di vista matematico e giustificato da trenta anni di sviluppo della fisica.

Ma restavano alcuni problemi irrisolti, come quello di costruire una teoria generale che legasse energia, temperatura e lunghezza d’onda della radiazione del corpo nero; era come se in meccanica si fosse alla ricerca di una teoria che mettesse in relazione accelerazione, forza e massa. Wien ed altri non vi riuscirono, e dobbiamo aspettare Planck con la sua ipotesi quantistica che diede vita alla meccanica quantistica, che insieme alla teoria della Relatività, rivoluzionerà il modo di concepire il microcosmo, lo spazio ed il tempo.

.cosmax

tT =⋅λ