34
1206 U10 Filosofie per il XXI secolo IN QUESTO CAPITOLO Una rivoluzione epocale Quali sono le differenze principali fra il tuo mondo, il mondo dei diciotten- ni di oggi, e il mondo di una trentina di anni fa, quando la generazione dei tuoi genitori aveva 18 o 20 anni? I cambiamenti sono indubbiamente molti: la caduta del Muro di Ber- lino, nel 1989, separa due epoche profondamente diverse della storia eu- ropea e mondiale; oggi esistono nuovi Stati che allora non esistevano, e alcuni vecchi Stati non esistono più; per effetto del riscaldamento globale le temperature sono in media quasi un grado più alte; l’attentato alle Torri gemelle ha portato alla ribalta nuove forme di terrorismo internazionale e ha avuto importanti conseguenze geopolitiche; le grandi questioni del di- battito pubblico, sia a livello nazionale sia a livello internazionale, sono in parte diverse, così come le forze politiche che a tali questioni cercano Un mondo nuovo I nuovi media sono nuovi linguaggi, la cui grammatica e la cui sintassi sono ancora sconosciute. Marshall McLuhan Le domande che ci poniamo sulle macchine che pensano, dovrebbero in effetti essere domande sulla nostra stessa mente. Marvin Minzky Filosofia e mondo digitale DISCUTIAMO INSIEME Apocalittici o integrati? CONCETTI CHIAVE Rivoluzione digitale, La teoria matematica della comunicazione, Media studies, Intelligenza artificiale, Realtà virtuale-Realtà aumentata, Simulismo, Computer ethics/ Information ethics EXTRA ONLINE T134 McLuhan: il medium è il messaggio; T135 Landow: esempi di ipertesto saggistico; T136 Wiener: sulla rivoluzione cibernetica Biblioteca digitale G. Roncaglia, La quarta rivoluzione. Sei lezioni sul futuro del libro CLASSE CAPOVOLTA C42 1 Il greencode nella scena iniziale del film Matrix (1999), di Andy e Larry Wachowski

IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1206U10 Filosofie per il XXI secolo

IN QUESTO CAPITOLO

Una rivoluzione epocale

Quali sono le differenze principali fra il tuo mondo, il mondo dei diciotten-ni di oggi, e il mondo di una trentina di anni fa, quando la generazione dei tuoi genitori aveva 18 o 20 anni?

I cambiamenti sono indubbiamente molti: la caduta del Muro di Ber-lino, nel 1989, separa due epoche profondamente diverse della storia eu-ropea e mondiale; oggi esistono nuovi Stati che allora non esistevano, e alcuni vecchi Stati non esistono più; per effetto del riscaldamento globale le temperature sono in media quasi un grado più alte; l’attentato alle Torri gemelle ha portato alla ribalta nuove forme di terrorismo internazionale e ha avuto importanti conseguenze geopolitiche; le grandi questioni del di-battito pubblico, sia a livello nazionale sia a livello internazionale, sono in parte diverse, così come le forze politiche che a tali questioni cercano

Un mondo nuovo

I nuovi media sono nuovi linguaggi, la cui grammatica e la cui sintassi sono ancora

sconosciute.Marshall McLuhan

Le domande che ci poniamo sulle macchine che pensano, dovrebbero in effetti essere domande sulla

nostra stessa mente.Marvin Minzky

Filosofia e mondo digitale

DISCUTIAMO INSIEME Apocalittici o integrati?

CONCETTI CHIAVERivoluzione digitale, La teoria matematica

della comunicazione, Media studies, Intelligenza artificiale, Realtà virtuale-Realtà

aumentata, Simulismo, Computer ethics/Information ethics

EXTRA ONLINE T134 McLuhan: il medium è il messaggio;

T135 Landow: esempi di ipertesto saggistico; T136 Wiener: sulla rivoluzione cibernetica

Biblioteca digitaleG. Roncaglia, La quarta rivoluzione.

Sei lezioni sul futuro del libro

CLASSE CAPOVOLTA

C42

1

Il greencode nella scena iniziale del film Matrix (1999), di Andy e Larry Wachowski

Page 2: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1207C42 Filosofia e mondo digitale

di rispondere. Abbiamo nuove conoscenze astronomiche (ad esempio, sap-piamo ormai con certezza che esistono pianeti fuori dal sistema solare e ne abbiamo già catalogati parecchi, alcuni dei quali di dimensioni simili alla Terra), fisiche (come il Bosone di Higgs), mediche; abbiamo sequenziato il dna dell’uomo di Neanderthal e sappiamo che il nostro dna ne conserva una piccola eredità.

Ma se pensiamo alla vita quotidiana della maggior parte di noi, il cambia-mento maggiore è sicuramente legato alle conseguenze della rivoluzione digitale: l’enorme sviluppo di Internet, la diffusione dei dispositivi mobili, le nuove frontiere della robotica e dell’intelligenza artificiale. In una qua-rantina scarsa di anni, fra l’inizio degli anni Ottanta del secolo scorso e oggi, siamo passati dai primi home computer con poca memoria, schermi ingom-branti e monocromatici e nessun collegamento alla Rete, agli schermi ad alta definizione, a schede di memoria grandi come un’unghia e capaci di contenere decine di gigabyte di informazione, alle app, all’era della connes-sione permanente.

Parlare di rivoluzione non è esagerato, le conseguenze di questo sviluppo sono talmente enormi da renderne impossibile anche solo una sintesi: conseguenze economiche (si pensi all’enorme peso dei nuovi giganti dell’economia online, come Google, Amazon, Facebook, e prima ancora Microsoft e Apple), sociali e relazionali (quanta parte della nostra identità è oggi affidata ai social network, e quanta parte dei nostri scambi comuni-cativi avviene online?), politiche (l’uso della Rete, la diffusione di fake news, la propaganda online sono diventati elementi centrali nel dibattito politico).

E, inevitabilmente, la rivoluzione digitale ha anche molte, importanti con-seguenze dal punto di vista della riflessione filosofica. È difficile negare, infatti, che lo sviluppo prepotente del digitale abbia influenzato almeno in parte anche il nostro modo di interpretare e conoscere noi stessi e il mondo che ci circonda: sicuramente ha introdotto nuovi temi nella riflessione su problemi come la natura dell’intelligenza o il rapporto fra uomo e macchi-na, fino ad arrivare in alcuni casi a modificare il nostro modo di concepire la natura stessa della realtà.

Non stupirà allora che in un manuale come quello che avete in mano trovi posto anche un capitolo sul rapporto fra filosofia e digitale. Un rapporto che, come vedremo, non riguarda solo gli ultimi anni: possia-mo dire infatti che la rivoluzione digitale non è frutto solo del pro-gresso tecnologico, ma anche di geniali intuizioni matematiche, logiche e filosofiche.

La rivoluzione del quotidiano

Economia e comunicazione

La riflessione filosofica

CONCETTI CHIAVE

p. 1237

Fake news Alla lettera ‘notizie false’. Sono articoli diffusi principalmente via web, sui siti o social network, contenenti notizie deliberatamente false o distorte (le cosiddette “bufale”).

LESSICO BREVE

Page 3: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1208U10 Filosofie per il XXI secolo

Da Leibniz a Shannon: le basi teoriche del digitale

Quando nasce la rivoluzione digitale? Probabilmente, molti risponderebbe-ro a questa domanda facendo riferimento al secondo dopoguerra e all’av-vento dei primi computer. Ma c’è una data molto precedente che andrebbe almeno presa in considerazione: il 15 marzo 1679. In quel giorno il grande filosofo e matematico tedesco Gottfried Wilhelm Leibniz (che aveva l’abitu-dine di datare i suoi appunti: soprattutto quelli di cui era più soddisfatto) scrive un breve testo che intitola De Progressione Dyadica. Poche pagine manoscritte, ma importantissime: offrono infatti la prima presentazione si-stematica di quello che oggi chiamiamo calcolo binario.

Alla base del calcolo binario è l’idea di rappresentare tutti i numeri usan-do solo due cifre, “0” e “1”. Nel De Progressione Dyadica Leibniz spiega come fare, e mostra anche come compiere operazioni utilizzando le cifre binarie al posto di quelle decimali. Anticipa perfino la possibilità di co-struire una macchina calcolatrice basata sul codice binario: una macchina senza ruote dentate (quasi un’eresia rispetto alle prime macchine meccani-che di calcolo dell’epoca, comprese quelle progettate dallo stesso Leibniz), sostituite da fori «che possono essere aperti o chiusi» in corrispondenza rispettivamente degli “1” e degli “0”.

Ma l’interesse del lavoro leibniziano sul calcolo binario non si ferma qui: Leibniz aveva anche sviluppato l’idea di una caratteristica universale, cioè di un linguaggio che doveva utilizzare “numeri caratteristici” per rappre-sentare concetti. L’uso dei numeri permetteva, nelle intenzioni di Leibniz, di rendere preciso e formale il linguaggio; non solo si elimi-navano le ambiguità, ma si tra-

Il De Progressione Dyadica di Leibniz

La caratteristica universale

2

Il medaglione di Leibniz con il sistema binario[disegno tratto da Rudolf Nolte, Mathematischer Beweis der Erschaffung und Ordnung der Welt, Lipsia 1734; Bayerische Staatsbibliothek, Monaco]Nel 1697 Leibniz propose la realizzazione di un medaglione che rappresentasse visivamente l’idea del calcolo binario: una “immagine della creazione” al cui centro appare la tabella dei numeri binari. Pochi anni dopo osservò come i cinesi avessero già anticipato la sua scoperta, basando su due soli simboli (Yin, rappresentato da una linea spezzata, e Yang, rappresentato da una linea continua) la loro interpretazione del mondo e gli esagrammi del testo classico I-Ching.

Page 4: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1209C42 Filosofia e mondo digitale

sformava la verifica della verità o falsità di una proposizione in un calcolo aritmetico: nelle proposizioni vere, secondo Leibniz, il predicato è incluso nel soggetto, e questa inclusione poteva essere verificata aritmeticamente confrontando i fattori primi dei relativi numeri caratteristici.

Leibniz lavorò moltissimo su questa idea; nell’aprile del 1679 aveva ad esempio sviluppato sistemi logici che usavano per ogni concetto due nu-meri caratteristici, uno positivo e uno negativo, in modo da esprimere non solo le caratteristiche positive ma anche quelle negative dei concetti stessi, permettendo così di “calcolare” – e dunque di verificare aritmeticamente – anche la verità delle proposizioni universali negative (ad esempio, “Nessun uomo è un metallo”), costruite sulla base di concetti incompatibili.

Se colleghiamo il lavoro sul calcolo binario a quello sulla caratteristica universale, ci accorgiamo che la sua è una doppia mossa: rappresentare concetti attraverso numeri decimali (l’idea di base della caratteristica uni-versale), e rappresentare poi i numeri decimali usando gli “0” e “1” del calcolo binario (l’idea sviluppata nel De Progressione Dyadica). Una fra le tesi chiave della filosofia di Leibniz era insomma quella di poter parlare del mondo usando numeri; e Leibniz aveva capito che per farlo potevano bastare anche solo lo “0” e l’“1”.

L’idea leibniziana che qualunque concetto possa essere rappresentato attra-verso numeri binari è una delle prime e più radicali espressioni di quella che è a ben vedere una premessa fondamentale della rivoluzione digitale: il riconoscimento dell’enorme potenza rappresentativa del digitale stesso.

Certo, oggi non lavoriamo più alla rappresentazione diretta dei concetti attraverso numeri binari (almeno, non nel senso al quale pensava Leibniz). Più che dei concetti parliamo semmai di “informazione”. Ma l’idea della potenza rappresentativa del digitale resta: possiamo infatti rappresentare, attraverso gli “0” e “1” del calcolo binario, informazioni di ogni genere: non solo numeri ma testi, suoni, immagini, video, ecc. Per farlo, utilizziamo le idee sviluppate da due scienziati statunitensi attorno alla metà del secolo scorso: Claude Shannon (1916-2001), ingegnere elettronico presso i labora-tori della Bell, e Warren Weaver (1894-1978), matematico.

Shannon e Weaver pubblicarono insieme, nel 1949, un testo che rappresen-ta una tappa fondamentale nella costruzione del mondo digitale: La teoria matematica della comunicazione. Nato come relazione tecnica, il libro propone in realtà un modello generale del funzionamento dei processi co-municativi, distinguendo la sfera semantica (il contenuto semantico dei messaggi che vengono scambiati) dalla sfera tecnica che rende possibile la comunicazione; a quest’ultima sfera appartengono non solo gli apparati di trasmissione e ricezione ma anche i meccanismi di codifica del messaggio

L’onnipotenza rappresentativa

del digitale

La teoria matematica della

comunicazione

CONCETTI CHIAVE

p. 1237

Page 5: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1210U10 Filosofie per il XXI secolo

che ne consentono la trasmissione attraverso un canale, sotto forma di se-gnale, da un apparato all’altro. Un modello che ricorda per certi versi quel-lo che proporrà qualche anno dopo il grande linguista russo Roman Jakob-son (1896-1982). Ma mentre Jakobson si sofferma soprattutto sulla semantica della comunicazione, Shannon e Weaver sono interessati soprat-tutto ai suoi aspetti tecnici e in particolare alle modalità per garantire una trasmissione efficace del segnale.

È in questo contesto che Shannon e Weaver avanzano la proposta che tra-sformerà il concetto di informazione da idea vaga e imprecisa in una nozio-ne definita con grande precisione formale e corrispondente a quantità misu-rabili: il collegamento fra il concetto di informazione e il concetto di scelta.

La tipologia più semplice di informazione è, da questo punto di vista, quella che corrisponde alla scelta fra due sole alternative (o scelta binaria): esempi di scelte binarie sono quelle fra i due stati di un interruttore, che può essere acceso o spento, di una porta, che può essere aperta o chiusa (pensate ai fori della macchina binaria proposta da Leibniz) o di una propo-sizione, che – almeno in un contesto di logica classica – può essere vera o falsa. Una scelta di questo tipo, fra due sole alternative egualmente proba-bili, corrisponde a un bit di informazione: l’informazione ha così trovato la sua unità di misura, il bit.

Avrete già capito che a questo punto possono entrare in gioco i nostri “0” e “1”, che verranno utilizzati per rappresentare i due valori possibili di un bit: si potrà ad esempio rappresentare un interruttore spento con uno “0”, e un interruttore acceso con un “1”.

Naturalmente in molte situazioni le alternative possibili sono più di due. Se aumenta il numero delle alternative, aumenta la quantità di informazio-ne che corrisponde a ogni scelta, e dunque i bit necessari per codificarla. Considerate ad esempio il testo che state leggendo. Essendo in italiano, usa l’alfabeto latino. Ogni carattere del nostro testo è quindi scelto fra i 26 sim-boli che costituiscono quell’alfabeto (che dobbiamo moltiplicare per due, dato che vogliamo differenziare fra maiuscole e minuscole), più gli even-tuali caratteri speciali (ad esempio le vocali accentate), le cifre (potremmo dover scrivere un numero o una data), i segni di interpunzione, compreso lo spazio.

Possiamo allora costruire una tabella di codifica dei caratteri, in cui a ognuna di queste possibilità – e dunque a ognuno di questi caratteri – viene fatta corrispondere una determinata combinazione di “0” e “1”. È quello che è stato fatto con le tabelle Ascii (basata su 7 bit e in grado di codificare 27=128 caratteri), Iso Latin 1 (basata su 8 bit e in grado dunque di codificare 28 =256 caratteri) o Unicode, che può rappresentare i caratteri di un gran

L’unità di misura della comunicazione

La codifica delle informazioni: un po’ di questioni

“tecniche”

Page 6: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1211C42 Filosofia e mondo digitale

numero di alfabeti diversi: originariamente a 16 bit e dunque con la capa-cità di codificare oltre 65.000 caratteri, è arrivata oggi fino a 21 bit, con la possibilità di codificare oltre un milione di caratteri diversi: una necessità legata soprattutto a linguaggi come il cinese o il giapponese, che – essendo basati (anche) su ideogrammi – usano insiemi assai ampi di caratteri.

L’idea che il testo consista in una successione di caratteri scelti all’in-terno di un alfabeto è abbastanza immediata. Ma come fare per codificare le immagini, che sembrano un oggetto di tipo del tutto diverso? Ebbene, anche l’immagine viene scomposta in unità separate (o “discrete”), i pixel (picture elements). In uno schermo a colori, avremo bisogno di una tabella di codifica dei colori che faccia corrispondere a diverse sfumature di colore e di luminosità combinazioni diverse di “0” e “1”, in maniera non troppo diversa da quanto viene fatto nel caso dei caratteri. Se a ogni pixel vengono fatti corrispondere 32 bit potremo codificare milioni di sfumature: più di quelle che riesce a distinguere l’occhio umano.

Naturalmente più fitta è la griglia di pixel che usiamo, più l’immagine sarà definita (e più bit serviranno per codificarla).

E i suoni? Sappiamo che l’onda sonora può essere rappresentata in forma grafica, dandoci quindi la possibilità di “campionarla”, ovvero di trasfor-mare in dati numerici l’altezza del suono, millisecondo dopo millisecondo. E ovviamente anche questi valori possono essere rappresentati usando dei bit. Quanto al video, non è altro che una serie di fotogrammi (frames) ac-compagnati da una colonna sonora. E – come si è visto – possiamo trasfor-mare in bit sia le immagini sia i suoni.

Ma questi sono problemi tecnici, anche se è importante averne almeno un’infarinatura per comprendere le radici e i fondamenti teorici della rivo-luzione digitale: quello che è invece rilevante per noi è capire come il digi-tale abbia trasformato in realtà il sogno di Leibniz, anche se in una forma abbastanza diversa da quella che aveva immaginato lui: in digitale è oggi davvero possibile rappresentare e perfino costruire mondi. Tanto da spin-gere qualcuno a pensare che la realtà stessa possa avere alla sua base una “trama” digitale. Ma su questa ipotesi – abbastanza estrema, sebbene filoso-ficamente assai interessante – torneremo in seguito.

Audio e video

Il sogno di Leibinz

1. Individua e sottolinea nel testo [ 42.2] le parole chiave che si riferiscono al calcolo binario.2. Leibiniz ha promosso l’idea di una “caratteristica universale”. Di cosa si tratta e qual è la sua finalità?

3. Chiarisci il significato dell’espressione “enorme potenza rappresentativa del digitale”.4. Descrivi e spiega la nozione di bit di informazione. Per quale ragione è possibile affermare l’esistenza di

un nesso tra i concetti di scelta e di informazione?5. Illustra le modalità con le quali la scienza dell’informazione ha codificato numericamente i caratteri dell’alfabeto, le immagini e i suoni.

GUIDA ALLA COMPRENSIONE E ALLO STUDIO

Page 7: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1212U10 Filosofie per il XXI secolo

Dalle macchine da calcolo al computer

Abbiamo parlato della grande potenza rappresentativa del digitale. Ma i computer non si limitano a codificare informazione: permettono anche di modificarla in base a regole, di conservarla in maniera organizzata, di ricer-carla e di produrre informazione nuova. Gli strumenti informatici sono in-somma estremamente potenti non solo dal punto di vista rappresentativo, ma anche da quello operativo.

Questa dimensione operativa rappresenta l’eredità diretta delle prime calcolatrici meccaniche alle quali avevano lavorato nel Seicento prima lo scienziato tedesco Wilhelm Schickard (1592-1635), poi due scienziati e fi-losofi che conosciamo bene, Blaise Pascal (1623-1662) e – come stupirsene? – lo stesso Leibniz.

Per arrivare all’idea di macchine che non si limitino a fare operazioni arit-metiche ma possano compiere anche altri tipi di calcoli e, in prospettiva, lavorare anche su informazione originariamente non numerica, e tutto questo senza modificare la componente fisica della macchina, l’hardware, ma solo il programma, cioè le istruzioni attraverso cui la macchina opera, bisogna però aspettare altri due secoli e il lavoro del geniale inventore inglese Charles Babbage (1791-1871) e di una fra le menti matematiche più brillanti dell’Ot-tocento, Augusta Ada Byron, conosciuta come Ada Lovelace (1815-1852).

È infatti Babbage che introduce nel progetto della sua macchina analitica (analytical engine) due idee che saranno fondamentali per lo sviluppo, nel secolo successivo, dei primi calcolatori elettronici: innanzitutto la distin-

Uno strumento operativo

Babbage e la macchina analitica

programmabile

3

◄▼Modello della macchina analitica di Babbage e le sue schede perforate[Science Museum, Londra]

Page 8: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1213C42 Filosofia e mondo digitale

zione fra la memoria (che ha il compito di conservare i dati) e la compo-nente di calcolo e di elaborazione – il processore – che su quei dati man mano lavora; e poi, appunto, l’idea di programma, e dunque di una succes-sione ordinata di istruzioni sulla cui base si svolge il lavoro della macchina. Un’idea che era stata ispirata a Babbage da un’invenzione che non aveva apparentemente nulla a che fare con il calcolo ma che a ben vedere lavorava comunque, in forma meccanica, con programmi e informazione codificata: il telaio meccanico di Joseph Marie Jacquard (1752-1834). Il telaio Jacquard usava schede perforate per codificare i diversi modi in cui la tessitura pote-va intrecciare i fili per realizzare trame e disegni; analogamente, Babbage propone di usare schede perforate per codificare e inserire nella macchina analitica tanto i dati quanto le istruzioni dei programmi che di volta in vol-ta essa è chiamata a eseguire.

Nonostante gli ingenti finanziamenti avuti inizialmente da parte del go-verno inglese, Babbage non riuscirà mai a costruire la sua macchina anali-tica: era un grande inventore, ma era molto meno abile nell’organizzare la realizzazione pratica di quel che progettava.

È però interessante notare che Babbage aveva sollecitato tali finanziamenti sottolineando il ruolo che nuovi e più potenti strumenti di gestione dell’in-formazione avrebbero potuto avere nel favorire la crescita dell’impero bri-tannico e l’efficienza della sua organizzazione sociale. Babbage era insom-ma consapevole della potenziale utilità non solo pratica ma anche sociale, politica e addirittura militare di uno strumento come la macchina analiti-ca. Un tema che ha evidenti riflessi anche in ambito filosofico: cosa com-porta affidare ai computer la gestione di una quota progressivamente cre-scente della nostra organizzazione sociale? La società dell’informazione è governata dall’uomo o dalle macchine?

La fantascienza è uno dei generi letterari da sempre più attenti alla ri-flessione sulle conseguenze politiche e sociali del progresso tecnologico in generale e dell’evoluzione dell’informatica in particolare. Non stupirà dun-que che proprio la fantascienza abbia provato a esplorare queste tematiche anche con riferimento al lavoro pionieristico di Babbage: nel romanzo La macchina della realtà (1990), gli scrittori William Gibson e Bruce Sterling immaginano un’Inghilterra vittoriana alternativa in cui la macchina ana-litica è stata realizzata, dando all’impero britannico un enorme vantaggio competitivo sulle potenze rivali.

Abbiamo detto che la macchina analitica di Babbage, pur essendo meccanica e non elettronica, è (o meglio sarebbe stata) il primo dispositivo di calcolo programmabile in modo analogo a quanto avviene nel caso dei computer di oggi. A lavorare sulla forma che questi programmi avrebbero potuto avere

La macchina della realtà

Lovelace, la prima programmatrice

Page 9: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1214U10 Filosofie per il XXI secolo

non è però Babbage ma una giovane nobildonna inglese dagli illustri natali, Ada Lovelace. Nata dal tempestoso matrimonio fra il grande poeta inglese Byron e la matematica Anne Isabelle Milbanke, Ada fu a sua volta una mate-matica di prim’ordine, capace di costruire programmi per far svolgere calco-li sofisticati e complessi a un computer che ancora non esisteva. Il suo com-mento alla relazione scritta da Luigi Menabrea (futuro ministro e poi primo ministro del Regno d’Italia, ma anche militare e scienziato di valore) in oc-casione dell’intervento di Babbage al secondo congresso degli scienziati ita-liani svoltosi a Torino nel 1840, rappresenta la migliore presentazione della macchina analitica e contiene degli esempi di programmazione sorprenden-temente precisi e accurati, e non è quindi affatto esagerato presentarla come la prima programmatrice della storia, smentendo alla radice il pregiudizio che vuole l’informatica come un campo poco adatto alle donne.

La macchina analitica non fu mai realizzata per le scarse capacità “in-dustriali” di Babbage, ma indubbiamente anche perché la costruzione fisi-ca delle sue componenti era al limite delle possibilità tecniche dell’epoca. Per fare passi avanti concreti occorreva da un lato sviluppare ulteriormente l’idea di macchina universale (capace cioè di svolgere compiti diversi at-traverso programmi diversi), dall’altro passare da macchine meccaniche a macchine elettroniche.

Il primo sviluppo passa attraverso il lavoro teorico del grande matematico inglese Alan Turing (1912-1954), che immagina una macchina ideale – la macchina di Turing [ 33.4] – composta da un nastro di lunghezza poten-zialmente infinita suddiviso in cellette, su cui agisce una testina di lettura e scrittura. La testina si muove lungo il nastro e può leggere e scrivere simbo-li all’interno delle cellette, seguendo le istruzioni di un programma.

La descrizione che ne abbiamo fornito può sembrare eccessivamente sem-plice (e in parte lo è: bisogna anche presupporre che la testina possa assume-re stati diversi, in modo da differenziare istruzioni diverse del programma); nonostante la sua estrema semplicità, tuttavia, una macchina di Turing può eseguire operazioni assai complesse: in effetti, è in grado di eseguire tutte le operazioni che può compiere il più potente dei computer a noi noti. C’è solo un problema, in verità non trascurabile: la macchina di Turing è una sorta di esperimento mentale (o meglio, è la descrizione di un meccanismo computa-zionale astratto) ma non è realizzabile praticamente. E questo sia perché non è possibile realizzare nastri infiniti, sia perché Turing presuppone che abbia a disposizione un tempo potenzialmente infinito per lavorare.

Se la macchina di Turing è un modello astratto, per certi versi non è troppo lontana – pur con le dovute differenze – dall’idea di computer sviluppata negli anni Quaranta del secolo scorso da un altro pioniere dell’informatica,

La macchina di Turing

La macchina di von Neumann

Page 10: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1215C42 Filosofia e mondo digitale

l’ungherese John von Neumann (1903-1957). Si tratta della cosiddetta mac-china di von Neumann: anch’essa in primo luogo una costruzione teorica, che influenzò però direttamente la realizzazione di due fra i primi compu-ter: l’Eniac (Electronic Numerical Integrator and Computer, 1946) e l’Edvac (Electronic Discrete Variable Automatic Computer, 1949).

Torneremo più avanti su alcune delle idee che hanno guidato i pionieri del settore, e in particolare sulla concezione del computer come strumento di estensione e potenziamento delle capacità conoscitive e operative umane.

1. Individua e sottolinea nel testo le definizioni di hardware e di programma.2. Qual è il merito scientifico più rilevante di Charles Babbage?

3. Per quale ragione Ada Lovelace può essere considerata la prima programmatrice della storia dell’informatica?

4. Quale caratteristica accomuna le macchine di Turing e di von Neumann?

GUIDA ALLA COMPRENSIONE E ALLO STUDIO

4 I media studies e la scuola di Toronto

Nei paragrafi precedenti, abbiamo preso in esame – in maniera certo assai sintetica – le basi teoriche e storiche della rivoluzione digitale. C’è però un altro campo di studi che occorre ricordare prima di poter discutere la porta-ta filosofica degli sviluppi più recenti nel campo delle tecnologie dell’infor-mazione e della comunicazione. Si tratta dei cosiddetti media studies, legati alla riflessione sulle caratteristiche e sulle conseguenze culturali e sociali degli strumenti di comunicazione e dei media. Prima della rivolu-zione digitale questi due grandi filoni – macchine da calcolo da un lato, strumenti di comunicazione e media di massa dall’altro – hanno viaggiato su binari in qualche misura paralleli, ma negli ultimi decenni si sono in-scindibilmente intrecciati: anche il campo dei media studies è dunque rile-vante per il nostro discorso.

Fra i fondatori di questo settore di studi, e in particolare della scuola cana-dese (o scuola di Toronto) che ne ha dominato inizialmente il panorama, va ricordato innanzitutto Harold Innis (1894-1952). La sua ricerca – i cui risul-tati sono presentati nel volume Impero e comunicazioni (1950) – esplora in maniera sistematica il collegamento fra sistemi politici e sistemi di comuni-cazione, sottolineando la stretta relazione esistente fra comunicazione e trasporti (giacché in passato l’informazione viaggiava soprattutto attraverso lo spostamento fisico di beni e persone) e la rilevanza che ha in questa ana-lisi la dimensione geografica.

I media studies: definizione

CONCETTI CHIAVE

p. 1237

Innis e la scuola di Toronto

Page 11: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1216U10 Filosofie per il XXI secolo

Innis distingue due tipologie di strumenti di comunicazione: 1. gli stru-menti orientati alla durata nel tempo (le scritte su pietra, le tavolette di argilla, ma anche i racconti orali come quelli omerici, che favorivano la memorizzazione e la trasmissione dei valori da una generazione all’altra); 2. gli strumenti orientati alla diffusione nello spazio (la radio, la televisione, i quotidiani a stampa, in grado di raggiungere di norma un pubblico più largo ma in cui il singolo messaggio è effimero). Secondo Innis, i primi facilitano la costruzione di società stabili e locali (ne è un esempio il modello tribale), basate su un forte ruolo della memoria, delle tradizioni, della religione; i secondi favoriscono invece società in rapido cambiamento, orientate al controllo dello spazio attraverso la costruzione di larghi imperi. Per Innis, la dialettica e l’equilibrio fra queste due tipologie di comunicazione rap-presentano un fattore essenziale per comprendere il successo, le caratte-ristiche, i punti forti e deboli e il succedersi nel tempo dei diversi sistemi politici e sociali.

Fra gli autori più direttamente influenzati da Innis e dalle sue rifles-sioni ricordiamo qui due altri esponenti di spicco della scuola di Toronto: Marshall McLuhan e Walter Ong.

Marshall McLuhan (1911-1980) è famoso soprattutto per uno slogan che ha avuto un’enorme fortuna, anche se spesso attraverso interpretazioni discu-tibili: «il medium è il messaggio».

Ma cosa intendeva, McLuhan, sostenendo che il medium è il messaggio? Innanzitutto, va detto che egli assegnava al termine “medium” un significa-to molto ampio: i media non sono solo i tradizionali mezzi di comunicazio-ne di massa (libri, giornali, cinema, radio, televisione, ecc.) ma «qualunque tecnologia che crei estensioni del corpo e dei sensi umani, dall’abbiglia-mento al calcolatore». Per McLuhan, dunque, sono media tutti gli strumenti

McLuhan

Marshall McLuhan ripreso dalle telecamere della Cbc, 1965

Page 12: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1217C42 Filosofia e mondo digitale

che ci aiutano a metterci in relazione con gli altri e con l’ambiente: una categoria che, come è facile capire, comprende quasi tutto, dai vestiti alle case, dai mezzi di comunicazione ai mezzi di trasporto, dalle lingue all’arte. E naturalmente anche il computer (anche se McLuhan è morto prima della diffusione su larga scala dei personal computer).

Estensioni e potenziamenti del “saper fare” umano, le tecnologie – e in particolare le tecnologie della comunicazione – non sono affatto neutrali: influenzano direttamente non solo le forme ma anche i contenuti della co-municazione, i messaggi. In questa prospettiva la stessa distinzione fra mez-zo (il “medium”) e contenuto (il “messaggio”) viene meno: il medium e il messaggio non sono due entità separate e indipendenti ma espressione del-la stessa fondamentale idea di “estensione” operativa e relazionale dei no-stri sensi.

Riprendendo e sviluppando alcune delle idee di Innis, nel saggio Under-standing media (1964) e in numerosi altri interventi, McLuhan distingue poi media diversi a seconda non solo del loro rapporto con lo spazio e il tempo, ma anche del maggiore o minore numero di sensi coinvolti (la te-levisione, ad esempio, coinvolge più sensi della radio) e della maggiore o minore partecipazione del soggetto, che in alcuni casi è chiamato a “com-pletare” o integrare attivamente il messaggio, in altri è invece meno attivo. In particolare, i nuovi media “elettrici”, come radio e televisione, superan-do tanto i limiti spaziali quanto quelli temporali, favoriscono a suo avviso la costruzione di un “villaggio globale” e il superamento della cosiddetta “galassia Gutenberg”, l’ecosistema comunicativo legato alla diffusione del-la stampa a caratteri mobili che a sua volta aveva portato, al momento della sua affermazione, un radicale cambiamento non solo nelle forme della co-municazione ma anche in quelle dell’organizzazione sociale.

La riflessione sul rapporto fra media diversi è al centro anche del lavoro del gesuita Walter Ong (1912-2003), la cui opera principale – Oralità e scrittura (1982) – discute le conseguenze e le caratteristiche del passaggio da quella che Ong chiama “oralità primaria”, tipica delle società non ancora alfabetiz-zate (e che quindi non conoscono la scrittura e la stampa), alla fase della scrittura e della oralità secondaria. Per Ong l’oralità primaria è fortemente influenzata dalla sua natura fisica e sonora: non è una costruzione astratta ma è fatta di “eventi”. Per poter essere ricordata e sopravvivere nello spazio e nel tempo, deve sfruttare meccanismi che possano favorire la memorizza-zione: per questo è ripetitiva, formulaica, a volte quasi musicale, destinata all’ascolto e dunque all’udito. Al contrario, la scrittura è il risultato di una costruzione artificiale e non naturale: è dunque una tecnologia, e richiede strumenti di produzione e supporti specifici, costruiti apposta. Il messaggio scritto diventa indipendente dal suo stesso autore, si rivolge alla vista più

T134

McLuhan: il medium è il messaggio

Ong e la scrittura come tecnologia

Page 13: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1218U10 Filosofie per il XXI secolo

che all’udito, ed essendo stabile può permettersi il lusso della complessità e dell’analisi. Un cambiamento rivoluzionario rispetto all’oralità primaria, che influenza anche il parlato: nelle società basate sulla scrittura l’uso del linguaggio parlato è sempre legato alla consapevolezza delle possibilità del-la scrittura, e ne riprende spesso le forme e le regole di costruzione: l’oralità delle società alfabetizzate diventa così oralità secondaria, e si allontana dal-la naturalezza – ma anche dai limiti – dell’oralità primaria.

Ong fa in tempo a vedere anche l’avvento dei personal computer e l’ingres-so dell’informatica nella vita quotidiana di ciascuno di noi, e nelle sue ulti-me opere considera la scrittura digitale come superamento sia dell’età della stampa sia dei mass media tradizionali, a favore di forme di organizzazione reticolare delle informazioni.

Già in Ong, e ancor più direttamente negli autori di cui ci occuperemo nel prossimo paragrafo, questo passaggio è legato alla riflessione sviluppata a partire dagli anni Ottanta e Novanta del secolo scorso sul tema della scrit-tura elettronica e degli ipertesti. Un tema che, per la sua rilevanza anche filosofica, merita una trattazione specifica.

Personal computer e scrittura digitale

T134 EXTRA ONLINE McLuhan: il medium è il messaggio

1. Che cosa significa l’espressione media studies? Individua e sottolinea nel testo la definizione.2. Harold Innis distingue due tipologie di strumenti di

comunicazione. Di quali tipologie si tratta?3. Chiarisci il significato della celebre affermazione di McLuhan: «Il medium è il messaggio».

4. Walter Ong ha elaborato i concetti di “oralità primaria” e “oralità secondaria”. Individua e spiega il loro significato.

GUIDA ALLA COMPRENSIONE E ALLO STUDIO

5 Linearità e ipertesti

Cosa sono gli ipertesti, e perché ci interessano in questa sede? Per capirlo, occorre innanzitutto considerare lo sviluppo nel tempo delle forme della testualità. Per molti secoli, nella storia della scrittura i testi brevi prevalgo-no su quelli lunghi e articolati. La testualità “lunga” è inizialmente un’ecce-zione, non la regola, ed è solo molto, molto lentamente – e in particolare grazie al contributo decisivo dell’invenzione della stampa e dunque della rivoluzione gutenberghiana – che la “forma libro” assume il rilievo e la connotazione che le diamo attualmente. Saggi, romanzi, racconti, sono for-me di testualità relativamente recenti, e se le analizziamo vediamo che si

Ipertesti o scrittura lineare

Page 14: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1219C42 Filosofia e mondo digitale

tratta di testi caratterizzati da una struttura espositiva e narrativa quasi sem-pre lineare. Una considerazione che vale non solo per la narrativa ma anche per la saggistica: il modello cartesiano della “lunga catena di ragionamenti” è in fondo quello che trova espressione nella forma-saggio come la cono-sciamo nella tradizione a stampa.

Certo, anche nell’era della stampa restano ben presenti forme di testua-lità più brevi, e alcune tipologie di testi – soprattutto testi di riferimento, come le enciclopedie, i dizionari, le guide turistiche – sono costruiti per una lettura “ad assaggi” più che per una lettura lineare. Ma fra i testi lunghi prevale nettamente il paradigma della linearità.

Un paradigma che già le sperimentazioni novecentesche mettono in discus-sione. Sono in particolare gli autori (soprattutto francesi, come Raymond Queneau; ma c’è anche il nostro Italo Calvino) che si riconoscono nel movi-mento letterario dell’Oulipo (Ouvroir de littérature potentielle, ovvero ‘Offi-cina di letteratura potenziale’) a sperimentare forme di scrittura non lineare, molto vicine a quelle che saranno poi sviluppate negli ipertesti elettronici. Gli esperimenti con la non-linearità non si limitano ai testi: il musicista americano John Cage (1912-1992) propone forme di musica aleatoria, in cui l’esecuzione musicale procede in base ai risultati del lancio di dadi da par-te dell’interprete. Veri e propri “ipertesti su carta” sono poi anche i libri game, popolari soprattutto negli anni Ottanta del secolo scorso: anche in questo caso è il lettore a determinare l’esito della storia attraverso una suc-cessione di scelte, a ciascuna delle quali corrisponde una prosecuzione di-versa associata a una diversa pagina.

Lo sviluppo della scrittura elettronica sembra offrire un ambiente ideale per questo tipo di sperimentazioni: l’ipertesto – cioè un testo organizzato in blocchi (o “nodi”) parzialmente indipendenti, collegati fra loro in modo da offrire al lettore la scelta fra diversi percorsi possibili – viene così proposto come vero e proprio paradigma per le nuove forme di testualità digitale, e indagato sia dal punto di vista teorico sia attraverso la creazione di ipertesti narrativi, didattici o saggistici.

Un ipertesto può essere costruito in forma puramente testuale o in forma multicodicale e quindi con l’aggiunta di immagini, audio, video: in questo caso si parla a volte di ipermedia.

Nel volume Writing Space: The Computer, Hypertext, and the History of Wri-ting (1990), fra le prime riflessioni organizzate sul tema, Jay David Bolter (nato nel 1951) presenta gli ipertesti come una fase radicalmente nuova nella storia della scrittura, in cui la linearità è sostituita da uno spazio reticolare di scelte che si adatta al lettore e ai suoi specifici interessi. Un’innovazione che, sostiene Bolter, ha conseguenze di vasta portata tanto per la teoria della lette-

Nuove forme di scrittura non lineare

Scrittura elettronica e ipertesto

Bolter

Page 15: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1220U10 Filosofie per il XXI secolo

ratura quanto per la filosofia e per le scienze cognitive, giacché i cambiamen-ti nelle forme della scrittura influenzano il modo in cui guardiamo al mondo e cerchiamo di conoscerlo. Più specificamente, i blocchi costituitivi dell’iper-testo sono brevi e modulari, quasi aforistici, e si adattano dunque a processi cognitivi basati più sull’associazione che sulla concatenazione.

In Remediation: Understanding New Media (1999), scritto con Richard A. Grusin, Bolter introduce poi il concetto di rimediazione, che costituisce a suo avviso un’altra delle caratteristiche fondamentali dei nuovi media digitali (e, più in generale, dell’evoluzione dei media): convenzioni e con-tenuti propri dei mezzi di comunicazione precedenti vengono insieme as-sorbiti, modificati e adattati ai meccanismi comunicativi propri dei nuovi media digitali, e questo processo continuo di rimediazione contribuisce a definire l’ecosistema comunicativo e, attraverso di esso, la società e la no-stra stessa immagine del mondo.

George Landow (nato nel 1940) – studioso statunitense di storia culturale, che ha dedicato alla scrittura ipertestuale una ricerca articolata in tre succes-sive edizioni di un volume progressivamente più ampio (Hypertext: The Convergence of Contemporary Critical Theory and Technology, 1992; Hyper-text 2.0, 1997; Hypertext 3.0: Critical Theory and New Media in an Era of Globalization, 2006) – collega la teoria degli ipertesti alla filosofia francese dello stesso periodo, e in particolare ad autori come Michel Foucault, Ro-land Barthes, Jean Baudrillard, Jacques Derrida, Gilles Deleuze. Pur se varia-mente articolate, le posizioni di questi autori – legate allo strutturalismo e al post-strutturalismo – propongono forme di decostruzione e apertura del te-sto che per Landow corrispondono a quello che gli ipertesti elettronici ren-dono concretamente possibile. Da questo punto di vista la scrittura iperte-stuale si trasforma nello strumento espressivo ideale per forme di pensiero non lineare, associativo, “de-centrato” (un’espressione che Landow ripren-de da Derrida), in cui al codice alfabetico si affiancano immagini, mappe, contenuti audiovisivi, e in cui il ruolo del lettore diventa attivo.

C’è un curioso paradosso legato a queste discussioni sulla natura degli ipertesti: se davvero la scrittura ipertestuale è una forma di organizzazio-ne del pensiero più efficace – o almeno capace di rispondere meglio alle specificità del pensiero postmoderno – rispetto alla scrittura lineare, come mai chi la studia lo fa in saggi scritti e organizzati in forma sostanzialmente tradizionale? Sia Bolter sia Landow hanno lavorato direttamente alla pro-duzione di ipertesti, ma entrambi, nel riflettere sul tema in modo organico, preferiscono affidarsi alla forma collaudata del saggio accademico.

La sfida di produrre una discussione sugli ipertesti organizzata in forma di ipertesto è raccolta da David Kolb (nato nel 1939) in un saggio ipertestuale

Landow

Kolb e il saggio in forma d’ipertesto

Page 16: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1221C42 Filosofia e mondo digitale

dedicato proprio al rapporto fra ipertesti e filosofia: Socrates in the Laby-rinth (1994). L’interrogativo posto da Kolb – che ha lavorato a lungo anche su temi di filosofia dell’apprendimento – è stimolante: il pensiero (e in par-ticolare il pensiero filosofico) è necessariamente lineare?

C’è sicuramente una tradizione filosofica importante, di cui fa parte l’i-dea cartesiana della catena di ragionamenti già ricordata sopra, che parte da due presupposti: la filosofia è legata in primo luogo all’argomentazione, e l’argomentazione è un procedimento lineare. Tutti e due questi presupposti possono essere evidentemente contestati, da diversi punti di vista. Kolb si sofferma soprattutto sull’esistenza di forme di pensiero filosofico non linea-re, a partire proprio dai dialoghi socratici: il Socrate che ci presenta Platone è un esploratore, spesso propone o percorre strade o soluzioni diverse, magari per abbandonarle e tornare indietro. In questa prospettiva, Kolb ritiene che la scrittura ipertestuale permetta – anche in campo filosofico – di “esplorare panorami” anziché limitarsi a difendere o attaccare singole tesi (una caratte-ristica a suo avviso storicamente legata alla scrittura lineare): apre quindi uno “spazio intermedio” in cui linee argomentative diverse possono confrontarsi e interagire, anziché presentarsi come mutualmente esclusive.

Di fatto, dopo l’esplosione di attenzione e di sperimentazioni degli anni No-vanta, oggi si parla molto meno di ipertesti saggistici o narrativi. Certo, il World Wide Web è organizzato in forma ipertestuale e possiamo quindi dire che il paradigma rappresentato dall’organizzazione ipertestuale delle infor-mazioni si è effettivamente affermato come alternativa diffusa e ormai ben radicata alla testualità lineare. Ma il web non è prevalentemente composto da testi argomentativi o narrativi: raccoglie piuttosto contenuti informativi (in larga parte commerciali) e interazioni sociali, mentre la scrittura autoria-le continua a preferire le strade della linearità. Se questo sia un semplice effetto di abitudini dure a morire, o esprima invece una caratteristica profon-da del nostro modo di costruire narrazioni e argomentazioni, è questione aperta e rappresenta un affascinante argomento di discussione e dibattito.

Web e forma ipertestuale

1. Individua e sottolinea nel testo la definizione di ipertesto.2. Che cosa si intende quando si afferma che un testo presenta una struttura espositiva di tipo lineare?

3. Per quale ragione è possibile sostenere che le sperimentazioni letterarie e artistiche del Novecento hanno messo in crisi il paradigma della linearità?4. Jay David Bolter ha introdotto il

concetto di rimediazione. Individua e spiega il suo significato.5. Perché, a giudizio di David Kolb, i dialoghi socratici possono essere considerati una forma di pensiero non lineare?

GUIDA ALLA COMPRENSIONE E ALLO STUDIO

T135 EXTRA ONLINE Landow: esempi di ipertesto saggistico

Page 17: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1222U10 Filosofie per il XXI secolo

Macchine intelligenti?

Se dovessimo identificare un singolo tema rispetto al quale il collegamento tra la riflessione filosofica e l’evoluzione del mondo digitale risulta partico-larmente chiaro e rilevante, l’intelligenza artificiale sarebbe probabil-mente la scelta naturale. È possibile costruire macchine intelligenti? E se è possibile, è desiderabile farlo? L’intelligenza delle macchine, se e quando arriverà, sarà simile alla nostra, o di tipo radicalmente diverso?

È chiaro che dietro a queste domande si nasconde una questione fon-damentale e per molti versi ancor più complessa: cos’è, esattamente, l’in-telligenza? Una domanda che, nel ripercorrere le vicende della riflessione filosofica, abbiamo incontrato molte volte e in molte forme: la distinzione cartesiana fra res cogitans e res extensa rappresenta ad esempio un (estre-mo?) tentativo di separare la sfera della coscienza e dell’intelligenza uma-na dal mondo meccanico e deterministico che sembra governare il nostro stesso corpo e – più in generale – il mondo fisico che ci circonda. E molte discussioni contemporanee sul rapporto fra mente e cervello affrontano in ultima analisi lo stesso problema, rispetto al quale sono evidentemente rile-vanti sia il tema dell’intelligenza degli animali (dopo la formulazione della teoria dell’evoluzione, risulta assai difficile immaginare una cesura rigida fra le capacità intellettuali dell’homo sapiens e quelle degli animali evoluti-vamente più vicini a noi) sia i risultati del lavoro di ricerca nel campo delle neuroscienze, che mostrano lo stretto collegamento esistente fra l’intelli-genza umana e la sua base biologica rappresentata dal cervello [ 00, p. 00].

L’intelligenza artificiale:

interrogativi e possibilità

CONCETTI CHIAVE

p. 1237

6

Christian Ristow, Becoming Human, part., 2014[Meow Wolf studio, Santa Fe (Nuovo Messico)]

Page 18: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1223C42 Filosofia e mondo digitale

Seguendo una distinzione proposta dal filosofo americano John Searle (nato nel 1932) [ 00, p. 00] si identificano, all’interno di questo settore di ricerca, i due filoni dell’intelligenza artificiale forte e dell’intelligenza artificiale debo-le. I teorici dell’intelligenza artificiale forte ritengono sia possibile costruire e programmare computer che non si limitino semplicemente a “imitare” l’in-telligenza umana ma possano essere a loro volta, effettivamente e a pieno ti-tolo, intelligenti. Al contrario, l’intelligenza artificiale debole non pretende di costruire macchine dotate dello stesso tipo di intelligenza dell’uomo (e non si interroga quindi direttamente sulla natura dell’intelligenza umana), lavorando piuttosto alla costruzione di macchine capaci di risolvere in auto-nomia problemi specifici che richiedono capacità di analisi e ragionamento.

I teorici dell’intelligenza artificiale forte partono spesso da una doppia assunzione. Da un lato, ritengono che l’intelligenza si manifesti soprattutto nell’uso del linguaggio. Dall’altro ritengono, sulla scorta della tradizione che abbiamo visto risalire almeno a Hobbes e Leibniz, che il linguaggio sia in sostanza una forma di calcolo, o sia comunque suscettibile di un’analisi rigorosa e formale.

Se il linguaggio è formalizzabile, le capacità linguistiche possono essere riprodotte da parte di una macchina opportunamente programmata; e se la nostra intelligenza è legata soprattutto all’uso del linguaggio, una macchina ca-pace di usare con competenza il linguaggio può essere considerata intelligente.

È questa l’assunzione alla base del famoso test di Turing: un procedimento per decidere “dall’esterno” se attribuire o no intelligenza a una macchina, esaminando il suo comportamento linguistico.

Turing era convinto della possibilità di costruire computer effettivamen-te intelligenti: una tesi che aveva esposto in un famoso articolo (Compu-ting Machinery and Intelligence) pubblicato nel 1950 dalla rivista «Mind». Nell’articolo, Turing parte da un interrogativo fondamentale: «le macchine possono pensare?». Rispondere a questa domanda, osserva Turing, richiede che si sia prima d’accordo su cosa si intende per “macchina” e – soprattut-to – su cosa si intenda per “pensare”. È proprio per chiarire questo aspetto che Turing propone il suo famoso test, in cui un intervistatore pone delle domande, via terminale, a due interlocutori: un uomo (o una donna) e un computer. L’obiettivo dell’intervistatore è indovinare quale sia il computer e quale sia l’essere umano. Se dopo un numero ragionevole di domande e risposte non è in grado di farlo, il computer supera il test di Turing: la sua capacità di rispondere sensatamente all’intervistatore è indistinguibile da quella di un essere umano, e dunque dobbiamo attribuirgli intelligenza, così come facciamo con l’essere umano.

Ovviamente per superare il test un computer dovrebbe essere anche in gra-do di mentire (sostenendo ad esempio che un calcolo è troppo complicato per

Intelligenza artificiale forte

e intelligenza artificiale debole

Il test di Turing

Page 19: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1224U10 Filosofie per il XXI secolo

lui, o rispondendo a domande su gusti, interessi, aspetto fisico e così via). È anche chiaro che – basandosi su uno scambio linguistico – il test è in grado di valutare solo l’intelligenza linguistica, di cui presuppone dunque la centralità.

Turing riteneva che in un futuro non troppo lontano sarebbe stato possibile co-struire e programmare computer capaci di superare il test. Non ci siamo ancora riusciti, ma ogni anno il premio Loebner cerca di trovare il candidato giusto.

L’idea di intelligenza artificiale che emerge dal lavoro di Turing è certo almeno in parte discutibile, ed è stata molto discussa. Davvero la nostra intelligenza è esclusivamente o quasi esclusivamente linguistica? Ci si può anche chiedere se la sola capacità di usare il linguaggio seguendo regole e programmi implichi necessariamente anche la comprensione del significa-to delle espressioni linguistiche che si usano. E naturalmente si può mettere in discussione la stessa idea del linguaggio come sistema formale, totalmen-te dominabile attraverso un insieme limitato di regole.

Queste criticità sono in qualche misura sintetizzate dall’evoluzione delle posizioni di Marvin Minsky (1927-2016), uno dei principali protagonisti della ricerca svolta nel campo dell’intelligenza artificiale nel secondo No-vecento. Partito da posizioni vicine all’intelligenza artificiale forte (era stato il consulente del regista Stanley Kubrick nell’immaginare Hal 9000, il com-puter intelligente che ha un ruolo centrale nel film 2001: Odissea nello spazio), Minsky se ne allontana progressivamente a favore di un’idea dell’intelligenza come caratteristica emergente a partire dall’interazione or-ganizzata di molte capacità cerebrali diverse, che non è affatto semplice riprodurre in un computer. Anche per questo, a suo avviso, è difficile fare previsioni sullo sviluppo futuro dell’intelligenza artificiale e sui tempi che saranno necessari per costruire macchine intelligenti (cosa che Minsky con-tinua comunque a considerare in linea di principio possibile).

La situazione di apparente scacco dell’intelligenza artificiale forte ha portato a moltiplicare le ricerche specifiche e settoriali; i sistemi esperti si basano così su programmi capaci di trarre conclusioni partendo da un insieme di dati e regole (ad esempio, di fare una diagnosi partendo da una descrizione dei sintomi di un paziente e da una base di dati che associa tipologie diverse di sintomi a patologie diverse); mentre l’idea di partire dall’organizzazione del cervello ispira il lavoro sulle reti neurali, basate sulla simulazione dell’interazione fra neuroni e sul rafforzamento o inde-bolimento dei segnali scambiati, a seconda della maggiore o minore corri-spondenza dell’effetto osservato rispetto a quello desiderato. Le reti neurali sono dunque sistemi adattativi, e si sono dimostrate assai efficaci in settori difficilmente dominabili attraverso sistemi limitati di regole: ad esempio le previsioni meteorologiche o quelle sull’andamento del mercato borsistico.

Previsioni e limiti teorici di Turing

Minsky

Page 20: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1225C42 Filosofia e mondo digitale

Altri ricercatori hanno suggerito che la ricerca in intelligenza artificiale do-vrebbe partire non già dalla simulazione degli aspetti più complessi dell’in-telligenza, come quelli legati al linguaggio, ma piuttosto da forme più sem-plici ed elementari di comportamento intelligente, come la capacità di muoversi nello spazio e di garantire la sopravvivenza dell’individuo. È que-sto ad esempio il suggerimento di Rodney Brooks (nato nel 1954), che ha lavorato alla creazione di piccoli insetti-robot capaci di interagire con l’am-biente. È da ricerche di questo genere che sono nati i robot-aspirapolvere che forse qualcuna o qualcuno di voi ha a casa, e che riescono a costruire una mappa affidabile dell’ambiente in cui si muovono, a percorrerlo (e pu-lirlo) in maniera sistematica, a identificare la posizione della base di ricari-ca e a tornarvi quando il livello delle batterie è basso.

Di certo, anche se le aspettative iniziali restano lontane dai risultati raggiunti, i risultati delle ricerche sull’intelligenza artificiale hanno un’importanza cre-scente in molti settori. Dagli assistenti personali che utilizziamo ogni giorno sugli smartphone (e che si stanno diffondendo anche come componenti delle “case intelligenti”) alla robotica industriale, dalle diagnosi mediche alla tra-duzione automatica, dalle macchine a guida autonoma ai sistemi di supporto all’apprendimento, i settori nei quali l’intelligenza artificiale interviene in maniera sempre più rilevante sono innumerevoli. Una ragione in più per di-scuterne in maniera informata e razionale, e per cercare di capire quali indi-rizzi possano essere più promettenti e quali cautele siano necessarie.

Brooks

L’intelligenza artificiale:

un problema ancora aperto

1. Individua e sottolinea nel testo la tesi fondamentale di coloro che sostengono l’intelligenza artificiale forte e di coloro che invece teorizzano l’intelligenza artificiale debole.

2. Completa correttamente la seguente frase: «Se il linguaggio è formalizzabile, le capacità linguistiche possono essere riprodotte...».

3. In cosa consiste il test di Turing e quale tipo di intelligenza misura?4. Su quale modello si basano le cosiddette reti neurali?

GUIDA ALLA COMPRENSIONE E ALLO STUDIO

7 Nella matrice: dal ciberspazio al simulismo

Fra i settori in più rapido sviluppo dell’ecosistema digitale, quello dell’intelligenza artificiale non è certo l’unico ad avere un evidente rilievo filosofico. La costruzione, in varie forme, di ambienti virtuali e misti, in cui alla realtà fisica si intreccia o si sostituisce una realtà artificiale generata e gestita dal computer, rappresenta un’innovazione di enorme portata: siamo diventati costruttori di mondi.

Page 21: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1226U10 Filosofie per il XXI secolo

Si tratta di un’evoluzione che la letteratura e la cinematografia di fanta-scienza hanno in parte anticipato, e in parte anche contribuito a indirizzare. L’introduzione del termine “ciberspazio” si deve ad esempio al già ricorda-to scrittore di fantascienza William Gibson. Gibson parla del ciberspazio in Neuromancer (1984), un romanzo che ha influenzato direttamente molte delle riflessioni su questi temi. Neuromancer è collocato in un futuro nel quale i dati conservati all’interno della rete mondiale di computer costitui-scono un unico spazio virtuale (la “matrice”) in cui si muovono sia pro-grammi sia operatori umani. Questi ultimi vi accedono attraverso interfacce concettualmente non dissimili – anche se nella finzione del romanzo tecno-logicamente assai più avanzate – da quelle utilizzate in applicazioni già esistenti di realtà virtuale: ad esempio caschi-visore (head-mounted di-splay) e tute o guanti forniti di appositi sensori. Secondo la definizione fornita da Gibson, che ne esplora in primo luogo le implicazioni sociali e politiche, il ciberspazio è dunque «un’allucinazione consensuale [...] una rappresentazione grafica di dati tratti dalle banche dati di ogni computer nel sistema umano».

L’evoluzione della tecnologia consente di ritenere verosimili molte fra le idee proposte da Gibson, il che ha portato allo sviluppo di una discus-sione teorica articolata sulla definizione del concetto di ciberspazio. Tale concetto è interpretato da alcuni, estensivamente, come il “luogo” fittizio che viene a costituirsi attraverso qualunque forma di scambio informati-vo a distanza: anche una telefonata. Per usare le parole di Bruce Sterling (l’autore che ha collaborato con Gibson nella scrittura del già ricordato La macchina della realtà): «il ciberspazio è il “posto” nel quale una conversa-zione telefonica sembra avvenire. Non all’interno del tuo telefono, l’oggetto di plastica sul tuo tavolo; non all’interno del telefono del tuo interlocutore, in qualche altra città. Ma in un “luogo intermedio” fra i due telefoni, l’inde-finito “posto” nel quale tu e il tuo interlocutore vi incontrate e comunicate effettivamente».

Un passo ulteriore è poi rappresentato dalla realtà virtuale. L’espressione sembra nascondere un ossimoro, dato che accosta due termini – reale e vir-tuale – apparentemente incompatibili. Ma l’incompatibilità in questo caso è solo apparente: l’espressione vuole infatti riferirsi a uno spazio virtuale costruito sul modello di quello reale e nel quale dunque valgono le familia-ri relazioni spaziali: sopra e sotto, davanti e dietro, destra e sinistra, vicino e lontano; uno spazio che l’utente può esplorare o attraverso un alter-ego (o avatar) – che in questo caso ha un proprio “corpo” virtuale – o spostando il proprio punto di vista attraverso apposite interfacce, che possono essere non immersive (come accade nel caso di un videogioco 3D fruito su compu-ter) o immersive (come i caschi-visore).

Gibson e il cyberspazio

Realtà virtuale e realtà aumentate

CONCETTI CHIAVE

p. 1238

Page 22: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1227C42 Filosofia e mondo digitale

Se la realtà virtuale si propone come indipendente e alternativa rispetto alla realtà fisica, nel caso della realtà aumentata (augmented reality) l’o-biettivo è piuttosto quello di aggiungere alla nostra esperienza visiva del mondo uno strato ulteriore di informazioni, gestito dal computer.

L’esempio forse più familiare è rappresentato da videogiochi come Pokémon Go (2016), in cui la telecamera dello smartphone è utilizzata per riprodurre sullo schermo l’ambiente circostante, al quale sono però “ag-giunti” animali di fantasia (i Pokémon) e luoghi “ibridi”, che hanno una componente reale e una fittizia (i Pokestop). Ma la realtà aumentata è anche un settore assolutamente serio: può essere usata ad esempio da programmi di navigazione per le auto (in questo caso le indicazioni sul percorso da se-guire sono sovrapposte all’immagine della strada che ci troviamo davanti), da programmi di aiuto per operazioni chirurgiche a distanza o robotizzate, da app che accompagnano nella visita a una città o a un museo; e purtroppo – come accade nel caso di molte altre tecnologie digitali – non mancano le applicazioni militari.

Infine, se nel caso della realtà aumentata lo “strato” informativo aggiun-to alla visualizzazione del mondo esterno è riconoscibilmente separato da esso, nel caso della realtà mista (mixed reality) a essere costruito è un am-biente in cui elementi reali e virtuali si intrecciano e si fondono in maniera ancor più forte, e possono interagire direttamente.

Gli sviluppi nei campi della realtà virtuale, della realtà aumentata, della mixed reality e della modellazione 3D stanno rapidamente portando a situa-zioni in cui la distinzione fra reale e virtuale diviene sempre più difficile e i sensi tendono a essere ingannati. Molti di voi avranno probabilmente pro-vato giochi o macchine per la simulazione di esperienze come un viaggio sulle montagne russe o una gara automobilistica: vi sarete accorti che alcu-

CONCETTI CHIAVE

p. 1238

Si può sempre distinguere la realtà

dalla finzione?

Partita a scacchi olografica presso il Laboratorio di Realtà aumentata dell’Università di Washington[foto di Dennis Wise, University of Washington]

Page 23: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1228U10 Filosofie per il XXI secolo

ne reazioni del vostro corpo sono poco controllabili razionalmente e dipen-dono proprio dall’illusione di trovarsi davvero nella situazione che viene simulata.

È possibile immaginare simulazioni completamente indistinguibili dalla real-tà? Almeno in prospettiva, dal punto di vista tecnologico la risposta sembra essere positiva. E una simulazione indistinguibile dalla realtà rappresente-rebbe in un certo senso la realizzazione concreta di un esperimento mentale che la filosofia ha esplorato da secoli, quello dell’inganno dei sensi. Come possiamo essere sicuri che le nostre esperienze sensibili siano reali, e non il frutto di un’elaborata simulazione ad opera – ad esempio – di uno scienziato pazzo che attraverso sofisticati collegamenti neurali fa credere a un cervello, immerso in realtà in una vasca di liquidi nutritivi, di essere una persona dotata di un corpo e con intorno un mondo fisicamente reale?

L’ipotesi del cervello nella vasca è stata discussa a lungo nella filoso-fia contemporanea, soprattutto a partire dall’omonimo capitolo del libro Reason, Truth and History (1981) del filosofo statunitense Hilary Putnam (1926-2016) [ 31.5]. E ha anche avuto una famosa rappresentazione cine-matografica nel film Matrix (1999), vero e proprio esempio di riflessione filosofica in forma cinematografica.

È possibile essere sicuri di non essere cervelli nella vasca? Cartesio sfug-giva alla terribile forza argomentativa del dubbio iperbolico attraverso il cogito, il necessario riconoscimento dell’esistenza di un io pensante. Ma se il cogito garantisce l’esistenza del soggetto, non può da solo assicurare l’esistenza di una realtà esterna che corrisponda alle sue percezioni: come ricorderete, per Cartesio questo passo ha bisogno di una garanzia ulteriore, rappresentata da Dio. La situazione dell’ipotetico cervello nella vasca è un po’ diversa. Anch’esso è un soggetto pensante, e – come accade in Matrix – le sue percezioni potrebbero essere causate da stimolazioni artificiali e non dall’esistenza oggettiva di un mondo esterno corrispondente a quel che il cervello percepisce. E tuttavia il cervello nella vasca, i nutrimenti che lo mantengono in vita, i collegamenti attraverso cui vengono indotte le false percezioni del mondo esterno, sono comunque da immaginare come reali: nel mondo distopico di Matrix la realtà è spaventosa e diversissima da quel che crediamo di percepire, ma una realtà esiste.

È possibile immaginare una simulazione ancor più radicale, in cui non solo il mondo che crediamo di percepire è in realtà illusorio, ma il nostro stesso pensiero non è altro che un programma che gira su un computer? Cosa ac-cadrebbe se al posto dei cervelli nella vasca ci fosse solo una sorta di super-computer impegnato a simulare tanto i soggetti pensanti quanto il mondo che questi soggetti credono di percepire?

L’ipotesi del cervello nella vasca

E se la stessa realtà e il pensiero fossero

illusori?

Page 24: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1229C42 Filosofia e mondo digitale

Nick Bostrom (nato nel 1973), un filosofo svedese che lavora all’Uni-versità di Oxford, ritiene che non solo questo sia possibile ma che, almeno accettando alcune assunzioni, sia addirittura probabile. Le sue tesi sono argomentate nell’articolo Are You Living in a Computer Simulation? (2003), e, come prevedibile, hanno suscitato parecchio dibattito. Il ragionamento di Bostrom ha lasciato assai perplessi la maggior parte dei commentatori, ma ha anche aperto le porte ad alcuni interrogativi ulteriori: se vivessimo effettivamente in una simulazione, avremmo modo di scoprirlo? E come? Esistono, ad esempio, esperimenti o osservazioni sulla realtà fisica che po-trebbero corroborare o smentire questa ipotesi? Che tipo di risorse di cal-colo sarebbero necessarie per simulare una realtà così enorme e complessa come quella dell’universo che conosciamo?

Le discussioni sulle varie possibili forme dell’ipotesi della simulazione proseguono vivaci e hanno in parte coinvolto anche la comunità dei fisici; anche se molti tra i filosofi che si sono occupati del tema la considerano un’ipotesi estrema e difficilmente argomentabile in forma razionale, il suo interesse teorico, se non altro come riformulazione contemporanea di temi e interrogativi sulla realtà del mondo esterno che la filosofia si è posta da sempre, è difficilmente contestabile.

CONCETTI CHIAVE

p. 1238

1. Individua e sottolinea nel testo la definizione di ciberspazio.2. Perché è possibile affermare che nella realtà virtuale continuano ad

essere valide «le familiari relazioni spaziali»?3. Quale differenza sussiste tra la realtà virtuale e la realtà aumentata?

4. In cosa consiste l’ipotesi del cervello nella vasca?

GUIDA ALLA COMPRENSIONE E ALLO STUDIO

8 Entusiasmi

Nel discutere la rilevanza filosofica del digitale c’è un ultimo tema che è necessario affrontare e che si ripropone in diverse forme a proposito di mol-ti fra gli ambiti specifici che abbiamo discusso fin qui: la direzione presa dalla rivoluzione digitale ci proietta verso un futuro migliore o peggiore? Da chi, e con quali argomenti, vengono sostenute le due tesi (e le varie pos-sibili posizioni intermedie)?

Storicamente, la rivoluzione digitale è partita dalla convinzione di poter rea-lizzare strumenti in grado di potenziare le nostre capacità di conoscere e di mo-dificare il mondo che ci circonda. Anzi, secondo una concezione come vedremo abbastanza diffusa, proprio questo doveva essere il suo scopo principale.

Quale futuro?

Page 25: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1230U10 Filosofie per il XXI secolo

Progressivamente, però, a questa convinzione si sono affiancate e a vol-te sostituite anche preoccupazioni e – in alcuni casi – vere e proprie pau-re, che si intrecciano spesso con la discussione più generale, largamente presente anche in ambito filosofico, sul ruolo della tecnica nel mondo moderno: fattore di progresso o di disumanizzazione? Sviluppo che pos-siamo guidare e governare, o capace al contrario di guidarci e governarci in forme che possono facilmente sfuggire di mano? Promessa di un nuovo Rinascimento basato su una gestione distribuita ed egualitaria delle cono-scenze e del potere, o strumento per eccellenza di controllo individuale e collettivo?

È un tema sul quale si sono soffermati molti degli autori che abbiamo con-siderato fin qui. Ed è un tema la cui centralità non deve stupire: il collega-mento tra la gestione dell’informazione e della comunicazione e la gestione del potere politico è infatti ben chiaro fin dall’Antichità. Come ricorderete, la scuola di Toronto, attraverso il lavoro di Harold Innis, partiva proprio dal riconoscimento dell’estrema rilevanza politica e sociale dei media. Quando si affaccia l’idea di creare macchine capaci di semplificare e automatizzare la conservazione, la gestione, il reperimento e la distribuzione dell’informa-zione, è subito chiaro che si tratta di uno sviluppo assolutamente rilevante anche per la gestione del potere politico e, più in generale, per l’organizza-zione complessiva della società.

Basti pensare, del resto, al ruolo che hanno l’informatica e la telematica nel mondo contemporaneo; un ruolo non solo sociale e politico ma anche eco-nomico: grazie ai computer e alle reti, l’automazione ha fatto un ulteriore e decisivo passo avanti, permettendo da un lato un enorme aumento di pro-duttività e dall’altro ulteriori riduzioni sia dell’orario di lavoro sia dei lavo-ri ripetitivi e usuranti; ma ha indubbiamente anche comportato la perdita o la sostituzione di numerose tipologie di posti di lavoro. L’economista Jo-seph Schumpeter (1883-1950) aveva definito «innovazioni che fanno epo-ca» quelle che trasformano in profondità «tutti i dati della vita economica». Non sono tali, ad esempio, innovazioni che pure hanno cambiato le nostre abitudini di vita ma non hanno avuto un impatto generalizzato sull’econo-mia, come la radio o la televisione.

Non stupirà dunque che le riflessioni sulle conseguenze – positive e negati-ve – di questo sviluppo non manchino fin dall’inizio della rivoluzione in-formatica. Già alla fine degli anni Quaranta del secolo scorso Norbert Wie-ner (1894-1964), uno dei padri di quella che all’epoca si chiamava ancora cibernetica, sottolineava la necessità di riflettere a fondo su questi problemi e, più in generale, sul rapporto fra l’uomo e le nuove macchine sempre più autonome e “intelligenti”.

Comunicazione e potere

Tecnologia digitale ed economia

L’ottimismo dei pionieri

Page 26: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1231C42 Filosofia e mondo digitale

In Wiener, come in molti fra i pionieri del settore, prevale comunque una valutazione complessivamente positiva della rivoluzione informatica. Dou-glas Engelbart (1925-2013), anche lui protagonista indiscusso della rivolu-zione digitale, riteneva ad esempio che l’obiettivo principale del suo lavoro fosse rendere possibile una forma di human augmentation, di ‘potenziamen-to delle facoltà umane’: proprio per questo decise di battezzare con il nome Augment uno dei primi ambienti di lavoro collaborativo via terminale.

Un altro dei pionieri nel campo della gestione informatica delle conoscenze, il filosofo e sociologo statunitense Ted Nelson (nato nel 1937) – al quale dob-biamo anche molto lavoro nel campo degli ipertesti e la stessa introduzione del termine “ipertesto” – parla di empowerment, cioè di potenziamento del-le capacità umane, e vedeva nei computer uno strumento di vera e propria liberazione di nuove potenzialità culturali e sociali (computer liberation). Nelson è però consapevole dell’esistenza di percorsi e alternative diverse all’interno dello stesso campo del digitale: critica la tirannia di sistemi ope-rativi e applicazioni costruiti per imporre all’utente modelli rigidi e decisi dall’alto, e propone invece la realizzazione di una piattaforma di rete in gra-do di rendere possibile la libera condivisione della produzione intellettuale e artistica umana, facilitandone la crescita collaborativa. Nelson scelse per questo progetto il nome Xanadu, carico di impegnativi riferimenti culturali: Xanadu era l’antica capitale estiva dell’impero mongolo, e le sue meraviglio-se architetture, descritte da Marco Polo, sarebbero poi state al centro di una fra le più famose poesie di Coleridge. In seguito, molti videro in questa idea di Nelson una prefigurazione del World Wide Web, ma lo stesso Nelson ha continuato (e continua) a sostenere che la sua Xanadu voleva indicare una direzione molto diversa da quella presa poi dal web: meno commerciale, meno frammentata, e molto più orientata alla costruzione di conoscenze strutturate e complesse. Da questo punto di vista, il suo ottimismo iniziale risulta almeno in parte attenuato: per Nelson, le scelte compiute nei primi decenni di sviluppo del web non sono affatto state sempre quelle preferibili.

L’ottimismo dei pionieri era solo un sogno ingenuo, o la loro idea del digitale e delle reti rappresenta ancora oggi un’alternativa valida al dominio dei grandi soggetti commerciali, alla prevalenza di contenuti brevi e fram-mentati, all’invadenza della pubblicità online e delle fake news? Si tratta di una domanda alla quale è difficile dare una risposta univoca, e che rappre-senta un bel tema di discussione.

Ancora sul fronte degli ottimisti è ad esempio il filosofo francese Pierre Lévy (nato nel 1956): a suo avviso le nuove tecnologie di rete e lo sviluppo di In-ternet consentono di fare un passo avanti rispetto alla semplice intelligenza distribuita, mettendo in contatto fra loro e permettendo di coordinare le capa-

Il progetto Xanadu

L’intelligenza collettiva

Page 27: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1232U10 Filosofie per il XXI secolo

cità, gli interessi e le idee di comunità via via più ampie di individui. Lévy introduce a questo proposito (in un libro assai influente del 1994: L’intelligen-ce collective. Pour une anthropologie du cyberespace) l’idea di intelligenza collettiva, sottolineando tuttavia che non deve essere considerata come una sorta di nuova entità di livello superiore rispetto all’individuo: «il fondamen-to e l’obiettivo dell’intelligenza collettiva è il riconoscimento e l’arricchimen-to reciproco degli individui, non il culto di comunità-feticcio ipostatizzate».

In forme diverse, l’idea di intelligenza collettiva – concepita come stru-mento per il potenziamento delle capacità conoscitive umane – torna in molti teorici della Rete. Ad esempio nel lavoro del sociologo spagnolo Ma-nuel Castells (nato nel 1942), per il quale lo sviluppo delle Reti porta a un vero e proprio salto di qualità nelle potenzialità dell’ecosistema informati-vo. Un salto di qualità che migliora le capacità produttive, le conoscenze e le competenze dei singoli, collegandoli fra loro in maniera orizzontale e flessibile: dalla società delle macchine si passa alla società delle reti, dalla Galassia Gutenberg alla Galassia Internet.

Pur assumendo una prospettiva fondamentalmente ottimista, Castells rico-nosce però l’esistenza di conflitti e dialettiche all’interno di questo sviluppo: da un lato la dialettica fra soggetti portatori di interessi legati alla dimensione economico-produttiva (le grandi aziende), soggetti portatori di interessi legati alla dimensione del potere politico-militare (gli Stati) e soggetti portatori di interessi legati alla dimensione sociale ed esperenziale (gli attivisti, gli hacker, i produttori di contenuti intellettuali). Dall’altro, su un piano diverso, la dia-lettica fra la rete e l’individuo, fra l’insieme di nuove relazioni orizzontali che ridefiniscono e sostituiscono le gerarchie sociali verticali del passato, e l’esi-genza di identità, di riconoscimento, di ruolo che caratterizzano l’individuo.

T136 EXTRA ONLINE Wiener: sulla rivoluzione cibernetica

9 Paure

Ma anche i critici non mancano: e se a volte si tratta di richiami un po’ nostalgici al passato, non mancano riflessioni e preoccupazioni di maggior interesse e spessore.

Jaron Lanier (nato nel 1960), fra i pionieri nel campo della realtà virtuale, critica esplicitamente il mito dell’intelligenza collettiva e l’idea che stru-

Lanier e i «server sirena»

Page 28: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1233C42 Filosofia e mondo digitale

menti come Wikipedia possano rappresentare una forma di superamento efficace del lavoro intellettuale individuale.

Lanier mette anche in guardia contro il pericolo della progressiva espro-priazione dei contributi che ciascuno di noi inserisce in Rete da parte di grandi aziende capaci di raccogliere e riutilizzare grandi quantità di dati. Queste azien-de, che Lanier chiama “server-sirena” e di cui Google rappresenta l’esempio più noto, macinano, rendono anonima e riusano, per il loro profitto, informa-zioni che meriterebbero, invece, di essere correttamente attribuite e retribuite.

Sul fronte dell’analisi delle relazioni interpersonali online, un percorso in parte analogo è compiuto da Sherry Turkle (nata nel 1948), studiosa dell’evo-luzione delle tecnologie digitali dal punto di vista dei loro effetti psicologici e relazionali. Nei suoi primi lavori, Turkle aveva analizzato con interesse i mec-canismi di costruzione dell’identità resi possibili da strumenti come i Mud, giochi multiutente online in cui i partecipanti possono scegliere di assumere ruoli (sessuali, relazionali o di altro genere) anche assai diversi da quelli reali; a suo avviso, in alcuni casi questa capacità di costruzione creativa e sperimen-tazione di ruoli può avere effetti terapeutici o comunque positivi.

Più recentemente, però, con la diffusione dei dispositivi mobili e di stru-menti di interazione basati sull’intelligenza artificiale, le sue preoccupa-zioni sono cresciute. Nei libri Alone Together (2011) e Reclaiming Conver-sation (2015) sostiene infatti che la progressiva sostituzione di interazioni impersonali online alle conversazioni personali dirette e la distrattività dell’ecosistema della comunicazione mobile hanno conseguenze negative sulla capacità di interagire efficacemente e di sviluppare empatia.

La distrattività di un ecosistema digitale basato prevalentemente su disposi-tivi multifunzionali e invasivi è criticata anche dal filosofo italiano Roberto Casati (nato nel 1961). La sua analisi si sofferma soprattutto sulla lettura, che richiede spazi e tempi protetti; lo smartphone offre al contrario sollecitazioni continue ed eterogenee, che distraggono da forme di uso “lento” e riflessivo dei contenuti informativi. La frammentazione del tempo e dei contenuti, fun-zionale al loro controllo commerciale, dovrebbe essere contrastata attraverso una maggiore attenzione al design funzionale degli strumenti che usiamo: per poterlo fare occorrerebbe però sottrarre, almeno in parte, questo design al controllo delle grandi multinazionali della Rete, riconquistando la capacità di fare scelte anche rispetto all’evoluzione dell’ecosistema digitale.

La discussione dei timori suscitati da alcuni aspetti della rivoluzione digi-tale, e delle cautele che dovrebbero essere usate nel portarla avanti, potreb-be proseguire a lungo. Molte di queste preoccupazioni sono legate a temi eticamente sensibili: il controllo dei dati e delle informazioni personali, la

Relazioni e identità

Conto il colonialismo

digitale

Computer/Information ethics

Page 29: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1234U10 Filosofie per il XXI secolo

privacy, le tipologie e la qualità dell’informazione online, sulla quale basia-mo ormai molte delle nostre scelte, anche politiche. Tutti casi in cui le scel-te tecnologiche presuppongono inoltre considerazioni etiche; e in effetti i campi della computer ethics (legata alle implicazioni etiche dell’uso dei computer e dei sistemi informatici) e quello – evidentemente collegato – dell’information ethics (che si sofferma sulle implicazioni etiche delle pratiche, delle metodologie e degli strumenti utilizzati nella creazione, nel-la gestione, nella distribuzione e nell’uso dell’informazione) hanno un rilie-vo crescente.

Per dare un’idea (necessariamente del tutto parziale) di alcune delle te-matiche affrontate dal settore della computer ethics, ci limiteremo a ricorda-re il lavoro di Joseph Weizenbaum (1923-2008), uno dei padri dell’informa-tica contemporanea, che nel volume Computer Power and Human Reason (1976) ha sottolineato l’importanza della differenza fra decisioni e scelte, sostenendo che mentre le decisioni possono essere prese da una macchina sulla base di dati e algoritmi, le scelte sono un’attività prettamente umana che tiene conto di fattori non formalizzabili come l’altruismo, la compassio-ne, l’empatia, la saggezza, i valori. La progettazione di macchine intelligenti dovrebbe a suo avviso tenere sempre presente questa distinzione, che è evi-dentemente di particolare rilievo nel caso di sistemi informatici utilizzati in ambito bellico o militare.

L’information ethics affronta invece temi come la censura e la libertà di circolazione dell’informazione o la gestione di dati sensibili (pensate alla quantità di informazioni che un’azienda come Google raccoglie su ciascu-no di noi semplicemente analizzando le ricerche che facciamo in Rete o tenendo traccia dei nostri movimenti attraverso la cronologia di Google Maps). Il filosofo Luciano Floridi (nato nel 1964), un italiano che vive e lavora nel Regno Unito, ha affrontato i temi dell’etica e della filosofia dell’informazione partendo dall’idea che l’informazione stessa (e più spe-cificamente quelle che Floridi chiama “entità informative”, information entities) possa essere vista come un soggetto degno di riconoscimento, ri-spetto al quale possono essere sensatamente formulati interrogativi etici e al quale possono essere attribuite caratteristiche eticamente rilevanti. L’al-largamento dell’attenzione dalla sfera degli agenti umani a quella che Flo-ridi chiama l’infosfera suggerisce l’estrema importanza, sia filosofica sia etica, degli strumenti e delle forme di produzione, gestione, descrizione dell’informazione.

L’importanza di questi settori è già oggi del tutto evidente, e continua a crescere. Ulteriore dimostrazione del fatto che le competenze filosofiche non solo non sono estranee al mondo delle tecnologie digitali, ma ne rap-presentano anzi una componente essenziale. Chi pensa che la filosofia sia

CONCETTI CHIAVE

p. 1238

L’infosfera

Page 30: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1235C42 Filosofia e mondo digitale

una disciplina del tutto astratta, fondamentalmente inutile e comunque lon-tana dalla realtà del mondo contemporaneo, dovrebbe forse riflettere più attentamente: si accorgerebbe che non solo non è così, ma che il campo del digitale costituisce oggi, per chi si occupa di filosofia, uno dei settori di la-voro con maggiori prospettive (anche occupazionali) e, soprattutto, uno dei più interessanti e vitali.

10 Apocalittici o integrati?

Nel corso di questo capitolo abbiamo incontrato molti temi che si prestano bene al dibattito, e rispetto ai quali è importante cercare di valutare posi-zioni e argomenti diversi. Ma probabilmente il tema più aperto alla discus-sione è quello che abbiamo preso in esame negli ultimi paragrafi: dobbiamo guardare agli sviluppi del mondo digitale con entusiasmo o con preoccupa-zione? Prevalgono gli elementi positivi, legati al potenziamento delle nostre capacità conoscitive e operative, o quelli negativi, legati alla costruzione di strumenti orientati al profitto e al controllo, il cui sviluppo non riusciamo né a dominare né a indirizzare?

Una direzione specifica su cui potrebbe essere interessante indirizzare la discussione è quella della natura, del livello di complessità e dei meccani-smi di validazione dei contenuti inseriti in Rete. Il web, i social network e più in generale l’intero ecosistema della comunicazione digitale sono oggi caratterizzati da contenuti prevalentemente brevi e frammentati: dagli sms (e gli altri sistemi di messaggistica istantanea, come WhatsApp) ai post di un blog, dai tweet ai messaggi di stato, dalle mail alle storie su Instagram o SnapChat, i contenuti brevi e granulari prevalgono nettamente su quelli complessi e strutturati.

La granularità aiuta la diffusione virale dei messaggi ma allo stesso tem-po rende più difficile la loro valutazione critica, e in particolare la verifica delle fonti usate e dell’attendibilità dei contenuti. Un meccanismo che sem-bra favorire – o che almeno rende più difficile contrastare – la diffusione di notizie false (le già ricordate fake news, di cui tanto si parla) o di messaggi carichi di emotività e talvolta di odio, a scapito della discussione razionale, dell’argomentazione e della riflessione. In un certo senso, diffondere una notizia falsa richiede molta meno fatica (meno tempo, meno risorse, meno spazio) di quanta ne serve per analizzarla e mostrarne la falsità.

Discutiamo insieme

Page 31: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1236U10 Filosofie per il XXI secolo

Qual è la causa di questa situazione? Brevità e frammentazione sono forse caratteristiche specifiche della testualità digitale? Eppure di per sé – come abbiamo visto – il digitale è solo una particolare forma di codifica dell’informazione, utilizzabile indifferentemente tanto per un messaggio breve, come un tweet, quanto per un contenuto complesso e strutturato, come un libro. Perché allora in Rete la prima tipologia di contenuti pre-vale così nettamente sulla seconda? Si può fare qualcosa per riequilibrare questa situazione? La Rete è condannata alla frammentazione e alla pre-valenza di contenuti non validati, o può riscoprire (e come?) quella ca-pacità di favorire la circolazione di contenuti immaginata dai suoi primi pionieri?

Nel 1964, il filosofo e semiologo Umberto Eco (1932-2016) ha scritto un saggio che – fin dal titolo – è diventato un po’ il riferimento obbligato per questo tipo di discussioni: Apocalittici e integrati. Per Eco, le due categorie degli apocalittici e degli integrati rappresentano due fra le risposte più co-muni – rispettivamente pessimista e ottimista – all’innovazione nel campo dei media e in particolare a quello che era all’epoca il nuovo medium per eccellenza: la televisione. Ma è facile proiettare il dibattito anche sui nostri nuovi media, e dunque sul digitale e sugli strumenti di Rete.

Certo, le due posizioni estreme sono probabilmente troppo estreme: co-me già a proposito della televisione, anche la discussione su rischi e poten-zialità del digitale richiede una negoziazione più che l’adesione acritica all’uno o all’altro schieramento. Ma i termini di questa negoziazione vanno appunto definiti e argomentati, e un dibattito può aiutare anche a porre le basi per la successiva negoziazione.

Seguendo le stesse modalità didattiche e organizzative suggerite nelle precedenti unità, discutete, individualmente o in gruppo, le seguenti questioni, legate alle problematiche filosofiche presentate nel capitolo e connesse a temi di attualità.

1. «La Rete è condannata alla frammentazione e alla prevalenza di contenuti non validati, o può riscoprire (e come?) quella capacità di favorire la

circolazione di contenuti che era immaginata dai suoi primi pionieri?». Rifletti criticamente su queste problematiche. Alla luce delle tue convinzioni e della tua esperienza personale nell’utilizzo dei media digitali, esprimi un parere motivato sugli interrogativi posti. Argomenta la tua risposta in modo chiaro e coerente.

2. Nel saggio Apocalittici e integrati di Umberto Eco, le due posizioni estreme sono associate

all’utilizzo della televisione, il mezzo di comunicazione all’epoca più innovativo. Ai nostri giorni, le stesse posizioni possono essere riferite ai social media e all’intero ecosistema della comunicazione digitale. Rispetto ai rapidi e profondi mutamenti che vengono apportati dalle tecnologie digitali ti senti più apocalittico o integrato? Oppure non ti riconosci in nessuna delle due posizioni? Illustra e spiega le tue considerazioni.

DIALOGHIAMO IN AULA

Page 32: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

CC

1237C42 Filosofia e mondo digitale

Rivoluzione digitale [ 42.1]Il concetto di rivoluzione digitale si basa su tre presupposti fondamentali: 1. la

rappresentazione attraverso gli “0” e gli “1” del codice binario di tipologie diverse di informazioni (numeri, testi, suoni, immagini, contenuti video) e di istruzioni o programmi per elaborare tali informazioni; 2. la disponibilità di strumenti capaci di immagazzinare le informazioni in formato digitale (memorie), di elaborarle sulla base dei programmi desiderati (microprocessori, la componente di base dei computer) e di permetterne lo scambio e la condivisione (reti); 3. l’idea (o la constatazione) che la diffusione e gli sviluppi di tali strumenti negli ultimi decenni abbiano portato a cambiamenti radicali non solo sul piano tecnologico ma anche su quello economico, sociale e culturale.

La teoria matematica della comunicazione [ 42.2]L’espressione fu usata nel 1948 dal

matematico e ingegnere statunitense Claude Shannon come titolo di un fondamentale articolo, considerato come una pietra miliare nello sviluppo della teoria dell’informazione. L’articolo, che Shannon trasformò in un libro l’anno successivo, vede il processo comunicativo come un processo avviato da un mittente che, utilizzando un apparato di trasmissione, invia un segnale attraverso un canale verso un apparato di ricezione a disposizione del destinatario. Nel suo viaggio, il segnale può essere modificato dal rumore (ogni possibile fonte di disturbo del processo); occorre dunque adottare strategie di codifica (ad esempio, la ridondanza) capaci di limitare per quanto possibile il rumore e i suoi effetti. La quantità di informazione contenuta in un messaggio dipende dal numero di scelte che

vengono rappresentate: il caso più semplice è quello di una scelta binaria, ovvero la scelta fra due sole alternative egualmente probabili, che corrisponde a un singolo bit di informazione.

Media studies [ 42.4]Il campo di studi che esamina natura, caratteristiche e impatto culturale,

economico e politico dei diversi mezzi di comunicazione, considerati come elemento essenziale del funzionamento di un sistema sociale. Nello sviluppo dei media studies ha un ruolo particolarmente importante la cosiddetta scuola di Toronto, fra i cui principali esponenti vanno ricordati Harold Innis e Marshall McLuhan. Fra le tesi principali sostenute dalla scuola di Toronto è l’idea che le caratteristiche dei mezzi di comunicazione usati influenzino in maniera decisiva i messaggi veicolati e la loro ricezione individuale e sociale. Lo studio delle caratteristiche comunicative dei diversi media assume in tale prospettiva un notevole rilievo non solo teorico ma anche politico e sociale.

Intelligenza artificiale [ 42.6]Lo studio legato alla progettazione di sistemi informatici e programmi (agenti intelligenti)

in grado di assumere autonomamente decisioni che consideriamo normalmente appannaggio dell’intelligenza umana, acquisendo, organizzando e analizzando i dati rilevanti e traendone le opportune conclusioni. All’interno del campo dell’intelligenza artificiale (Ia) vengono spesso distinti i due indirizzi dell’Ia: forte e debole. La prima ritiene che l’intelligenza umana sia strettamente legata all’uso del linguaggio e la componente logico-linguistica dell’intelligenza sia in linea di principio formalizzabile; sulla base di tali assunzioni ritiene possibile costruire macchine dotate di una intelligenza (prevalentemente logico-linguistica) non dissimile da quella umana. L’Ia

CONCETTI

CHIAVE

Page 33: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

1238U10 Filosofie per il XXI secolo

CCdebole preferisce invece non fare assunzioni sulla natura dell’intelligenza e limitarsi a esplorare un insieme abbastanza vasto di possibili strategie (dall’imitazione della struttura neuronale del cervello alla costruzione di sistemi esperti in ambiti settoriali) per ottenere macchine capaci di risolvere problemi specifici o manifestare comportamenti che possano comunque essere considerati “intelligenti”.

Realtà virtuale-Realtà aumentata [ 42.7]La realtà virtuale consiste nella simulazione attraverso strumenti informatici di spazi

costruiti in modo da replicare alcune caratteristiche e relazioni proprie dello spazio fisico (in cui, quindi, si possano ad esempio distinguere alto e basso, destra e sinistra, avanti e indietro), e con i quali si possa interagire attraverso apposite interfacce (fra cui caschi-visore o dispositivi in grado di trasmettere movimenti fisici delle mani o del corpo dell’utente, replicandoli nello spazio virtuale). Mentre la realtà virtuale costruisce esperienze percettive ambientate in spazi virtuali alternativi rispetto allo spazio reale, la realtà aumentata aggiunge alla nostra normale esperienza (in particolare, all’esperienza visiva) dello spazio uno o più strati di informazioni che, sovrapponendosi allo spazio reale percepito, lo integrano con dati aggiuntivi; ad esempio, le indicazioni per raggiungere una certa destinazione.

Simulismo [ 42.7]Il simulismo consiste nella tesi che la realtà in cui viviamo sia in realtà costruita

o simulata all’interno di un gigantesco sistema informativo. Fra le sue assunzioni di base è dunque l’idea che la realtà consista in ultima analisi di informazione. Se la tesi simulista, nella sua forma più estrema, ha pochi difensori e rischia di sconfinare in una sorta di sofisticata teoria del complotto, per altri versi essa riprende alcuni temi metafisici fondamentali su cui la filosofia si è interrogata da tempo, dalla natura della realtà al suo carattere discreto o continuo e al rapporto fra mente e realtà.

Computer ethics/Information ethics [ 42.9]Lo studio delle implicazioni etiche dell’uso

dei computer e dei sistemi informativi. Fra i temi presi in esame in questi settori, vi sono quelli della difesa della privacy in una situazione in cui quantità crescenti di dati personali sono affidati a sistemi informativi in mano a poteri statali o ad aziende private, i cui interessi non coincidono necessariamente con quelli dei singoli cittadini; o il tema della libera circolazione e disponibilità delle informazioni e della cultura, nella consapevolezza del fatto che molte scelte di ciascuna e ciascuno di noi dipendono dalla qualità e dalla quantità delle informazioni a nostra disposizione.

Page 34: IN QUESTO CAPITOLO Filosofia Apocalittici o integrati

12391239C42 Filosofia e mondo digitale

1239

LABORATORIO RIFLETTIAMO SUL PRESENTE

1. Fai ricerche e approfondimenti sulla cosiddetta scuola di Toronto e in particolare sui suoi principali esponenti, Harold Innis e Marshall McLuhan. Ricostruisci il contesto storico nel quale tale indirizzo di studi è nato e analizza le finalità scientifiche alla base del suo programma di ricerca.

A RICERCA E APPROFONDISCI

2. Leggi con attenzione il seguente brano del filosofo Luciano Floridi:

Stiamo dunque sperimentando una quarta rivoluzione, che si manifesta nel pro-cesso di dislocazione e ridefinizione dell’essenza della nostra natura e del ruo-lo che rivestiamo nell’universo. Stiamo mutando la prospettiva consueta sulla natura ultima della realtà, vale a dire la nostra metafisica, da una materialistica, per la quale i processi e gli oggetti fisici giocano un ruolo chiave, a una in-formazionale. Tale passaggio sta a significare che oggetti e processi perdono la propria connotazione fisica nel senso che sono considerati come indipendenti dal proprio supporto (si pensi a un file musicale). Sono tipizzati, nel senso che l’esemplare di un oggetto (la mia copia di un file musicale) conta quanto il suo tipo (il tuo file musicale, di cui la mia copia è un esemplare). E si ritengono, di norma, perfettamente clonabili, in quanto la mia copia e il tuo originale sono in-tercambiabili. Porre minore enfasi sulla natura fisica di oggetti e processi impli-ca che il diritto di uso sia giudicato almeno tanto importante quanto il diritto di proprietà. Infine il criterio di esistenza (che cosa significa esistere per qualcosa) non è più l’essere immutabile nella propria realtà (come per il pensiero greco, secondo cui solo ciò che non muta ha piena esistenza) o l’essere potenzialmente oggetto di percezione (la filosofia moderna insiste sull’idea che qualcosa, per qualificarsi come esistente, debba essere empiricamente percepibile dai sensi), ma l’essere potenzialmente soggetto a interazione, seppure intangibile. Essere è “essere interagibile”, anche se l’interazione è solo indiretta. (L. Floridi, La rivoluzio-ne dell’informazione)

Alla luce delle tue conoscenze di studio e delle tue personali esperienze di vita, rifletti sulle problematiche sollevate dalla cosiddetta quarta rivoluzione e analizza in particolare i mutamenti che stanno investendo il criterio di esistenza. Articola le tue riflessioni nella forma di una trattazione scritta, provvista di un titolo complessivo e di paragrafi titolati. Esponi i tuoi contenuti in maniera sintetica e coerente.

B PRODUZIONE SCRITTA. RIFLESSIONE CRITICA SU TEMATICHE DI ATTUALITÀ