View
154
Download
1
Category
Preview:
DESCRIPTION
Tesi di laurea triennale in "Studi Italiani", che partendo dalla filologia classica affronta, da un semplice punto di vista, i temi che riguardano l'editoria in genere e i motori di ricerca.
Citation preview
Facoltà di Lettere e Filosofia Corso di laurea in Studi Italiani
Il Metodo di Lachmann ai tempi di Google L'ossimorica relazione tra il metodo stemmatico, che caratterizza la filologia classica, e il motore di ricerca-web attualmente più utilizzato sul pianeta, altro non è che un pretesto accademico per spiegare cosa potrà fare il filologo “del futuro” (soprattutto al di fuori dell’ambito letterario) e della stretta contemporaneità, tenendo conto degli insegnamenti che il dibattito “post-Lachmann” e la filologia d'autore hanno lasciato.
Relatore: Laureando:Prof. Pasquale Stoppelli Paolo Maria Addabbo matr. 1363129Anno Accademico: 2011-2012
Indice
INTRODUZIONE………………………………………………………………………………………………………………………….
CAPITOLO 1: LE SCOPIAZZATURE HANNO LE GAMBE CORTE
1.1 Chi copia e chi cita? Il principio di autorialità, il plagio nell’universo web…………………………………………………………….
1.2 Gli errori guida degli enti locali. Un paese senza memoria, tante notizie e poche informazioni……………………………………………..
CAPITOLO 2: DA LACHMANN A GOOGLE, PASSANDO PER GLI “SCARTAFACCI”
2.1 Le “collazioni” della cronaca, il “bon manuscript” e la “buona fonte”: quella più attendibile…………………………………………….
2.2 Le “varianti” digirali, e la “recensio” delle pagine perdute…………………………………………………….
2.3 Strafalcioni e analisi linguistico-cognitive: il cognome di Dante………………………………………………
2.4 Googlare e risultati in post diversi………………………………………………………………………………………..
2
INTRODUZIONE
Quali sono le sfide del filologo “del futuro” e come riuscirà a far valere il
principio di autorialità nell'oceano dei testi web e internet, soprattutto per
quanto riguarda i testi “extraletterari” come articoli di giornali o leggi?
Il cosiddetto “metodo di Lachmann” è utilizzato da questa tesi come un
pretesto accademico, un punto di partenza per spiegare come la filologia
potrà rapportarsi con l'universo dei testi digitali: non verranno solo citate
alcune delle sperimentazioni che gli umanisti contemporanei praticano
unendo le varie scienze e discipline umanistiche all'informatica, e che
portano avanti soprattutto in campo letterario, ma si metteranno in luce
le comunanze tra la filologia “del passato” e le maniere di fare ricerche
online sia in ambito letterario che nella vita di tutti i giorni, e si faranno
proposte concrete su quelli che potranno essere i compiti del filologo del
futuro; ma si discuterà anche dell'oggetto stesso della critica testuale che,
secondo il parere di chi scrive, dovrà cominciare a confrontarsi sempre più
strettamente con tutti i tipi di testo, perfino quelli frammentari ricavati
dalle statistiche delle parole chiave usate per la ricerca dei siti web, giusto
per fare un primo esempio di campi in cui figure come quelle del
linguistica o dell’esperto di comunicazione risultano molto utili
nell’analizzare il flusso di dati e le abitudini di chi digita parole nei motori
di ricerca; e magari si riuscirà a scoprire che qualcuno con uno specifico
indirizzo IP e con evidenti abitudini ortografiche, clicca sulle pubblicità dei
suoi stessi articoli con lo scopo fraudolento di guadagnare di più (cosa che
se scoperta potrebbe tornare utile ai motori di ricerca e alle aziende che
mettono pubblicità in stile “adsense”, ossia un sistema per i quali si viene
pagati in base ai click che vengono effettuati su uno sponsor, logicamente
le aziende come Google già attuano strategie per capire chi bara e si
3
“auto-clicca” articoli e sponsor annessi, addirittura nascevano gruppi on e
off-line di persone che si “cliccavano” vicendevolmente, o meglio si
scambiavano visualizzazioni).
In queste schermate si visualizzano le parole chiave e i motori di ricerca o link che
hanno condotto determinati lettori ai vari articoli di un sito. Sono le immagini delle
statistiche con funzionalità basilari di un blog realizzato con la piattaforma “Blogger”, e
si notano le parole chiave digitate dagli utenti su vari motori di ricerca, le
visualizzazioni divise per periodo, provenienza geografica, sistema operativo ecc.
Analizzare le statistiche per un web-master, cioè colui che gestisce un sito, è molto
importante per monitorare le abitudini e gli interessi dell’utente.
4
L’altro sistema più diffuso di pubblicità online è rappresentato da
“banner” (in pratica delle immagini spesso animate) pagati in base al
tempo e al modo di esposizione.
Una schermata che mostra le statistiche e i guadagni di un blogger con google Adsense
La critica testuale dovrà connettersi ad altri campi della comunicazione,
dalla linguistica all'informatica, passando per il marketing, a settori come
quello del Search Engine Optimization1: secondo chi scrive bisogna, in
sostanza, guardare alle potenzialità della disciplina che sono al di fuori
dell’ambito letterario, tenendo in mente l’accezione di filologia come
disciplina che si pone e tenta di risolvere anche problemi storici,linguistici,1
Con Search Engine Optization, si intendono tutte quelle attività che varie figure professionali (tra i quali per l'apppunto i “Search
Engine Optimizer”) svolgono sia sulla struttura che sul contenuto delle pagine web, con lo scopo di far “indicizzare” un sito web su un motore di ricerca, cioè di farle uscire tra i risultati di quel motore, e di contribuire a un migliore “piazzamento” o “posizionamento” del sito, cioè a farlo arrivare in cima alla lista dei risultati.Le pratiche “scorrette” volte a migliorare il posizionamento, nel senso che ingannano l'utente fornendo pubblicità sgradita o finalizzate a truffe varie, invece si possono definire genericamente “spam”, e la più semplice da spiegare è quella del testo nascosto, essendo scritto con un colore che si mimetizza nello sfondo
5
critici e non solo quelli relativi all’attribuzione delle opere o alla
ricostruzione della volontà di un autore; un’accezione che si avvicini più
agli sviluppi della filologia moderna che alla sua “radice” che comunque
continua a mantenere una sua validità (quantomeno didattica), origine
rappresentata dal metodo che porta il nome del filologo classico
positivista: si avvicina più all’accezione filosofico-storica della filologia, che
prende forma proprio dal superamento del metodo di Lachmann e dalla
lezione storicista di Giorgio Pasquali2, il filologo italiano che ha contribuito
in maniera fondamentale al dibattito filologico, prendendo come punto di
partenza le integrazioni apportate da Paul Maas al metodo stemmatico3 e
che sono parte integrante del metodo che viene ricordato con il nome di
Karl Lachmann; un’accezione che si può ritrovare in parte anche nella
definizione di “critica degli scartafacci”, definizione usata da Gianfranco
Contini4 per spiegare la finalità dell’esercizio critico derivante dalla
filologia d’autore, quando sognava di entrare idealmente nello studio
dello scrittore e, attraverso la critica e l’analisi di tutti quei testi che non
sono idiografi o autografi ma che portano a quest’ultimi, come i
frammenti espunti, si voleva ricostruire non solo la genetica del testo ma
soprattutto il processo evolutivo di questo, quei testi che Croce con
2 “Non si poteva, secondo Pasquali, giungere a una persuasiva ricostruzione testuale senza studiare a fondo la storia della
tradizione, in concreto tutti i documenti che la costituiscono, le condizioni, gli ambienti da cui sono usciti, anche la loro natura di oggetti materiali. La qualità dell’esercizio critico dipendeva in altri termini anche dalle informazioni che si riusciva a raccogliere intorno a ogni manoscritto o stampa da cui il testo era trasmesso. A questo fine tutte le discipline storiche erano chiamate in soccorso della filologia. In sostanza, una forte lezione di storicismo che avrebbe prodotto frutti importanti anche nell’ambito della filologia italiana. Gli ulteriori progressi del metodo filologico non hanno mai contraddetto, semmai confortato questo indirizzo” (Pasquale Stoppelli, Filologia della letteratura italiana, Carocci Editore, Urbi 2009 pp. 94-95)
3In riferimento agli sviluppi di Maas e al contributo di Pasquali si veda Pasquale Stoppelli, Filologia della letteratura italiana,
Carocci Editore, Urbino 2009 (Manuali universitari) p. 94
4Si veda Pasquale Stoppelli, Filologia della letteratura italiana, Carocci Editore, 2009 pp.118-119
6
dispregio definiva “scartafacci”5: quest’ultimo procedimento, definito
anche critica delle varianti, vuole in pratica “stabilire col testo un contatto
ravvicinatissimo”e “osservare dal vivo i meccanismi creativi” ; ovviamente,
per osservare come la creatività e le intenzioni dell’autore si traducano in
un prodotto finito, il confine tra “ricostruzione filologica e interpretazione
critica è sottilissimo”6, ma quello che si sta dicendo in questo scritto è che
l’idea di ricostruire non solo i rapporti ma il processo evolutivo di un testo,
è adattabile al di fuori di uno studio mirato a ricostruire un’opera.
Quindi, il motivo per cui questa pubblicazione, che oltre a fare delle
proposte operative getta uno sguardo sui rapporti tra filologia e testi
digitali, non si intitola, per esempio, “La filologia del testo da Pasquali a
Steve Jobs”, è preciso: oltre al motore di ricerca che ha reso quasi inutile
digitare un indirizzo web7 e che simboleggia l’attenzione di questo scritto
per tutto l’universo dei testi digitali e in particolare per il web e i “search
engine”,
5Anche in questa tesi ci sono degli esempi sulla “genetica” dei testi, ma, come si vedrà dalle esemplificazioni dei testi giornalistici,
più che tesi a ricostruire le fasi del testo di un’unica opera e di un unico autore, saranno tesi a ricostruire la genetica dei rapporti tra loro, un po’ come ricostruire la storia del “gioco del telefono”, e quindi facendo attenzione anche a quella che si potrebbe definire la “contaminatio delle notizie”, facendo cioè riferimento ai rapporti “trasversali” che mettevano in crisi lo stemma del metodo di Lachmann e che oggi mettono in crisi i fruitori dei siti con informazioni contraddittorie: il gioco del telefono (o secondo un noto aneddoto “la storia raccontata al telefono”) consiste in un cerchio di persone che si sussurrano una parola di una certa complessità e poi, alla fine del cerchio, se la parola era particolarmente complessa e lunga, probabilmente l’ultima persona che la svelerà ad alta voce (o la “storia”, secondo l’altra versione) sarà diversa da quella che era stata detta all’inizio del gioco; questo è un esempio semplificato di quello che avviene, per esempio, quando si verifica un tragico episodio di cronaca nera come un incidente stradale o un naufragio, e si trovano discordanze sulla dinamica dell’incidente e il numero delle vittime: in questo caso il numero “errato” di vittime potrebbe trasformarsi anche in un errore guida, smascherando potenziali plagi o “contaminazioni” che magari derivano dalle differenti agenzie stampa che hanno diffuso altrettanti comunicati stampa con diverse stime delle morti.
6P. Stoppelli, 2009 p.118
7Google è il motore di ricerca più utilizzato ed è “incorporato” sui principali browser, se non è proprio l'homepage della
maggioranza degli utenti, e in più la frase “abusata” che recita “se non sei su google non esisti”, un po' come “non sei nessuno se non appari mai in tv”, rende l'idea dell'attuale onnipresenza del motore: per questo, a differenza di quanto avveniva con i precedenti motori di ricerca quando ancora non erano stati spiazzati dal gigante della “Mountain View”, ormai difficilmente si digiterà nella barra degli indirizzi “www.corriere.it” quando si vorranno leggere le notizie del noto quotidiano nella versione online, ma si cercherà su google “corriere” o “corriere della sera” e poi si schiaccerà sul link. Da questo discorso si dovrebbe capire facilmente quanto siano importanti per la libertà di informazione o per la concorrenza tra le aziende le scelte dei motori di ricerca nel piazzare un sito ai primi posti o addirittura di “bannare” quel sito, cioè escluderlo non permettendone l’indicizzazione.
7
il riferimento al metodo di Lachmann e al dibattito che si è sviluppato
intorno a esso è di fondamentale importanza perché scava un solco tra
l'era della filologia classica e quella moderna, tra la ricostruzione dello
stemma e la filologia autoriale che è propria di quest’ultima8. Perciò il
“pretesto” di Lachmann, con tutto il carico di considerazioni e critiche che
hanno caratterizzato la storia della critica del testo, si presta anche a
introdurre il tema dell’oggetto dello studio della disciplina: la frattura
concettuale più importante tra la filologia classica e quella moderna è il
rapporto tra testo e apparato dato che, quando la volontà dell’autore è
nota perché stabilità da un autografo o da un idiografo, il compito del
critico non è più quello di ricostruire un testo che sia quanto più prossimo
possibile a questa, ma cambia perché “deve mettere ordine nelle carte
dell’autore e documentare (…) il processo evolutivo” del testo, per cui il
rapporto tra testo e apparato critico si trova invertito9. In altre parole si
può dire che si è spostato “il punto di vista del critico dal prodotto (testo)
al fruitore (processo)”10 come spiega Fiormonte quando afferma che
Contini è stato tra i primi a “inserire il tempo dentro l’orizzonte
dell’ermeneuta”. Una delle sfide che arriva con la posizione preminente
dell’apparato sul testo, e che si fa più ardua con i testi digitali, è quella di
riuscire a coinvolgere i lettori senza che il filologo invece di farsi “giudice”,
(o “tecnico” –per dirla con un termine politico molto in voga in questo
periodo- che si nasconde dietro l’apparato e che non dà giudizi) provi a
essere “notaio”11.8cfr P. Stoppelli, 2009 p. 117
9 cfr. P. Stoppelli, 2009 p. 117 10
Domenico Fiormonte, Scrittura e filologia nell’era digitale, Bollati Borlinghieri 2003, Torino (Nuova Didattica Arte e letteratura) pp 204
11Si veda P. Stoppelli, 2009, p182
8
Il filologo futuristico-digitale, soprattutto per quanto concerne i testi
letterari, corre quindi un rischio insito nello stesso meccanismo
dell'ipertesto, nella possibilità di esibire “il testo nella sua pluralità”; ma
sarà con l'argomentazione, con la discorsività e con l'aiuto di altre
discipline che questo rischio, forse valido più per il campo saggistico-
letterario che per altri come quello strettamente giornalistico e di cronaca,
sarà minimizzato.
Ma soprattutto, la disciplina continuerà ad avere fortuna e riuscirà a
evitare il rischio di diventare una “non filologia” se abbandonerà, almeno
parzialmente, l'attenzione per il campo letterario a vantaggio dei tipi di
testo più svariati e integrandosi interdisciplinarmente, in modo da non
essere solo come uno strumento da tenere nella “cassetta degli attrezzi”
del critico come sosteneva Croce, ma l’intero bagaglio di nozioni, o se si
vuole l’intera “cassetta” e la “forma mentis” di cui non potrà fare a meno
chiunque si avvicini a un testo più o meno complesso; per esempio lo
storico del 2200, quando si ritroverà a fare una ricerca sulle rivoluzioni
arabe, troverebbe un campo fertile cercando di raccontare le storie dei
“militi-nick ignoti” che organizzavano le proteste su Twitter, il social
network caratterizzato dalla brevità e velocità dei messaggi. Anche se
nessuno oggi si sognerebbe di seguire pedissequamente il metodo
stemmatico per arrivare ad un'edizione critica, non è un caso che sia usato
a livello didattico per insegnare come questa si realizzi,e come illustrerà
questa tesi alcune delle fasi del metodo di Lachmann possono rivelarsi,
almeno “pretestualmente”, utili a dare una giusta forma-mentis per chi si
accosta ai testi virtuali, che possono essere anche quelli giornalistici… E
per chi con questi testi ci dovrà lavorare, che sia uno storico, un tecnico
informatico che lavora per Google o per un social network, un giornalista
9
oppure un economista: oltre a ricostruire dei testi, infatti, la “filologia del
futuro” avrà il compito anche di ricostruire o confutare le “verità” che i
vari tipi di testo, perfino quelli audio-video che possono essere ripresi da
una trasmissione televisiva pubblicata in barba al copyright su Youtube, ci
danno; dovrà stabilire e argomentare i rapporti tra questi testi oltre che la
loro validità, e potrà usare definizioni classiche di questa disciplina, magari
con nuovi significati e sfumature (si parlerà più avanti della
“Contaminatio” 12delle notizie 13). Per questo la struttura di questo scritto
“ruberà”, o meglio prenderà a prestito alcune definizioni “classiche”, ma
non solo per arrivare a un’edizione critica, bensì per avere degli spunti su
come si possono affrontare dei problemi soprattutto nell’ambito dei testi
web, ed è sempre bene ricordare che questi possono avere, si metta il
caso, relazioni indissolubili con delle sceneggiature dei film, con articoli e
scritti vari dispersi nelle reti, o magari con scritti propriamente letterari
(basti pensare alle interviste video e scritte che riportano le volontà,
magari sparpagliate e contraddittorie, di uno scrittore e che possono
rivelarsi utili se non fondamentali per un’analisi critica). Si presenteranno
dei casi che con l’analisi dei testi “artistici” hanno in comune gli strumenti
della filologia e le sue strategie, che si possono rivelare utili non solo in
campo artistico e che possono fornire la mentalità “analitica” senza
tralasciare la “creatività” insita negli atti della ricerca e dell’ecdotica: se i
filologi vorranno mantenere un ruolo importante nella società, dovranno
sforzarsi sempre più di trovare criteri scientifici
12“se l’assenza dell’archetipo può creare imbarazzo, ciò che mette davvero in crisi il metodo di Lachmann è in realtà la
contaminazione. Questo fenomeno si verifica quando un testimone è esemplato con il ricorso a più fonti contemporaneamente. In questa maniera ai rapporti verticali fra i testimoni se ne aggiungono altri di tipo trasversale.” (P. Stoppelli, 2009 pp. 89-90)
13cfr. nota 4
10
a scapito dell’esercizio della creatività (criteri scientifici che infatti fanno
durare nei secoli quel metodo e le cui fasi vengono oggi riprese
integralmente o parzialmente per creare software per l’analisi testuale e
che possono arrivare anche dall’informatica).
Concludendo questo capitolo introduttivo si può dire, in linea con
l’insegnamento del Pasquali più volte riconfermato dalla storia
dell’ecdotica, e anche con quello del Barbi che oltre ad avvicinare
“umilmente” il testo, non condannava la critica in sé e la creatività che
essa presuppone, ma la cattiva critica: la stella polare del filologo
futuristico rimane il “criterio di probabilità” e l’eclettismo è la strada
maestra per risolvere gli svariati problemi che riguardano i testi14 nella
letteratura, nei mass-media, e nella reperibilità-selezione di tutte le
informazioni alla base della nostra vita.
14Cfr. P. Stoppelli, 2009 pp. 95-96
11
CAPITOLO 1: LE SCOPIAZZATURE HANNO LE GAMBE CORTE
1.1 Chi copia e chi cita? Il principio di autorialità e il plagio nell’universo web
È vero che l’universo digitale mina il principio di autorialità1, ma è vero
anche che nel “villaggio globale” e nel web chi copia ha le gambe sempre
più corte, come le fandonie.
Un copista antico infatti, non avendo il “copia e incolla” automatizzato,
era naturalmente portato a inserire nel nuovo testo innovazioni e errori,
mentre l’uso del tasto destro limita la possibilità innovatrice nei processi
di copia, soprattutto se non si ha l’accortezza di evitare sequenze uguali di
più di due parole e soprattutto se si ricopiano gli “errori guida”, che per il
filologo digitale non serviranno tanto a ricostruire un albero genealogico
quanto più a individuare chi si comporta scorrettamente nell’universo
editoriale. Può tornare utile, per capire ciò, illustrare una serie di casi
“eccellenti” (cioè non solo quelli di uno studente che copia una tesi per la
laurea) di scopiazzature da Wikipedia, l’enciclopedia partecipativa criticata
giustamente quando le voci riportano fonti inconsistenti o peggio non ne
riporta affatto. Un caso recente è quello dei “copioni” degli organi di
stampa del Vaticano denunciato dal “Guardian”, che in un documento
ufficiale avevano copiato e incollato da Wikipedia le biografie di una
ventina di cardinali con tanto di espressioni totalmente inadatte al 1“Non è difficile prevedere che a lungo andare, stante la possibilità tecnica di riprodurre senza costo i testi letterari in formato
digitale (e perciò anche facilmente manipolabili), la sensibilità filologica vada progressivamente attenuandosi. Tutto potrà essere copiato, modificato, adattato ai gusti, alla cultura del lettore, condiviso in rete con altri lettori in un processo di circolazione illimitata di cui tutti e nessuno saranno responsabili. In queste circostanze il principio di autorialità non può che indebolirsi. In quella sorta di mondo rispecchiato che è Internet, la grandissima parte dei miliardi e miliardi di testi oggi registrati è anonima. Da questo punto di vista il futuro si prospetta come un ritorno al Medioevo. Del resto anche la filologia, che ha le sue radici nel principio di autorialità, non appartiene all’ordine naturale delle cose e alla lunga potrebbe anche scomparire o quasi dagli orizzonti culturali della nostra civiltà. Ma queste sono trasformazioni epocali, apprezzabili solo sulla lunghissima durata” (P. Stoppelli, 2009 p. 176)
12
contesto come lo specificare che si trattava di un ministro “cattolico” e la
giustificazione goffa di non aver avuto abbastanza tempo tra le nomine dei
nuovi cardinali e la presentazione di questi2; c’è poi il caso della “Treccani
spagnola” con varie voci, tra cui quella di Boccacio, copiate sempre da
Wikipedia3; senza parlare dei casi di interi romanzi copiati e non tradotti
da un’altra lingua, come avrebbe fatto un ingegnere friulano dalle velleità
letterarie4; poi c’è l’opuscolo dei 150 anni di Italia diffuso dal MIUR con
pezzi di Risorgimento tratti “troppo” liberamente dall’enciclopedia online5,
e sempre in occasione dello stesso anniversario si può citare anche un
caso non “eccellente”, scoperto dall’autore di questa pubblicazione
tramite lo strumento informatico contro i plagi denominato “Copyscape”,
di cui si parlerà anche più avanti, a titolo di esempio. Nell’immagine
13
riportata si mostra come un articolo di una piccola testata giornalistica
ben “piazzata” nei risultati di ricerca google (ossia ai primi posti dei
risultati) sia stato copiato dall’enciclopedia libera: come si vede lo
strumento riporta “sottolineate” le stringhe esatte ricopiate dalla voce
dell’anniversario di Wikipedia (ovviamente senza l’adeguata citazione)
“adattate” a un articolo che parla dei festeggiamenti dell’azienda
informatica “Aruba” per il medesimo anniversario, oltre alla percentuale
di testo copiato (per una maggiore precisione di questo strumento è
necessario scaricare una versione a pagamento)
2 http://www.unita.it/italia/vaticano-nel-mirino-della-stampa-estera-br-il-vaticano-copia-da-wikipedia-1.370116
3http://www.corriere.it/cronache/08_novembre_20/treccani_spagnola_montecucco_9ccd65e0-b6f0-11dd-8a80-
00144f02aabc.shtml
4 http://www.ilsole24ore.com/art/cultura/2010-09-07/possibilita-plagio-confini-michel-091528.shtml
5http://cerca.unita.it/ARCHIVE/xml/355000/354602.xml?key=marco+Salvia&first=11&orderby=1&f=fir
1.2 Gli errori guida degli enti locali. Un paese senza memoria, tante
notizie e poche informazioni14
Come ribadito, anche se fino alla noia, il concetto portante di questo
lavoro è che la filologia deve affrontare la sfida di uscire al di fuori
dell’ambito letterario, e questo impulso per la disciplina trova un senso
ancora più importante in un paese in cui le coscienze civili cominciano a
risvegliarsi e che ha bisogno della “memoria” storica, soprattutto quella a
“breve termine”: i media ci bombardano di “news” sempre fresche, di
notizie appunto ma non di “informazione” che è il centro della nostra
società e che dirige le nostre scelte, i nostri ideali; e quanti riescono a
collegare eventi diversi senza riportare pedissequamente quanto scritto
dalle principali agenzia stampa, quanti si vanno a spulciare le promesse e
le dichiarazioni della classe dirigente che cambiano di mese in mese?
Pochi, come una formazione politica che ha scoperto una scopiazzatura
che ha dato un contributo alla nascita di un’inchiesta della magistratura
tutt’ora in corso.
L’esempio recente di “errori guida” appena citato, utile alla cittadinanza, è
quello che ha riguardato l’emergenza rifiuti nella provincia di Roma: un
partito ha scoperto che il documento fondante lo stato di emergenza
proclamato dal Governo, che indicava i siti dove sarebbe dovuta sorgere
una discarica, era parzialmente ricopiato da un progetto precedentemente
bocciato di un monopolista del settore dei rifiuti, con tanto di errori
“guida” come quelli sulle distanze, errate, tra il luogo in cui sarebbe
dovuta sorgere la discarica e il centro abitato. La stampa, dopo la denuncia
del partito, ha anche diffuso una comparazione dei due testi con paragrafi
ricopiati ed errori comuni evidenziati
15
CAPITOLO 2: DA LACHMANN A GOOGLE, PASSANDO PER GLI “SCARTAFACCI”
2.1 Le “collazioni” della cronaca, il “bon manuscript” e la “buona
fonte”: quella più attendibile
Partiamo con un problema pratico che ogni giorno si pone di fronte ai
giornalisti che si trovano a fare un lavoro di “cucina”: nel gergo
giornalistico si indica con questo termine l’operazione che il cronista
compie “riciclando” comunicati e dispacci stampa, spesso scritti in
maniera pedante e che includono molti particolari che dovranno essere
esclusi dall’articolo finale in quanto ritenuti troppo “di parte” o non
interessanti per il lettore, mentre invece lo sono per chi lo scrive (si pensi
a un comunicato di un team sportivo con annessi toni ed espressioni
enfatici che mal si adattano allo stile semplice e scorrevole della “pura”
cronaca). Può capitare anche che testate web poco note riprendano
notizie da altri giornali, non ricevendo direttamente, per esempio, i
comunicati delle forze dell’ordine sugli episodi di cronaca nera.
Il redattore poco attento leggerà distrattamente le diverse versioni della
notizia diffuse, o addirittura solo una, e si appresterà a fare il lavoro di
cucina. Quello più attento invece vorrà risalire direttamente alla fonte più
attendibile, e “solo comparando le differenze è possibile tentare di
ricostruirne la qualità originaria”( cit. “Stoppelli pag65) - ., solo con l’analisi
comparativa delle news trasmesse avrà la possibilità di risalire alla fonte
“ufficiale”, che quando si parla di cronaca nera è nella stragrande
16
maggioranza dei casi un comunicato diffuso dalle polizie che ancora in
quasi tutti i casi diventa “la base” di un dispaccio delle agenzie stampa.
Per esempio sul quotidiano online “Nuovo Paese Sera” del febbraio 20121
si riporta l’evento di un latitante albanese di 35 anni arrestato mentre
rientrava a Fiumicino dall’Olanda e accusato dell’omicidio di un romeno in
un bar di Aprilia.
Il cronista con qualche scrupolo proverà a cercare altre versioni della
stessa notizia, ossia quelle che facendo riferimento al metodo di
17
Lachmann si potrebbero definire “testimoni”: per esempio può andare su
Google, filtrare i risultati di ricerca chiedendo al motore di ottenere solo
quelli pubblicati nel periodo che gli interessa (fine febbraio di questo
anno, come si vede dall’immagine) e quindi incominciando a scremare
dalla ricerca altri eventi di cronaca avvenuti in periodi diversi o non
1http://www.paesesera.it/Cronaca/Fiumicino-arrestato-latitante-era-ricercato-per-omicidio
pertinenti (può capitare che nei risultati vengano inclusi i periodi da noi
ricercati perché le date sono presenti negli articoli, ma quelle stesse date
possono fare riferimento ad altre notizie magari allegate al lato della
pagina, mentre in realtà l’articolo principale in quella pagina risale a un
altro periodo oppure può addirittura rappresentare un altro evento che
non ci interessa).
Dopo il filtro del periodo si proveranno a fare ricerche come “latitante
albanese arrestato Fiumicino” e ci si troverà di fronte a una sfilza di
articoli, dove il latitante è sempre albanese ma gli anni da 35 diventano 25
o 30, e dove l’omicidio è avvenuto ai danni non di un romeno ma di un suo
connazionale, omicidio avvenuto però sempre in un bar di Aprilia.
E qui entrano in gioco i programmi che collazionano in automatico (se si è
fortunati basterà inserire delle stringhe a caso in Google senza nemmeno
ricorrere a questi software), come quelli usati in ambito letterario primo
tra tutti “Collate”2, e che sono pubblicizzati con l’intento di combattere il
plagio come “Copyscape”: utilizzando questo programma, anche senza un
account premium ossia una versione più potente ma a pagamento,
verranno trovate varie stringhe “copiate”, e si riuscirà a trovare anche la
fonte più attendibile, ossia il comunicato stampa delle forze dell’ordine,
18
comunicato che teoricamente potrebbe essere non corretto rispetto
all’articolo del quotidiano citato all’inizio dato che l’età del latitante qui è
di 25 anni e che l’assassinato è albanese e non romeno, ma che deve 2“Collate, Di P. Robinson, De Montfort University, è un programma studiato per la collazione di testi con un numero molto alto di
testimoni (fino a 100). Si può modificare il testo base; registrare le varianti per accordi o per differenze rispetto al testo base scelto; modificare i risultati della collazione automatica; inserire note di commento al testo; visualizzare i risultati di collazione in formati diversi, dal tradizionale apparato critico alla sinossi di varianti su righe di manoscritto. Pubblicazione a stampa o elettronica, sia in HTML che secondo gli standard TEI” (http://www.digitalvariants.org/e-philology/strumenti/per-la-critica)
essere necessariamente scelto da chi deve fare il lavoro di cucina perché
più attendibile (spetterà alla sua sensibilità citare o meno la fonte
dell’informazione, ossia un comunicato ufficiale e non un altro articolo
scopiazzato).
In più alcuni articoli riportano altri dettagli non presenti nel “bon”
comunicato, oppure riportano un’età ancora differente (chi dice 30 anni,
chi 34) e per altri ancora l’omicidio non sarebbe avvenuto ad Aprilia ma a
Frosinone: se il cronista avrà interesse potrà sforzarsi di capire se quei
particolari in più forniti da altre testate sono delle “varianti” o degli
“errori” (sempre attingendo alla terminologia filologica) e se provengono
da fonti confidenziali, da una conferenza stampa organizzata dalle forze
dell’ordine, oppure addirittura da altri eventi di cronaca diversi ed
erroneamente “contaminati” con la notizia principale (potrebbe essere
proprio il caso del “35 anni, originario di Durazzo” che si ritrova nel primo
articolo da cui l’ipotetica giornalista parte, infatti cercando questa stringa
sempre su Google appariranno articoli che riguardano altri eventi
criminali, diversi da quelli avvenuti a febbraio 2012). Potrebbe anche
accadere che un giornalista faccia degli errori di proposito, si potrebbe
parlare in questo caso di “errori furbi”: per esempio, oltre a usare
software come “Plagiarism” o il citato “Copyscape”, una maniera o, se si
19
vuole, un “trucco” per capire chi copia i propri articoli può essere proprio
quella di inserire errori ortografici difficilmente “ripetibili”3 oppure ancora
più semplicemente inserire cifre sbagliate (come quelle delle età) e poi
ricercarle nei motori, magari associate ad altre parole chiave, per vedere
chi le ha riportate.3Tra gli errori più comuni che si possono commettere davanti al monitor ci sono gli “scambi”di lettere posizionate vicino, per
esempio “maetire” al posto di “martire”, questi si potrebbero definire “errori di vicinanza nella tastiera”, ed è curioso notare che molti sfruttano questi errori per ricevere indebitamente visualizzazioni per il proprio sito; per esempio si può intitolare un sito “toutube” con la speranza che tutti quelli che erroneamente digitano la “t” al posto della “y” quando fanno una ricerca, finiscano a quell’indirizzo web. C’è da dire però che casi del genere diventano sempre più rari, dato che i motori di ricerca eliminano dai risultati chi cerca di ottenere visualizzazioni in maniera scorretta
2.2 Le “varianti” digitali, e la “recensio” delle pagine perdute
20
Il web è una tecnologia che permette di visualizzare una rete mondiale di
ipertesti, ed è un servizio offerto da “Internet”, la rete delle reti: come
consultare e recuperare testi in questa rete delle reti? Sarebbe semplice
se il testo fosse quello della traduzione di una canzone pop famosa in
inglese: in questo caso l’utente digiterà l’ Url (cioè l’indirizzo web da
digitare nel browser, il programma che ci permette di “navigare” nel web)
di un sito a lui noto che ospita una banca dati di testi musicali inglesi con
relative traduzioni in italiano.
Oppure, come più prevedibile, si digiterà su un motore di ricerca il titolo
della canzone accompagnato dalla parola “traduzione”.
Se invece si volesse reperire un testo anteriore alla morte di Boccaccio in
volgare si potrebbe consultare il web-database “OVI”4, e se si volesse
un’edizione gratuita dei Canti di Leopardi, basterebbe digitare Leopardi in
“Google Books” per trovare la copia digitalizzata da Google (che stipula
appositi accordi con le biblioteche) dell’università del Michigan pubblicata
nel 1860 a Firenze da Le Monnier.
Se invece si vuole cercare un articolo giornalistico scomparso dopo una
denuncia per diffamazione in attesa del processo o una sezione di un sito
rimosso perché il server (ossia il computer che ospita i dati che poi
saranno richiesti dall’utente tramite il suo browser) che lo ospita è andato
distrutto, perché la censura di un paese non lo gradisce o per altri motivi,
come si può fare?4“Il database testuale dell’Opera del Vocabolario Italiano contiene 1780 testi in volgare anteriori al 1375, anno della morte di
Boccaccio. Le opere in versi e in prosa includono i primi maestri della letteratura italiana come Dante, Petrarca e Boccaccio così come testi meno conosciuti di poeti, mercanti e storici medievali. Il database OVI è stato creato in supporto alla compilazione di un dizionario storico della lingua italiana, Il “Tesoro della Lingua Italiana delle Origini”. Per fare ricerche sui testi completi nel database dell’OVI ci si deve registrare in modo da ottenere una password. Attualmente non vi è nessun addebito per l’utilizzo del database, ma entro breve tempo sarà richiesta una modesta quota di sottoscrizione alle istituzioni ed ai ricercatori indipendenti.” (http://sslmit.unibo.it/corpora/scheda.php?Id=94 )
Un primo strumento che ci può tornare utile è quello della copia cache5, e
c’è da notare che molti webmaster interessati a rimuovere 21
definitivamente un contenuto (ossia chi crea i siti) conoscono le maniere
per cancellare quelle salvate di Google, inserendo un’apposita stringa di
codice HTML nella pagina web, mentre le cache di altri motori comunque
noti come Yahoo di solito non vengono rimosse.
5Prima di spiegare cos’è la “cache” bisogna necessariamente fare un cenno al funzionamento dei motori di ricerca.
Erroneamente si pensa che un motore di ricerca, come quello “primario” che è Google, scannerizzi l’intero web. In realtà quando facciamo una ricerca su Google cerchiamo solo sulla parte del web “fotografata” dal motore (e le fotografie si definiscono appunto “cache”), anche se i motori di ricerca primari (diversi da quelli più specializzati) riescono a scansionare la gran parte della “rete grande quanto il mondo”. Infatti “in principio Internet era costituita da un insieme di siti destinati a fornire o ricevere file tramite un apposito protocollo di trasferimento dati (FTP = File Transfer Protocol), per cui occorreva conoscere l’esatto indirizzo del file desiderato. Con l’espansione della rete comunque apparvero i primi sistemi di indicizzazione di questi file, come Archie (1990), basati su semplici elenchi di nomi di file, cui in seguito si aggiunsero sistemi di indicizzazione dei contenuti di file testuali (come Gopher, che risale al 1991), capaci di aiutare nell’individuare più facilmente un documento in base al suo testo, e su questa via si è giunti (dal 1993) ai veri e propri motori di ricerca, sistemi altamente sofisticati basati su ricerche esemplate sul linguaggio naturale. Dietro le quinte di un motore di ricerca sta anzitutto un processo di raccolta dei dati da tutte le pagine di tutti i siti web accessibili (o del loro sottoinsieme per motori specializzati), e quindi una serie di algoritmi per individuare al loro interno tutti i possibili indicatori del contenuto della pagina e indicizzarli e ricercarli opportunamente. La raccolta dei dati viene effettuata da un componente software (variamente definito crawler, spider o robot oppure assistiti da umani) che visita sistematicamente e continuamente ogni pagina accessibile su web e raccoglie parole e frasi con sistemi più o meno complessi per poi riversali su una banca dati: si tratta quindi di quantità enormi di informazione, all’interno della quale occorre poi effettuare complesse analisi per determinare quali siano le pagine più rilevanti per ogni ricerca effettuata, assegnando a ciascuno un punteggio (score) che ne rappresenta sinteticamente l’importanza. I dettagli relativi al calcolo di questo punteggio e della conseguente classifica (ranking) dei risultati di una ricerca, definita in modo che quelli più rilevanti appaiano per primi, sono estremamente complessi e sviluppati in segreto dai diversi motori di ricerca, e vanno soggetti a continue mutazioni per adattarsi all’evoluzione dei contenuti del web e alle abitudini dei loro utenti. (…) I motori di ricerca in effetti prendono in considerazione un gran numero di parametri nel valutare la pertinenza di ogni pagina di un sito web: anzitutto il contenuto del testo, pensando le parole chiave rispetto a quelle meno semanticamente rilevanti, la frequenza e la natura di ogni parola (parole banali e di uso estremamente comune hanno per certi aspetti meno rilevanza di parole più corpose e semanticamente più marcate: si pensi ad esempio alla famosa legge di Zipf per cui la specificità di ogni parola è inversamente proporzionale alla sua frequenza testuale), la loro posizione all’interno del testo, il loro contesto (la loro associazione ad altre parole pertinenti secondo modelli più o meno complessi, la loro posizione e distanza all’interno della pagina, etc.), i loro rapporti sinonimici, il tipo di marcatura che ricevono (ad es. una parola usata in un titolo o in un collegamento ipertestuale sarà probabilmente più significativa che una usata nel corpo del testo), etc. Si considerano comunque anche molti altri fattori che esulano dal testo in senso stretto, come la connessione delle pagine fra loro all’interno del sito, e anche una serie di marcature non visibili al visitatore ma specificamente prodotte per facilitare l’indicizzazione del sito (meta tag), come le parole chiave inserite fra i metadati dal creatore della pagina.Altri parametri possono provenire dall’esterno dello stesso sito, come ad esempio il suo indirizzo, i collegamenti ipertestuali interni ed esterni diretti a quella pagina o che partono da essa, soppesando la rilevanza dei siti cui conducono o da cui provengono, il comportamento degli utenti rispetto ai risultati di una ricerca (quali siano i siti effettivamente scelti fra quelli presentati: l’atto di cliccare su uno dei link presentati si definisce clickthrough, e concorre a determinare la popolarità di un sito, ovvero la frequenza con cui i visitatori del motore di ricerca accedono ad alcuni dei risultati piuttosto che ad altri); un gran numero di fattori viene insomma considerato ai fini di determinare con la minor approssimazione possibile la pertinenza del contenuto di ogni documento pubblicato sul web” (Daniele Fusi, Informatica per le scienze umane, Edizioni Nuova cultura 2011 pag.162)
22
Ma se la cache non è stata salvata o è stata rimossa come si può fare? Si
può provare con il servizio “Wayback Machine”, ossia la macchina del
tempo del web, che analogamente ai motori di ricerca “fotografa” il web
(similmente a quello accade per i motori di ricerca, non si riesce a
scansionare l’intero web ma solo una parte di esso) e memorizza le
diverse “fasi redazionali” delle singole pagine; poi con una semplice
interfaccia permette di selezionare i fotogrammi scattati in diversi
periodi6. Un esempio può essere quello del “progetto millennium”, un sito
del comune di Roma di cui ci resta solo l’homepage, cioè la pagina
principale, mentre le altre sezioni del sito sono scomparse, dopo il
fallimento del progetto delle Olimpiadi nel 2020, sito utile a uno studioso
di urbanistica per una sua ricerca.
23
6Invece i motori di ricerca in generale, e in particolare Google, forniscono solo la versione più recente dell’istantanea scattata al
sito, ed è interessante notare che molte volte parole ricercate che compaiono nel risultano di Google, e quindi sono state salvate nella “cache”, possono sparire da un sito che viene aggiornato e non viene tempestivamente “rivisitato” e rifotografato dallo “spybot”: in pratica quelle stesse parole presenti nei risultati possono effettivamente sparire dal link che andremo ad aprire in quanto la stessa pagina arriva a ospitare nuovi contenuti, rimuovendo quelli precedenti
Provando a cliccare sulle diverse sezioni del sito comparirà un messaggio
di errore: “la pagina non si trova sul server”. Allora si può provare
anteponendo la parola “cache” seguita da due punti all’indirizzo web su
Google, ma anche in questo caso ci apparirà una schermata con un
messaggio di errore.
24
Dopo aver verificato che anche altri motori di ricerca non hanno
immagazzinato le copie cache, ecco che ci torna utile la macchina del
tempo del web. Tagliamo l’url, la incolliamo nell’apposita barra,
schiacciamo sul tasto “Portami indietro” ed ecco che il sito anche se
scomparso “fisicamente” dal server è stato “immagazzinato” da qualcun
altro: ci sono due schermate (una del 2010 e una del 2011) della pagina
principale che intanto è cambiata (come si può notare dal confronto con
l’immagine della precedente homepage), e ne è disponibile una sola del
link che ci interessava per la ricerca dell’urbanista.
25
E sempre in tema di varianti e diverse fasi redazionali, uno strumento utile
per memorizzare queste può essere il servizio “Freeze Page”: come con la
macchina del tempo del web si possono cristallizzare le varie fasi e i
cambiamenti di una pagine web, ma in questo caso la scansione delle
pagine non avviene automaticamente grazie a un software, ma è l’utente
a “congelare” le pagine web che poi restano sui server della società che
mette a disposizione lo strumento, siamo quindi noi a fotografare la
pagina web in quel momento (magari prevedendo che quella pagina
potrebbe essere rimossa o sparire).
26
E a questo punto non si può non fare un cenno al progetto “Digital
variants”: “Varianti Digitali ( abbreviato in VD) è un archivio digitale di testi
di autori contemporanei fondato nel 1996 dal Department of
Italian dell'Università di Edimburgo. Attualmente il progetto è ospitato dal
Dipartimento di Italianistica di Roma Tre. Lo scopo del progetto è rendere
disponibili su rete testi di autori viventi in vari "passaggi" o stadi di
scrittura. Affermati scrittori contemporanei di varie lingue e letterature
(per ora italiano e spagnolo) mettono a nudo la loro opera mostrandoci i
processi di scrittura a monte del testo definitivo.
In epoca elettronica le varianti testuali scompaiono: sempre di meno sono
gli autori che conservano le stampate delle versioni precedenti a quella
definitiva e questo comporta una perdita per la conoscenza dei processi di
genesi testuale. VD, tuttavia, non vuole "recuperare" le varianti dopo
averne constatato il decesso (non è cioè "post-filologia"), ma intende
fornire uno strumento per la comprensione dei processi di scrittura”8.
Gli obbiettivi principali del progetto sono stati fissati in quattro punti:
“ 1) Raccogliere e archiviare elettronicamente varianti testuali (di varia
forma e tipologia) di autori contemporanei mettendole a disposizione di
esperti, ricercatori e studenti.
2) Realizzare, per ogni autore, una sezione di risorse multimediali con
interviste, biobibliografie, link, immagini ecc.
8http://www.digitalvariants.org/about-us
3)Sperimentare soluzioni filologiche innovative per la piattaforma web
27
4) sfruttare tutti i materiali presenti sul sito per l’insegnamento
dell’italiano come seconda lingua e, più specificatamente, per lo studio e
l’insegnamento del processo di scrittura”9.
Un’immagine tratta dal sito Digital Variants, con le due versioni di un’opera di Roberto Vacca 9
D. Fiormonte 2003 p. 209
2.3 Strafalcioni e analisi linguistico-cognitive: il cognome di Dante
28
Sono diverse la maniere in cui si possono utilizzare diversi strumenti per
studiare le abitudini di uno scrittore o di un periodo storico. Per esempio,
tramite i motori di ricerca del web e le svariate maniere di interrogarlo
(provenienza geografica e temporale della pagine web in primis) si
possono studiare gli errori (che i motori di ricerca correggono) e le
abitudini linguistiche contemporanee.
Per esempio in Google si cercherà “Dante Aligheri” (è importante
racchiuderlo tra virgolette in modo da ricercare questa stringa esatta), per
poi digitare “-Alighieri”, in modo da escludere dai risultati, con il trattino
“-“, chi correttamente ha riportato il cognome di Dante, cioè con la “I” tra
29
la “G” e la “H” e in modo da escludere la correzione automatica che
Google ci propone tramite il meccanismo degli anelli dei sinonimi (cioè
quel meccanismo che ci fa trovare parole “equivalenti”, ossia sinonimi o
errori ortografici comuni, nei motori di ricerca)10
Ci si renderà subito conto che questo errore è comunemente commesso
da stranieri, anche senza filtrare i risultati per provenienza geografica…
Ma la cosa che più sconvolgerà sarà trovare anche tanti connazionali che
lo commettono, a partire da bellissime “veline” che partecipano ai reality
fino a diverse accademie e scuole, che ci sono goffamente cadute.
Provando poi ad aprire i differenti risultati, ci si renderà conto che solo
alcune di queste ultime si sono accorte dell’errore e lo hanno corretto
all’interno del loro sito, ma lo strafalcione rimane comunque nei risultati
di “Google” a futura memoria.
Allo stesso modo si potranno cercare gli errori che vengono commessi da
qualcuno digitando il nome della persona (racchiuso sempre tra virgolette
per il motivo prima indicato) accompagnato dall’errore.
Oppure, analogamente all’interrogazione precedente, si potrà cercare
semplicemente un errore, come elemento di studio di un’abitudine
30
linguistica: uno molto comune è l’accento del “perché” (quando il
correttore automatico non aiuta!) e come prima si potrà digitare “perchè”
e poi subito dopo un trattino davanti al corretto “-perché”, in modo da
escludere chi lo ha scritto correttamente. Si potrà far comprendere, in
sede didattica, come la lingua evolve e si potranno analizzare fenomeni
come le reinterpretazioni paretimologiche o gli ipercorrettismi.10
Rosenfeld Louis, Morville Peter/ L. Mondini, Architettura dell’informazione per il World Wide Web, Tecniche Nuove, 2002 p. 178
2.4 Googlare e risultati in post diversi
In questa pubblicazione si sono viste alcune maniere di interrogare il motore di
ricerca Google, come quella di anteporre un “-“ per escludere parole dai
risultati, oppure l’uso delle virgolette per ricercare una stringa di parole, che
possono costituire una frase o il nome di una specifica persona (ad esempio se
si scrive “Paolo Maria Addabbo” senza le virgolette si otterranno anche risultati
non pertinenti, come “Paolo Rossi” e “Maria Addabbo”). Bisogna dire però che
l’utente medio non usa le funzioni di Google e, per questo, si ritrova a saltellare
tra una pagina e l’altra disorientato: a volte questo disorientamento può essere
gradito, in quanto si scoprono argomenti che mai si sarebbero cercati. Molto
più spesso invece si prova frustrazione perché non si trovano i risultati che ci
aspetta.
Per esempio, partendo dalla cronaca, è successo che una sezione deviata
della massoneria ufficiale sannita stava ideando un golpe in Africa.
Qualche curioso potrebbe pensare che un noto personaggio politico, che
31
si cita solo per comodità dell’esempio, sia legato alla massoneria: per
questo si può provare a digitare in Google “massoni Sannio Mastella”.
Il primo risultato, ottenuto dis-impostando le funzioni di ricerca
personalizzata attive di “default” su Google, sarà la pagina web di
un’associazione beneventana. All’inizio troviamo un articolo che riguarda
proprio la massoneria nella cittadina campana, articolo che però non cita
Mastella e che quindi non è pertinente con la nostra ricerca. Infatti il
politico si trova citato in quella pagina web, ma non nello stesso articolo,
anche se l’articolo che comprende il nome del politico ha un tag, ossia
un’etichetta studiata appositamente per i motori di ricerca che
scansionano il web, e quindi anche la parola “massoneria”, parola che
però non ricorre nell’articolo dato che nel post in cui si parla di Mastella ci
sono solo dei vaghi riferimenti all’evento per cui si ha interesse e in
particolare alla massoneria nel Sannio, ma non diretta al politico:
qualcuno potrà essere comunque interessato ai risultati, altri invece non li
riterranno pertinenti.
Forse, un primo criterio per un motore di ricerca che si appresti ad
abbattere la concorrenza di Google, oppure uno strumento per
implementare quest’ultimo, dovrebbe essere proprio un algoritmo che sia
in grado di riconoscere quando in una pagina web due risultati si trovano
in post diversi (difficilmente si potrebbe imporre ai webmaster un
marcatore specifico che separi “nettamente” i diversi post, dato che solo
un motore di ricerca importante come Google riesce a imporre le sue
politiche ai SEO e ai Webmaster, ma c’è da dire che gli algoritmi esistenti
sono già in grado di discernere le diverse componenti di una pagina web,
32
ossia l’articolo principale, le scritte riconducibili a sponsor o ad altri
messaggi della testata ecc.). Naturalmente una maniera per ovviare al
problema è stata già pensata: schiacciando un apposito tasto, e quindi
senza aprire il link dalla pagina dei risultati, si può visualizzare l’anteprima
della pagina che, nella stragrande maggioranza dei casi, mostra la
posizione delle parole cerchiandole in rosso, e possiamo quindi renderci
conto se le parole sono nella stessa parte della pagina, nello stesso
articolo o post. Ancora a onor del vero bisogna ricordare che in realtà il
parametro della “distanza” tra una parola e l’altra è un criterio che
notoriamente viene già valutato dagli algoritmi dei motori, algoritmi che
ovviamente rimangono coperti dal segreto industriale e di cui si può solo
intuire il funzionamento, oltre al fatto che vengono puntualmente
cambiati .
CONCLUSIONI
Nella conclusione di questo scritto si deve necessariamente riconfermare
l’idea principale da cui nasce, ossia che non bisogna avere alcun timore di
uscire dall’ambito letterario e di incontrare nuove discipline, in primis
l’informatica. Per esprimere questi concetti sono perfette le parole di
Domenico Fiormonte tesi che restano ben ancorate all’universo letterario:
“Rispetto ai suoi colleghi scientifici il laureato in materie umanistiche forse
ha una marcia in più: il mondo dell’informazione –inteso come metodo di
33
ricerca, lettura e analisi dei segni- è il suo mondo. Oggi ci troviamo in una
situazione simile a quella di Edison e Siemens, quando alla fine
dell’Ottocento crearono le grandi compagnie elettriche. Entrambi
dovettero reclutare i primi tecnici dell’elettricità fra i telegrafisti –gli unici
che avevano competenze appropriate. Un esempio più vicino alla nostra
sensibilità ci viene da Walter Benjamin a proposito del “riciclarsi” dei
pittori di miniature, che già verso il 1840 diventarono “fotografi
professionisti, dapprima a tempo perso, poi in modo esclusivo. Le
esperienze derivanti dal loro precedente mestiere erano loro d’aiuto, e
l’alto livello delle loro realizzazioni fotografiche è dovuto non alla loro
preparazione artistica bensì alla loro perizia artigianale”. Entrambe le
vicende ci suggeriscono che l’innovazione tecnologica fa emergere
professionalità e mestieri ibridi, e che in un determinato momento storico
si apre uno spazio molto vasto per la sperimentazione e la creatività dei
singoli. Successivamente il sistema si stabilizza e a poco a poco gli spazi si
chiudono: nascono gli equilibri monopolistici e i cartelli e le istituzioni
educative fissano i percorsi di formazione. In questo momento il problema
maggiore è la consapevolezza, soprattutto da parte degli umanisti, di
queste potenzialità professionali e del poco tempo a nostra disposizione.
Gli umanisti devono far sentire la loro voce lì dove le nuove tecnologie
tracciano i contorni delle professioni future. Un futuro dal quale il bias
della testualità, come abbiamo visto, non è affatto bandito.
Concludendo, mi pare di poter dire che, grazie alla digitalizzazione, le
humanities stanno uscendo dalla loro “infanzia”. È stata un’infanzia
dorata, all’interno di un giardino elitario: l’alfabetizzazione. Questo è un
problema che il libro, da solo, non ha saputo risolvere. Cero non possiamo
dare la colpa (o il merito) ai supporti, ma è lecito sperare che il computer
34
acceleri i processi di diffusione della lettura e della scrittura e, insieme, ci
aiuti ad andare oltre. La rete è già adesso uno strumento di comunicazione
e insieme un’architettura di conoscenza più aperta e più complessa del
mondo della stampa. Il documento scritto –pensiamo alle leggi e alle carte
costituzionali- ha impiegato secoli per raggiungere, e poi per creare (e solo
in alcuni paesi), un pubblico di massa. La televisione lo ha fatto in una
generazione. Internet lo farà in un paio di decenni. L’umanista informatico
–manipolatore di segni- non può che rallegrarsene”11.
11D. Fiormonte, 2003 pp. 248-249
35
Recommended