Il tempo fuor di sesto
delle macchine intelligenti

Helga Nowotny
Le macchine di Dio
Gli algoritmi predittivi
e l’illusione del controllo
Traduzione di Andrea Daniele Signorelli

LUISS, Roma, 2022
pp. 197, € 19,00

Helga Nowotny
Le macchine di Dio
Gli algoritmi predittivi
e l’illusione del controllo
Traduzione di Andrea Daniele Signorelli

LUISS, Roma, 2022
pp. 197, € 19,00


Se si vuole comprendere una civiltà, bisogna guardare innanzitutto al modo in cui concepisce il tempo. Agostino di Ippona dedicò al tempo parte delle sue Confessioni, nonché molti passaggi della Città di Dio, proprio perché aveva compreso che la rivoluzione cristiana comportava una radicale trasformazione di questo concetto e che diventava necessario abituare la Cristianità alla nuova idea di un tempo orientato verso un futuro rappresentato dal ritorno di Cristo, dall’avvento del Regno e della fine della storia, dunque anche del tempo: il Regno sarà atemporale. Occorreva soprattutto rompere con la concezione ciclica del tempo che aveva caratterizzato l’età classica, ormai sprezzantemente definita “pagana”, secondo la quale le cose sono sempre destinate a seguire uno stesso percorso, ciclico come le stagioni: nascita, crescita, apogeo, invecchiamento e morte. Così i pagani interpretavano stoicamente la caduta di Roma; ma per Agostino non si trattava di immaginare un nuovo impero che sarebbe sorto al posto di quello romano ormai condannato, quanto di sostituire radicalmente l’idea della “città dell’uomo” con la “città di Dio”. La civiltà dell’Occidente medievale aveva un rapporto col tempo molto peculiare, in cui da un lato la ciclicità delle stagioni era preminente, dall’altro tutto era proteso verso l’eternità, a partire dai grandi cantieri delle cattedrali, edifici che attraversano i secoli.

Come sta cambiando il nostro concetto di tempo è una delle domande che da tempo ossessionano Helga Nowotny, sociologa della scienza con un recente passato da presidente del Consiglio europeo della ricerca (ERC, European Research Council), organo designato a definire le politiche europee della ricerca scientifica, ma prima ancora presidente della Società Internazionale per lo Studio del Tempo. A questo argomento Nowotny aveva dedicato un’opera miliare, Eigenzeit (1980), tradotta in italiano con il titolo Tempo privato. Origine e struttura del concetto di tempo, anche se il termine tedesco meglio rimanda a ciò che la teoria einsteiniana aveva designato come “tempo proprio”, ossia il tempo secondo il punto di vista di un osservatore situato in un determinato punto dello spazio-tempo, che non necessariamente coincide con quello di altri osservatori. Quel testo, che analizzava la trasformazione del concetto di tempo nell’epoca postmoderna, sotto i colpi dell’accelerazione tecnologica e sociale, giungeva a un’importante conclusione, vale a dire la sostituzione del futuro con ciò che Nowotny chiamò “presente esteso”, ossia un presente indefinitamente proiettato nel futuro, come del resto il termine stesso “post-moderno” suggerisce, sottintendendo una sostanziale incapacità di pensarci oltre la gabbia della modernità. Argomento ripreso qualche anno fa nel saggio Eigenzeit. Revisited (2017), dove il tema era l’alterazione del concetto di tempo prodotto dall’interazione con i dispositivi digitali. Con il suo ultimo libro Le macchine di Dio (in originale In AI We Trust), portato in Italia da LUISS University Press nella traduzione di Andrea Daniele Signorelli, Nowotny realizza così un’ideale trilogia. Le macchine di Dio parte infatti, di nuovo, da una domanda su come sta cambiando il concetto di tempo nell’Antropocene:

“In che modo il confronto con i tempi geologici, con i progressi atmosferici a lungo termine o il tempo di degradazione della microplastica e dei rifiuti tossici influenza la temporalità della nostra vita quotidiana? In che modo la AI incide sulla dimensione temporale delle nostre relazioni reciproche? Stiamo assistendo alla comparsa di qualcosa che potremmo chiamare «tempo digitale», che oggi si è intrufolato nella familiare e nidificata gerarchia temporale dei tempi fisici, biologici e sociali?”.

Per rispondere a queste domande, Nowotny parte da un assunto fondamentale: la tecnologia cambia l’essere umano e ancora di più l’immaginario tecnologico cambia il modo in cui una civiltà definisce sé stessa. È stato così all’epoca della grande narrazione positivista del progresso indefinitamente esteso verso il futuro, identificato essenzialmente nel susseguirsi delle rivoluzioni industriali; ma quella grande narrazione – osserva Nowotny – non è affatto scomparsa, ha soltanto cambiato pelle. A rappresentarla oggi è soprattutto il sogno dell’intelligenza artificiale e della possibilità di sviluppare algoritmi “predittivi” in grado di controllare il futuro, togliendo a questa dimensione del tempo la sua proprietà di terra incognita. Ma proprio questo obiettivo, che l’autrice definisce illusorio, conferma che siamo ancora immersi nel “presente esteso”: poiché pensare di controllare il futuro vuol dire addomesticarlo, privarlo della sua capacità di mettere in discussione il presente, di sorprenderci attraverso le incognite. È quel che Jill Lepore, citato da Nowotny, ha suggerito nel suo libro If Then (2020), una storia dei primi tentativi di sviluppare algoritmi predittivi nell’America del dopoguerra: “Amazon, Google, Facebook e tutti gli altri stanno raccogliendo i vostri dati per nutrire i loro algoritmi: vogliono trasformare il vostro passato nel vostro futuro”. Ciò sarà tanto più vero nel Mirrorworld, com’è stato definito il futuro metaverso, vale a dire l’ambiente virtuale immersivo nel quale la nostra esperienza personale sarà tradotta attraverso un avatar digitale.

Il Mirrorworld è l’obiettivo finale di questo progetto dei colossi digitali della Silicon Valley, un mondo in cui le incognite del mondo fisico sono azzerate perché tutto si verifica in un ecosistema digitale governato da algoritmi, che sapranno già preventivamente cosa siamo orientati ad acquistare, a fare, a votare. Tuttavia, il Mirrorworld sarà anche un mondo nel quale saremo portati a costruire nuove relazioni con altri esseri intelligenti, vale a dire gli algoritmi stessi.
Nowotny si riferisce alla proposta di Edward Ashford Lee di definire le intelligenze artificiali “esseri viventi digitali” (LDB, Living Digital Beings), che per quanto non autocoscienti sono comunque dotati di una certa autonomia, della capacità di apprendere dall’interazione con il sistema in cui operano e dalla replicabilità. Dalle interazioni reciproche tra esseri umani e esseri viventi digitali “potrebbero emergere nuove e complesse forme di vita”. Ciò implica però prendere coscienza delle nuove forme di relazione tra mondo biologico e digitale che già oggi stanno emergendo: un esempio calzante proposto da Nowotny riguarda il “salto di specie” compiuto dal Covid, che da agente pandemico nel mondo biologico ha dato vita a una infodemia nel Mirrorworld, vale a dire una diffusione virale di informazioni spesso false, errate o manipolate che ha prodotto serie conseguenze, a propria volta, nel mondo reale. Questi nuovi casi di spillover spingono a una forte presa di coscienza nei confronti del nuovo ecosistema digitale, nel quale trascorriamo buona parte della nostra vita.
Il fatto che si parli ancora troppo di una gestione “politica” dell’accelerazione tecnologica è per l’autrice la spia di una tendenza molto pericolosa, quella cioè di una fede nei confronti della capacità della tecnologia intelligente di autoregolarsi e migliorare la civiltà umana che – viene da aggiungere – è forse una nuova variante del mito della “mano invisibile” destinata ad autoregolamentare il mercato. Di nuovo, infatti, assistiamo alla convinzione che la politica non sia più adeguata a guidare i processi esponenziali di cambiamento tecnologico, laddove invece l’algoritmo è in grado – anche in base a misteriosi meccanismi di autoapprendimento, che rappresentano una vera e propria “scatola nera” dove l’essere umano non può entrare – di gestire al meglio una società complessa. Questo automation bias è il pregiudizio che ci spinge a ritenere le scelte compiute dalle macchine superiori alle scelte umane, perché meno fallibili e meno esposte a scelte discrezionali. Ma per Nowotny si tratta di un grave errore, che ci riporta a quel mito positivista dell’esistenza di leggi “scientifiche” in grado di regolare il comportamento umano che credevamo di aver abbandonato agli inizi del Novecento. Ecco invece che di nuovo torniamo a credere che, se lasciate al loro lavoro, le macchine saranno in grado di trarre dai big data presenti nell’ecosistema digitale delle leggi attraverso cui non solo comprendere il comportamento della società umana, ma anche dirigerla verso un suo continuo perfezionamento.

Questa “fiducia nella quantificazione”, osserva Nowotny, non è nuova, perché era stata condivisa ancor prima del positivismo dagli illuministi. Tra le sue storture c’è il caso, citato nel libro, del “quanto di felicità”, un concetto inventato dall’agronomo scozzese John Sinclair per misurare la felicità di uno Stato sommando quella dei suoi individui, in ottemperanza al principio illuministico secondo cui il fine dello Stato è assicurare la felicità comune (félicité publique). Se oggi pensiamo ai tanti indicatori progettati per misurare la felicità o il benessere di una nazione, ci rendiamo conto che – per quanto nobili siano tali intenti – la fiducia nella quantificazione non è affatto venuta meno. E ciò proprio in quanto a non esser venuto meno è il mito del progresso, ossia dell’indefinita perfettibilità dell’essere umano, ambizione incarnata dai grandi colossi tecnologici e dai loro ideologi, che arrivano ad auspicare che la guida di questo processo di perfezionamento sia assunta dalle macchine: è il caso (tra i tanti) di James Lovelock, l’autore dell’ipotesi Gaia che di recente si è convertito al credo macchinico arrivando ad auspicare la sostituzione dell’Antropocene con il Novacene, l’era delle macchine intelligenti che prenderanno il posto dell’essere umano perché maggiormente in grado di realizzare quello che sembra essere il fine ultimo dell’universo, ossia il processamento efficiente dell’informazione (cfr. Lovelock, 2020).
Su questo punto lo scetticismo di Helga Nowotny è forte, tanto più dopo la crisi pandemica. Proprio il caso del Covid ha dimostrato che il nostro principale problema non sta tanto nella previsione, quanto nella decisione: se lo scenario di una pandemia virale era da tempo previsto, l’incapacità di farvi fronte dimostra dei limiti intrinseci della nostra civiltà. Sbaglierebbe chi credesse che per superarli dobbiamo, a maggior ragione, affidarci alle macchine intelligenti, perché la questione è politica e culturale: politica perché riguarda la nostra capacità di assumere scelte per il futuro in un’epoca di presente esteso; culturale perché ha a che fare con la nostra percezione del tempo, sempre più contratta, per contrastare la quale avremmo bisogno secondo l’autrice di “mentalità cattedrali”. In un sistema complesso l’incertezza cresce al crescere della complessità, e questo è vero anche per gli algoritmi:

“Ripensare che cosa significhi il progresso nell’epoca digitale ci mette di fronte alle incertezze relative a dove ci condurranno le nostre interazioni con le macchini digitali. La realtà ci ha costretto ad abbandonare la fantasia della dominazione umana e del controllo completo su ciò che facciamo e pianifichiamo; ci invita invece a coltivare l’abilità di accogliere l’incertezza”.

Letture
  • Jill Lepore, If Then. How the Simulmatics Corporation Invented the Future, Liveright Publishing Corporation, New York, 2020.
  • James Lovelock, Novacene. L’età dell’iperintelligenza, Bollati Boringhieri, Torino, 2020.
  • Helga Nowotny, Tempo privato. Origine e struttura del concetto di tempo, Il Mulino, Bologna, 1993.
  • Helga Nowotny, Eigenzeit. Revisited, in An Orderly Mess, Central European Universti Press, Budapest, 2017.