Ciò che non siamo,
ciò che non vogliamo

Irene Doda
L’utopia dei miliardari
Analisi e critica del lungotermismo
Edizioni Tlon, Roma, 2024

pp. 83, € 12,00

William MacAskill
Che cosa dobbiamo al futuro.
Prospettive per il prossimo
milione di anni
Traduzione di Lorenzo Matteoli
e Andrea Terranova
Baldini+Castoldi, Milano, 2023
pp. 507, € 22,00

Irene Doda
L’utopia dei miliardari
Analisi e critica del lungotermismo
Edizioni Tlon, Roma, 2024

pp. 83, € 12,00

William MacAskill
Che cosa dobbiamo al futuro.
Prospettive per il prossimo
milione di anni
Traduzione di Lorenzo Matteoli
e Andrea Terranova
Baldini+Castoldi, Milano, 2023
pp. 507, € 22,00


Comprimendo l’intera storia della Terra in un’ora, scopriremmo che i primi mammiferi sono comparsi al minuto 57 e il primo Homo sapiens un centesimo di secondo prima dello scoccare dell’ora. Alvin Toffler, il futurologo dello “choc del futuro”, immaginò di ridurre gli ultimi 50.000 anni di storia umana in ottocento cicli di 62 anni (oggi sarebbero 801), osservando che solo negli ultimi settanta cicli esiste la scrittura, solo negli ultimi 6 la parola stampata, e quasi tutto ciò che utilizziamo oggi è stato prodotto nell’ultimo ciclo (cfr. Toffler, 1988). Questo modo di ragionare sul “tempo profondo” aiuta a prendere coscienza di quanto passato sia alle nostre spalle. Ma quanto futuro c’è invece davanti a noi? Molto dipende da quanto durerà l’essere umano. William MacAskill, pioniere della filosofia del lungotermismo, prova a fare un calcolo in Che cosa dobbiamo al futuro. Se la nostra specie durasse in media quanto le altre specie di mammiferi, la storia umana potrebbe estendersi per un milione di anni, di cui 300.000 circa passati da quanto è emerso Homo sapiens. Abbiamo quindi almeno settecentomila anni ancora davanti a noi. Ma perché accontentarci? Essendo molto più capaci di qualsiasi altra specie vivente sulla Terra, dovremmo poter sopravvivere ben più a lungo di esse. La Terra resterà abitabile per centinaia di milioni di anni, e se ci diffondessimo nel Sistema Solare avremmo quattro miliardi di anni ancora davanti (tanti quanti ci separano dalla morte del Sole); ma se sciamassimo in tutta la galassia, o in tutto l’universo, potremmo sopravvivere per un milione di migliaia di miliardi di anni. Ma se invece un brutto giorno, come capitò ai dinosauri, un asteroide colpisse la Terra portandoci all’estinzione? Se qualche invenzione tecnologica fuori controllo arrivasse ad annientare l’intera umanità? Non è forse vero che, secondo gli esperti del Bulletin of Atomic Scientists, l’Orologio dell’Apocalisse è più vicino che mai alla mezzanotte? Ebbene, allora dovremmo impegnare tutti i nostri sforzi per impedire che una qualche catastrofe annienti la specie umana e il suo potenziale futuro.
Da quanto punto di vista, tra tre diversi scenari futuri in cui

1) la civiltà umana vive in pace;

2) una guerra atomica distrugge il 99% della specie umana;

3) una guerra atomica distrugge il 100% della nostra specie.

si possono considerare gli scenari 1 e 2 sono pressoché identici, perché tutto ciò che conta è impedire il terzo, che metterebbe fine alla storia umana. L’importante è che, nel caso di una catastrofe globale, possa sopravvivere almeno un piccolo gruppo di persone per garantire all’umanità un futuro su scala cosmica. Questo è, in estrema sintesi, il contenuto del longtermism, una corrente filosofica estremamente giovane ma che è riuscita in poco tempo a far molto parlare di sé per l’enorme influenza che ha nei più potenti circoli del pianeta, quelli frequentati da coloro che al futuro di lungo termine pensano ogni giorno per controllarlo e dominarlo: i tecnomiliardari.

Atto primo: lo studio dei rischi esistenziali
Il lungotermismo (qui prediligiamo questa traduzione a quella più letterale ma cacofonica di lungoterminismo adottata anche nella traduzione italiana del libro di McAskill, Che cosa dobbiamo al futuro, o quella ibrida di longtermismo) si è evoluto nell’ultima ventina d’anni a partire da uno dei più rilevanti ambiti degli studi sul futuro emersi di recente, quello dell’analisi del “rischio esistenziale”. Questo termine fu coniato nel 2001 da Nick Bostrom, filosofo britannico che negli anni Novanta era stato tra i principali animatori dei circoli transumanisti, per poi prenderne le distanze quando si rese conto che la fissa del transumanesimo per la possibilità di realizzare un’intelligenza artificiale forte o “generale” (AGI, Artificial General Intelligence) allo scopo di creare una specie ibrida che possa vivere per sempre costituiva più un rischio che un’opportunità. Cosa ci dice – fu il ragionamento di Bostrom – che una simile IA senziente si allinei alla nostra volontà e ai nostri piani per il futuro e non decida invece di perseguire i propri, magari così diametralmente distanti da prevedere la nostra distruzione per restare l’unica specie intelligente sul pianeta? Bostrom inserì questo scenario nella sua casistica dei rischi esistenziali, come decise di definire quei rischi in cui “un risultato avverso annienterebbe la vita intelligente originata dalla Terra o ridurrebbe in modo permanente e drastico il suo potenziale” (Bostrom, 2001). Ciò che più preoccupava Bostrom non erano tanto le minacce esogene – quelle provenienti dallo spazio o in generale che non dipendono dalla nostra volontà, come i supervulcani – quanto quelle insite nel ritmo di sviluppo della civiltà. Solo pochi decenni fa l’Uomo ha per la prima volta sviluppato una tecnologia in grado di distruggere l’intera specie – la bomba atomica; chi ci dice che nel prossimo futuro non salti futuri uno sviluppo tecnologico ancora più letale e incontrollato? Una superintelligenza artificiale potrebbe essere la prossima bomba atomica (cfr. Bostrom, 2018).

Questa idea colpì moltissimo personalità provenienti dell’ambito tecnologico e più di tutte Elon Musk, che nel giro di pochi anni prese a investire un mucchio di soldi per consentire a Bostrom di fondare all’Università di Oxford un centro per lo studio dei rischi esistenziali (il Future of Humanity Institute), istituire un think-tank americano sull’argomento (il Future of Life Institute) e creare una società dedicata allo sviluppo di una AGI in modo aperto e collaborativo, allo scopo di evitare di replicare il progetto Manhattan: OpenAI.
La prima generazione di studiosi del rischio esistenziale si concentrò sui modi per individuare in anticipo simili rischi e mitigarne gli effetti, con un occhio di riguardo al tema della superintelligenza artificiale. Mancava tuttavia di un solido paradigma filosofico al cui interno inserire questo tipo di ragionamenti. Tra gli esperti di intelligenza artificiale quei discorsi non furono mai presi seriamente, e anzi spesso derisi: perché preoccuparsi dei rischi di qualcosa che nessuno sa ancora come realizzare? Non era forse più alto il rischio di spaventare l’opinione pubblica al punto da mettere a repentaglio i finanziamenti per la ricerca sull’IA? A capire che il problema di fondo dell’accettazione della ricerca sui rischi esistenziali stava in una visione presentista dei problemi furono l’australiano Toby Ord e lo scozzese William MacAskill.

Atto secondo: l’altruismo efficace
La loro prima preoccupazione riguardava il modo di massimizzare la filantropia per risolvere i grandi problemi globali; nel 2009 fondarono così “Giving What We Can”, un’organizzazione basata sulla convinzione che donando il 10% dei propri guadagni sia possibile ottenere risultati rilevanti nelle cause sociali. MacAskill, che all’epoca aveva appena ventidue anni e stava completando la sua laurea a Oxford, passava inoltre molto tempo a riflettere sulla sua scelta di carriera: quale percorso professionale avrebbe potuto ottenere il massimo beneficio sulla società? Dalla sua riflessione per cui, se in media ogni persona passa 80.000 ore della sua vita a lavorare, allora la scelta riguardo al lavoro da svolgere è una delle più significative che possano essere prese, fondò nel 2011 “80,000 Hours”, organizzazione che ha per fine massimizzare l’impatto sociale delle carriere lavorative. Mentre MacAskill iniziava il suo dottorato a Oxford, lui e Orb decisero infine di costituire un centro che si occupasse di promuovere la loro filosofia dell’altruismo efficace e nel 2012 istituirono il Center for Effective Altruism trovando ospitalità negli stessi uffici del Future of Humanity Institute. Per capire cosa le due questioni abbiano in comune può essere utile guardare alla riflessione che aveva spinto MacAskill a fondare “80,000 Hours”: oggi in media una persona dopo la laurea ha sessant’anni di vita davanti, di cui almeno quaranta trascorsi a lavorare; una scelta presa nei dodici mesi successivi alla laurea è solitamente determinante per definire come saranno impiegati tutti quegli anni del proprio futuro, il che rende questa decisione particolarmente importante; ebbene, in modo analogo le scelte assunte oggi dalla civiltà umana possono essere determinanti per il suo futuro a lungo o anche lunghissimo termine. Si tratta di riflettere su quali scelte l’umanità possa assumere oggi per massimizzare la propria utilità futura. Qui è, in sostanza, il punto d’intersezione da cui altruismo efficace e studi sul rischio esistenziale hanno generato il lungotermismo.

Atto terzo: utilitarismo e filosofia analitica
È importante mettere in evidenza il retroterra culturale in cui il lungotermismo è nato e prosperato, in quanto molto distante dalla cultura europea continentale e pertanto anche difficile da afferrare nonostante l’apparente semplicità del ragionamento. Possiamo scomporre questo retroterra di stampo anglosassone-atlantico (stiamo finora parlando di studiosi non americani, ma l’influenza della cultura americana è assoluta) nei seguenti elementi: innanzitutto, la cosiddetta “ideologia californiana” (Barbrook e Cameron, 1996), che guarda al potere emancipatorio della tecnologia e coltiva la convinzione che crescita economica e sviluppo tecnologico debbano necessariamente procedere di pari passo; la filantropia basata sul modello americano del give back, del restituire cioè alla collettività ciò che si è guadagnato in vita e che coltiva scarsa fiducia nella capacità delle istituzioni pubbliche di ottenere risultati significativi per il benessere dell’umanità, se confrontato con l’iniziativa privata; l’utilitarismo di Jeremy Bentham, che sintetizza lo scopo dell’essere umano nel massimizzare la propria felicità; la filosofia analitica di derivazione anglosassone, che riduce il pensiero a formule e punta a “operativizzare” i concetti filosofici per renderli scientificamente inoppugnabili; la passione per il debate, ampiamente diffuso nelle scuole d’élite in America e nel Regno Unito, dove la leadership si esercita nella capacità di saper argomentare in modo efficace il proprio punto di vista e nel vincere il dibattito con l’avversario. Solo avendo a mente tutto ciò è possibile avvicinarsi alla lettura di Che cosa dobbiamo al futuro di William MacAskill in maniera consapevole, poiché altrimenti si rischierebbe di fraintendere del tutto il suo ragionamento.

La formula del futuro
Alla base del pensiero lungotermista di MacAskill c’è una formula da lui ideata, che è questa: il valore di un evento ipoteticamente plausibile è dato dalla sua significatività, moltiplicata per la sua persistenza, moltiplicata per la sua contingenza. “Significatività” vuol dire che impatto può avere su scala globale quel determinato evento. “Persistenza” misura la durata nel tempo del cambiamento impresso da quell’evento. “Contingenza” quanto quel singolo evento è determinante nel produrre il cambiamento: per esempio, l’uccisione dell’arciduca Ferdinando è stato apparentemente determinante nel provocare la Prima guerra mondiale, ma tutti gli storici oggi riconoscono che il conflitto sarebbe comunque scoppiato in un modo o nell’altro, per cui la contingenza di quell’evento è bassa per avendo significatività molto alta. Poiché a ciascuno di queste tre componenti è possibile attribuire un valore quantitativo, è facile capire che nella prospettiva lungotermista un evento in grado di produrre benefici per tempi lunghissimi (anche dell’ordine di milioni di anni nel futuro) è determinante; ne deriva che il secondo fattore, quello della persistenza, è il più importante.  Da qui si desume che anche un piccolo cambiamento oggi potrebbe avere un valore enorme per il futuro a lungo termine dell’umanità, secondo quella che MacAskill chiama la dinamica della “plasticità iniziale, rigidità successiva”. Nel caso del dibattito sulla superintelligenza artificiale significa che, sebbene oggi possa sembrare un discorso del tutto prematuro se non persino irrilevante, decidere già oggi come gestire un’ipotetica IA senziente potrebbe evitare un evento (la sua presa di potere) in grado di mettere a repentaglio la sopravvivenza della specie umana, dotato cioè di una persistenza quasi infinita (poiché la scomparsa della nostra specie durerà fino alla fine dell’universo). Come scrive Irene Doda nel suo pamphlet L’utopia dei miliardari dedicato alla “analisi e critica del lungotermismo” – primo testo in italiano ad affrontare il tema in chiave critica – siamo di fronte a una forma di riduzionismo:

“Le risposte ai dilemmi del nostro tempo stanno in una formula, in valori concreti e misurabili. E soprattutto stanno nelle quantità: di soldi, di crescita, di persone che possono abitare la Terra o il cosmo”
(Doda, 2024).

Infatti, uno degli assunti di MacAskill è che la prosperità della civiltà umana dipende dalla sua crescita economica e tecnologica e richiede pertanto di evitare uno scenario di stagnazione che egli ritiene imminente. Ricordiamo la definizione di “rischio esistenziale” di Bostrom: lì il filosofo di origini svedesi distingueva tra due esiti diversi di un tale rischio, ossia l’estinzione della nostra specie o la riduzione “permanente e drastica del suo potenziale”. Il potenziale della specie umana consiste nella sua capacità di persistere per milioni di anni nel futuro, colonizzando l’intero universo. In un articolo del 2003 dal titolo Astronomical Waste: The Opportunity Cost of Delayed Technological Developmen, Bostrom calcolò che se riuscissimo a colonizzare l’intero Superammasso della Vergine di cui la Via Lattea e il Gruppo Locale fanno parte, nel lontano futuro potrebbero esistere fino a 1023 esseri umani, un numero inconcepibile che potrebbe addirittura essere immensamente superiore (1038) se a colonizzare questa porzione di universo fossero non gli esseri umani in carne e ossa ma i loro progenitori disincarnati ed esistenti all’interno di flussi di informazione digitale. Questo immenso potenziale potrebbe andare distrutto non solo se domani l’umanità perisse a causa di un qualche rischio esistenziale, ma anche se un qualche evento catastrofico riducesse la nostra specie a uno stadio medievale pre-tecnologico. Per evitare un simile scenario, occorre investire massicciamente in ricerca e sviluppo affinché l’accelerazione tecnologica non venga meno e la crescita economica prosegua indefinitamente, poiché una stagnazione tecno-economica potrebbe essere fatale per il nostro futuro. MacAskill e Bostrom, ma in generale tutti i lungotermisti, accettano quindi come dato di fatto il modello economico capitalista in cui viviamo senza mai metterlo in discussione, senza mai immaginare che l’umanità possa svilupparsi indipendentemente dell’accelerazione tecnologica e dalla crescita economica. Inevitabile corollario è quindi quello di immaginare un’umanità che cresce sempre fino a superare i limiti della Terra e diffondersi nell’universo:

“Il futuro della civiltà potrebbe svolgersi letteralmente su scala astronomica e, se vogliamo istituire una società civile, prospera e fiorente, sarebbe di enorme importanza portarla a quella scala”
(MacAskill, 2023).

Si capisce ora chiaramente perché Elon Musk abbia definito il lungotermismo la sua filosofia di riferimento. Essa offre finalmente un “motivo etico a favore dell’insediamento nel cosmo”, che rappresenta il principale obiettivo di Musk. Convincere l’umanità che investire risorse nella colonizzazione dello Spazio è importante non è compito da poco e finora nessuno ci è riuscito; una volta l’imperativo era garantire a un’umanità in crescita esponenziale nuovo “spazio vitale”, ma la crescita oggi sta rallentando e le prospettive di lungo termine parlano di un crollo demografico nella seconda metà del secolo; quindi l’imperativo è diventato la ricerca di nuove risorse a causa dell’esaurimento di quelle terrestri, ma oggi il modello di sviluppo sostenibile rende possibile fare di più con meno e non ci occorrono le risorse dello Spazio per sopravvivere; di conseguenza occorre una nuova motivazione, che può essere quella di garantire ai miliardi di miliardi di miliardi di pro-pro-pronipoti una vita felice e prospera grazie all’espansione spaziale, che permetterà di far vivere in futuro molte più persone di quelle che potrebbero mai vivere sulla sola Terra. Il tutto ha senso in un approccio utilitaristico secondo cui a parità di soddisfazione è preferibile garantire a più persone una vita soddisfacente rispetto a poche, e un’umanità diffusasi dell’universo è immensamente superiore a un’umanità relegata sul nostro pianeta.

Un’ambigua utopia
I corollari ambigui che emergono da questa già di per sé eccentrica impostazione della questione sono diversi. Il primo è che secondo MacAskill meglio sarebbe che la crescita dell’umanità vada a scapito delle altre forme di vita sulla Terra, perché gli animali sia domestici che selvatici vivono male e probabilmente sono tutti infelici a causa delle violente leggi di natura che ne governano l’esistenza, per cui in ottica utilitarista sarebbe solo un bene che l’Antropocene riduca il numero di specie e la quantità di esemplari di animali che vivono sul pianeta (il ragionamento è esposto in modo meno radicale di questa pur fedelissima sintesi).
Il secondo è che il problema di garantire un’esistenza felice alla civiltà umana implica evitare quello che MacAskill chiama un “blocco dei valori”, cioè uno scenario in cui si decide che i valori attualmente considerati migliori vengono estesi indefinitamente nel futuro. Se nell’antichità avessimo deciso che i valori dell’Impero romano diventassero quelli di riferimento dell’umanità futura, oggi considereremmo naturale la schiavitù. Se questa scelta fosse stata presa dai nazisti nel 1939, oggi vivremmo in un regime totalitario. Se oggi decidessimo che gli attuali valori occidentali siano i migliori, impediremo una concreta emancipazione delle donne, delle minoranze, dei diritti degli animali (che però non è chiaro perché stiano a cuore a MacAskill, che pure è vegetariano, considerando la posizione di cui sopra). Il ragionamento è molto valido, ma ne possono derivare conseguenze inquietanti nel momento in cui lo si spinge fino al punto da affermare che “il fine giustifica i mezzi”, ossia che si possa anche derogare ai nostri princìpi morali oggi per ottenere un beneficio domani: da qui ad arrivare ad avallare regimi autoritari e oligarchici o persino totalitari pur di realizzare il bene dell’umanità futura il passo è davvero breve, ed è stato compiuto diverse volte in passato (forse, per frequentare le sue lezioni di filosofia analitica MacAskill ha saltato qualche corso base di storia).
A ciò si aggiunge quanto accennavamo prima, ossia che la messa in discussione dei valori del presente nei confronti della loro utilità futura non comprende mai l’impianto economico-politico contemporaneo. Il modello capitalista è assunto non come il migliore possibile, ma come the only game in town, l’unica possibilità esistente. È curioso che si possano mettere in discussione tutti gli altri concetti etico-politici, tranne questo. Ha quindi ragione Irene Doda a parlare di “utopia dei miliardari”, poiché il lungotermismo non solo non mette mai in discussione uno dei problemi principali del presente – la crescente disuguaglianza economica – ma lo considera in sostanza un vantaggio.

Secondo il ragionamento dell’altruismo efficace, buona parte delle otto miliardi di persone che vivono oggi non fanno nulla per migliorare il futuro dell’umanità; solo un piccolissimo numero di persone dispone delle capacità economiche, dell’influenza e della volontà politica per farlo. Se questo piccolo numero di persone aumenta esponenzialmente la propria ricchezza, come è accaduto a tutti i tecnomiliardari a partire dal 2020, ebbene meglio: perché avranno più denaro da investire nelle grandi cause che interessano il futuro dell’umanità. Il lungotermismo cristallizza così le disuguaglianze e le storture del presente a vantaggio di futuri distanti persino milioni di anni. MacAskill si preoccupa certamente del cambiamento climatico e ne parla spesso nel suo libro, ma per motivi molto diversi da quelli che potremmo pensare. Per capirlo è importante leggere il libro del suo collega Toby Ord The Precipice (2020), che offre un calcolo di probabilità relativo ai rischi esistenziali: se la possibilità che il cambiamento climatico generi un rischio esistenziale nei prossimi cento anni è dato a 1 su 1000, la possibilità che tale rischio sia prodotto da una superintelligenza artificiale non allineata ai valori umani è data a 1 su 10 e in generale una tecnologia fuori controllo ha 1 possibilità su 6 di distruggere l’umanità entro questo secolo o giù di lì. MacAskill auspica la decarbonizzazione per un solo motivo: salvaguardare le fonti fossili facilmente accessibili affinché, in caso di catastrofe che resetti la civiltà tecnologica, i sopravvissuti vi possano aver facile accesso per ricominciare, dal momento che senza carbone e petrolio sarebbe impossibile innescare una nuova rivoluzione industriale. È in quest’ottica che le priorità di MacAskill sembrano così distante dalle nostre e l’elenco delle azioni che il filosofo considera più efficaci appare piuttosto singolare:

“Iniziative come l’aumento delle scorte alimentari, la costruzione di bunker per proteggere un maggior numero di persone dalle catastrofi più gravi, lo sviluppo di tecniche di produzione alimentare indipendenti dalla luce del sole in caso di inverno nucleare, la costruzione di contenitori protetti per i semi che potrebbero essere usati per riavviare l’agricoltura e la costruzione di unità residenziali di sicurezza con le istruzioni per ricostruire gli strumenti e le tecnologie necessari per far ripartire la civiltà dopo una catastrofe”
(MacAskill, 2023).

Sembra di leggere la lista di un prepper survivalista, ma si tratta di idee ampiamente condivise da una élite di miliardari, come osserva ancora Irene Doda citando il libro di Douglas Rushkoff Solo i più ricchi. Come i tecnomiliardari scamperanno alla catastrofe lasciandoci qui (2023). Il futurologo americano era stato invitato a un incontro in una località segreta con cinque tra le persone più ricche del mondo, per rispondere a domande quali “come proteggere il bunker dalle folle inferocite e impedire che le mie forze di sicurezza private si ribellino ed eleggano un loro leader?”. Questo tipo di scenario apocalittico occupa i pensieri di molti tecnomiliardari, la cui principale preoccupazione è sopravvivere una potenziale catastrofe globale per assicurare che il futuro dell’umanità non sia compromesso.

Docta ignorantia
Pensare al lungo termine non è solo importante, ma fondamentale per la portata delle sfide che abbiamo di fronte. Farlo a scapito del presente è sempre un errore, che ha portato già in passato a esiti tragici. Farlo in nome di un futuro remotissimo sulla base di assunti indimostrati (che l’umanità possa evolversi in coscienze digitali disincarnate, che una superintelligenza artificiale sia possibile, che non esistano altre forme di vita intelligente fuori dalla Terra) è una follia. Il lungotermismo conduce a questa follia inquinando i pozzi di quanti stanno invece cercando faticosamente di costruire un discorso sul futuro equilibrato e sostenibile. Al termine della lettura di Che cosa dobbiamo al futuro, la lettrice o il lettore a digiuno dell’ampiezza di questo dibattito e dei suoi assunti può farsi l’idea sbagliata che il concatenamento dei ragionamenti logici di MacAskill sia limpido e inoppugnabile; è il merito della forza retorica del ragionamento costruito sulla base dei princìpi dell’utilitarismo ridotto a operazioni logiche secondo il quadro della filosofia analitica, che serve a convincere l’interlocutore che questo ragionamento non è semplicemente uno dei tanti possibili, ma l’unico giusto, come vogliono i princìpi del debate anglosassone. Di questo Doda ci mette lucidamente in guardia:

“I lungotermisti si pongono con un atteggiamento intellettuale arrogante, quello di chi è convinto di poter controllare il futuro, predirlo attraverso calcoli matematici e di conseguenza proporre formule universali per la soluzione di problemi complessi. Nel farlo (…) utilizzano argomentazioni a loro detta scientifiche per giustificare il loro punto di vista”
(Doda, 2024).

Per questo, nell’articolo con cui nel 2021 Émile Phil Torres (uno dei pionieri dello studio dei rischi esistenziali) mise per la prima volta in guardia l’opinione pubblica dagli eccessi di questa ideologia, egli definì il lungotermismo “il più pericoloso credo secolare” dell’epoca contemporanea. Come tutte le teologie fondamentaliste, il suo obiettivo è dirci come dovrebbe essere il futuro e cosa dovremmo fare per ottenerlo. In questo senso, la più concreta alternativa è quella che non presume che un pugno di uomini qui e ora stabilisca cosa sia vero e cosa sia falso, ma che tutto ciò che possiamo dire sul futuro è quello che non vogliamo che si realizzi. A questa scoperta approdarono secoli fa i teologi della docta ignorantia: rifiutando di definire l’Assoluto, diversamente da quanto avrebbero fatto Hegel e i suoi epigoni, essi accettarono il principio per cui tutto ciò che possiamo dire di Dio è ciò che non è. Così anche noi, anziché imbrigliare il futuro in categorie statiche che lo imprigionerebbero in una gabbia di ferro senza via d’uscita, potremmo limitarci ad affermare quello che non vogliamo sia il nostro futuro in quanto esseri umani. Un atteggiamento non passivo o nichilista, ma che rinuncia a una concezione utilitarista che, nel definire come dev’essere il futuro, intende colonizzarlo. Alla “parola che squadri da ogni lato” l’essenza dell’umanità e lo imprima “a lettere di fuoco”, alla “formula che mondi possa aprirti” dovremmo replicare con Eugenio Montale: “Codesto solo oggi possiamo dirti, ciò che non siamo, ciò che non vogliamo”.

Letture
  • Richard Barbrook, Andy Cameron, The Californian Ideology, in Science as Culture, vol. 6, n. 1, 1996.
  • Nick Bostrom, Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards, in Journal of Evolution and Technology, vol. 9, 2002.
  • Nick Bostrom, Astronomical Waste: The Opportunity Cost of Delayed Technological Development, in Utilitas, vol. 15, n. 3, 2003.
  • Nick Bostrom, Superintelligenza. Tendenze, pericoli, strategie, Bollati Boringhieri, Torino, 2018.
  • Toby Ord, The Precipice: Existential Risk and the Future of Humanity, Bloomsbury, Londra, 2020.
  • Douglas Rushkoff, Solo i più ricchi. Come i tecnomiliardari scamperanno alla catastrofe lasciandoci qui, Luiss University Press, Roma, 2023.
  • Alvin Toffler, Lo choc del futuro, Sperling&Kupfer, Milano, 1988.
  • Émile P. Torres, Against longtermism, Aeon, 19 ottobre 2021