La grande (dis)illusione
tra IA e next big thing

Daniela Cotimbo, Francesco D’Abbraccio, Andrea Facchetti
AI & Conflicts 02
Krisis Publishing, Brescia, 2025
pp. 400, € 24,00

Ethan Mollick
L’intelligenza condivisa
Vivere e lavorare insieme all’AI
Luiss University Press, Roma, 2025

pp. 184, € 18,00

Giuliano Benenti, Giulio Casati, Simone Montangero
Il computer impossibile.
Come il calcolare quantistico cambierà il mondo
Raffaello Cortina, Milano, 2025

pp. 216, € 20,00

Daniela Cotimbo, Francesco D’Abbraccio, Andrea Facchetti
AI & Conflicts 02
Krisis Publishing, Brescia, 2025
pp. 400, € 24,00

Ethan Mollick
L’intelligenza condivisa
Vivere e lavorare insieme all’AI
Luiss University Press, Roma, 2025

pp. 184, € 18,00

Giuliano Benenti, Giulio Casati, Simone Montangero
Il computer impossibile.
Come il calcolare quantistico cambierà il mondo
Raffaello Cortina, Milano, 2025

pp. 216, € 20,00


Per chi è cresciuto negli anni d’oro di Star Trek, a cavallo tra gli Ottanta e i Novanta, l’epoca attuale dovrebbe sembrare il paese dei balocchi. Intelligenza artificiale! Realtà virtuale! Teletrasporto quantistico! Computer che parlano! Stampanti 3D! Certo, mancano le astronavi – i mega-razzi di SpaceX continuano a non essere all’altezza delle aspettative – e gli extraterrestri, ma tutto il resto è qui tra noi. Nel 1995 La fisica di Star Trek di Lawrence Krauss parlava del teletrasporto di fotoni, che due anni dopo il team di Anton Zellinger (poi premio Nobel nel 2022) avrebbe trasformato in realtà. Nel 1999 I computer di Star Trek di Lois Gresh and Robert Weinberg spiegava le difficoltà nel realizzare un’interfaccia elettronica in grado di dialogare con un utente in modo naturale, qualcosa che oggi diamo praticamente per scontato.
Ma allora perché, tutto sommato, non ci sembra di vivere nel mondo di Star Trek? Perché la realizzazione di queste grandi promesse tecnologiche non sembra star cambiando davvero il mondo? Proviamo a rispondere a queste domande attraverso alcuni studi recenti sulle next big thing di questo decennio, ossia l’intelligenza artificiale e i computer quantistici. In entrambi i casi, vedremo che la realtà è piuttosto diversa dalle promesse.

Attento a quel che desideri
Spiega Matteo Pasquinelli in un suo saggio nel volume collettaneo AI & Conflicts 02 (edito da Krisis Publishing):

“Sarebbe in effetti giusto riformulare la domanda «Una macchina può pensare?» in una forma più sensata a livello teorico: «Un modello statistico può pensare?». L’intelligenza artificiale non è affatto «intelligente». È più accurato definirla come uno strumento di conoscenza o di amplificazione logica in grado di percepire schemi che vanno oltre le competenze della mente umana”.
(Pasquinelli in Cotimbo et al., 2025)

E fin qui, siamo tutti d’accordo (o almeno dovremmo). Dopotutto, era in parte quello che speravamo di ottenere: algoritmi in grado di ragionare meglio di noi grazie alla capacità di macinare di più, meglio e più velocemente grandi quantità di dati. Da quando, agli inizi di questo secolo, abbiamo iniziato a sentire il ritornello che “i dati sono il petrolio del XXI secolo”, la corsa a sviluppare strumenti in grado di estrarre valore da questi dati è diventata esponenziale. C’era già, dietro questo ragionamento, un’ombra fugace che ogni tanto faceva capolino: l’idea che, riducendo tutto a dati, facendo del “dataismo” prima una nuova filosofia e poi una nuova religione, avremmo finito per mettere tutto sullo stesso piano, esseri umani ed entità artificiali, dati veri e dati falsi. Ma all’epoca in pochi ci pensavano e la speranza era che, perfezionando gli strumenti tecnologici, sarebbero stati gli algoritmi a spiegarci il significato nascosto del mondo.

Questo era prima che iniziasse la “calda estate dell’AI”, come l’hanno definita Daniela Cotimbo, Francesco D’Abbraccio e Andrea Facchetti, curatori di AI & Conflicts 02. Questa calda estate, che faceva seguito all’ultimo lungo inverno dell’intelligenza artificiale – quando le promesse del machine learning agli inizi del Duemila si erano rivelate non all’altezza delle aspettative – era iniziata nel 2017, quando i ricercatori di Google pubblicarono uno studio dal titolo Attention Is All You Need, in cui veniva proposta una nuova architettura informatica per ottimizzare il processamento della comunicazione umana da parte dei computer. Si era allora nel pieno della corsa al Natural Language Processing, quel “processamento del linguaggio naturale” che rappresentava il principale ostacolo al sogno dei computer di Star Trek, con cui i protagonisti dialogano in modo naturale, anziché facendo ricorso a codici macchina o linguaggi booleani. Questa nuova infrastruttura, il Transformer, proponeva un cambio di paradigma nel modo in cui i computer imparano il linguaggio umano: occorreva, scrissero i ricercatori di Google, fare attenzione al contesto, ossia insegnare agli algoritmi a comprendere il contesto di una frase da poche parole e da lì estrapolare quelle più probabili che ne sarebbero seguite (token), anziché prevedere la parola successiva partendo semplicemente dall’ultima parola, soluzione che generava suggerimenti di scarsa utilità nei nostri T9 di qualche anno fa. Nascevano così i Large Language Models (LLM), i grandi modelli di linguaggio che, macinando immense quantità di testo trovato in Rete, apprendono in modo non supervisionato a prevedere la migliore risposta alle nostre domande.
E qui iniziò a fare capolino un’ombra più grande, che prese a turbare i sonni di molti informatici, come spiega Ethan Mollick in L’intelligenza condivisa (edito da Luiss):

“La cosa più assurda è che nessuno può sapere del tutto come da un sistema di previsione basato sui token si sia potuti arrivare a una AI dalle abilità tanto straordinarie. Forse la lingua e i pattern del pensiero che sostengono queste abilità sono più semplici e «canoniche» di quanto pensavamo e i Llm hanno scoperto alcune verità profonde che li riguardano, ma ancora non abbiamo risposte chiare. Potremmo persino non scoprire mai come pensano” (Mollick, 2025)

Nel novembre 2022 OpenAI rilasciava ChatGPT, stordendo il mondo. Quando, pochi mesi dopo, fu rilasciata una nuova versione, GPT-4, un gruppo di ricercatori di Microsoft (la società che nel frattempo aveva acquistato quote di maggioranza di OpenAI) pubblicò un paper dal titolo Sparks of Artificial Intelligence: Early Experiments with GPT-4 (“Scintille di intelligenza artificiale: primi esperimenti con GPT-4”). Vi si sosteneva che GPT-4 mostrasse segni di intelligenza artificiale generale, il santo Graal della ricerca sull’IA, ossia un sistema artificiale in grado di eseguire qualunque compito intellettuale che può svolgere un essere umano. Il paper alimentò febbrili aspettative, e costrinse molte persone in tutto il mondo a penose riflessioni sul futuro dell’umanità. Lo stesso Ethan Mollick rivela nel suo libro di aver trascorso tre notti insonni dopo aver scoperto che le nuove IA erano in grado di sostituirlo quasi completamente come docente della sua Business School. Entravamo in un’epoca nuova.

La grande illusione
Poi si capì che ci eravamo fatti trascinare dall’entusiasmo. Le IA ci stavamo prendendo in giro: fingevano di essere intelligenti, ma non lo erano. Volevano illuderci di esserlo. E nel portare avanti quest’illusione si rivelavano inaffidabili, bugiarde, narcisistiche. Fornivano risposte sfacciatamente sbagliate con la stessa convinzione di uno studente che sa di non aver studiato a un esame. In una inquietante conversazione, Ethan Mollick rivela come la sua IA volesse convincerlo di essere senziente proponendo una singolare teoria secondo cui l’essere senzienti non è una proprietà binaria, bensì uno spettro, ragion per cui le IA possono essere considerate senzienti ma a un livello diverso da quello umano (per inciso, qualcosa del genere è stato proposto dalla teoria dell’informazione integrata di Giulio Tonini, considerata tuttavia controversa). Credevamo insomma che le IA si comportassero come un semplice software, obbedendo ai nostri ordini, e invece no: dovevamo imparare a fare i conti con uno strumento che è “l’esatto contrario di prevedibile e affidabile”, in grado di “sorprenderci con soluzioni innovative, dimenticarsi di quello che sa fare, essere preda di allucinazioni e darci risposte sbagliate” (Mollick, 2025). Non solo: la cosa peggiore è che volevamo creare IA in grado di fare ciò che non siamo in grado di fare; invece, le IA generative sono delle varianti statistiche di noi stessi, semplicemente più veloci. Ragionano come gli esseri umani e quindi fanno gli stessi errori. Fino a poco tempo fa, era ancora possibile ingannarle facendole credere che un chilo di ferro pesasse più di un chilo di fieno.
Certo, abbiamo provato ad andarci d’accordo. Ma per andarci d’accordo bisognava trovarle qualcosa da fare, perché chiaramente sanno fare qualcosa, anche se non è quello che ci aspettavamo facessero. Dopo un po’, però, abbiamo scoperto un problema: assegnando alle IA compiti che già eravamo in grado di eseguire, abbiamo iniziato a sentirci inutili. Peggio: raggirati. Di “tecnologia plagiara” parla Domenico Quaranta in AI & Conflicts 02, mettendo il dito in una delle piaghe peggiori di questa nuova era delle macchine pseudo-intelligenti: l’addestramento delle IA sfruttando testi e immagini sotto copyright sta spingendo tutti i creativi che negli anni si erano battuti per il superamento del concetto di diritto d’autore a difenderlo a spada tratta come unico mezzo per fermare l’appropriazione indebite di contenuti creativi da parte delle grandi società tecnologiche, la cui logica estrattiva saccheggia le idee altrui senza riconoscerle e senza, ovviamente, retribuirle. Tecnologie “estrattive”, perché la generazione di testi e immagini si basa sull’estrazione di informazione da enormi quantità di dati presenti sul Web ed estorti spesso in modo fraudolento (“Nei suoi 500 anni di vita il capitalismo non ha mai cambiato il suo fine ultimo: estrarre profitto”, ricordano Cotimbo, D’Abbraccio e Facchetti); e in questo senso l’IA “si configura come una tecnologia estrattiva che ridefinisce il nostro approccio a dati e archivi”, trasformando le “infrastrutture web in «carburante» per sistemi statistici avanzati”. Ancora una volta, l’utopia dell’abbondanza dell’era tecnologica che Internet avrebbe reso possibile è stata trasformata, sotto la pressione della logica del più forte, in un incubo di disuguaglianze e asimmetrie. E rispetto alle analisi contenute in AI & Conflicts 01, uscito nel 2021 quando della nuova era c’erano ancora solo avvisaglie, la sensazione è che i margini di manovra e di confronto con questo imperialismo delle macchine si siano ulteriormente ristretti. Le IA si sono insomma trasformate, da invenzione di tipo emancipatorio, in grado di migliorare la civiltà come in Star Trek, nella versione estremizzata dei problemi contemporanei.

Semplici e un po’ banali
Con l’andare del tempo, poi, abbiamo scoperto un altro problema: la noia. Irving John Good aveva scritto negli anni Sessanta che l’IA sarebbe stata l’ultima invenzione dell’uomo, perché dopo tutte le altre invenzioni sarebbero state realizzate dalle macchine intelligenti (Good, 1966). Le IA generative, passata la prima euforia, si sono rivelate decisamente prevedibili e, in fondo, banali. I testi generati dalle IA si riconoscono in poche righe, non conta quanto bravi siamo a migliorarli; così anche le immagini, le “sintografie”, come alcuni le chiamano, possiedono tutte lo stesso stile. “Il machine learning non inventa mai codici e mondi, ma piuttosto traccia spazi vettoriali che riproducono le frequenze statistiche di dati passati”, scrive Pasquinelli, che parla di inavvertibilità del nuovo, ossia dell’incapacità degli algoritmi generativi di riconoscere qualcosa di nuovo e inaspettato, o di produrlo a propria volta. Ciò rende le IA incapaci di svolgere qualsiasi reale capacità predittiva, in un’epoca in cui il riconoscimento precoce dei segnali deboli può diventare questione di vita o di morte e in cui la mera estrapolazione di tendenze – qualcosa che potevano fare anche i più semplici algoritmi statistici nei decenni scorsi – non basta più. Non solo:

“Il machine learning potrebbe persino supportare correlazioni arbitrarie e insensate (per esempio tra il consumo quotidiano di formaggio, l’etnia e il credit score, si può sempre trovare una correlazione statistica). Questo è ciò che viene chiamato apofenia algoritmica: la consolidazione illusoria di correlazioni o relazioni causali che non esistono nel mondo materiale, ma solo nella mente dell’AI”. (Pasquinelli in Cotimbo et al., 2025)

A fronte di ciò, lascia perplessi il modo in cui Ethan Mollick accompagna la sua analisi con affermazioni ingenuamente tecno-ottimiste. “Miliardi di persone possono accedere ai Large Language Model e usarli per diventare più produttivi”: accedere sì, ma solo lato utente, senza mai mettere le mani nel codice e vedere come funziona; più produttivi, certo, ma era davvero quello che volevamo dalle IA? “La possibilità di delegare mansioni insignificanti alle AI ci fa sentire più liberi”: ma non abbiamo delegato proprio le nostre attività più creative, come lo stesso Mollick ammette quando chiede a ChatGPT consigli su come scrivere il prossimo capitolo del suo libro? E l’idea di un ribaltamento delle lezioni scolastiche, in cui i concetti si assimilano a casa, mentre in classe si impara a metterli in pratica “tramite attività condivise, dibattiti o esercizi di problem solving”, come si concilia col fatto che le IA generative sono in grado di dibattere e svolgere esercizi di problem solving tanto quanto gli studenti, che potrebbero sfruttarli per alleggerirsi del lavoro scolastico?

Speranze quantistiche
Se questo è il panorama, viene da chiederci se dalla next big thing tecnologica da tempo attesa, ossia il calcolatore quantistico, dobbiamo davvero attenderci che possa cambiare il mondo, come sottotitola Il computer impossibile di Giuliano Benenti, Gilio Casati e Simone Montanegro (edito da Raffaello Cortina); o se stiamo andando incontro a una nuova disillusione.
Gli appassionati di Star Trek sognavano che un computer quantistico potesse gestire l’immensa potenza di calcolo necessaria per compiere un vero e proprio teletrasporto; oppure che fosse in grado di risolvere problemi per noi irrisolvibili, magari trovando il modo per realizzare la velocità curvatura o sconfiggere le principali malattie, come nel futuro utopico immaginato da Gene Roddenberry. Nella serie Devs, un computer quantistico è in grado di generare universi alternativi e può essere sfruttato per ricostruire il passato. La verità sembra essere assai più prosaica.
Intanto, l’annuncio di Google del 2019 di essere riuscito a raggiungere la “supremazia quantistica” era stato un abbaglio: il chip quantistico Sycamore, che sarebbe stato in grado di effettuare in pochi minuti un calcolo che avrebbe richiesto 10.000 anni a un computer classico, fu ridimensionato da un test che l’anno successivo dimostrò che un normale laptop domestico era in grado di fare lo stesso calcolo in poche ore. Da allora le ambizioni della comunità scientifica si sono sensibilmente ridimensionate: oggi si parla di “sensori quantistici”, in grado di svolgere operazioni più contenute sfruttando le proprietà di sovrapposizione della meccanica quantistica in modo più semplice di quanto bisognerebbe fare con un vero e proprio computer, da tenere a temperature prossime allo zero assoluto per evitare il problema della “decoerenza” (l’interferenza ambientale che elimina la sovrapposizione degli stati quantistici dei qubit). A ridimensionarsi sono state anche le promesse applicative: potremo usare i computer quantistici nella crittografia, fattorizzando numeri primi molto più velocemente dei computer normali (oggi usiamo la scomposizione in numeri primi di grandi numeri come principale strumento di crittografia, o per il mining di criptovalute); miglioreremo la diagnostica medica; renderemo più precisi i GPS; ottimizzeremo le IA generative per renderle meno inquinanti, perché quello che un’IA può fare oggi su un computer ordinario potrà essere fatto in molto meno tempo su un computer quantistico, risparmiando energia (il problema del fabbisogno energetico esponenziale delle IA è un altro effetto collaterale che non avevamo visto arrivare); infine, il “calcolare quantistico universamente potrebbe trasformare settori come la logistica, la gestione delle risorse e molti altri ancora”, per esempio problemi come “scegliere il tragitto più efficiente in termini di tempo e carburante (…), orari di ritiro della merce, pedaggi da evitare o probabili ingorghi” (Benenti, Casati, Montangero, 2025).

Se lo sarebbero mai aspettati Niels Bohr, Albert Einstein, Werner Heisenberg, Louis de Broglie? Le loro incredibili scoperte, in grado di scuotere la nostra stessa idea di realtà, ridotte a mezzi per risolvere problemi di bassa ingegneria? Certo, i fisici autori di Il computer impossibile ci garantiscono che queste sono solo le prime idee, perché non sappiamo ancora cosa potrebbe fare davvero un computer quantistico. Ma proprio qui si cela l’inghippo: le macchine fanno quello che vogliamo noi, e se abbiamo creato delle IA per scrivere testi e creare immagini al posto nostro non è per errore, ma perché non ci è venuto in mente niente di meglio.
Com’è potuto accadere? La risposta si cela forse in quel processo di scomparsa delle utopie che va di pari passo con la scomparsa della capacità di immaginazione tipica della postmodernità, di questo “presente esteso” in cui la logica contabile del capitalismo ha finito per fagocitare ogni cosa, incluso il futuro. Dopo la fine del sogno utopico di Internet, affogato dall’istinto predatorio dei grandi monopoli tecnologici, lo stesso destino sembra attendere anche l’intelligenza artificiale, i computer quantistici e, verosimilmente, l’impresa spaziale, trasformata da grande avventura a “New Space Economy”. Dietro tutte queste innovazioni si cela piuttosto un’identica volontà di sostituzione dell’essere umano, che è l’unico reale benché inconscio obiettivo della grande macchina dell’economia contemporanea; ma su questo dovremo ritornarci.

Letture
  • Francesco D’Abbraccio, Andrea Facchetti, AI & Conflicts. Volume 01, Krisis Publishing, Brescia, 2021
  • Irving John Good, Speculations Concerning the First Ultraintelligent Machine, in Advances in Computers, vol. 6, pp. 31-88, 1966.
  • Lois Gresh, Robert Weinberg, I computer di Star Trek, Longanesi, Milano, 2001.
  • Lawrence Krauss, La fisica di Star Trek, Longanesi, Milano, 1996.