“L’Analytical Engine non ha alcuna pretesa di originare qualcosa. Esso può fare qualsiasi cosa che noi sappiamo ordinargli di compiere. Esso può seguire l’analisi; ma non ha alcune potere di anticipare una qualsivoglia relazione o verità analitica. La funzione della macchina è di assisterci nel rendere disponibile ciò con cui abbiamo già familiarità”
(in Pasquinelli, 2025).
Non stiamo leggendo un commento sulle capacità di ChatGPT e dei suoi emuli, ma la “nota G” delle Notes di Ada Lovelace risalenti al 1843. Lovelace, pioniera di quella che più avanti sarebbe diventata l’informatica, fu assistente di Charles Babbage nella progettazione di una macchina che non fu mai realizzata, l’Analytical Engine appunto, un “motore analitico”, ma fin da allora volle chiarire i limiti del sogno prometeico (e forse, verrebbe da dire, maschile) di una macchina universale che, nelle intenzioni di Babbage, doveva possedere illimitate capacità di calcolo. Secondo Matteo Pasquinelli, tra i più acuti critici in circolazione delle mitologie dell’intelligenza artificiale, docente di Filosofia della scienza all’Università Ca’ Foscari e autore di Nell’occhio dell’algoritmo (vincitore, nell’edizione originale in inglese, del Deutscher Memorial Prize 2024 come miglior libro di teoria critica), la “nota G” di Lovelace rappresenta “la prima liquidazione dell’IA”. Si racconta che Babbage ebbe l’idea di quello che poi avremmo imparato a chiamare computer rimuginando sui numerosi errori delle tavole logaritmiche di inizio Ottocento, necessarie per i calcoli delle rotte marittime su cui si basava l’espansionismo imperiale britannico. “Vorrei che questi calcoli fossero stati eseguiti con il vapore”, avrebbe esclamato. Ma Babbage non cercava una semplice calcolatrice. Il suo motore analitico, garantì, sarebbe stato in grado di “fare tutto, tranne comporre danze popolari” (cit. in Davis, 2003). Ma ora che le IA generative sono in grado di comporre anche danze popolari originali – impresa, peraltro, che riesce loro anche meglio di un calcolo logaritmico – dovremmo allora ammettere che il motore analitico di Babbage sia diventato realtà?
Codificare e controllare
Per capire quale sia la risposta a questa domanda, Pasquinelli ci guida nel suo libro nella comprensione di quella svolta che, nei primi anni Sessanta, oppose per la prima volta al paradigma di informazione lineare su cui fino ad allora si basavano gli sforzi di creazione dell’intelligenza artificiale un nuovo paradigma, quello dell’auto-organizzazione, da cui poi sarebbe emersa la famiglia delle tecniche di apprendimento automatico (machine learning). La storia è abbastanza nota: il Percettrone di Frank Rosenblatt, la cui prima versione risale al 1957, fu la prima rete neurale artificiale sintetica, “concepito come una rete di calcolo auto-organizzante”, in grado, nelle parole di Rosenblatt, di raggiungere “la sua organizzazione in modo spontaneo, piuttosto che avere un’organizzazione predefinita nel sistema”. Era un cambio di paradigma radicale rispetto al percorso sull’IA simbolica perseguito fino ad allora, che si rifaceva al sogno della macchina universale di Turing (una variante più avanzata del motore analitico di Babbage) e cercava di sviluppare algoritmi di istruzioni top-down in grado di mettere le macchine in condizione di svolgere qualsiasi tipo di calcolo. Rosenblatt aveva imboccato la strada dell’approccio bottom-up, quello di una macchina in grado di apprendere da sola, secondo i principi dell’auto-organizzazione, l’idea cioè che la maggior parte dei sistemi complessi (biologici, sociali, tecnologici) evolvono in modo spontaneo e autonomo, un’idea che John von Neumann aveva tratto dai tardi appunti di Turing (secondo cui occorreva costruire una macchina con la curiosità di un bambino e lasciare che sviluppasse liberamente la propria intelligenza) e che avrebbe usato per immaginare gli “automi cellulari”, una forma di vita cibernetica in grado di auto-organizzarsi e, magari, colonizzare l’universo. L’intuizione di Pasquinelli è che questa celebre divergenza nella ricerca pionieristica sull’IA sia stata stimolata da esigenze che nulla avevano a che vedere con il sogno di imitare il cervello umano. E questo è vero anche per le macchine pionieristiche di Babbage e Turing:
“[I]l progetto dell’IA non è mai stato realmente «biomorfo» (volto a imitare l’intelligenza naturale, come menzionato in precedenza), bensì «sociomorfo» – volto a codificare e controllare le forme di cooperazione sociale e intelligenza collettiva”
(Pasquinelli, 2025).
Cosa significa? Che l’IA, fin dai suoi esordi, quando fu solo un’idea nella mente di pochi pionieri agli albori della rivoluzione industriale, doveva servire essenzialmente a un unico fine: ottimizzare la divisione del lavoro. Lo stesso Babbage, riprendendo le tesi di Adam Smith, scrisse un saggio Sull’economia delle macchine e delle manifatture (1834) nel quale affermò che le macchine dovevano servire a misurare l’esatta quantità di lavoro necessaria per svolgere un compito e quindi efficientare e automatizzare il più possibile la divisione del lavoro.
La trappola della tecnologia
Siamo portati a credere che l’accelerazione tecnologica sia il processo che spinge il mondo del lavoro a trasformarsi, e che sia così almeno dall’epoca delle macchine a vapore. Ma se invece questo processo fosse inverso? Se cioè fossero invece le esigenze dell’organizzazione del lavoro ad alimentare lo sviluppo di nuove tecnologie? In effetti, sembra che le cose siano andate esattamente così. Spiega Carl Benedikt Frey in La trappola della tecnologia:
“In Gran Bretagna, l’aumento dei salari rese necessaria la meccanizzazione perché il Paese restasse competitivo nel commercio internazionale. I produttori che vendevano all’estero furono incentivati a trovare modi per ridurre il costo del lavoro per via delle crescenti dimensioni del mercato e l’intensificarsi della concorrenza che alimentò la volontà politica di favorire la meccanizzazione”
(Frey, 2020).
Secondo Karl Max, l’industrializzazione rese possibile la nascita di una nuova figura, il “lavoratore complessivo” (Gesamtarbeiter), che secondo Pasquinelli “acquisisce le proprietà di uno super-organismo” diventando, per usare i termini di Marx, un “macchinario” sociale. È in questo modo che si creano le premesse per l’automazione: il lavoratore complessivo di Marx è solo, potremmo dire, il passo intermedio verso la sua completa sostituzione a opera di macchine intelligenti auto-organizzate. Oggi le esigenze dell’economia-mondo capitalistica si concentrano sulla necessità di tornare a rendere competitive le economie stagnanti dei paesi a economia avanzata, partendo dalla constatazione che la delocalizzazione della produzione nell’Est e nel Sud del mondo non funziona più, perché anche lì i salari stanno crescendo e il costo del lavoro rischia di diventare insostenibile. Da qui l’esigenza di una nuova ondata di automazione, perlomeno nel settore industriale. Pasquinelli però va oltre e connette con lucidità l’esigenza di automazione a un’altra dinamica-chiave del capitalismo contemporaneo: l’economia delle piattaforme. Con il trionfo della digitalizzazione, nelle economie post-industriali la maggiore estrazione di valore si verifica all’interno delle piattaforme digitali, non più nella manifattura, nemmeno in quella altamente tecnologica. Non è un caso che tra i dieci uomini più ricchi del mondo, sette gestiscano piattaforme digitali (e tra questi tutti i primi quattro).
La genesi della cibernetica e della teoria dell’informazione, afferma Pasquinelli, si situa nel periodo a cavallo tra XIX e XX secolo quando il governo della produzione e della distribuzione industriale su scala globale richiese soluzioni tecnologiche più sofisticate delle macchine industriali.
Analogamente, la genesi delle moderne IA generative si situa negli sviluppi dell’economia delle piattaforme tra gli anni Novanta e il primo quarto del XXI secolo, quando la gestione di enormi quantità di dati, necessaria per segmentare gli utenti e personalizzare i prodotti loro offerti, ha riportato in auge l’idea dell’apprendimento automatico sottesa al Percettrone di Rosenblatt. Che l’IA simbolica fosse la strada sbagliata l’aveva capito tra i primi Von Neumann, netto nel suo rifiuto del riduzionismo computazionale, ossia l’idea che il cervello umano possa essere considerato come un computer. La sua ultima conferenza, poi pubblicata postuma con il titolo Il computer e il cervello (1958), introduceva un’idea foriera di conseguenze: il sistema nervoso è essenzialmente di natura statistica. Si stupiva, von Neumann, di come le reti neurali biologiche operassero “con una tolleranza all’errore che destabilizzerebbe qualsiasi macchina di calcolo deterministica” (Pasquinelli, 2025). Ma intuì che era quella l’abilità che i computer del futuro avrebbero dovuto imitare. Come sintetizza George Dyson, egli comprese che la distinzione tra computer e cervello era che:
“Il cervello è un sistema statistico probabilistico in cui logica e matematica girano come processi di livello superiore. Il calcolatore è un sistema logico matematico su cui si potrebbero costruire sistemi statistici probabilistici di livello superiore come la lingua e l’intelligenza umana”
(Dyson, 2012)
Macchine fondate su algoritmi programmati nel minimo dettaglio per svolgere un compito umano servivano per automatizzare le fabbriche. Nell’economia contemporanea, servono altri tipi di macchine e altri tipi di algoritmi, in grado di navigare il vastissimo oceano dei dati digitali per far girare il capitalismo delle piattaforme. Le IA generative sono nate essenzialmente per questo scopo: un’innovazione tecnologica pensata per soddisfare un bisogno della nuova organizzazione del lavoro, come accadde con le macchine a vapore durante la Rivoluzione industriale.
La nuova pausa di Engels
Del resto, secondo Frey l’altra caratteristica che fa assomigliare la nostra epoca a quella della Rivoluzione industriale è il ritorno della “pausa di Engels”, quel divario tra aumento della produzione e stagnazione dei salari che Friedrich Engels sintetizzò nell’osservazione secondo cui gli industriali “si arricchiscono sulla miseria della massa dei salariati”. Secondo Frey, tale situazione si protrasse fino al 1840 circa e fu caratterizzata da una riduzione della quota di reddito da lavoro rispetto ai redditi da capitale:
“In altre parole, la divergenza tra produzione e salari è coerente con il fatto che la tecnologia del periodo della Rivoluzione Industriale era soprattutto sostitutiva. Gli artigiani del sistema domestico venivano sostituiti dalle macchine […], i profitti di impresa erano incamerati dagli industriali, che li investivano in stabilimenti e macchine.”
(Frey, 2020)
La fine della pausa di Engels avvenne, secondo Frey, perché a un certo punto diventò indispensabile aumentare il livello d’istruzione della classe operaia per renderla in grado di comprendere e far funzionare le macchine, cosicché i salari dei lavoratori iniziarono ad aumentare man mano che si espandeva una classe media decentemente istruita per svolgere quelle mansioni. Se oggi vediamo tornare la “pausa di Engels”, cosa dobbiamo dedurne? Intanto, dovremmo capire che le IA sono una tecnologia sostitutiva, non integrativa, perché funzionale agli interessi di automazione del capitalismo delle piattaforme, che oggi ha ancora bisogno di un enorme bacino di lavoratori di bassa estrazione – magazzinieri, corrieri, etichettatori di immagini, mechanical turks – ma solo fintantoché non sarà in grado di sostituirli a loro volta. In secondo luogo, dovremmo chiederci se la situazione si invertirà come accadde dopo il 1840: in molti lo credono, sostenendo che col tempo sorgeranno nuove occupazioni di concetto per programmare e gestire le IA. Ma cosa accadrebbe se ci trovassimo di fronte a uno scenario in cui le IA sono in grado di migliorarsi da sole? Non si tratta di fantascienza: basti pensare ai recenti progressi nella generazione di dati sintetici, con cui si vorrebbero sostituire i dati generati da esseri umani presenti sul web, ormai non più sufficienti per la voracità di informazione degli algoritmi di machine learning, che hanno bisogno di addestrarsi su immense banche dati, e che una volta finiti quelli umani iniziano a crearseli da sé. A quel punto anche l’ultimo ingranaggio delle piattaforme digitali, l’utente umano, non sarà più necessario. Gradualmente, prima l’organizzazione del lavoro, poi l’economia del sistema-mondo capitalistico e, infine, il mondo stesso, rischia di diventare immagine e somiglianza degli algoritmi di tipo statistico alla base dell’IA generativa, come suggerisce Pasquinelli quando parla di IA “sociomorfe”:
“L’invenzione delle reti neurali statistiche […] fece della statistica il modello della nuova mente artificiale. Da allora, gli strumenti statistici sono diventati non solo un modello di «intelligenza» nella psicologia, ma anche un modello di «intelligenza artificiale» nello sviluppo dell’automazione del lavoro. In definitiva, una visione statistica del mondo e della società ha subito un processo di automazione, normalizzandosi e naturalizzandosi grazie all’IA”
(Pasquinelli, 2025).
Se ciò corrisponde al vero, diventa facile prevedere – come conclude Pasquinelli – che il machine learning costituisca “una prova tecnica dell’integrazione graduale tra automazione del lavoro e governance sociale”: così come le macchine a vapore della Rivoluzione Industriale hanno portato al taylorismo e alla costruzione dei grandi conglomerati finanziari, e questi hanno permesso l’espansione globale dell’Occidente nelle forme dell’imperialismo e del colonialismo, così dovremo attenderci che l’epoca delle IA generative renda possibili nuove forme di governance globale. Spetta a noi prenderne coscienza per tempo e provare a cambiare la direzione del futuro; a patto che, diversamente da quanto avvenne due secoli fa, la nostra voce non finisca per non contare più nulla, sostituita da un sintetizzatore vocale.
- Martin Davis, Il calcolatore universale, Adelphi, Milano, 2003.
- George Dyson, La cattedrale di Turing. Le origini dell’universo digitale, Codice, Torino, 2012.
- Carl Benedikt Frey, La trappola della tecnologia. Capitale, lavoro e potere nell’era dell’automazione, FrancoAngeli, Milano, 2020.
- John von Neumann, Computer e cervello, Il Saggiatore, Milano, 2021.