Come è difficile sognare
topolini elettrici


Quella dell’intelligenza artificiale è una storia piuttosto recente, che può essere fatta risalire alla fondazione della cibernetica e della teoria dell’informazione alla fine della Seconda guerra mondiale, eppure piuttosto complessa da ricostruire. Scuole di pensiero, approcci pratici, nuove tecnologie e nuovi filoni di ricerca si sono susseguiti e sovrapposti negli anni nel tentativo di sviluppare software sempre più potenti e autonomi dalla programmazione umana, inseguendo il sogno di sviluppare algoritmi in grado di superare il test di Turing. Sogno che si è spesso scontrato con una realtà molto più complicata del previsto e con un’ingenuità di fondo che ha dovuto fare i conti con la nostra fondamentale ignoranza dei processi che regolano l’intelligenza umana che vorremmo imitare con le macchine. Per aiutarci a ricostruire questa storia, i suoi vicoli ciechi e i suoi nuovi slanci abbiamo intervistato Lorenzo Pinna, giornalista e scrittore scientifico, firma storica di Superquark, che al tema dell’intelligenza artificiale ha dedicato nel 2014 il libro Uomini e macchine. La sfida dell’automazione (Bollati Boringhieri), ed è al lavoro su un nuovo testo in uscita nel 2018 che presenterà lo stato dell’arte e gli scenari futuri della corsa alle AI.

Sappiamo che Homo Sapiens è diventato tale grazie all’impiego della tecnologia e che, sebbene oggi questo termine sia usato per definire i più avanzati ritrovati della tecnica, in realtà “tecnologia” indica semplicemente l’impiego di utensili artificiali per rendere più semplice il lavoro, a partire dai primi utensili degli uomini preistorici. Il sogno di “automatizzare” il lavoro, dunque, sembra aver seguito tutta la storia umana. Cos’è cambiato a partire, diciamo, dalla fine della Seconda guerra mondiale, che ha impresso un’accelerazione a questo processo?

La Seconda guerra mondiale e gli anni precedenti rappresentano un periodo straordinario per la nascita dell’“era informatica” e quindi per le possibilità dell’automazione. Una schiera di “geni” logico-matematici pone le basi teoriche del computer digitale. Da Claude Shannon con la sua applicazione dell’algebra booleana ai circuiti elettrici e ad Alan Turing con l’intuizione della macchina “universale”, da Norbert Wiener con la scienza della retroazione (feedback) e la cibernetica a John Von Neumann e la sua architettura del moderno calcolatore. Una serie di realizzazioni tecnologiche impressionanti viene realizzata in questi anni: dal primo computer elettronico (senza parti elettromeccaniche), l’Eniac di John Mauchly e J. Presper Eckert (la prima macchina universale di Turing) all’invenzione del transistor di Walter BrattainJohn Bardeen William Shockley. Infine, ma forse cosa più importante: massicci finanziamenti vengono diretti verso la ricerca scientifica, motivati proprio dal secondo conflitto mondiale. Finanziamenti che continueranno anche nel dopoguerra, questa volta motivati dalla Guerra Fredda e dal conflitto strisciante USA-URSS. Uno dei primi entusiasti profeti dell’automazione fu John Diebold, un esperto americano di problemi industriali, non molto noto nel nostro Paese. Un suo libro del 1952 si intitolava appunto Automation e tracciava con grande anticipo (siamo ancora in piena era della valvola termoionica) la visione non solo di fabbriche automatiche, ma anche di uffici automatici, prevedendo, correttamente, che lavori mentali di routine sarebbero presto stati alla portata delle macchine. L’illuminazione sul futuro dei nuovi congegni automatici era avvenuta, per Diebold, durante la Seconda guerra mondiale su una nave della Marina Militare che scortava un convoglio verso la Gran Bretagna per difenderlo dal “branco di lupi”, i sottomarini tedeschi in agguato nelle profondità dell’Atlantico. Il giovane ufficiale era rimasto colpito dai cannoni automatici della contraerea, controllati dai radar e da vari servomeccanismi, e aveva intuito che simili congegni avrebbero trovato applicazioni straordinarie nel mondo dell’industria. Poco dopo la fine della guerra, nel 1946, insieme a un gruppo di esperti dell’Università di Harvard, Diebold mise a punto il primo progetto di una fabbrica automatica.

––

A lungo la nostra immaginazione è rimasta legata ai robot, simulacri artificiali dell’essere umano a cui affidare compiti ingrati. Oggi la ricerca sull’automazione è sempre meno interessata alla realizzazione di androidi, se si eccettuano alcuni esperimenti folkloristici come quelli di Hiroshi Ishiguro, che cerca di realizzare androidi indistinguibili dagli esseri umani, come in Blade Runner. Perché quest’obiettivo non è più considerato imprescindibile per la realizzazione di macchine simili all’Uomo?

In realtà i precursori dei robot, gli automata dell’antichità, avevano un altro significato. L’automaton non era una macchina ideata per compiere un lavoro utile facendo risparmiare all’uomo tempo e fatica. Era un oggetto meraviglioso che poteva risvegliare il senso del sublime per la maestria e l’abilità con le quali era stato costruito così simile a un essere vivente. Quasi che l’uomo, come un Dio, fosse capace di infondere la vita nella materia inerte. Come fa notare lo storico Minsoo Kang, il sublime è a pochi gradi di distanza dall’orrore. Specialmente in un mondo dove la rarissima maestria tecnica veniva facilmente confusa con la magia e la frequentazione di poteri e spiriti soprannaturali. L’automaton sublime è una “macchina vivente” educata, che rimane cioè sotto il controllo del suo artefice. Se invece l’automaton si ribella e sfugge al controllo umano, allora il sublime lascia il posto all’orrore di poteri occulti scatenati e del caos. Oggi non ci interessa più la macchina sublime o terrificante (se non nei film, nei media e nella dimensione culturale). Nel mondo della produzione industriale la macchina automatica deve essere “efficiente” e a un costo inferiore alla manodopera umana, altrimenti non sarebbe conveniente utilizzarla. Quale forma o apparenza abbia questa macchina è davvero l’ultimo dei problemi.

––

Il sogno dell’intelligenza artificiale è stato considerato sempre a portata di mano, ma come per altri obiettivi tecnologici (pensiamo alla “conquista” di Marte) l’obiettivo continua a essere spostato sempre più in avanti. Quali sono gli ostacoli in cui la ricerca sull’AI si è imbattuta nel corso degli anni?

In breve: la complessità. L’idea iniziale per dotare le macchine di intelligenza artificiale era la rappresentazione simbolica: vale a dire un insieme, una rete di regole o algoritmi capaci di deduzioni e di manipolare i dati immessi. Questo tipo di approccio viene chiamato GOFAI, Good Old Fashioned Artificial Intelligence, che potremmo tradurre come “la cara vecchia intelligenza artificiale”. I maggiori successi ma anche i limiti di questo approccio vennero raggiunti con i sistemi esperti negli anni Ottanta. Potremmo definire questo approccio top-down (dall’alto al basso), cioè gli scienziati scrivono gli algoritmi che poi tratteranno i dati. Su questa via le cose diventano così complesse che alla fine non si riesce più a tenere insieme la rete delle regole e degli algoritmi necessari. Altri approcci come le reti neurali, gli algoritmi genetici, la statistica bayesiana seguono invece l’approccio bottom up (dal basso verso l’alto). In un certo senso gli algoritmi si evolvono da soli “digerendo” quantità enormi di dati dai quali estraggono “la conoscenza”. In breve imparano dall’esperienza (machine learning). Anche in questo caso ci sono vari rischi come le allucinazioni (overfitting), cioè scoprire ordine e regolarità dove non ce ne sono, oppure le esplosioni combinatorie, cioè ramificazioni di possibilità quasi infinite e non gestibili dalle potenze e dai tempi di calcolo a disposizione.

Oggi il tema delle AI è diventato di estrema attualità. Distinguiamo nei fatti due scuole di pensiero, per usare una dicotomia del filosofo dell’informazione Luciano Floridi: i “Singolaristi”, che considerano inevitabile l’emergere della “Singolarità”, il momento – da qualcuno previsto intorno alla metà del secolo o anche prima – in cui l’intelligenza artificiale supererà quella umana, per cui già da ora dobbiamo chiederci come renderla benefica e non malevola; e gli “AIteisti”, gli atei dell’AI, che invece continuano a sostenere che l’obiettivo è destinato a restare al di fuori della nostra portata. Lei da che parte si schiera?

La mia posizione sulla “singolarità” è abbastanza personale. Credo che la singolarità ci sia già stata, non quella dell’AI, ma un’altra ancora più importante e decisiva. Il mezzo secolo che va dalla metà dell’Ottocento alla Prima guerra mondiale è uno dei momenti più importanti nella storia delle società moderne e della stessa modernità. Perché in questi cinquant’anni si pongono le basi sia scientifiche (dalla teoria dell’elettromagnetismo di Maxwell, alle leggi della termodinamica fino alla Relatività di Einstein) che tecnologiche della civiltà contemporanea (dall’elettricità alla radio, dalla fotografia e dal cinema al telefono, dalla bicicletta e dall’auto, all’aereo, dal grammofono a tutta la chimica  industriale con vernici, esplosivi, fertilizzanti e nuovi materiali sintetici a quella di consumo, cioè saponi, shampoo, deodoranti, dentifrici, e cosi via). Il tema è ovviamente molto controverso e la domanda chiave è questa: il periodo in cui viviamo, caratterizzato dall’esplosione dell’informatica, delle telecomunicazioni, delle biotecnologie, le nanotecnologie, dell’intelligenza artificiale eccetera rappresenta il vero boom delle conoscenze, della scienza e della tecnica oppure altri periodi sono stati ancora più innovativi? Secondo storici della tecnologia, come Vaclav Smil, non ci sono dubbi. Il vero “Big Bang” nell’innovazione sia scientifica che tecnica è avvenuto nel mezzo secolo che abbiamo indicato. Una discontinuità così marcata da non avere quasi precedenti nell’intera storia umana, se non forse in Cina all’epoca della dinastia Han fra il 200 a.C e il 9 d.C. Un’epoca dove sono state poste le fondamenta non solo del XX secolo, ma anche del XXI e che appunto per il suo carattere assolutamente eccezionale merita di essere definita una “singolarità”. Un evento unico e irripetibile.  Data quindi per già avvenuta la vera singolarità, non credo che riusciremo a dotare così presto (20 o 50 anni come prevedono i tecno-entusiasti alla Ray Kurzweil) le macchine di intelligenza artificiale “forte” (paragonabile o superiore alla nostra), se non altro perché non abbiamo ancora capito come funziona l’intelligenza umana.

Realizzare un’AI veramente autocosciente richiederebbe in effetti una nostra comprensione della “coscienza” umana – e in generale degli esseri viventi – e quindi dei veri meccanismi che soggiacciono all’ancora misterioso rapporto mente/cervello. A che punto siamo su questo versante? Secondo lei, sarà la ricerca sulle AI a consentirci di svelare il mistero della coscienza umana, oppure arriveremo a creare intelligenze così radicalmente diverse da quelle umane da dar vita, di fatto, a una specie con cui non riusciremo nemmeno a dialogare, come immaginava per esempio Stanislaw Lem?

Fin dal suo inizio negli anni Cinquanta, le ricerche sull’AI si sono intrecciate con quelle sul linguaggio, sulla neurofisiologia del cervello, sulla psicologia, sulle scienze cognitive (anzi quest’ultima disciplina è nata quasi insieme all’AI), sulla biologia evolutiva e darwiniana, sull’etologia e la comunicazione animale, la robotica eccetera. Quindi l’assalto alla “fortezza” dell’intelligenza umana, del linguaggio e della coscienza viene condotto da più fronti e da più discipline in grado di scambiarsi ipotesi e idee per nuove esplorazioni e approfondimenti. Riusciremo a svelare il segreto o l’algoritmo dell’intelligenza umana e trasferirlo alle macchine?  In un famoso articolo del 1950 Alan Turing esaminava nove obiezioni alla possibilità che le macchine potessero essere dotate di un’intelligenza simile a quella umana. L’obiezione numero 3 è particolarmente interessante: “There are a number of results of mathematical logic which can be used to show that there are limitations to the powers of discrete-state machines” (“Una serie di risultati di logica matematica può essere usata per dimostrare che ci sono limiti alla potenza di macchine basate su stati discreti [digitali, discontinui]”). Turing risponde che questa obiezione, pur essendo ben fondata (al contrario di molte altre), può essere superata. Tuttavia il cervello, con i suoi 100 miliardi di neuroni, ognuno dei quali può collegarsi, via sinapsi, con 10.000 altre cellule nervose, è molto diverso da un computer o anche da un supercomputer con i suoi miliardi di transistor e altre unità logiche. Nel computer tutto è ordinato, gestito e allocato con logica rigidissima e immutabile. Nel cervello le reti neuronali sembrano il risultato di una caotica competizione nell’elaborazione dei dati sensoriali esterni o interni. Con reti di neuroni che rafforzano le proprie connessioni via sinapsi e altre che decadono o addirittura scompaiono, come nella “potatura” (pruning) che avviene nell’infanzia. La macchina-cervello è radicalmente diversa dai computer e probabilmente l’hardware ha la sua importanza per il software che ci deve girare.
In un servizio che realizzai per Superquark qualche anno fa sul progetto “Blue Brain” incontrai Henry Makram, il suo ideatore. La meta finale di questo progetto è costruire un simulatore del cervello umano; ma quando girai il servizio i ricercatori stavano tentando di simulare una piccola colonna del cervello di un topo che conteneva 10.000 neuroni e relative sinapsi. Ebbene, per simulare questa piccola porzione di un cervello molto piccolo rispetto a quello umano era necessario usare il supercomputer Blue Gene dell’IBM (noto per il suo “parallelismo massivo”). Breve calcolo: il supercomputer dell’IBM aveva bisogno di megawatt di potenza per funzionare (sufficienti a fornire l’elettricità a una cittadina di qualche migliaio di abitanti), il cervello umano ha bisogno di 40 watt (l’energia di una lampadina, nemmeno molto luminosa), e quello del topolino? Mi sembra che ci siano ancora vari ordini di grandezza che ci separano dalla comprensione degli algoritmi e delle logiche (e della loro efficienza) che costituiscono l’intelligenza e la coscienza.  Conclusione: credo che l’AI, come altre discipline, ci farà capire sempre meglio il funzionamento del cervello e del suo software, la mente, ma sono scettico sulla possibilità di intelligenze artificiali superiori e della necessità di cominciare già da oggi a elaborare piani di difesa contro il loro eventuale strapotere (come suggerisce Nick Bostrom in Superintelligence). Mentre sono convinto che anche l’AI “debole” (quella dei Big Data, dei motori di ricerca, dei traduttori automatici, delle auto senza guidatore ecc.), ormai così pervasiva in molti processi decisionali (e che lo sarà sempre più), possa rappresentare un pericolo senza un’attenta supervisione umana perché, come sappiamo, anche l’intelligenza artificiale ha le sue allucinazioni (overfitting), cosa che non è bene avere quando, ad esempio, si decidono complesse strategie geopolitiche o militari.