Il futuro dell’intelligenza artificiale: un dialogo con Nello Cristianini



Quali sono le possibili evoluzioni dell’intelligenza artificiale? Dove ci porteranno questi nuovi strumenti? Francesco D’Isa ne parla con Nello Cristianini, autore di Machina Sapiens e professore di Intelligenza artificiale, all’Università di Bath, nel Regno Unito


In copertina: Salvatore Fiume, L’isola, Asta Pananti in corso

Di Nello Cristianini e Francesco D’Isa

In passato, sempre su queste pagine, avevo avuto modo di intervistare Nello Cristianini in occasione dell’uscita del suo La scorciatoia (Il Mulino), un testo in cui l’autore, professore di Intelligenza artificiale all’Università di Bath (UK), offriva un’analisi molto pragmatica e pacata sullo stato della ricerca e le sue prospettive future. È di recente uscito sempre per il Mulino Machina Sapiens, in cui Cristianini prosegue l’esplorazione di queste tecnologie, sia dal punto di vista storico – ricorrono interessanti riferimenti ad Alan Turing – che presente e futuro. Ho trovato molto a fuoco soprattutto il dibattito attorno alle proprietà emergenti, alle caratteristiche tecniche legate all’evoluzione delle attuali IA e ancora una volta le questioni etiche legate alla loro ipotetica forma futura. Machina Sapiens è la storia degli avvenimenti degli ultimi anni e di come in brevissimo tempo siamo riusciti a superare il test di Turing.  E del primo incontro tra gli esseri umani e questi nuovi strumenti.

Nello Cristianini (foto di Nicolas Delves-Broughton)
Nello Cristianini (foto di Nicolas Delves-Broughton)

Francesco D’Isa: Nel libro spieghi molto bene il funzionamento di queste macchine, entro i ragionevoli limiti che rendono possibile mantenere la lettura accessibile al grande pubblico. Ma anche nei limiti di quel che di fatto conosciamo. Scrivi che sappiamo costruire le macchine ma non comprendiamo ancora del tutto come funzionano, e questo mi fa pensare al tempo in cui venivano assemblati i primi motori pur ignorando le leggi della termodinamica. Secondo te quali sono le cose più importanti ancora da scoprire, se ci sono?

Nello Cristianini: Diceva Alan Turing che non è necessario comprendere come funziona un seme, per farlo germogliare. Al momento siamo circa in questa situazione: abbiamo abbinato un algoritmo che comprendiamo bene, a una quantità enorme di dati, che non comprendiamo a fondo. Il comportamento dell’AI moderna nasce da questa interazione, che stiamo ancora esplorando. Il prossimo passo deve essere un ritorno alla teoria, e con questo intendo una descrizione matematica e rigorosa di quello che abbiamo fatto. Alla fine dovremmo essere in grado di predire quando una nuova abilità potrebbe emergere dall’addestramento, e forse anche spiegare perché. Ma la scienza si sviluppa così, abbiamo fatto bene a concentrarci sul lato empirico: osservando fenomeni nuovi possiamo poi creare teorie nuove. Sarà una bella avventura per una nuova generazione di ricercatori, spero di poterli accompagnare per un po’.

FD: Come scrivi, col crescere dei modelli (a partire anche dalla crescita del dataset) abbiamo notato l’apparire di incredibili proprietà emergenti, alcune improvvise e altre graduali. Secondo te esiste un punto di svolta critico in cui le IA generative acquisiscono la capacità di “comprendere” il linguaggio in modi che vanno oltre la mera elaborazione statistica dei dati o le abilità emergenti sono il risultato di miglioramenti incrementali di alcune capacità elementari che, via via che si accumulano, generano salti qualitativi nelle prestazioni generali? 

NC: Non lo sappiamo ancora, la risposta potrebbe dipendere semplicemente da qualche similarità nascosta tra due problemi, così che risolvendo il primo ci viene più facile imparare il secondo. Probabilmente per risolvere un problema il meccanismo è obbligato a “comprendere” qualche relazione importante nei dati, e questa informazione è poi preziosa per altri compiti. Come vedi, la comprensione è necessaria (e presente) anche nei modelli più semplici, non dobbiamo pensare agli esseri umani come depositari di qualche segreto. E certamente si può avere una comprensione del mondo formulata in termini di relazioni statistiche, perché no? Già oggi penso che i nostri agenti intelligenti hanno una comprensione del loro ambiente – come potrebbero altrimenti rispondere correttamente a domande mai viste?

FD: In quest’ultimo caso ogni piccolo avanzamento in una capacità di base — come la comprensione grammaticale, il ragionamento logico o l’elaborazione semantica — contribuirebbe in modo invisibile a un miglioramento complessivo. Quando questi miglioramenti si sommano, potrebbero apparire come se il modello avesse acquisito improvvisamente una nuova abilità.

NC: È tutto interessante, ma alla fine il meccanismo specifico delle abilità emergenti andrà stabilito con il solito metodo: congetture, previsioni, osservazioni sperimentali e refutazioni. E poi replicazione indipendente.

FD: Nel libro parli anche della possibilità dell’AGI (Artificial General Intelligence), che alcuni paventano, altri auspicano, e nessuno sa quanto sia davvero plausibile. A tuo parere esiste un limite dell’hardware verso il raggiungimento di questa possibilità, come anche per un ulteriore potenziamento delle IA? Oppure anche in termini di hardware la ricerca prosegue con la stessa velocità e successo?

NC: Il concetto di AGI non è definito rigorosamente, alcuni la immaginano come una (presunta e probabilmente impossibile) abilità di eccellere a tutti i compiti, mentre altri come la capacità di svolgere compiti umani a livello umano o superiore. Questa seconda definizione almeno non è teoricamente impossibile, anche se non sappiamo come farlo. Ma non è chiaro se l’ostacolo sia una mancanza di hardware, probabilmente abbiamo bisogno di qualche altra scoperta, prima di arrivare ad avvicinarci a quell’obiettivo. Comunque se offri più hardware a qualunque ricercatore, lo accetterebbe subito: tutti vogliamo sempre più hardware, questa è forse l’unica legge che abbiamo scoperto.

FD: C’è una cosa che mi chiedo, quando si parla di queste IA generative, ovvero se non sovrastimiamo il nostro giocattolo preferito: il linguaggio. Nessuno ha mai pensato che una IA text-to-image potesse diventare di intelligenza oltreumana – dopotutto creano solo immagini – ma con quelle testuali c’è sempre questo spettro. Non sarebbe forse più corretto dire che le IA testuali potrebbero al massimo raggiungere un’abilità oltreumana di manipolare il linguaggio naturale? Non è poco, ma l’intelligenza umana non si esaurisce nelle capacità linguistiche…

NC: Tre cose vanno chiarite. Primo, che l’intelligenza esisteva ben prima del linguaggio umano, e non lo richiede: serve a sopravvivere. Secondo: non dobbiamo pensare ai modelli del linguaggio solamente come degli abili conversatori, a la ChatGPT: una speranza è che questi possano un giorno collegare insieme milioni di documenti, scoprendo informazioni che nessuno aveva mai notato, per poi usarle nelle loro risposte. Qui c’è la possibilità che raggiungano territori inaccessibili a noi, ma al momento queste sono speculazioni, anche se ragionevoli.  Terzo: alcuni pensano che il linguaggio umano sia già un buon modello del mondo: identifica gli oggetti e le relazioni più utili (nominandoli), e fornisce almeno un punto di partenza per descrivere la realtà. Un modello del linguaggio probabilmente assorbe molte conoscenze sul mondo. 

FD: Ora invece accelero sulla fantascienza, per capire quanto è fanta- e quanto -scienza. È noto che la parte debole di queste IA generative è ancora la logica e la matematica, anche se fanno passi da giganti anche in queste discipline. I calcoli, comunque, li fa ancora meglio un computer “alla vecchia maniera”. È possibile che sia questa la prossima proprietà emergente? Oppure sono caratteristiche che è più probabile emergano grazie alla multimodalità, mescolando strumenti assieme (calcolatrice, IA , ecc), un po’ come fa ChatGPT? 

NC: Penso che vedremo presto alcune capacità matematiche “serie” nei nostri agenti intelligenti, ma non credo che emergeranno spontaneamente in questa architettura. C’è molta ricerca in corso per dotare i modelli di linguaggio della capacità di pianificare, ovvero di tenere conto degli obiettivi e conseguenze a lungo termine, delle loro azioni. Questo potrebbe aiutare a generare risposte più accurate, ma anche a completare altri compiti, come negoziare, o risolvere problemi matematici. Ma attenzione: qui si parla di metodi di pianificazione simili a quelli di AlphaGo, ovvero in grado di essere affinati con l’esperienza, molto diversi dal vecchio algoritmo che pianifica la rotta nel nostro satnav. 

FD: Una domanda ancora più fantascientifica: è possibile che le IA inventino un linguaggio nuovo, magari persino più potente della matematica per capire e interpretare il mondo?

NC: In un certo senso, al loro interno i modelli come GPT già hanno la loro rappresentazione del mondo, che noi non possiamo interpretare: è solo alla fine che la traducono in parole umane. La questione interessante è se questa rappresentazione interna puo’ essere vista come un linguaggio: teniamo presente che noi non comunichiamo osservandoci a vicenda l’interno del cervello, noi creiamo linguaggio e questo poi crea cultura. Non so come rispondere, ma non vedo motivi per dire che sia impossibile.

Salvatore Fiume, L’isola, Asta Pananti in corso

FD: Un limite delle IA è che il loro mondo cognitivo è molto più piccolo del nostro: noi abbiamo accesso a tutte le informazioni filtrate dai nostri sensi, loro solo ad alcuni dei nostri dati. Una IA dotata di un apparato sensoriale potrebbe accelerare la possibilità di capacità emergenti, o anche qui ci sono dei limiti?

NC: Ogni animale ha sensi diversi, il cane predilige l’olfatto, la scimmia la visione, e così via, e alcuni animali possono sentire anche i campi magnetici, o vedere la luce ultravioletta. Le macchine ovviamente hanno accesso a segnali diversi, pensate al vostro telefonino, che sente la presenza di reti wifi o bluetooth, la propria posizione GPS, il proprio livello di batteria, le accelerazioni, la luminosità, etc. Combinare insieme tutte queste modalità diverse in una rappresentazione unica del mondo è il lavoro dei modelli multimodali, come già fa GPT-4. Mi immagino un giorno in cui un successore di GPT potrà imparare dai milioni di telecamere di sorveglianza che già esistono, collegando le immagini ai contenuti dei giornali o dei social, e così via. Ma non posso rispondere sulle abilità emergenti, come ho detto stiamo ancora cercando di sviluppare quella teoria.

FD: Per concludere, domanda classica: quali credi che siano i rischi e le opportunità maggiori di questa tecnologia, per quel che possiamo immaginare oggi?

NC: Opportunità: Solo un esempio: delegare a una macchina certe decisioni delicate, come le diagnosi. Il fatto che questa possa combinare segnali diversi, avere letto più libri di noi, e pensare in modo diverso dal nostro, potrebbe risultare in capacità superiori. Rischi:  I territori inesplorati: a livello personale, il rapporto emotivo che potrebbe stabilirsi tra utenti e meccanismi, varie forme di dipendenza e persuasione, e a livello culturale e sociale, a lunghissimo termine: la perdita del primato che attribuiamo a noi stessi, che ci chiamiamo Homo sapiens, quando una macchina ci supera al nostro stesso gioco. Questo è ipotetico e lontano, ma è il momento di pensarci.


Nello Cristianini è professore di Intelligenza artificiale, all’Università di Bath, nel Regno Unito. La sua ricerca copre la teoria statistica dell’apprendimento nelle macchine, la comprensione del linguaggio naturale, l’analisi dei contenuti dei social media, e l’impatto etico e sociale delle tecnologie intelligenti.
 
Francesco D’Isa  di formazione filosofo e artista digitale, ha esposto internazionalmente in gallerie e centri d’arte contemporanea. Il suo ultimo romanzo è La Stanza di Therese (Tunué, 2017), mentre per Edizioni Tlon è uscito il suo saggio filosofico L’assurda evidenza (2022). Le sue ultime pubblicazioni sono la graphic novel Sunyata per Eris edizioni (2023) e il saggio La rivoluzione algoritmica delle immagini per Sossella editore (2024). Direttore editoriale della rivista culturale L’Indiscreto, scrive e disegna per varie riviste.

0 comments on “Il futuro dell’intelligenza artificiale: un dialogo con Nello Cristianini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *