I veri pericoli dell’intelligenza artificiale: un dialogo con Nello Cristianini



Quali sono i veri pericoli e possibilità dell’intelligenza artificiale? Come funzionano questi nuovi strumenti? Francesco D’Isa ne parla con Nello Cristianini, autore di La scorciatoia e professore di Intelligenza artificiale, all’Università di Bath, nel Regno Unito


In copertina: Automat, Matthias Weischer (2004)

Con Nello Cristianini di Francesco D’Isa

Le tecnologie “intelligenti” esistono da anni e ne siamo a tal punto immersi che è già difficile farne a meno, ma il loro recente sviluppo e potenziamento ha sollevato anche nel grande pubblico degli interrogativi sulle loro conseguenze etiche e sociali. Ne abbiamo parlato anche su queste pagine, e io stesso ho sollevato dubbi sul valore delle polemiche più diffuse in ambito creativo. È banale dire che per prendere una posizione (pur temporanea e rivedibile) è bene conoscere l’argomento di cui si parla, ma trattandosi di un tema molto recente non è facile individuare una bibliografia di riferimento, soprattutto se la vogliamo accessibile anche a non specialisti. Tra le varie case editrici che seguono il tema, di recente ho letto con interesse libri come Incoscienza artificiale di Massimo Chiriatti e AI 2041 di  Chen Quifan e Kai-Fu Lee (Luiss University Press), o Etica dell’intelligenza artificiale di Luciano Floridi (Cortina). Senza contare i tanti articoli, come questo interessante approfondimento di Stephen Wolfram, questo studio su Nature, le speculazioni di una fisica come Sabine Hossenfelder. Io stesso ho scritto una caterva di articoli, focalizzandomi su quel che conosco meglio, filosofia e arte. Il dibattito è spesso arricchito da figure professionali ibride, tra programmazione e narrativa come Gregorio Magini, o tra fumetto, architettura e design come Valerio Bindi. Su Internazionale lo scrittore Vanni Santoni ha di recente offerto un’ampia panoramica, oltre che il suo punto di vista, relativamente alle tecnologie text-to-image.

È in questo clima che accolgo con gioia la pubblicazione di un libro importante come La scorciatoia di Nello Cristianini (il Mulino), in cui l’autore, professore di Intelligenza artificiale all’Università di Bath (UK), offre un’analisi molto pragmatica e pacata sullo stato della ricerca e le sue prospettive future. La scorciatoia ha il raro pregio di fornire a chi legge strumenti e informazioni utili a sviluppare un’opinione autonoma, grazie a una spiegazione molto sintetica e chiara del percorso che ci ha portato all’attuale tecnologia e dello stato attuale dei lavori. È un libro leggibile da chiunque, arricchito dalla narrazione delle fasi e dei personaggi cruciali della storia dell’IA. Cristianini suggerisce che le macchine intelligenti hanno rivelato caratteristiche inaspettate, come il fatto che non possiamo capirle o ragionare con loro, perché il loro comportamento è guidato da relazioni statistiche ricavate da quantità immense di dati. Sotto certi aspetti sono più stupide, sotto altri più potenti: in ogni caso sono strumenti che dipendono in buona parte dal nostro utilizzo e dal modo in cui le sviluppiamo. Per capirci di più, ho avuto il piacere di conversare di questo e molto altro direttamente con lui, nell’intervista che segue.

Nello Cristianini, Professor of Artificial Intelligence, University of Bath

FD: Come spesso accade, le nuove tecnologie ci costringono ad affrontare vecchi problemi che avevamo messo da parte. Grazie alle intelligenze artificiali (IA) ad esempio, ci siamo chiesti di nuovo cosa sia l’arte, chi sia l’autore, cosa sia l’intelligenza… Riguardo a questo ultimo punto, vediamo nel libro che le IA hanno un’intelligenza di tipo completamente diverso dal nostro: funzionano su base statistica, per esempio nell’imitare i nostri linguaggi. Usano metodi statistici per perseguire scopi scelti da noi – e in un certo senso è in questo modo che dimostrano di essere intelligenti, esibendo la “capacità di un sistema di agire in modo appropriato in un ambiente nuovo e incerto, dove le azioni appropriate sono quelle che aumentano la probabilità di successo”. Ma il modo in cui lo fanno è completamente diverso da come lo facciamo noi umani.

NC: Mi interessava dare una definizione di intelligenza che fosse chiara, operativa, misurabile, che di conseguenza escludesse altri concetti che spesso creano confusione: come l’autocoscienza, l’introspezione, le emozioni. Nella scienza spesso una definizione porta chiarezza e consente progresso, come fu nel caso di “informazione” con Shannon.  Finora “il concetto di intelligenza” è stato usato in modo ambiguo, e anche vago: per parlarne scientificamente dobbiamo ‘restringerlo’, e per questo propongo una definizione: l’abilità di comportamento efficace in situazioni mai incontrate prima, ovvero l’abilità di perseguire un obiettivo in situazioni nuove. Jean Piaget la definiva: “sapere cosa fare quando non si sa cosa fare”, ovvero prendere decisioni sensate quando non si ha un copione da seguire. È necessario assumere che un agente abbia un obiettivo, per poter decidere se il suo comportamento è efficace, razionale, o irrazionale: una macchina che sceglie le azioni a caso lanciando una monetina ha un comportamento, ma non uno razionale. Al momento, per capire l’IA è meglio eliminare il discorso sull’uomo, perché’ è fuorviante, ed evoca un bagaglio emotivo troppo grande.  Per ora sarebbe meglio evitare paralleli con l’intelligenza umana, e limitarsi a descrivere le intelligenze artificiali. La nostra tendenza ad antropomorfizzare ci può ingannare, e lo ha fatto per decenni.

FD Nel libro parli di una “scorciatoia”, ovvero l’uso di dati e statistica per sviluppare le IA, un metodo molto divergente rispetto alle vecchie piste che erano legate più alla logica e al ragionamento formale. È grazie a questa scorciatoia che lo sviluppo tecnologico è esploso.

NC: Esatto, la scorciatoia è un’idea che va capita se vogliamo convivere con queste macchine senza sorprese. L’obiettivo della ricerca è sempre stato chiaro: creare macchine che si comportassero in modo “intelligente”, ma abbiamo dovuto provare diverse strade, prima di trovarne una che – più o meno – funzionasse. Dopo decenni di false partenze, abbiamo abbandonato il metodo tradizionale in cui prima si capiscono le regole teoriche alla base del linguaggio o del comportamento umano, e poi si implementano. Questi sono fenomeni che non siamo ancora riusciti a comprendere. Invece abbiamo preso una serie di scorciatoie per creare lo stesso comportamento, la prima di queste è l’uso del machine learning statistico: analizzando automaticamente grandi quantità di dati è possibile per una macchina emulare dei comportamenti intelligenti, senza comprendere quello che sta facendo.  Questo crea il problema di trovare molti dati, e qui arriva la seconda scorciatoia: prelevarli direttamente dal web, osservando le persone. E così via. Una serie di scorciatoie ci ha portato a questo punto, e quello che abbiamo creato alla fine è molto diverso da quello che ci aspettavamo.  I metodi della logica non erano un buon punto di partenza, anche nella mente umana la maggior parte delle decisioni non sono prese in questo modo, e nelle altre menti probabilmente questo non avviene mai. Ogni algoritmo che usiamo al momento si basa su due concetti: probabilità e ottimizzazione matematica. Questo ha risolto dei problemi, e ne ha creati degli altri. Il mondo è cambiato.

FD: Entriamo un po’ nel vivo. Personalmente trovo molte reazioni alle IA fuori fuoco; mi pare che si concentrino sul lato sbagliato della barricata. Rispetto agli allarmi sui dataset, sul copyright, sull’arte in pericolo, trovo ben più preoccupanti altri utilizzi delle IA. Ho letto di recente di un accordo tra Coca-Cola e OpenAi su ChatGPT e DALL-E per creare del marketing su misura. Tu tratti questo tema nell’ottavo capitolo. Quel che mi domando è: ma quest’uso è etico? Dei messaggi calibrati sulle singole persone, potenziati con pattern a noi invisibili e personalizzati in modo da massimizzare l’efficacia non rischiano di essere troppo invadenti e persuasivi?

NC: Mi fa molto piacere questa domanda perché è uno de punti più importanti del libro. Le definizioni e le discussioni teoriche servono principalmente per poter parlare in modo consapevole di questo problema. Si parla di leggi, di imporre alla macchina di rispettare l’etica o il copyright, ma si trascura il fatto che la macchina non pensa come noi, non ragiona in modo esplicito, lavora in modo statistico. Se come obiettivo le dico convinci Francesco a cliccare di nuovo, lei lo fa. E nel farlo usa i segnali che le dai, che sono molti, come ad esempio che modello di computer possiedi, il luogo dove vivi, l’età, il tempo atmosferico, la nazionalità… e così comincia a intrecciare questi dati in base a quel che clicchi, a come ti muovi sul web… alla macchina non ci vuole molto per creare un tuo profilo. E funziona – funziona così bene che tutti, Google, Facebook, TikTok, fanno soldi principalmente così, con la pubblicità. Convincere le persone a cliccare. La maggioranza dei soldi in questo campo vengono dalla pubblicità, dunque dalla persuasione.

Al momento le macchine possono scegliere tra un catalogo enorme di immagini e testi quelli più indicati per farti cliccare. Non è poco, perché scegliere in un catalogo enorme non è molto diverso da creare – anche creare in fondo è scegliere in uno spazio immenso di possibilità. Ma se la macchina potesse generare dei contenuti per te? Non è matematicamente impossibile. Netflix ha provato a scegliere icone personalizzate in base all’utente per incoraggiarlo a guardare un film, ma ora c’è una tecnologia che può addirittura creare testi, immagini e video da zero. Mi aspetto che entro cinque anni più della metà dei contenuti del web saranno generati da macchine. Sarà impossibile fermare questa cosa. Possiamo immaginare un giorno in cui andremo su YouTube e ci genereremo il video che vogliamo.

FD: È interessante perché è un crocevia tra utopia e distopia: da una parte è entusiasmante avere un dialogo creativo con una macchina che costruisce arte con e per me, potenziando i miei mezzi e dando voce alla mia creatività in base ai miei stimoli e indicazioni. Dall’altra c’è la fondata paura che chi mi offre questo strumento non abbia alcuna intenzione di potenziare la mia creatività. Vuole solo persuadermi ad attuare un certo comportamento, nello specifico ad acquistare qualcosa.

NC: È un dibattito veramente urgente e importante. La discussione su quanto sia intelligente la macchina, se provi qualche emozione … al confronto è una distrazione. Mentre perdiamo tempo con questi argomenti, altrove si costruiscono macchine sempre più potenti. Dobbiamo dimenticare la fantascienza e osservare la realtà concreta di queste IA: possono influenzare il nostro comportamento, le nostre emozioni, possono leggere dei pattern che noi non percepiamo. E possono farlo allo scopo di massimizzare i clic dei loro utenti. E così via. Usare queste macchine a scopo persuasivo è lecito? Al momento sì. In futuro dovremo chiederci se vogliamo continuare a considerarlo tale.

FD: Per me no, anche perché come scrivi nel libro non possiamo staccare la spina. Per farlo è troppo tardi già adesso, perché usiamo già queste tecnologie diffusamente e strutturalmente. Inoltre, potrebbero convincerci a non farlo. Le IA possono solo scrivere, è vero, ma come diceva un occultista come Aleister Crowley, “ogni parola è una formula magica”. La parole ci persuadono e potremmo diventare le braccia inconsapevoli di macchine i cui scopi abbiamo immesso noi stessi…

NC: Non mi sembra una grande idea metterci nelle mani di una tecnologia che non controlliamo e da cui non sappiamo come uscire. La legge che voteremo presto in Europa contempla diversi livelli di rischio e quello più alto, considerato inaccettabile, sarà dichiarato illegale. Ne parlo nel decimo capitolo. Va però ancora deciso che cosa sia un rischio “inaccettabile”, il che porta rapidamente a un dibattito sui valori che vogliamo proteggere: è giusto che sia un Parlamento a decidere, e non una compagnia. Una macchina che guida da sola e può investire un passante potrebbe porre un rischio inaccettabile, ma in questo caso si tratta per lo più di un problema ingegneristico. Quando tra cinque o dieci anni le IA impareranno a guidare meglio di noi il problema si risolverà da solo. Ma se decidessimo che anche manipolare la mente delle persone è un rischio inaccettabile, magari perché lede la dignità umana? Potrebbe funzionare, ma poi si crea un altro problema: se lo vietiamo solo in Europa, perché altri decidono di continuare ad usarlo, noi saremmo tagliati fuori dal mercato. La vera domanda non è se la telecamera riconosce meglio o peggio determinate etnie, ma perché in certi casi una telecamera di sorveglianza può essere lesiva alla nostra dignità, indipendentemente dalle sue prestazioni. Tutte queste sono questioni culturali e politiche, non tecniche.

FD: Concordo, è l’uso il problema. A questo proposito mi preoccupa che lo scopo persuasivo sia quello per cui pagano e guadagnano i finanziatori…

NC: I soldi vengono da lì per ora. Nessuno se lo aspettava all’inizio, i pionieri dell’IA sognavano di sonde spaziali intelligenti, robot medici, piloti automatici … e invece è arrivata la pubblicità. I sociologi della scienza, a cui noi fisici tendiamo a dare poco ascolto, ci avevano avvertito che era importante osservare il contesto sociale in cui nasce una tecnologia, perché questo ne avrebbe plasmato gli scopi. Avevano ragione. Il modello di business attuale ne sta plasmando l’evoluzione. Le macchine hanno l’aspetto che hanno anche perché si finanziano così.

FD: Ti voglio fare una domanda tecnica. Con le tecnologie text to image io posso ottenere, ad esempio, delle ottime imitazioni dello stile di Van Gogh. Questo apprendimento però non si basa su tantissime immagini diverse, perché non ci sono molti quadri di Van Gogh in giro. Forse la macchina può fare un girasole con lo stile del pittore perché ha già imparato da altre fonti come si fa un girasole, come si comporta la luce e così via? In questo caso personalizzare una IA non sembra difficile.

NC: Questo è un dibattito molto attuale e importante. Pare che sia come dici: gli umani imparano con pochi esempi e i computer in passato non ci riuscivano. Ora però ci riescono. Chomsky diceva che impariamo il linguaggio pur disponendo di uno “stimolo povero”, ovvero dati insufficienti a insegnarci i dettagli necessari. Lui concludeva che una parte della conoscenza deve essere innata. Adesso le macchine imparano da dati “insufficienti”, perché  riescono  a sfruttare conoscenze che provengono da contesti diversi, e sono solo indirettamente collegate al problema che stanno apprendendo: non c’è bisogno di imparare da Van Gogh che cosa sia un fiore, possiamo impararlo da altre fonti, e poi modificare quelle conoscenze. È solo da cinque anni che la macchina riesce a farlo, e siamo appena all’inizio. Le macchine stanno imparando modi efficienti di imparare. Questo è un cambiamento che rischia di essere troppo veloce per gli strumenti culturali che abbiamo, e potremmo essere colti di sorpresa. È per questo che dobbiamo unire filosofi, ingegneri, psicologi… dobbiamo tutti interrogarci su queste tecnologie

Automat, di Matthias Weischer, 2004

FD: Mi è piaciuto l’esempio che fai nel libro del videogioco Q*bert, in cui una IA programmata per vincere comincia a manifestare comportamenti apparentemente senza senso, che invece sfruttavano un bug del programma che le permette di ottenere un punteggio altissimo.

NC: La macchina impara allo stesso tempo le regole del gioco e la strategia per vincerlo, mediante sperimentazione. Non ha né modo né motivo di distinguere le caratteristiche dell’ambiente che sta esplorando da errori di programmazione: se il protagonista del gioco può fare punti saltando giù dalla piramide, perché’ no? La mia paura è che questo possa accadere anche con gli utenti umani: il programma cerca il modo migliore di farci cliccare, e noi non siamo interamente razionali. È possibile che l’algoritmo si imbatta per caso in qualche debolezza dell’utente, magari una predisposizione per contenuti polemici, pornografici, sensazionali, e così via. E non è facile ispezionare quali tattiche la macchina usa: questa non crea una teoria dell’utente, solo scopre regolarità statistiche da sfruttare.

Un professore di Harvard, Leslie Valiant, ha coniato un bellissimo termine, theoryless: lo spazio delle cose che non ammettono una teoria. Forse il comportamento umano può essere predetto, o anche controllato, senza bisogno che esista una teoria esatta che lo spieghi.

FD: Non potremmo considerare tutte le teorie come delle semplificazioni che rendono comprensibili complesse informazioni statistiche? Anche in fisica, ad esempio, se ho due modi per descrivere un fenomeno e uno è più facile da capire dell’altro, non significa che il primo sia sbagliato, ma solo che uno è più facile da capire. Se non ricordo male questo succede nella fisica quantistica. Una teoria potrebbe essere solo un metodo che riusciamo a maneggiare.

NC: È chiaro che ci possono essere descrizioni alternative ed equivalenti del mondo, e che la mente umana può solo comprenderne alcune. Il nostro cervello si è evoluto in un certo ambiente per fare certe cose e ha le sue inclinazioni e anche debolezze. Per fare la scimmia su un albero funziona benissimo: assumiamo che ci siano oggetti, che siano localizzati, che siano regolati da un legame di causa ed effetto… già nel mondo quantistico questo non è più valido e infatti non possiamo comprenderlo allo stesso modo. Però possiamo calcolarlo. Sia noi che la macchina abbiamo dei limiti, che sono però diversi, e dobbiamo accettare l’idea che la macchina possa capire cose che noi non comprendiamo.

Ora ti faccio io una domanda: come artista, dimmi, quale potrebbe essere il rapporto di un futuro ipotetico bambino davanti a un oracolo che ne sa più di lui, a cui chiede che lavoro fare da grande, chi sposare…

FD: Non so, penso che non si debba obbedire all’oracolo, ma dialogarci. Interrogarlo a sua volta sulle risposte, o su altro, senza pretendere indicazioni certe. Dobbiamo imparare sia a fare le domande che a far venire dei dubbi agli oracoli.

NC: Vedi, tutto si gioca nei prossimi quattro o cinque anni. Siamo ancora in tempo per spiegare alla gente come pensare a questi oggetti, perché altrimenti le leggi non saranno fatte in modo utile. Per questo è importante informarsi in modo molto accurato. Niente speculazioni, niente fantasie, niente antropomorfismi né catastrofismi. La macchina ragiona più come un insetto, o un mollusco, che come una persona. La scorciatoia ci ha regalato un’intelligenza artificiale che non pensa come noi. Nelle lumache del giardino, lo scopo è mangiare il basilico. In certi algoritmi, lo scopo è farti cliccare. Nessuno dei due può comprendere le conseguenze collaterali o il significato delle proprie azioni. Come li regolamentiamo?


Nello Cristianini è professore di Intelligenza artificiale, all’Università di Bath, nel Regno Unito. La sua ricerca copre la teoria statistica dell’apprendimento nelle macchine, la comprensione del linguaggio naturale, l’analisi dei contenuti dei social media, e l’impatto etico e sociale delle tecnologie intelligenti.
 
Francesco D’Isa  (Firenze, 1980), di formazione filosofo e artista visivo, dopo l’esordio con I. (Nottetempo, 2011), ha pubblicato romanzi come Anna (effequ 2014), La Stanza di Therese (Tunué, 2017) e saggi come L’assurda evidenza (Tlon, 2022). Direttore editoriale dell’Indiscreto, scrive e disegna per varie riviste.

0 comments on “I veri pericoli dell’intelligenza artificiale: un dialogo con Nello Cristianini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *