ChatGPT non pensa veramente, ma noi ne siamo ancora capaci?

ChatGPT ci mostra come intelligenza e linguaggio siano in gran parte ricombinazione sulla base di regole derivate dal contatto con la realtà, mentre coscienza e mente siano proprio questo contatto, anzi, siano forse la stessa realtà che plasma e determina questa struttura statistica.


IN COPERTINA e lungo il testo artista sconosciuto, arca di noè, del 1294

Di Riccardo Manzotti

Il mondo dell’Intelligenza Artificiale, ma non solo, è stato preso di sorpresa dagli algoritmi generativi basati su modelli linguistici a larga scala (ChatGPT e Dall-E tra i casi più famosi). In sedi anche molto diverse, studenti, insegnanti, esperti di intelligenza artificiale, impiegati e imprenditori si stanno interrogando sulla effettiva capacità di questi algoritmi di imitare o persino riprodurre la mente umana. ChatGPT, forse il più noto, è stato aperto al pubblico il 30 Novembre 2022, quindi circa tre mesi fa. In poco più di novanta giorni, ha cambiato il modo in cui molti vedono l’intelligenza artificiale facendo ripensare il ruolo di colossi come Google o Bing che, non a caso, si stanno affrettando nel a rendere disponibili strumenti simili sui loro motori di ricerca. Ogni giorno ChatGPT riceve circa 10-15 milioni di richieste. Poiché la stessa tecnologia (cioè il motore linguistico GPT3 della OpenAI) è già stata incorporata in innumerevoli altre applicazioni, il numero reale di accessi e di interazioni ha raggiunto una diffusione forse comparabile a quella dei motori di ricerca. Finora, almeno ufficialmente, il sistema non è in grado di attingere informazioni da Internet e quindi è tagliato fuori da quello che avviene nel mondo.

Questi algoritmi, per esempio ChatGPT, sono in grado di interagire con gli esseri umani utilizzando un linguaggio apparentemente identico a quello naturale, producendo testi che hanno una grammatica e una sintassi paragonabili alle nostre. Anche la versione iconica (per esempio Dall-E), funziona con un principio non dissimile; trasforma le immagini in forme sintattiche, o in qualcosa a metà strada. In proposito Francesco D’Isa ha argutamente osservato che questi algoritmi «operano una radicale trasformazione linguistica nelle arti visive, trasformandole da arti analogiche ad arti notazionali» e quindi, anche se le forme visive non hanno una sintassi esplicita, le nostre richieste (in inglese il prompt) starebbero «all’immagine generata come uno spartito all’esecuzione: non è un caso perfettamente notazionale come la scrittura, ma decisamente non è più analogica». Gli algoritmi generativi producono contenuto imitando la struttura sintattica del materiale originario. 

Ma come funzionano questi algoritmi? In realtà, il loro funzionamento non è complicatissimo (almeno nel principio di base) come è spiegato bene in un articolo di un genio dell’informatica, Stephen Wolfram, che vale la pena di essere letto (What is ChatGPT doing and why does it work?). Sono degli algoritmi predittori; funzionano predicendo a ogni passo la prossima unità linguistica che, per semplicità di esposizione, possiamo considerare uguale a una parola. Usiamo l’esempio di fatto da Wolfram stesso: supponiamo di avere scritto la frase «La più utile capacità dell’intelligenza artificiale è la capacità di …». Giunti ai puntini di sospensione, ci verrebbe naturale chiedersi quale parola segua. Non tutte le parole avranno uguale probabilità. Verbi come pescare o fischiare o digerire difficilmente seguiranno a quella frase monca. Al contrario, termini come capire, imparare, predire, fare avranno una probabilità molto più alta. Da dove arrivano queste probabilità? Ma, ovviamente, dai testi su cui ChatGPT si è formato. Quanto volte alla frase monca scritta sopra è seguito il verbo predire? E quante volte il verbo fare? E quante volte il verbo imparare? E così via. 

Nell’ambito della statistica si tratta di probabilità condizionate, ovvero probabilità che dipendono da qualche condizione; in questo caso la frase di partenza. L’algoritmo generativo, semplificando, non fa altro che imparare le probabilità condizionate che legano una certa parola relativamente a una frase o un insieme di frasi precedenti. È più facile dirlo che farlo, ovviamente! Ma il risultato finale è un insieme di oltre 170 miliardi di parametri che sostanzialmente codificano tutte quelle probabilità. 

La grammatica è codificata in questa nuvola di probabilità. Una regola grammaticale è qualcosa di drastico, che non si verifica mai o che si verifica sempre. All’interno delle regole grammaticali ci sono poi regole più sfumate che codificano la sintassi. Ma – e questo è importante – dentro l’algoritmo non vi è alcuna rappresentazione esplicita né della grammatica né della semantica del linguaggio.

A questo punto il più è fatto: si parte dalle domande degli utenti e si iniziano a generare frasi in modo che, parola dopo parola, le probabilità condizionate dei termini delle frasi rispettino quelle dei testi su cui il sistema è stato addestrato. Il trucco è che, trattandosi di probabilità, il sistema non genera sempre la stessa sequenza di parole. Ogni volta che una nuova parola deve essere aggiunta, il sistema tirerà un dado e sceglierà un nuovo lemma in modo diverso (sempre rispettando le probabilità condizionate). Con vari accorgimenti è poi possibile sfruttare vari domini semantici e sintattici all’interno del materiale di partenza: testi più formali, più ironici, versi, codice, testi in inglese, in francese, in italiano, in inglese medievale, in rima, etc. etc. Sostanzialmente una biblioteca di Babele dove le scimmiette di Borges seguono regole di cui ignorano tutto, ma che fanno sì che il loro scrivere rispecchi il materiale di partenza.

Anche se la realizzazione di questi algoritmi è sicuramente impegnativa e soltanto oggi, grazie alla potenza raggiunta dai calcolatori e dalla disponibilità di quantità enormi di contenuti originali, è possibile realizzarli, i principi di base erano già in circolazione almeno da mezzo secolo. In particolare possiamo dire che il cuore di questi sistemi non è altro che una combinazione del teorema sulla probabilità condizionata di Bayes (1763), delle catene di Andrej Markov (1890 ca) e della loro applicazione al linguaggio prefigurata da Claude Shannon (1949). Tuttavia, un conto è la teoria e un conto è la pratica.

A questo punto, parafrasando Groucho Marx ci si potrebbe chiedere «sembra intelligente, si comporta come se fosse intelligente – non facciamo ingannare – è intelligente!». In effetti, la potenza di questi algoritmi è tale che molti li hanno paragonati alla mente umana; generano testi che, fino a qualche anno fa, avrebbero richiesto esseri umani. Come sempre accade, però, quando una macchina è in grado di compiere le stesse operazioni di un essere umano, ci si chiede se sia proprio la stessa cosa. E la risposta è, senza incertezze, negativa. Sulla base di argomentazioni non lontane da quanto detto fin qua, la maggior parte dei commentatori ha espresso un parere negativo. Per il linguista Noam Chomsky, sul The NewYork Times (The False Promise of ChatGPT), questi modelli si limitano a essere dei «pappagalli statistici». Di parere analogo l’esperto di processi cognitivi Steve Pinker (Will ChatGPT replace human writers?) sulla Harvard Gazette. Più possibilista invece il filosofo David Chalmers, secondo il quale l’intelligenza artificiale potrebbe in tempi non lontano sviluppare forme di coscienza (Could a Large Language Model be Conscious?). Chiariamo subito quello che questi sistemi non fanno e non sono. 

Primo, questi sistemi non sono consapevoli di quello che fanno e che dicono. Come abbiamo visto, questi sistemi non sono altro che enormi tabelle che contengono tutte le probabilità condizionate all’interno di un insieme di contenuti originali. Non vedono le immagini che generano e non comprendono le parole che scrivono.

Secondo, questi sistemi non hanno alcun accesso al significato dei simboli che manipolano. Per loro le combinazioni di lettere non sono nemmeno parole. Siamo noi che, leggendo le frasi prodotte da ChatGPT, le interpretiamo come parole. 

Terzo, sono sistemi privi di teleologia: non hanno motivazioni. ChatGPT non vuole dire quello che dice. Non ha una sua volontà. Il motore che genera la sequenza di parole che compare quasi magicamente sul nostro terminale non è mosso dal desiderio di esprimere un’idea; senza motivazione non vi è neppure unità. Noi esseri umani siamo definiti dalla nostra volontà: noi siamo il nostro scopo.

Chiariti questi punti, tuttavia rimane una domanda: quando noi pensiamo, siamo sicuri di fare molto meglio di ChatGPT? Per esempio, in questo preciso istante, io sto scrivendo questo testo e ho un’idea molto vaga di quello che dirò, ma, a ogni passo, parola per parola, la cosa si fa più chiara. Prima ho scritto una frase e, dalle prime parole del paragrafo, c’è un senso quotidiano secondo cui una «una parola tira l’altra». 

Non sarà che, quando parliamo o scriviamo, in fondo, stiamo facendo proprio come ChatGPT? Non stiamo forse inanellando una parola dietro l’altra sulla base delle precedenti? E solo occasionalmente ci fermiamo per controllare il significato delle nostre parole? Non è un po’ come se, al di sotto della coscienza del significato, ci sia un sistema che in automatico produce le parole? E che, a posteriori (ma solo a livello di descrizione), questo flusso di parole sia interpretato come la manifestazione verbale di un’invisibile genio che chiamiamo pensiero?

In fondo questo avviene in tantissimi casi. Quando camminiamo, per esempio, non ci concentriamo sui dettagli del movimento. “Algoritmi” in gran parte automatici gestiti dal nostro cervelletto coordinano la complicata sinfonia di attivazioni muscolari. Soltanto occasionalmente sentiamo il bisogno di intervenire per modificare la rotta, per così dire. E se anche per gli esseri umani, la produzione di parole non fosse altro che questo camminare automatico nel piano delle probabilità condizionate delle parole?

Non a caso lo scrittore inglese Edward Morgan Forster, si chiese «Come faccio a sapere ciò che penso, finché non vedo ciò che dico?» Anche il celebre flusso di coscienza, celebrato da autori come James Joyce o Henry James, fa molto venire in mente l’affabulazione di ChatGPT (senza filtri perbenisti!). Pensiamo a una situazione che è familiare a tutti: quando parliamo in una lingua straniera, non avete l’impressione di essere meno … intelligenti? Credo ci sia capitato a tutti. Lo spazio delle possibilità si restringe e l’articolazione linguistica della realtà si riduce; diventa più grossolana e ristretta. La nostra tabella delle probabilità è più piccola.

Insomma, il dubbio che ci assale è che, coscienza a parte, il pensiero verbale sia, nella stragrande maggioranza dei casi, molto più simile agli algoritmi generativi di quanto ci piaccia credere. Il termine pensiero diventa un residuo metafisicamente sospetto di epoche passate. Che bisogno c’è di vedere il pensiero come la causa invisibile di questa danza di probabilità attraverso le quali le parole causano altre parole?

La tentazione consiste nello rispolverare la distinzione tra intelligenza e l’intuizione. La prima sarebbe un gioco combinatorio di simboli, mentre la seconda identificherebbe la capacità di cogliere aspetti del reale. Insomma, ChatGPT ci costringe a riflettere sul valore ontologico della nostra competenza verbale che è stata, per vari motivi, forse sovrastimata; è stato troppo facile concepire il pensiero come principio invisibile del comportamento verbale. Non ne abbiamo alcun bisogno.

Ma se la produzione verbale è solo un gioco di probabilità condizionate derivate da un nucleo di testi presi dalla rete, da dove sono arrivate queste probabilità? E qui la domanda ci richiede di interrogarci sul fondamento ontologico della realtà. Da un lato abbiamo questa nuvola di probabilità, ma al suo esterno abbiamo la realtà che preme e che tira e che modifica, attraverso i nostri corpi, la statistica. Per esempio, che cosa determina il valore della probabilità condizionata delle frasi su cani e gatti? Ma i cani e gatti stessi! Che cosa altro? Che cosa determina la struttura predicativa del linguaggio? Ma la struttura causale del mondo! Che altro? Se questo non avvenisse, nel punto di attrito tra il nostro comportamento e la realtà, le probabilità condizionate verrebbero sbriciolate.

Il fatto che oggi ChatGPT sia isolato dal mondo e possa accedere solo ai contenuti prodotti dagli esseri umani ha una conseguenza inaspettata: siamo solo noi a poter accedere al mondo in quanto mondo e siamo solo noi che definiamo le regole. Ma quando questo limite dovesse essere superato e ChatGPT avere accesso alla realtà? È qualcosa che dovrebbe far riflettere.

La domanda da cui siamo partiti è se gli esseri umani sono ancora in grado di pensare. La risposta non può che essere positiva, ma solo a condizione che noi recuperiamo questo aspetto ontologico del pensiero. Il pensiero è qualcosa di più della ricombinazione di simboli soltanto quando coincide con la realtà che preme (e che riesce) a modificare la nuvola di probabilità codificata dentro il linguaggio. Solo se è concreto il pensiero non è una vuota astrazione. Purtroppo, l’eccesso di informazione, l’isolamento dovuto ai social, tendenza a valutare sulla base del conformismo intellettuale spacciato per correttezza accademica hanno determinato una cultura del copia-e-incolla (anche di alto livello) che non lascia molte speranza di essere effettivamente meglio di un algoritmo generativo.

ChatGPT ci mostra come intelligenza e linguaggio siano in gran parte ricombinazione sulla base di regole derivate dal contatto con la realtà, mentre coscienza e mente siano proprio questo contatto, anzi, forse, siano la realtà stessa che plasma e determina questa struttura statistica. Non è un caso che gran parte della tradizione analitica – da Wittgenstein a Austin – abbia proposto di vedere il pensiero (almeno quello verbale) come l’esecuzione di un gioco linguistico piuttosto che come la manifestazione di una sostanza ontologicamente radicata, sia essa fisica o mentale. Ma se il linguaggio è solo gioco, ChatGPT e la sua discendenza prossima potrebbero fare proprio questo: stanno imparando a giocare e il fatto che ci stia riuscendo così bene, già ai primi tentativi, dimostra solo che, in gran parte, linguaggio e pensiero siano solo un gioco. 

La grammatica è più simile all’aritmetica di quanto credessimo e però noi, a differenza di ChatGPT, non siamo una astrazione.


Riccardo Manzotti (1969), filosofo e ingegnere, Fulbright Scholar al mit di Boston, è ora professore di Filosofia Teoretica presso l’università iulm di Milano e lavora sul rapporto tra media, mente, intelligenza artificiale e percezione. Tra i suoi saggi ricordiamo L’esperienza. Perché i neuroni non spiegano tutto (Codice, 2008; con Vincenzo Tagliasco), Consciousness and Object (John Benjamins, 2018).

0 comments on “ChatGPT non pensa veramente, ma noi ne siamo ancora capaci?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *