Breve (e personale) storia dell’intelligenza artificiale

Una storia dell’intelligenza artificiale che parte da lontano, perché questi nuovi strumenti ci interrogano anche sul nostro rapporto con la tecnologia .


in copertina: Louise Nevelson, Senza titolo (1977) – Scultura planare in legno – Asta Pananti in corso

Questo testo è estratto da “In principio era ChatGPT”, di Mafe De Baggis e Alberto Puliafito. Ringraziamo autrice ed autore e Apogeo editore.

di Mafe De Baggis

In passato si lavorava con i muscoli, oggi con il cervello, ma in futuro lavoreremo con il cuore.
– Minouche Shafik

Queste parole sono della direttrice della LSE, la London School of Economics and Political Science. Non una filosofa, non una poetessa, non una terapeuta. È interessante osservare come il trasferimento del lavoro muscolare alle macchine sia stato un passaggio quasi1 indolore, sia in fabbrica sia in casa. Nessuno si lamenta di un montacarichi, di una lavatrice o di non dover ribattere un testo che arriva via email e non via fax.

Quando si tratta del cervello, però: “Ahi, il cervello deve faticare, se no si atrofizza”. Sembriamo convinti che senza fatica non si impari, opinione messa in discussione ormai anche nell’allenamento sportivo, dove il “no pain, no gain” l’ha finora fatta da padrone. E senza fatica cerebrale temiamo di perdere quella che pensiamo essere la nostra caratteristica distintiva: il cogito (ergo sum). Questo avviene anche quando le attività automatizzate sono molto più muscolari che intelligenti: pensiamo, per esempio, al data entry o al ricordare a memoria le infinite clausole di una legge oppure al fare mille volte lo stesso calcolo; o, ancora, al tagliare una foto perché possa essere usata in formati diversi oppure allo scrivere decine di versioni di una call to action senza usare il verbo “scoprire” né l’espressione “compra ora”.

Noi animali umani siamo molto fieri del nostro cervello, della razionalità e del logos, il linguaggio. “In principio era il Verbo e il Verbo era presso Dio e il Verbo era Dio” è l’incipit del Vangelo di San Giovanni. Nei miti induisti la parola, Vc, precede e origina la creazione dell’universo, espressione del primo suono, Aum – l’Om di chi medita e pratica yoga. In quasi tutte le culture dare i nomi, designare è parte della creazione. Naming is taming, nominare è domare. Il linguaggio è roba nostra, nessun animale parla – a meno che non sia il nostro cane o gatto o capibara – o scrive. Siamo spaventati dal digitale, fatto di dati, e siamo convinti di essere fatti soprattutto di parole, meglio se stampate su carta.

Non dobbiamo dimenticare però, come ricorda il fisico, inventore e imprenditore Federico Faggin, che “i simboli parlati sono dinamici e possono essere descritti come onde sonore. I simboli scritti sono invece statici e sono usati per memorizzare in un libro o nella memoria di un computer i simboli dinamici. I simboli scritti, inoltre, contengono molta meno informazione di quelli orali, perché mancano di aspetti, quali la prosodia, capaci di descrivere molto meglio ciò che si prova. Malgrado ciò, l’esperienza personale è infinitamente più ricca della frase parlata che la descrive”.

Se, tuttavia, stai pensando che verba volant, scripta manent, sappi che, ai tempi in cui Caio Tito disse questa frase, il senso era opposto a quello contemporaneo: in un mondo di analfabeti le parole dette volavano, quelle scritte restavano dov’erano.

Il filosofo Riccardo Manzotti sembra fare eco a Faggin: “L’IA odierna (quella di domani chissà) si ferma alla grammatica del linguaggio. […] La domanda che dovremmo chiederci non è se ChatGPT pensa come noi, ma piuttosto che significa pensare. […] Ritorniamo alla realtà e abbandoniamo i simboli. Torniamo alle cose e lasciamo le parole. Non è vero che le parole o le informazioni siano più importanti della vita e delle cose. ChatGPT riconosce, ma non vede; ascolta, ma non sente; manipola i simboli; ma non pensa. Per pensare bisogna essere reali, ma che cosa è il pensiero? Il pensiero è mondo”.

E il pensiero-mondo è diffuso in tutto il corpo, a partire dal cuore, che è coraggio. Quel cuore considerato ancora roba da poeti, roba da romance, roba da femminucce e da debosciati. Il cuore è un muscolo, eppure nessuna software house sta studiando come replicare la sua forza e la sua potenza, perché le emozioni e i sentimenti sembrano qualcosa da imbrigliare, da domare, da gestire, certo non da replicare per lavorare di più e meglio.

Per questo partiamo da Shafik e dalla speranza implicata nelle sue parole. Forse un giorno, anche vicino, le macchine sostituiranno il cervello come hanno sostituito i muscoli. Ma senza cuore, già oggi, pensare, lavorare e vivere bene è molto difficile e nessuno – che si sappia – sta lavorando a un’intelligenza emotiva artificiale. A un’anima artificiale. E non è un caso, credo, che ChatGPT & Co. siano in grande difficoltà con le negazioni, anche quelle semplicissime.

Qual è il cuore dell’intelligenza? Il dialogo. E da qui partiamo, tornando molto indietro per poi arrivare a oggi.

Il dialogo, il modo in cui il pensiero veniva creato

L’intelligenza è fuori di noi da millenni. Socrate non la prese benissimo.

Se avessi la lampada di Aladino, userei uno dei tre desideri per far vedere ChatGPT a Socrate, per guardare la sua faccia nello scoprire un testo scritto che risponde.

Per comprendere il perché di questo buffo desiderio, dobbiamo rileggere Fedro, l’opera di Platone in cui Socrate commenta in questo modo l’arrivo dei testi scritti:

… potresti avere l’impressione che parlino, quasi abbiano la capacità di pensare, ma se chiedi loro qualcuno dei concetti che hanno espresso, con l’intenzione di capirlo, essi danno una sola risposta e sempre la stessa.

Platone situa questa storia nell’antico Egitto, quindi non siamo ancora di fronte all’alfabeto, ma ai geroglifici. E il technikotate – l’espertissimo – Theuth così presenta la scrittura al faraone:

O, re, questa conoscenza (mathema) renderà gli egiziani più sapienti e più dotati di memoria: infatti ho scoperto un pharmakon per la sapienza e la memoria.

Vale la pena sottolineare che la scrittura viene presentata come “farmaco”, parola che significa – come probabilmente già sai – sia rimedio sia veleno. Non sapremo mai se Socrate pensava davvero che la scrittura avrebbe rovinato l’intelligenza umana, ma siamo certi che Platone lo temeva, perché l’ha scritto, facendo parlare il faraone.

E il re rispose: Espertissimo (technikotate) Theuth, una cosa è esser capaci di mettere al mondo quanto concerne un’arte (téchne), un’altra saper giudicare quale sarà l’utilità e il danno che comporterà a chi la usa; e ora tu, padre delle lettere, hai attribuito loro per benevolenza il contrario del loro vero effetto. Infatti esse produrranno dimenticanza (lethe) nelle anime di chi impara, per mancanza di esercizio della memoria; proprio perché, fidandosi della scrittura, ricorderanno le cose dell’esterno, da segni (typoi) alieni, e non dall’interno, da sé: dunque tu non hai scoperto un pharmakon per la memoria (mneme), ma per il ricordo (hypòmnesis). E non offri verità agli allievi, ma una apparenza (doxa) di sapienza; infatti grazie a te, divenuti informati di molte cose senza insegnamento, sembreranno degli eruditi pur essendo per lo più ignoranti; sarà difficile stare insieme con loro (syneinai), perché in opinione di sapienza (doxosophoi) invece che sapienti.

Io, che sono un po’ cattivella, spesso cito la frase “divenuti informati di molte cose senza insegnamento, sembreranno degli eruditi pur essendo per lo più ignoranti” senza rivelare che stiamo parlando della scrittura, di quella che oggi consideriamo intelligenza incorporata, perché è l’opinione – un po’ boomer – che molti adulti hanno delle nuove generazioni, ignoranti per colpa, ovviamente, dei social media. È una storia che si ripete e lo ricordiamo in apertura non per negare i rischi, i dubbi e le criticità dell’evoluzione nella scrittura portata dalle intelligenze artificiali generative, note anche come modelli linguistici, ma per affrontarle a mente e a cuore aperto. La paura di perdere ciò che ci contraddistingue ha accompagnato l’evoluzione dell’uomo. Eppure, se per questa paura avessimo rinunciato alla scrittura, alle biblioteche, ai libri e all’arte, non ci saremmo fatti un gran regalo.

La scrittura, il modo in cui il pensiero è stato separato dal corpo

Dove si scopre che la scrittura è una tecnologia. E pure bella complessa.

Proviamo a immaginare il mondo prima della scrittura, un mondo di cui abbiamo tracce solo per i disegni – la prima espressione umana sia artistica sia informativa – e per i manufatti. Persi i disegni, persi i manufatti, perso tutto. Persa la memoria di un mondo che è esistito senza lasciare tracce.

La scrittura è una tecnologia pensata per essere longeva, per durare: per la memoria – checché ne dica il faraone. Ed è una tecnologia complessa e articolata, difficilissima da imparare e da praticare. È buffo vedere ancora così tante persone meravigliarsi per la facilità dei bambini nell’usare strumenti digitali e non accorgersi che gli stessi bambini continuano a fare una fatica tremenda per imparare a leggere e scrivere. L’umanità ci ha messo secoli per mettere a punto un sistema efficiente di simboli – l’alfabeto – e ogni uomo impiega anni per imparare a usarlo. Solo pochissimi arrivano a padroneggiarlo, cioè a saper scrivere in modo da evocare mondi che non ci sono e a leggere comprendendo a fondo quei mondi e ricordando le informazioni contenute nei testi.

Oggi che, ad alfabetizzazione quasi avvenuta, misuriamo la capacità di comprendere i testi, scopriamo che è di gran lunga minore delle aspettative. Consideriamo stupide o ignoranti le persone che non capiscono quello che leggono, ma non ci fermiamo mai a chiederci se il problema non sia nella tecnologia, cioè nell’alfabeto. Nella grammatica, nella sintassi, nelle righe di testo e nelle pagine di informazioni.

Non lo vediamo più, quel “pharmakon per la sapienza e la memoria” che Socrate biasimava: lo consideriamo naturale come le parole che pronunciamo. Non lo è.

Quando temiamo che un software che ci aiuta a scrivere ci privi di facoltà intrinsecamente umane, dobbiamo compiere un passo indietro per guardare il quadro e ricordare che no, la scrittura non è parte del corredo genetico umano. E neanche la lettura. Come nota Stefano Vaj:

In questo senso, l’intelligenza umana è forse sempre stata artificiale – che altro sono simboli, linguaggi, tradizioni, scrittura, algoritmi, arti, strategie, se non supporti “artificiali” alla nostra gestione dell’informazione? – e sicuramente l’intelligenza gioca un ruolo centrale in qualsiasi ipotesi di trasformazione postumana. Un’intelligenza che oggi possiamo riconoscere in via generale come iterativa, frattale, artificiosa.

Prima ho definito la scrittura “intelligenza incorporata”, ma in realtà è scorporata. Segna, infatti, una discontinuità paragonabile al momento in cui le macchine diventeranno consapevoli o più intelligenti dell’uomo, quella che definiamo singolarità tecnologica: lasciando tracce scritte di quello che sappiamo, separiamo il pensiero dal corpo. Oggi però, con GPT-4, possiamo chiacchierare con migliaia di testi scritti e, interrogandoli, migliorare i concetti espressi. E più migliorano i testi di cui le intelligenze artificiali si nutrono, più migliora la qualità della conversazione, con beneficio di tutti, destinatari dei testi compresi. Non è un caso che la forma più diffusa per i testi, quella scelta da ChatGPT, sia la chat. “Chiedimi qualsiasi cosa”, dice Bing oggi, tornando a riaprire un mercato che sembrava condannato al monopolio. Fa sembrare il “Cerca con Google” obsoleto, ma non cascarci: a Google non sono affatto indietro, anche perché buona parte degli algoritmi di deep learning usati per gli strumenti che usiamo oggi li hanno messi a punto loro (e pubblicati in open source10).

Le biblioteche, il primo training destrutturato del sapere distribuito nel mondo

Come si scrive un libro come questo? È un lavoro di ricerca che dura tutta la vita, perché la ricerca e lo studio sull’argomento specifico, le Intelligenze Artificiali e, in particolare, i modelli linguistici – Large Language Model – sono solo una parte del patrimonio di conoscenze necessario per scrivere un qualsiasi testo, che sia un libro di ricette, di filosofia o di barzellette.

Noi umani veniamo addestrati, fin da piccolissimi, con un training abbastanza simile a quello delle macchine. Prima ci insegnano le regole nascoste nel linguaggio che abbiamo imparato a usare da piccolissimi. Poi impieghiamo questa competenza per utilizzare meglio quei dataset strutturati che chiamiamo “libri”, mediandoli però con la nostra esperienza, che dipende dalla famiglia in cui siamo cresciuti, dalla scuola, dai nostri amici, dalla società in cui viviamo. Tutto questo crea una particolare forma mentis che, da una certa età in poi, condiziona tutte le nuove informazioni che incontriamo, determinando quello che il romanziere David Foster Wallace chiamava “pilota automatico”. C’è chi, a un certo punto, interrompe il training e chi invece lo porta avanti per tutta la vita, cercando di disattivare il pilota automatico e di usare il più possibile quello che lo psicologo, Premio Nobel per l’economia, Daniel Kahneman ha definito “Sistema 2”, che ci permette di fermarci, fare un passo indietro e riconsiderare la situazione.11

In un libro come questo finisce la visione del mondo degli autori, e non può che essere una prospettiva, nel senso specificato da Federico Faggin.

Non esiste un punto di vista privilegiato che possa descrivere tutta la realtà “da fuori” in maniera oggettiva, perché ciascun osservatore fa anche parte di ciò che è osservato e può avere soltanto un unico punto di vista.

Per questo è di fondamentale importanza nutrire quella che Umberto Eco definiva “Enciclopedia Massimale”, intendendo non la Treccani, ma un insieme vivo e rizomatico di informazioni che continuano a intrecciarsi e modificarsi.

Questa enciclopedia non è attingibile nella sua totalità perché è l’insieme completo di ciò che l’umanità ha detto, eppure ha una esistenza materiale, perché questo detto è stato depositato nella forma di tutti i libri, di tutte le immagini, di tutte quelle testimonianze che fungono da interpretanti reciproci nella catena della semiosi.

In un libro come questo finisce, quindi, l’intera biblioteca degli autori, intesa non tanto come locale in cui andare a prendere in prestito dei libri, ma come insieme dei testi, anche non posseduti o non letti per intero, che hanno addestrato il deep learning – minuscolo – degli autori. Non la bibliografia specifica necessaria per informarsi, ma tutti i libri letti e studiati, amati e vissuti.

Se la scrittura permette al sapere di separarsi dal corpo e dalla mente di chi pensa e di chi possiede i pensieri, il libro e la biblioteca lo rendono accessibile a tutti gli altri. Non è un caso che la più grande biblioteca dell’antichità, quella di Alessandria, fondata dai Tolomei nel III secolo a.C., sia stata distrutta – forse da un incendio – e non esista più. Non è un caso che prima di Martin Lutero e di Gutenberg la lettura dei testi sacri fosse accessibile solo a una casta privilegiata, che la spiegava al popolo. Non è un caso che prima di Internet ci fosse un’élite che decideva chi poteva pubblicare e chi no e quindi, di riflesso, chi poteva scrivere. Non è un caso che si vogliano sottrarre opere e informazioni al training delle AI, non solo per legittime scelte personali o per sottrarsi allo sfruttamento del proprio lavoro, ma anche e soprattutto per un motivo attivo da millenni: tenere il sapere per sé. Per i giusti, per i più bravi, per i nobili, per quelli come me, per i buoni, per i ricchi, per i bianchi, decidi tu.

E se ti sembra assurdo, attiva il Sistema 2, fai un passo indietro e riconsidera il tutto da un altro punto di vista. Magari ricordando che di “morte dell’autore” si parla da un bel po’, da molto prima dell’arrivo del computer, di Internet e delle AI, e sicuramente in contesti più filosofici che informatici. Oppure rivedi la storia della cultura seguendo lo schema del filosofo Pierre Lévy, uno dei pensatori più illuminanti in merito a tutto quello che riguarda l’impatto di Internet sulla società.

Il filo conduttore è costituito dall’elaborazione, dalla manipolazione e dalla trasmissione di simboli, che però – vale la pena di ricordare ancora – non coincidono con tutto il pensiero umano. La mente umana non è un computer e ancora non sappiamo come funzioni. Leggiamo sul Post che “l’idea stessa di creare sistemi informatici intelligenti deve del resto fare i conti con le scarse conoscenze che abbiamo ancora su come funziona la mente umana, sull’organizzazione del pensiero e sui processi che ci aiutano a comprendere, ricordare ed elaborare i dati e gli input che riceviamo”.

Non abbiamo, tuttavia, bisogno di sapere come funziona per capire che i libri e, di conseguenza, le biblioteche sono stati, per secoli, il training degli umani. Training oggi integrato o annientato, a seconda dei punti di vista, da quella immensa e continuamente riscritta “commedia umana” che sono le nostre vite, rappresentate e in diretta sui social media. Lo sintetizza sempre Pierre Levy:

Una memoria virtuale ha iniziato a crescere, messa in circolazione da miliardi di vivi e morti, brulicante di lingue, di musica e di immagini, piena di sogni e fantasie, mescolando scienze e menzogna. La nuova sfera pubblica è multimediale, interattiva, globale, frattale, emergente e – ormai – mediata dall’intelligenza artificiale.

Un po’ troppo spesso noi umani, esattamente come le macchine, ripetiamo a pappagallo quello che abbiamo sentito dire più spesso. Come antidoto, ti proponiamo questa visione: i dataset come biblioteche. Non svenire.

I motori di ricerca

L’è tutto sbagliato, l’è tutto da rifare. Ho chiesto a ChatGTP chi ha vinto il campionato e mi ha risposto la Ferrari.

Ma questi modelli linguistici sono dei motori di ricerca? No, e non solo perché spesso sbagliano. Anche quando sono collegati a un motore di ricerca, come nella versione a pagamento di ChatGPT, in Bing o usando assistenti come Monica, il loro compito principale – il loro Daimon – è la generazione di testo e immagini incrociando la tua domanda – il prompt – con una sintesi dello scibile umano disponibile e messo a disposizione.

Il prompt altro non è che una domanda potenziata, perché non vuole una risposta, vuole un confronto. Vuole idee, spunti. Desidera un dibattito.

C’è, tuttavia, un punto di contatto tra biblioteche, motori di ricerca e LLM: l’accesso alle informazioni. Un tempo ristretto a pochi, poi via via democratizzato, prima della rete e dei motori di ricerca era faticoso, costoso e incerto. Fino al momento in cui sono arrivati due dottorandi di Stanford, Larry Page e Sergey Brin, con un’idea brillante: usare la rete di link tra siti per capire quale pagina web fosse migliore di un’altra nel rispondere a una query, ovvero a una ricerca. La query sta al prompt come una scala sta a un ascensore. Anni dopo questa idea brillante, Google è una delle aziende più potenti al mondo, ha creato e domina il mercato della pubblicità online e ha una mission decisamente esplicita:

La nostra mission è organizzare le informazioni a livello mondiale e renderle universalmente accessibili e utili.

Ora, qualunque sia il tuo orientamento sociopolitico, dovresti farti una domanda. Perché un’azienda privata si dà come missione, e quindi come compito operativo – non è la vision –, un qualcosa che non sfigurerebbe scolpito nel marmo di un’università, di un ministero, di una fondazione? E, a voler essere precisi, dovresti portene un’altra ancora: perché nessuna università, nessun ministero, nessuna fondazione ci ha non dico provato, ma neanche pensato?

A me non piace che una multinazionale si sia data questo compito, non perché non lo ritengo importantissimo, ma perché non dovrebbe essere un compito for profit. Eppure, guardando bene, di chi è la colpa se nessuna non profit, neanche quando era solo una questione di avere un’idea brillante, ci ha non dico provato, ma nemmeno pensato? In Italia sono anni che ci sentiamo dire che con la cultura non si mangia. Nel frattempo, Google si è mangiata il mondo lavorando all’accessibilità universale di tutte le informazioni, cultura compresa.

La vita senza Internet

Facciamo un passo indietro più breve rispetto alla filosofia greca, ma comunque in quello che è a tutti gli effetti un “piccolo mondo antico”. Come si viveva negli anni Ottanta, senza smartphone, posta elettronica, ecommerce, social media e motori di ricerca? Per moltissimi era un sogno. A guardarlo più da vicino, però, è un incubo.

Nel periodo precedente a Internet, il mondo in cui vivevi coincideva con la realtà fisica intorno a te.

Le persone, le merci, la cultura, l’intrattenimento, le riviste che leggevi, gli sport che facevi e anche gli hobby erano in grandissima parte vincolati al posto in cui ti trovavi a vivere e a quello in cui andavi in vacanza – se viaggiavi.

In Italia, una persona di Campobasso faceva una vita molto diversa da una di Roma o di Milano, e non solo per la bellezza minore o maggiore della città, ma per le esperienze possibili nella vita quotidiana. L’unica esperienza in comune per tutti, il grande omogeneizzatore, era in casa: il televisore, con pochi canali, pochi programmi, orari di trasmissione fissi e decisi da altri.

Il mondo intorno a me, negli anni Ottanta, era semplice, con poche scelte, ma anche poche possibilità. Le persone normali – ma sarebbe meglio dire “medie” –, quelle che volevano finire gli studi, trovare un lavoro, sposarsi e fare dei figli vivevano tutto sommato bene. Tutti gli altri, quelli strani, i tipi curiosi, i personaggi, gli originali, se la passavano un po’ peggio. Negli anni Novanta siamo stati i primi, non a caso, a popolare chat e forum, prima nelle BBS e nel Videotel, poi online, con Internet.

Nel 2011 Seth Godin, esperto di marketing e di comportamenti, pubblica il libro We Are All Weird: nella traduzione italiana è stato intitolato Siamo tutti strambi. Forse di “normali” non ce n’erano molti neanche prima e Internet e i social media hanno permesso a tantissime persone di esprimere la propria natura più profonda e di seguire quello che lo psicologo James Hillman chiama il proprio Daimon, il “codice dell’anima”.

Al di là di questo incredibile cambiamento e di quanto ci siamo permessi di esprimere in pubblico la nostra natura un tempo privata, il mondo intorno a noi prima della diffusione dei computer e di Internet era anche molto, molto scomodo.

Studiare senza Internet

Nell’estate del 1991, una studentessa milanese, ovviamente fuorisede, parte per le vacanze estive e torna a Taranto, sua città natale. Prima di lasciare Milano, spedisce decine di lettere, redatte con una vecchia macchina per scrivere presa in prestito,19 chiedendo aiuto e informazioni ad aziende, associazioni, esperti e ricercatori per arricchire la sua tesi di laurea sul marketing ambientale. A casa trova un regalo, uno dei primi word processor: un visore che permette di vedere poche righe di testo, la possibilità di registrare su dischetti e di stampare dopo aver finito di scrivere, con una testina a margherita, lenta e con un inchiostro molto costoso. Era la Olivetti Top 100.

Avere a disposizione un simile prodigio non evita comunque di doversi portare dietro decine di libri, di appunti, di carta: un metodo ancora caro a molti, che ai tempi, però, non aveva alternative. Poco prima di lasciare Taranto, la nostra studentessa va in biblioteca, dove per ore sfoglia schedine scritte a mano per cercare nuovi articoli da inserire in bibliografia. Ha già deciso che, sulla strada del ritorno, passerà da Roma e da Bologna, perché alcuni riferimenti che spera possano esserle utili sono solo in quelle biblioteche. Al ritorno dalle vacanze, a settembre, la casella della sua posta è stranamente vuota. Già un po’ triste e delusa, la nostra studentessa si avvia all’ascensore, richiamata dal portiere: “Signorina, ho una scatola per lei”. Per decine di lettere spedite c’erano decine di risposte, arrivate mesi dopo l’inizio del lavoro di ricerca. Commovente, estenuante, incredibile a pensarci.

Oggi, tutte quelle informazioni, sia quelle trovate in biblioteca sia quelle richieste via posta cartacea, sono a un clic di distanza, in rete. Se non sempre basta Google a trovarle, puoi rintracciare la persona giusta e chiedere aiuto con una email e avere risposta in poche ore o, al massimo, giorni. E se ti serve un libro, puoi averlo sul tuo Kindle in meno di un minuto. Per studiare, solo pochi anni fa, dovevi farti strada, oltre che fare strada per trovare le informazioni. Può sembrare romantico, ma era solo molto faticoso. E costoso. E polveroso. Etcì.

Lavorare senza Internet

Nel mondo del lavoro, la difficoltà di trovare e spostare le informazioni si accompagnava alla complessità di progettare e produrre le informazioni necessarie. Un libro come questo, per esempio, se scritto a mano o con macchina per scrivere, andava ribattuto a ogni correzione, spostamento, modifica. E poi andava impaginato fisicamente e stampato su fogli di prova – le cianografiche – e poi definitivi – le pellicole. Correggere un refuso costava carissimo. Anche quando si sono diffuse le tecniche di produzione digitale, il desktop publishing, senza Internet i documenti andavano salvati su supporti fisici – i floppy disk prima, i CD-ROM poi – e portati a mano da un corriere o da un pony express. Poche ore per scriverlo, giorni interi per produrlo. Oggi, anche i formati cartacei, come i quotidiani, le riviste o i libri usano la digitalizzazione e Internet per la parte di produzione. L’amore per la carta per molti resta ancora un feticcio, ma per l’industria che la produce la carta arriva solo alla fine del processo.

Quanto detto non vale solo per la cultura, ovviamente. In qualunque settore, anche i più tradizionali come l’agricoltura o il trasporto di materie prime, la giornata lavorativa era incredibilmente più lenta e faticosa quando per spostare informazioni dovevi spostare materia.

Un mondo in cui dovevi andare fisicamente in spacci o in fiere per fare acquisti e dovevi essere alla scrivania per ricevere una telefonata. Del resto, siamo ancora legati all’idea di dover andare in ufficio a lavorare perché un tempo era impossibile fare altrimenti. Le carte erano lì. E per anni anche i computer.

Trovare lavoro senza Internet

Il mondo senza Internet era più semplice solo per chi aveva già una carriera avviata. O per chi ereditava l’attività di famiglia oppure cercava un lavoro simile ai precedenti. Si trattava di un mondo con le barriere all’ingresso incredibilmente alte, anche soltanto per provarci. Un mondo di lettere spedite senza risposta, di colloqui ottenuti solo con raccomandazioni, di favori chiesti e fatti. E, a ben guardare, è un mondo che c’è ancora oggi, con un’unica differenza: chi vuole far vedere quello che sa fare può farlo, senza chiedere il permesso a nessuno.

Ogni volta che ci chiediamo quanti lavori verranno sostituiti dalle intelligenze artificiali, dovremmo chiederci anche quanti lavori verranno creati. Per la Goldman Sachs “l’uso delle IA generative potrebbe portare a un notevole impatto sul mercato del lavoro. Circa due terzi dei lavori attuali negli Stati Uniti e in Europa potrebbero essere automatizzati e le intelligenze artificiali potrebbero sostituire fino al 25% di queste occupazioni. A livello globale, ciò potrebbe tradursi in 300 milioni di posti di lavoro a tempo pieno a rischio.

Tuttavia, storicamente, la perdita di lavoro a causa dell’automazione è stata compensata dalla creazione di nuove occupazioni, grazie alle innovazioni tecnologiche. Ciò potrebbe portare a notevoli risparmi di costo del lavoro, nuovi posti di lavoro e maggiore produttività per i lavoratori non colpiti, con la possibilità di una crescita economica significativa. Inoltre, l’IA potrebbe aumentare il PIL globale annuale del 7%. Tuttavia, il suo impatto dipenderà dalle sue capacità e dalla tempistica dell’adozione”. Tutte le volte in cui rimpiangiamo un passato che magari non abbiamo vissuto, dando al presente – o al futuro – la responsabilità dei nostri problemi, dovremmo anche chiederci a cosa stiamo rinunciando e se stiamo fermando o rallentando la diffusione della tecnologia. Magari pensando alle singolarità che hanno già cambiato la sorte e i corpi degli uomini: la pittura, il linguaggio, la scrittura, il telegrafo. E allontanandoci dalla scrittura, perché, come vedremo nell’ultimo capitolo, il settore dove le AI stanno già facendo la differenza è la medicina, in particolare per le diagnosi.

E per i posti di lavoro persi e per i lavoratori fragili? Si torna, non a caso, a parlare di reddito di cittadinanza.

L’intelligenza artificiale


Specchio, specchio delle mie brame chi è la più intelligente del reame?

È arrivato il momento di fare chiarezza su un’incomprensione, prima di entrare più nel merito: i software come ChatGPT rappresentano un sottoinsieme delle ricerche e della sperimentazione nel campo dell’intelligenza artificiale.

Imparano, ma non capiscono. Non a caso l’algoritmo che li rende possibili si chiama “deep learning”, non “deep thinking” o “deep knowing”.

Nella lunga e appassionante storia della ricerca, anche filosofica, sul modo in cui far pensare le macchine, i modelli linguistici stanno al pensiero come imparare a memoria Fra Martino Campanaro sta ad aver capito che “una poesia offre un campione dell’intelligenza umana all’opera, di un’intelligenza completa, non distorta”.

Melanie Mitchell, nel suo libro L’intelligenza artificiale, ricorda che la molteplicità di approcci contrastanti caratterizza ancora la ricerca in questo campo, anche se “sin dai primi anni Duemila, una famiglia di metodi dell’IA – chiamata collettivamente deep learning o deep neural network – si è elevata al di sopra di questa anarchia, diventando il paradigma dominante. Al punto che in buona parte dei media il termine intelligenza artificiale è identificato con il deep learning. È un’approssimazione infelice […] di per sé è un metodo tra i molti nel campo del machine learning, un sottocampo dell’IA in cui le macchine imparano dai dati o dalle proprie esperienze”.

In questo sottocampo la scena è dominata dal linguaggio, alfabetico e visivo. Non lo stiamo ridimensionando, è un incredibile passo avanti – per molti verso un baratro – e ha richiesto decenni di ricerca e tentativi, nonché miliardi di investimenti.

Tuttavia, come già detto diverse volte, il linguaggio, la manipolazione di segni sono solo una parte, per quanto importantissima, dell’intelligenza.

Come scrive Marina Pierri in Lila, “… per Derrida, al contrario, non esiste dio nel segno e, se c’è, è un dio villano, una dea forse, un briccone capace di farsi beffe del matrimonio indissolubile tra le sue due facce (il significante e il significato, NdA). […] Nella scrittura […] Derrida rintraccia infatti la volubilità del segno. Esiste una magnifica forza capace di destrutturarne l’unità divina, e prova come il codice linguistico sia soggetto al caos”.

Un caos che è parte dell’imperfezione umana, come argomenta L. Jean Lauand in una conferenza a Barcellona “per Tommaso D’Aquino, al contrario di Dio, che esprime tutto in un unico Verbo, noi dobbiamo esprimere frammentariamente le nostre conoscenze con molte e imperfette parole”.

Non è un caso che le intelligenze artificiali generative abbiano allucinazioni e facciano errori clamorosi: il codice linguistico è soggetto al caos perché la relazione tra segno e significato è arbitraria. E non è un caso nemmeno che le intelligenze artificiali generative non siano coscienti: neanche i testi scritti o le opere artistiche lo sono.

Uno sguardo diverso

Tutta la vostra severità su questo punto non impedirà il male che temete,
e vi toglierà invece il modo di compensare il male con un bene che dipende da voi.
– Diderot

Se ti parlo di robot, chi ti viene in mente, Terminator o R2-D2? È molto probabile che tu pensi al primo, ovvero, fuor di metafora, è più plausibile che ti vengano in mente scenari apocalittici di software incorporati in metalli indistruttibili con sguardi freddi e crudeli.

Eppure siamo cresciuti – stiamo usando volutamente un noi intergenerazionale – con due software incorporati e indistruttibili dallo sguardo dolce e di grande utilità e fedeltà: il roteante R2-D2 e il petulante C-3PO. Anche loro intergenerazionali perché sono gli unici personaggi presenti in tutti i film della saga di Star Wars, dal primo nel 1977 all’ultimo nel 2019.

Ecco, i modelli di linguaggio – i software come ChatGPT o Bard – assomigliano molto di più ai robot di Star Wars che ai Terminator, a partire da una caratteristica finita un po’ in secondo piano nel racconto fatto dai mass media: non sono software che svolgono compiti da soli, come fanno gli invisibili agenti intelligenti all’opera da diversi anni, ma lo fanno con noi e per noi.

Prima di lasciare la parola ad Alberto, che approfondirà da dove arrivano e come funzionano, vediamo due definizioni. La prima di Nello Cristianini:

I modelli di linguaggio sono strumenti usati per calcolare la probabilità di una frase nel linguaggio naturale e impiegati soprattutto per compiti di previsione del testo, che includono: completare le frasi, riempire le parole mancanti, suggerire cambiamenti.

La seconda definizione è del filosofo e ricercatore Cosimo Accoto:

Riprendendo le avvertenze di Shanahan (Talking About Large Language Models, 2022), quando si interroga un sistema di questo tipo chiedendo di completare una frase (per esempio, “l’autore della Divina Commedia è…”) e ottenendo una determinata risposta (“…Dante”), in questo dialogo noi e la macchina intendiamo due cose molto diverse. Noi vogliamo sapere chi ha scritto nella realtà storica il famoso poema. La macchina, invece, intende quale parola è statisticamente più probabile che segua nella sequenza della frase “l’autore della Divina Commedia è…”.

Queste sono tecnologie di collaborazione, non di scrittura o di creazione. Sono assistenti, non concorrenti. Generano semilavorati, non contenuti finiti. Se stai valutando di sostituire redattori, copywriter o social media manager, pensaci due volte: non perché i modelli linguistici non siano all’altezza degli umani, ma perché giocano in un ruolo diverso. Sono al nostro fianco, partendo da una domanda (il prompt) o da un’indicazione (/imagine) guidata da noi e lavorando per raffinare la risposta, fino a ottenere un risultato soddisfacente che può non c’entrare niente con quanto proposto dal software, che però ha aiutato ad arrivarci.

Personalmente, nel mio quotidiano, li uso non come motori di ricerca alternativi, ma come alternative alla ricerca. Buona parte del mio lavoro consiste nel generare idee e uso Google come strumento per esplorare, saltando di associazione in associazione, perché collegare concetti diversi è da sempre una buona strada per il pensiero laterale. ChatGPT, da solo o in Bing, è un aiuto anche in questo: non per trovare ristoranti o prezzi o tutorial, ma per scoprire quale sia una posizione mainstream – o biased – su un argomento e partire da lì per costruire un discorso diverso. Trovo anche rinfrescanti e, a volte, riposanti le risposte innocenti di ChatGPT su argomenti inquinati dal posizionamento delle pagine sui motori di ricerca: “Non lo so”, “Non si sa”, “Non ci sono informazioni”. “Non posso esprimermi”.

Non è colpa di Google se nelle SERP troviamo domande ben indicizzate senza le risposte, ma dall’evoluzione di un motore di ricerca mi aspetto anche questo, i “Non lo so”, “Non si sa”, perfino i “Chi dice di saperlo per certo mente”.

Altro che distinzione tra fake e verità: il primo passo evolutivo è accettare che la verità non esiste, esistono solo punti di vista. Anche sui fatti.

Un nuovo modo di progettare

Nel giugno 2022 uno degli sviluppatori di Google, Blake Lemoine, aveva raccontato che il chatbot con cui stava lavorando si era descritto come una persona senziente e andava considerato un dipendente, un umano.

Io non so se BB-8 – per tornare a Star Wars – si considerasse umano, ma non penso neanche che i LLM siano pappagalli stocastici, definizione nata da un gruppo di critici di questi software, che li paragonano a uccelli apparentemente capaci di parlare per indicare che ripetono e non creano. La critica prende le mosse dall’idea, molto diffusa, che i modelli linguistici generino testi “a partire dalla probabilità di distribuzione di parole o sequenze di parole”. Come però sintetizza Aaron Brancotti, sviluppatore molto attento ai risvolti filosofici e linguistici delle AI, “GPT-3 non è un gigantesco T9. La semplice predizione del prossimo simbolo più probabile in base alla storia dei simboli già osservati e alle distribuzioni statistiche che si possono inferire non cattura la vicinanza dei simboli, cosa che invece il machine learning con la sua multidimensionalità è capace di fare. GPT-4 impara dei pattern, non delle probabilità”.

Per questo, quando scrive, si comporta in modo molto più simile a noi di quanto siamo portati a pensare. Anche noi umani, del resto, generiamo testi a partire dalla probabilità di distribuzione di parole o sequenze di parole, applicando regole grammaticali, sintattiche, stilistiche, semantiche. Anche noi scriviamo quello che sappiamo e, se lo abbiamo imparato da fonti discutibili, ripetiamo delle stupidaggini o una versione ridotta e semplificata della realtà. Anche noi, se stimolati, miglioriamo la prima bozza, raffiniamo un’idea, ne troviamo di nuove, la cambiamo.

Le intelligenze artificiali sono qui per questo: per aiutarci a farlo sempre meglio, partendo da idee e domande diverse e dalla variabilità elevatissima. Magari evitando di pensare testi e contenuti senza informazioni dentro, consapevoli che, oggi, un chatbot potrebbe smascherarci dicendo “Non lo so, non si sa” molto più velocemente e comodamente di quanto avvenga dopo aver visitato diverse pagine. Quindi salutiamo la Storia, antica o vicina che sia, e capiamo come funziona GPT-4 e in che modo possiamo usarlo per scrivere e lavorare meglio.


Mafe de Baggis, pubblicitaria, scrittrice ed esperta di media digitali, da trent’anni studia il modo migliore per usarli senza lasciarsi sopraffare. Lavora come consulente di comunicazione per aziende piccole e grandi, per liberarne le energie e aiutarle a raccontarsi in modo più consapevole. Già autrice di #Luminol (Hoepli, 2018) e di Libera il futuro (Enrico Damiani Editore, 2020).

0 comments on “Breve (e personale) storia dell’intelligenza artificiale

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *