Ciò che conta per una macchina



Dopo la sconfitta contro Deep Blue, il campione di scacchi (umano) Garry Kasparov si è dedicato a interessanti ricerche sull’intelligenza artificiale. Ecco cosa c’è ancora da imparare guardando le macchine giocare a scacchi.


In copertina: Osvaldo Licini, Amalassunta (1949), Asta Pananti di Ottobre

(Questo testo è un estratto da Deep Thinking di Garry Kasparov. Ringraziamo Fandango per la gentile concessione)


di Garry Kasparov

“D’accordo”, disse Deep Thought. “La Risposta alla Domanda fondamentale…” “Sì…?” “Sulla Vita, l’Universo e Tutto Quanto…”, disse Deep Thought. “Sì…?” “È…”, disse Deep Thought, e fece una pausa. “Sì…?” “È…”. “Sì…???” “Quarantadue,” disse Deep Thought, con infinita calma e solennità. […] “Quarantadue!”, urlò Loonquawl. “È tutto quello che hai da dirci dopo sette milioni e mezzo di anni di lavoro?” “Ho controllato con grande minuziosità”, disse il Computer, “e questa è la risposta veramente definitiva. Credo che, se devo essere franco, il problema stia nel fatto che voi non avete mai realmente saputo quale fosse la domanda”.

Come nelle migliori battute, si cela qualcosa di profondo in questo scambio tra il computer più veloce dell’universo e i suoi creatori, nel libro di Douglas Adams Guida galattica per autostoppisti. Siamo perennemente alla ricerca di risposte senza però peritarci di comprendere davvero le domande, o se siano quelle giuste. Nelle mie conferenze sulla relazione uomo-macchina cito spesso Pablo Picasso, il quale durante un’intervista disse: “I computer sono inutili. Sanno dare soltanto risposte”. Una risposta implica una fine, un punto, e per Picasso non c’era mai una fine, solo nuove domande da scandagliare. I computer sono ottimi strumenti per generare delle risposte, ma non sanno come porgere le domande, almeno non nel senso in cui le fanno gli esseri umani.

Nel 2014 mi fu sollevata un’interessante osservazione allorché feci quest’affermazione. Ero stato invitato a parlare al quartier generale del più grande fondo comune d’investimenti del mondo, nel Connecticut, la Bridgewater Associates. Con una decisione clamorosa che la diceva lunga, la società aveva assunto Dave Ferrucci, uno degli ideatori del progetto d’intelligenza artificiale dell’Ibm di nome Watson, famoso per le sue vittorie nel quiz televisivo americano Jeopardy. Ferrucci sembrava deluso dall’attenzione pressoché esclusiva riservata dall’Ibm all’approccio all’intelligenza artificiale basato sull’analisi statistica dei dati, e dal fatto che l’azienda volesse sfruttare lo straordinario Watson e la sua improvvisa celebrità per farne un prodotto commerciale il prima possibile. Lui stava lavorando su “percorsi” più sofisticati che puntassero a spiegare il “perché” delle cose, non solo a trovare utili correlazioni mediante l’estrazione di informazioni dai dati. Insomma, voleva che l’intelligenza artificiale investigasse oltre i risultati pratici immediati, e che quei risultati rivelassero qualcos’altro oltre a fornire semplicemente una risposta.

La cosa interessante è che Ferrucci decise che era la Bridgewater, famosa per essere un’azienda iconoclasta, il luogo adatto per portare avanti queste ambiziose ricerche, e non l’Ibm, una della più grandi compagnie tecnologiche del mondo. Naturalmente agli uomini della Bridgewater interessavano soprattutto modelli predittivi e analitici in grado di migliorare il rendimento degli investimenti. Così valutarono che valeva la pena sostenere i tentativi di Ferrucci di concepire, come disse lui, “una macchina capace di associare processi deduttivi e induttivi al fine di sviluppare, applicare, affinare e spiegare una teoria economica fondamentale”.

Era un Graal che valeva bene una sacra ricerca, soprattutto per quel che riguardava la “spiegazione”. Nemmeno i più forti programmi scacchistici del mondo sono in grado di spiegare la logica delle loro mosse brillanti, a parte le elementari sequenze tecniche. Giocano una mossa forte semplicemente perché hanno valutato che sia la migliore, non perché usano quel tipo di ragionamento applicato che è comprensibile da un essere umano. Ovviamente, è utilissimo avere una macchina molto forte contro cui giocare e con la quale fare le proprie analisi, ma per un non esperto è un po’ come chiedere a un calcolatore di fargli da insegnante di algebra.

Il commento di Ferrucci durante la mia conferenza arrivò al cuore del problema altrettanto bene della frase di Picasso e del dialogo di Douglas Adams: “I computer – disse – sanno come porre le domande. Però non sanno quali sono quelle importanti”. Adoro questa frase, perché contiene diversi livelli di significato, e ciascuno di essi fornisce utili spunti di riflessione.

Innanzitutto, possiamo prenderla alla lettera. Il programma più semplice può fare una domanda predefinita e registrare la risposta. Ciò non rientra, tuttavia, nelle varie definizioni d’intelligenza artificiale; è solo un’annotazione digitale automatizzata. Anche se la macchina pone una domanda con un tono di voce realistico e registra via via le risposte ponendo a sua volta domande adeguate, probabilmente la sua è poco più di un’elementare analisi dei dati. Da oltre un decennio questo genere di cose sono normali funzioni di aiuto dei software e dei siti internet, seppure senza l’elemento della voce umana. Si digita la domanda o il problema, e il sistema di assistenza o il chat bot selezionano le parole chiave – “blocco”, “audio”, “PowerPoint” –, per poi presentare delle pagine di assistenza correlate o domande aggiuntive che secondo loro sono pertinenti.

Chiunque abbia usato un motore di ricerca come Google ha dimestichezza con questi sistemi – quindi in pratica tutti. Molti di noi sanno già da parecchio tempo che non ha senso digitare su Google “Qual è la capitale del Wyoming?”, quando basta scrivere “capitale Wyoming” per avere la risposta con meno sforzo. Tuttavia, nel parlato preferiamo usare un linguaggio più naturale rispetto a quello usato nella digitazione, e per questo tendiamo a pronunciare frasi complete quando utilizziamo Siri, Alexa, Ok Google, Cortana e gli altri assistenti virtuali che sono ormai in grado di recepire tutto quello che diciamo. È uno dei motivi per cui oggi c’è tanto interesse verso la robotica sociale, una delle diciture con cui si indica lo studio dell’interazione umana con la tecnologia dotata di intelligenza artificiale. L’aspetto, il suono e il comportamento dei nostri robot condizionano molto il modo in cui scegliamo di usarli.

Quando sono intervenuto a una conferenza sulla robotica sociale a Oxford, nel settembre del 2016, ho chiacchierato con un altro relatore, il dottor Nigel Crook, e con il suo robot Artie. Il dottor Crook, che si occupa d’intelligenza artificiale e robotica sociale presso la Oxford Brookes University, insiste su quanto sia importante studiare la presenza dei robot negli spazi pubblici, dove le persone si mostrano allo stesso tempo affascinate e spaventate da essi. Un conto è una voce disincarnata dal cellulare, un altro è ascoltarla da un volto e un corpo meccanici. In ogni caso, indipendentemente dal nostro atteggiamento verso di loro, ce ne saranno sempre di più attorno a noi, dovunque andremo.

Tornando alla questione se i computer siano o meno in grado di porre delle domande, nel senso più profondo indagato da pionieri dell’intelligenza artificiale come Ferrucci, sono in via di sviluppo algoritmi più sofisticati in grado di indagare le motivazioni e le cause degli eventi contenuti nei dati, non solo di attribuire un punteggio alla correlazione tra richiesta fatta e ricerca di una possibile risposta. Ma per sapere quali siano le domande giuste, dobbiamo sapere ciò che è importante, ciò che conta. E non possiamo saperlo a meno di non conoscere già quale sia il risultato più desiderabile.

Durante i miei interventi mi soffermo spesso sulla differenza tra strategia e tattica, e sul perché sia fondamentale discernere innanzitutto i propri obiettivi a lungo termine così da non confonderli con reazioni, occasioni o semplici tappe intermedie. La difficoltà sta nel fatto che le aziende, anche quelle più piccole, devono determinare i loro scopi e fare verifiche periodiche per assicurarsi di essere sulla strada giusta. Adattarsi alle circostanze è importante, ma se si modifica continuamente la strategia non se ne avrà mai una. Noi umani già facciamo fatica a individuare ciò che vogliamo e il modo migliore per ottenerlo; quindi non è così strano che abbiamo problemi a mettere le macchine nelle condizioni di osservare il quadro generale.

Le macchine non possono sapere autonomamente se o perché determinati risultati contano più di altri, a meno di non essere state programmate con parametri espliciti o non abbiano sufficienti informazioni per scoprirlo da sole. Del resto che cosa significa affermare che una data cosa conta per una macchina? Il risultato è pertinente oppure non lo è sulla base di ciò che le è stato detto essere pertinente; sono gli esseri umani a dover fissare questi valori. Almeno, così ha sempre funzionato. Il punto è che oggi le nostre macchine cominciano a non sorprenderci più per i risultati che ci restituiscono bensì per i metodi usati per trovare quei risultati, ed è una differenza enorme.

Per fare un esempio semplice, un programma scacchistico tradizionale conosce le regole del gioco, sa come si muovono i pezzi e come funziona lo scacco matto. Esso contiene anche il valore dei singoli pezzi (uno per il pedone, nove per la regina, ecc.) e altre conoscenze scacchistiche come la mobilità dei pezzi e la struttura pedonale. Tutto ciò che va oltre le semplici regole è classificato come conoscenza. Se in questa conoscenza viene fatta rientrare la nozione che un pedone vale di più di una regina, la macchina combatterà rinunciando senza esitazione alla regina, e alla partita.

Ma che cosa accade se non si dà alla macchina nessun tipo di conoscenza? Che cosa succede se ci limitiamo a trasferirle le regole del gioco e poi lasciamo che scopra da sola il resto? Lasciamo che la macchina capisca da sola che le torri valgono di più degli alfieri, che un’impedonatura può essere un punto debole o che una colonna aperta può essere vantaggiosa. Questo non soltanto dà la possibilità di creare una forte macchina scacchistica ma anche di far apprendere agli esseri umani nuove cose osservando ciò che scopre la macchina e come lo scopre. In effetti è quello che già stanno facendo svariati sistemi, che usano tecniche come gli algoritmi genetici e le reti neurali per programmarsi sostanzialmente da soli. Purtroppo, almeno finora, non si sono dimostrati più forti dei tradizionali sistemi a ricerca rapida che si affidano alle conoscenze umane pre-codificate. Ma questa è colpa degli scacchi, non dei metodi usati. Quanto più complesso è il soggetto, tanto più è probabile che tragga vantaggio da un algoritmo aperto, auto-generantesi piuttosto che da conoscenze umane prestabilite. Gli scacchi non sono sufficientemente complessi, e io stesso ammetto che c’è più complessità nella vita reale che negli scacchi.

Osvaldo Licini, Amalassunta (1949), Asta Pananti di ottobre

Ci sono voluti trent’anni, ma alla fine il mio amato gioco si è rivelato troppo dipendente dalla ricerca rapida della forza bruta per pretendere dalle macchine quel pensiero strategico necessario per battere i migliori giocatori umani. Nonostante tutto il lavoro per calibrare la funzione di valutazione di Deep Blue e perfezionare le sue aperture, la triste verità è che dopo qualche anno e una nuova generazione di chip più veloci non era cambiato granché. Nel bene e nel male, gli scacchi semplicemente non erano abbastanza complessi da costringere la comunità degli scacchi informatici a trovare una soluzione che andasse oltre la velocità, un fatto di cui molti si sono lamentati.

In un articolo scientifico del 1989 dal titolo “Il futuro dopo la caduta in disgrazia”, due dei maggiori esperti di scacchi computerizzati criticarono i metodi con cui si era cercato di avvicinare le macchine alla forza dei Grandi maestri.4 Uno era lo scienziato informatico sovietico Mikhail Donskoj, uno dei creatori del programma Kaissa che vinse il primo Campionato del mondo per computer scacchistici nel 1974. L’altro era il canadese Jonathan Schaeffer, impegnato da anni assieme ai suoi colleghi dell’università di Alberta nel campo delle macchine scacchistiche. A parte il suo lavoro sugli scacchi, Schaeffer ha elaborato, oltre a un potente programma di poker, il software Chinook, che ha partecipato al campionato mondiale di dama e ha risolto quasi completamente il gioco.

Nel loro provocatorio saggio, pubblicato su un’autorevole rivista di scacchi informatici, Donskoj e Schaeffer analizzano come, nel corso degli anni, gli scacchi computerizzati si siano allontanati dall’intelligenza artificiale. I due ritengono che questa separazione sia stata dovuta al successo travolgente dell’algoritmo di ricerca alfabeta. Perché cercare altro se il metodo vincente era già a portata di mano? Come scrivono i due scienziati, “è stata una sfortuna che un’idea tanto efficace sia arrivata così presto nel mondo degli scacchi computerizzati, già nella fase della loro gestazione”. Vincere era ciò che contava, possibilmente in tempi più rapidi, così l’ingegneria prese il sopravvento sulla scienza. Gli schemi, le conoscenze scacchistiche e gli altri metodi umani furono messi da parte via via che le superveloci macchine impostate sulla forza bruta facevano incetta di trofei.

Per molti fu un colpo durissimo. Gli scacchi erano stati un importante campo di ricerca della psicologia e delle scienze cognitive quasi da quando erano nate queste discipline. Nel 1892 Alfred Binet studiò i giocatori di scacchi nell’ambito delle sue ricerche sui “prodigi matematici e i calcolatori umani”. I suoi risultati ebbero vastissima risonanza nello studio dei differenti tipi di memoria e di prestazioni mentali. Le riflessioni di Binet sulle differenze tra il talento innato e la conoscenza e l’esperienza acquisite servirono a fissare alcune linee di demarcazione: “Si può diventare buoni giocatori”, scriveva, “ma eccellenti giocatori si nasce”. Binet avrebbe poi ideato il test sul quoziente d’intelligenza assieme a Theodore Simon. Nel 1946 il lavoro di Binet fu portato avanti dallo psicologo olandese Adriaan de Groot, i cui esperimenti sugli scacchisti rivelarono l’importanza del riconoscimento dei pattern e sollevarono il velo su alcuni misteri dell’intuito umano nel processo decisionale.

John McCarthy, lo scienziato informatico americano che nel 1956 coniò l’espressione “intelligenza artificiale”, definì gli scacchi “la drosofila dell’intelligenza artificiale”, volendo con ciò accomunarli al moscerino della frutta che, per quanto umile, era il soggetto ideale per numerosi importanti esperimenti di biologia, soprattutto nel campo della genetica. Ma, alla fine degli anni Ottanta, la comunità degli scacchi computerizzati aveva ormai rinunciato a questo grande esperimento. Nel 1990 Ken Thompson, uno degli artefici del programma Belle, raccomandava apertamente il gioco Go ritenendolo un campo di ricerca molto più promettente sul fronte della cognizione artificiale. Quello stesso anno, nella raccolta di saggi Computers, Chess and Cognition fu incluso un intero capitolo dedicato al Go, dal titolo “Una nuova drosofila dell’intelligenza artificiale?”.

La scacchiera diciannove per diciannove del Go, con le sue 361 pietre bianche e nere, è una griglia troppo grande da conquistare con la forza bruta, ed è un gioco troppo complesso perché l’esito di una partita possa essere determinato da quegli errori tattici che decretano la sconfitta degli esseri umani contro i computer a scacchi. In un articolo del 1990 sul Go quale nuovo campo d’indagine dell’intelligenza artificiale, alcuni programmatori di questo gioco dichiararono di essere circa vent’anni indietro rispetto agli scacchi. La stima si rivelò esatta: nel 2016, diciannove anni dopo la mia sconfitta contro Deep Blue, il progetto d’intelligenza artificiale finanziato da Google DeepMind, con la sua creatura, AlphaGo, ha battuto il più forte giocatore del mondo di Go, Lee Sedol. Fatto ancor più importante, e anche questo previsto, i metodi usati per creare l’AlphaGo si sono dimostrati un progetto d’intelligenza artificiale più interessante di quelli che avevano prodotto le migliori macchine scacchistiche. Il software utilizza l’apprendimento automatico (machine learning) e le reti neurali per insegnare a se stesso come giocare meglio, assieme ad altre sofisticate tecniche che vanno oltre la ricerca alfabeta. Deep Blue fu un punto di arrivo; AlphaGo è un nuovo inizio.

I limiti degli scacchi non erano l’unico fattore debole in quell’equazione. Anche il principio fondante della scienza informatica nel campo dell’intelligenza artificiale mostrò i suoi limiti. Il presupposto su cui poggiava il sogno di Alan Turing di un’intelligenza artificiale era che, essendo il cervello umano una sorta di computer, l’obiettivo dovesse essere la creazione di una macchina in grado di imitare il comportamento umano. È stato questo il principio ispiratore degli scienziati informatici per generazioni. È un’analogia affascinante: i neuroni come interruttori, la corteccia cerebrale come una banca dati. Tuttavia, al di là della metafora, vi sono scarsissime evidenze biologiche a conferma di questo parallelismo, e in più esso distoglie l’attenzione da ciò che rende il pensiero umano così diverso rispetto al pensiero meccanico.

I due termini che mi piace usare per evidenziare queste differenze sono “comprensione” e “scopo”. Comincio dal primo. Una macchina come Watson, progettata per elaborare il linguaggio umano naturale, deve scegliere tra milioni di occorrenze per creare un contesto tale da dare senso a qualcosa che è immediatamente comprensibile per un essere umano. La semplice frase “il pollo è troppo caldo da mangiare” può significare che un animale da cortile ha la febbre oppure che la cena deve raffreddarsi. Ma un essere umano non può equivocare ciò che vuole dire il parlante, nonostante l’intrinseca ambiguità della frase. Il contesto in cui viene pronunciata ne rende ovvio il significato. Usare il contesto è un fatto naturale per gli esseri umani; è uno dei modi in cui il nostro cervello gestisce una mole immensa di dati senza dover discernere ogni cosa consapevolmente tutte le volte. Il nostro cervello lavora sullo sfondo senza uno sforzo percepibile da parte nostra, in modo quasi altrettanto spontaneo quanto respirare. Uno scacchista forte sa al primo sguardo che una determinata mossa è buona in una determinata posizione, come voi sapete che vi piacerà un certo pasticcino solo dal suo aspetto. Naturalmente questi processi intuitivi di sottofondo talvolta sono sbagliati, e allora possiamo ritrovarci in una posizione perdente o con una merenda di scarsa qualità; di conseguenza, la mente cosciente probabilmente si farà valere un po’ di più la prossima volta che si ripresenterà quella situazione, mettendo in discussione la vostra intuizione.

Per converso, un’intelligenza meccanica deve costruire il contesto a ogni nuovo frammento di dato che si trova davanti. Deve elaborare una quantità enorme di dati prima di poter emulare la comprensione. Immaginate tutte le domande cui deve trovare risposta un computer prima di identificare il problema del pollo caldo. Che cos’è un pollo? È vivo o morto? Vi trovate in una fattoria? È qualcosa che si mangia? Che cosa significa mangiare? Quando ho fatto questo esempio davanti a un uditorio che non era madrelingua inglese, qualcuno mi ha fatto notare che nella frase c’è un ulteriore elemento di ambiguità, perché “hot” (‘caldo’) in inglese può voler alludere sia alla temperatura del cibo sia al fatto di essere piccante. 

Malgrado l’elevata complessità anche in frasi così semplici, Watson ha dimostrato che una macchina può dare riposte precise se ha a disposizione abbastanza dati ai quali accedere velocemente e intelligentemente. Come nel caso di un motore scacchistico che calcola miliardi di posizioni per trovare la mossa migliore, anche il linguaggio può essere scomposto in tanti valori e probabilità ai fini del responso. Quanto più veloce è la macchina, maggiore è la quantità e la qualità dei dati e intelligente il codice, tanto più precisa sarà la risposta.
In merito all’interrogativo se i computer siano o meno in grado di formulare domande, è divertente che una delle regole del quiz televisivo Jeopardy – in cui Watson ha dato sfoggio di sé battendo due ex campioni umani – sia che i partecipanti devono dare le risposte in forma interrogativa. Così per esempio, se il presentatore dice “questo programma sovietico vinse il primo Campionato del mondo di scacchi computerizzati nel 1974”, il giocatore premerà il pulsante e risponderà: “Che cos’era Kaissa?”. Questa strana procedura, in ogni caso, non influisce sulla capacità della macchina di trovare le risposte nei suoi quindici petabyte di dati.

Comunque sia, il risultato è soddisfacente. La prestazione è migliore di quella di un essere umano. Non c’è la comprensione, ma non è mai stato previsto che dovesse esservi. L’intelligenza artificiale applicata alla diagnostica medica può consultare anni di dati clinici su pazienti affetti da cancro o diabete e trovare correlazioni tra caratteristiche, abitudini e sintomi per aiutare a prevenire o diagnosticare la malattia. Importa forse che nulla di tutto questo “conta” per una macchina, purché sia uno strumento utile?
Forse no, ma importa a chi vuole costruire la prossima generazione di macchine intelligenti, macchine che imparano da se stesse più velocemente di quanto noi insegniamo loro. Dopotutto, gli esseri umani non imparano la lingua madre dai libri di grammatica.
La traiettoria finora è sempre stata la seguente: viene costruita una macchina che segue delle regole rigide per imitare il comportamento umano; le sue prestazioni sono scarse e artificiose; dopo anni di ottimizzazioni e potenziamenti della velocità, il rendimento migliora. Il successivo salto di qualità avviene quando i programmatori allentano le regole e consentono alle macchine di apprendere più cose da sole e di modificare o addirittura ignorare le vecchie regole. Per diventare bravi in qualsiasi cosa bisogna sapere come applicare i principi basilari. Per diventare grandi, bisogna sapere come trasgredire quei principi. Non è pura teoria: è anche la storia delle ventennali battaglie che io stesso ho combattuto contro le macchine scacchistiche.

0 comments on “Ciò che conta per una macchina

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *