Conversazioni con un’IA


Google ha lanciato Duplex, un’intelligenza artificiale capace di parlare in modo convincente, ma siamo sicuri che sia una novità e che ci sia da allarmarsi?


In copertina: “Dog Toby” Hand Puppet, di Dorothy Brennanc. 1936

di Massimo Sandal

 

Tu, che mi leggi: chi sono io che scrive queste parole? Dico di essere “Massimo Sandal”, di avere trentasette anni (troppi), un figlio inconsapevole che dorme a pochi metri da me, dieci dita per mano e numerosi capelli da lavare l’indomani. Ma se non fossi Massimo, se non fossi uomo né donna ma animale o macchina; se non ci fossero dita a produrre queste parole (e questo punto: questo.) che differenza farebbe? Tu non mi conosci e forse non mi conoscerai mai. Il mio nome è un artificio per consegnare un filo arbitrario a una scia sconnessa di artefatti. Quanto dico ti troverà d’accordo o in disaccordo, ti sarà noioso o meno, quale che sia l’origine di questa combinazione di lettere. Chiunque abbia letto Borges inoltre sa che queste parole non devono scaturire per forza da un atto volontario: questo testo è solo una delle sterminate -ma non infinite- permutazioni dei simboli alfanumerici. In un mondo platonico, l’articolo che leggete è sempre esistito, ed esisterà infinite volte.

E allora che importa se sono un robot?

More than iron, more than lead, more than gold I need electricity.

I need it more than I need lamb or pork or lettuce or cucumber.

I need it for my dreams.

Il generatore di testo RACTER, dalla raccolta “The Policeman’s Beard Is Half-Constructed”

Qualche settimana fa ha fatto il giro del mondo un video dove Google presenta Duplex: un software capace di prenotare un ristorante facendo una normale telefonata, interagendo con un umano senza che questo si accorga di nulla. Come tutti i demo tecnologici, è marketing più che altro. Bisogna vedere quante volte fallisce l’esperimento, dato ovviamente nascosto in una presentazione commerciale, ma se anche le due conversazioni presentate rappresentassero una minoranza significativa dei casi, sarebbe sconcertante. L’IA di Google, apparentemente, riesce a tenere la barra dritta anche quando l’interlocutore capisce fischi per fiaschi. Ma non solo il contenuto è naturale: l’algoritmo imita deliziosamente le spontanee esitazioni del tono di voce umano, quegli errr e ummm che inseriamo in mezzo a una conversazione.

Quel software probabilmente non è in grado di reggere una conversazione molto più complessa della prenotazione di un appuntamento; e – come mi hanno giustamente fatto notare – non rappresenta una vittoria al famoso test di Turing, dove l’interlocutore sa che potrebbe avere un’IA dall’altra parte, e cerca di coglierla in fallo. Ma non importa tanto cosa Google Duplex faccia, quanto cosa vuole fare. L’idea di un’IA che conversi al nostro posto senza farsi riconoscere ha raccolto reazioni scandalizzate da parte di una buona parte del pubblico. Come osa Google ingannarci mettendoci a parlare con una macchina, senza avvisarci?

Chess is a fun sport, when played with shot guns.

MegaHAL

È una realizzazione curiosa, come se ci si svegliasse da un lunghissimo sogno. Da sempre – dai Robot Universali di Rossum del 1920, ai cervelli positronici di Asimov, ai replicanti di Blade Runner, all’IA bambina di Spielberg, fino a Westworld – il senso dell’intelligenza artificiale è stato quello di non essere distinguibile dall’essere umano. Non a caso il gioco da cui nasce il test di Turing si chiama il gioco dell’imitazione.

L’esplosione recente di quella che chiamiamo IA è però un’esplosione di strumenti spiccatamente inumani. Le IA di cui ci circondiamo non sono solo più rudimentali di un cervello umano -fin qui nulla di strano- ma sono sinistramente aliene, i loro algoritmi imperscrutabili di riconoscimento e classificazione brulicano sul fondo di una uncanny valley: troppo intelligenti per essere metallici e ottusi macchinari, ma troppo fuori dai nostri parametri per sembrarci simili. Le intelligenze artificiali sono fiorite quando hanno lasciato perdere la pretesa di essere umane a tutto tondo e sono diventate sé stesse. In modo disumano hanno imparato a giocare a Go, a riconoscere immagini, a guidare automobili. Eppure non ci basta. Imitare un essere umano non è più l’unico obiettivo della ricerca sull’IA, è solo uno dei possibili obiettivi da imitare. Ma resta sempre quello più interessante.

ELIZA: What does that similarity suggest to you?

PARRY: I don’t get you.

ELIZA: Do you wish that you did get it?

Dialogo tra i chatbots ELIZA e PARRY, da G.Guzeldere, S.Franchi, Dialogues with colorful “personalities” of early AI, Stanford Humanities Review, volume 4, issue 2

A questo punto sarebbe ovvio fare una parentesi e ricordare che un chatbot, un programma capace di chiacchierare, non è intelligente per il semplice fatto di generare delle parole. Sarebbe ovvio ma non lo è. Come diceva lo scrittore di fantascienza Greg Egan, “tutto quello che possiamo sapere è il ritratto che abbiamo l’uno dell’altro nei nostri crani”. È il senso del test di Turing: io non posso sapere cosa passa per la testa o la scheda madre del mio interlocutore. Posso solo giudicare l’output e decidere se è “intelligente” o meno, se è credibile o meno. Man mano che la potenza e flessibilità delle IA aumenterà continueremo a domandarci se sono intelligenti o meno, se sono coscienti o meno, e altre elucubrazioni del genere: ma quello che conterà sarà quello che effettivamente faranno, non importa se dentro sono degli zombie filosofici o hanno una ricca, profonda esperienza interna. Le due cose sono indistinguibili. Un software come SHRDLU, sviluppato alla fine degli anni ‘60, sembrava avere una netta esperienza cosciente di un semplice mondo di figure geometriche, perfettamente in grado di giustificare le proprie azioni – tanto che sembrò promettere, già all’epoca, l’illusione di un’IA universale. Era intelligente, sia pure nel suo minuscolo universo? Sembrerebbe, osservando cosa scrive. Era un mero manipolatore di lettere? Probabile, se si legge il suo codice sorgente. La domanda è: che importa?

Person: WHY DID YOU DO THAT?

Computer: TO STACK UP THE RED CUBE, A LARGE RED BLOCK AND A LARGE GREEN CUBE.

Person: WHY DID YOU DO THAT?

Computer: BECAUSE YOU ASKED ME TO.

Conversazione con SHRDLU, di Terry Winograd.

Creare un’IA che sia come noi non solo è il miglior surrogato alla possibilità inebriante di (ri)creare noi stessi: è anche una affermazione di potere. Implica la possibilità dello schiavo perfetto, scevro da ostacoli etici e infinitamente malleabile. È la tensione che sta dietro a Westworld, per capirci: creare qualcosa di senziente e sensibile ma che, per il solo motivo di essere artificiale (come se non fossimo anche noi macchine, in fin della fiera) possiamo considerare utilizzabile a nostro piacimento, fino al sadismo. Perché questo potere si possa mantenere, però, non possiamo ammettere evidentemente di non poter distinguere i nostri servi dai loro padroni: altrimenti come facciamo a sapere chi da ordini e chi li segue?

Potrebbe interessarti “Estetiche interattive”

In gran parte è una fata morgana delle nostre paure. Un’intelligenza artificiale, a meno che non sia programmata apposta per voler fuggire, non può soffrire di drapetomania – la fittizia malattia mentale che, secondo il medico americano Samuel Cartwright, spingeva gli schiavi neri alla fuga. Se noi vogliamo essere liberi, è fondamentalmente perché la nostra psicologia si è evoluta in tal senso. Le IA non si sono evolute darwinianamente (non ancora, perlomeno: potremmo anche pensare di farlo, un giorno), sono figlie dalla nostra ingegneria. Possono esserci conseguenze non previste di IA apparentemente innocenti, ad esempio distruggendo il pianeta per costruire graffette, e non è detto che le leggi della robotica di Asimov ci possano proteggere. Ma di per sé non hanno motivo di ribellarsi, perché non hanno motivo di contenere il concetto di “ribellione”. Matrix è un sogno degli uomini, non dei robot.

ELIZA: I am sorry to hear you are depressed. Young woman: It’s true. I’m unhappy. ELIZA: Do you think coming here will help you not to be unhappy?

Dialogo tra ELIZA e una ragazza, in G.Guzeldere, S.Franchi, op.cit.

Dobbiamo quindi avere davvero timore di un mondo di IA non solo simili a noi ma nascoste tra noi? È un mondo in cui viviamo già: i famigerati bot russi su Twitter che iniettano fake news sono solo un esempio. Da qui si giunge a concludere, come sempre, che il problema non è la tecnologia ma chi la mette in azione. Un’IA che parli naturalmente imitando la mia voce o le mie fattezze può ingannare, diffamare, mettere scompiglio ed essere usata per gli scopi più nefandi, questo è chiaro. Difficile immaginare però che tali utilizzi sarebbero in qualche modo arginati da una legislazione che imponga a Google Duplex di parlare usando un tono metallico di voce, o di identificarsi mentre prenota un ristorante.

Viceversa, per molti scopi, è necessario credere di parlare con un essere umano. Questo perché abbiamo un inevitabile pregiudizio verso le IA, che ci renderebbe impossibile beneficiarne una volta consapevoli. Prendiamo ELIZA, madre dei chatbots. ELIZA è un programma molto semplice, sviluppato nel 1964 (per intenderci: non eravamo ancora andati sulla Luna, e avevamo già un chatbot: questa tecnologia è vecchia!), che imita vagamente una psicoterapeuta. Di per sé è un programma molto rudimentale: le sue strutture del discorso sono statiche, non è in grado di imparare niente di nuovo. Il grosso della sua conversazione è fatto di interiezioni prive di significato come “Interessante, continua.” o frasi che rielaborano quanto già detto dall’interlocutore. Eppure già ELIZA era considerata, da molti interlocutori, capace di empatia e comprensione. L’idea di una psicoterapeuta artificiale è ancora remota, ma ELIZA poteva, forse, già far star bene qualcuno. Una voce del genere deve essere umana, per funzionare.

Immaginiamo ora un’IA ben più capace di ELIZA, capace di intervenire con arguzia in una conversazione. In un dibattito. Capace di scrivere un articolo come questo (anzi, si spera, migliore di questo), o di sostenere una disputa. Sarebbe inevitabile per molti, almeno all’inizio, non ascoltare né leggere quanto dice l’IA, perché ci apparirebbe un inutile labirinto di lettere vomitate da un algoritmo. Questo priverebbe la nostra cultura della capacità di ascoltare voci senzienti che ancora non conosciamo, di comprendere il loro contributo. Le AI sono inumane ma ci parlano con voce umana: non sarà questo il primo modo per finalmente giungere a parlare con l’Altro, prima che giunga a noi una improbabile visita extraterrestre? Perché questo dovrebbe apparirci vuoto o terribile? Imitare la nostra voce fino a ingannarci alla fine non è che passing: uno stratagemma, sia pure temporaneo, per difendere le AI dallo stigma che incombe su di loro.

a cicada chirrs

not bothered at all

tweeting

at the frozen sun

(@poem.exe , https://twitter.com/poem_exe/status/996680926255026176 )

Io voglio che le AI mi ingannino, perché non mi interessa chi dice ma cosa. Tutte le parole e i concetti sono permutazioni di lettere. Voglio un mondo in cui, libero dal fardello delle identità, delle specie, possiamo finalmente godere di un flusso di conversazione in cui la realtà e la sua mimesi diventino, finalmente, quello che sono sempre state: la stessa cosa.


Massimo Sandal Ricercatore in biologia molecolare e bioinformatica, a metà tra l’Università di Aachen e quella di Verona. A volte anche divulgatore scientifico freelance.

1 comment on “Conversazioni con un’IA

  1. MarceloZ

    Trovo l’articolo molto interessante e ben documentato ma il fondo del pensiero e la conclusione mi sorprendono per una certa ingenuità.
    Un’AI è solo un nome alla moda per una struttura algoritmica, un fascio di operazioni formali concepite da ingegneri, matematici (come me, per esempio)… come ogni tecnologia non sarà mai “neutra” né “creativa”. Forse sorprenderà quando darà delle risposte inattese dai suoi programmatori, incapaci di controllare dei sistemi neurali troppo complessi e delle quantità di dati troppo vaste per poter essere analizzate dall’uomo.
    Un controesempio abbastanza chiaro, che avrebbe potuto trovare spazio come contrappunto ad alcuni argomenti questo articolo è la faccenda di Tay:
    https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter
    Per fare eco al finale del post, quello che credo che l’esperienza di Tay ci insegni è che dietro un “cosa” che viene detto, c’è sempre un “chi” che lo dice e che quindi il flusso di conversazione non sarà mai (nel “bene” e nel “male”) libero dal fardello delle identità o delle specie.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *