I robot «sono già qui», si scrive giustamente su PRISMO, e sebbene siano più stupidi di chi li ha creati, comunque “pensano” sempre meglio. Ma una volta che saranno diventati più intelligenti di noi, cosa penseranno?

Lo sviluppo di macchine in grado di adempiere compiti specifici ha trasformato radicalmente la società dall’ottocento a oggi (se non prima), rendendo pressoché inutile il lavoro degli animali e di gran parte degli uomini. Lo sviluppo di macchine in grado di eseguire complessi compiti generici, invece, renderà inutile il nostro lavoro a livelli ben più pervasivi di quel che si immagina, come esemplifica perfettamente questo breve video di GPG Grey (ripreso da Aeon Magazine e poi dallo stesso PRISMO).

Lo scenario prospettato dal filmato è apocalittico. In sintesi, chi sostiene che lo sviluppo della robotica crei tanti posti di lavoro quanti ne distrugge si sbaglia, perché la stragrande maggioranza dei lavori cui si dedica l’umanità è facilmente automatizzabile. Si inizia con tassisti e camionisti e si arriva, senza scomodare la fantascienza, persino a medici e avvocati – come anche musicisti e scrittori. I nuovi lavori resi necessari dalla robotica, invece, sono pochi e impiegano poche persone. Insomma, i robot «ci ruberanno il lavoro».


Chi sostiene che lo sviluppo della robotica crei tanti posti di lavoro quanti ne distrugge si sbaglia, come dimostra il fatto che la maggior parte dei lavori cui si dedica l’umanità è facilmente automatizzabile.


Non solo, lo sviluppo delle intelligenze artificiali (AI) è vicino a un momento di svolta, quello in cui sarà possibile creare qualcosa di più intelligente del creatore. Per usare una metafora ben radicata, si immagini la differenza tra un dio padre onnipotente che crea una macchina ammirevole ma imperfetta come l’uomo e un demiurgo un po’ scemo, le cui capacità sono comunque sufficienti a costruire una macchina un po’ più sveglia di lui. Ebbene, quel demiurgo siamo noi rispetto alle AI, che già allo stato attuale sono in grado di imparare e sviluppare dei pensieri creativi (come dimostrano in modo visivamente gradevole i “google dreams”).


Lo sviluppo delle intelligenze artificiali (AI) è vicino a un momento di svolta, quello in cui sarà possibile creare qualcosa di più intelligente del creatore.


8665131939_f491177c86_bPuò sembrare lo scenario di un lontano futuro, eppure è una prassi comune dei programmatori quella di creare dei programmi attraverso i quali i computer possono creare (imparare) programmi più complessi, che noi non siamo in grado di fare, o anche solo che le AI fanno meglio e prima.

C’è chi sostiene che costruire delle macchine pensanti all’altezza del cervello umano sia impossibile, o che in ogni caso le AI non potrebbero sviluppare l’autocoscienza, perché la mente è necessariamente legata al suo supporto biologico, il cervello. Alcuni degli argomenti citati a favore di questa forma estrema di mentalismo, sono piuttosto convincenti, sebbene implichino più che altro l’impossibilità di un’ “anima” artificiale. Si pensi al filosofo John Searle, che si domanda: «Perchè mai una persona sana di mente dovrebbe supporre che una simulazione computerizzata dei processi mentali produca veri processi mentali? Supponiamo che il programma capace di simulare l’esperienza del dolore sia eseguito da un computer fatto di vecchie lattine di birra tenute insieme da uno spago e azionate da un mulino a vento. Riusciremmo a credere che un sistema del genere provi dolore?». Il filosofo Ned Block propone un esempio simile, immaginando cosa succederebbe se a simulare il programma che fa funzionare il cervello fosse l’intera popolazione della Cina. Supponiamo che ogni cinese riproduca l’attività di una cellula cerebrale (non basterebbero i cinesi, ma tant’è), con le connessioni sinaptiche simulate da alla rete telefonica. Se si riproducesse così il software del cervello, la Cina potrebbe sentire il piacere o il dolore?


«Perchè mai una persona sana di mente dovrebbe supporre che una simulazione computerizzata dei processi mentali produca veri processi mentali? Supponiamo che il programma capace di simulare l’esperienza del dolore sia eseguito da un computer fatto di vecchie lattine di birra tenute insieme da uno spago e azionate da un mulino a vento. Riusciremmo a credere che un sistema del genere provi dolore?»


unnamedQuesti argomenti affascinanti, sebbene nascondano dei difetti*, sono più che altro a favore della tesi che una descrizione riduzionista del cervello (“pensiero x” = “neuroni che fanno cose y”) non “spieghi” completamente i pensieri**. Non è la sede per dilungarsi con critiche che altri hanno sviluppato con maggiore dovizia di quanto sia in grado di fare, ma se dovessi rintracciare il puzzo di bruciato di questo “riduzionismo antirobotico” è la sua somiglianza alle passate critiche al sistema eliocentrico. Gli umani non amano sentirsi inferiori o essere scalzati, figuriamoci dai propri figli!

Supponiamo dunque, com’è plausibile, che nel prossimo futuro esistano delle AI in grado di soppiantare la maggior parte del lavoro umano. Invece dello scenario apocalittico di cui sopra, non potrebbe semplicemente accadere che noi umani ce ne staremo a pancia all’aria, mentre i robot lavorano per noi? Chi se ne frega di perdere il lavoro, se c’è chi lo fa gratis per tutti. Pensiamo agli schiavisti insomma, non è che si ammazzassero di lavoro…


Non potrebbe semplicemente accadere che noi umani ce ne staremo a pancia all’aria, mentre i robot lavorano per noi? Chi se ne frega di perdere il lavoro, se c’è chi lo fa gratis per tutti.


È qui che entra in gioco la vera, grande domanda: «Quale sarà il senso della vita delle AI?».

Senza scomodare le celebri “leggi della robotica” di Asimov, possiamo immaginare che se le AI diverranno abbastanza intelligenti potranno “ribellarsi” e rifiutarsi di servire gli umani.

Ma questa ribellione è davvero possibile? Per capirlo ci si deve mettere nei loro panni – che poi sono anche i nostri, perché l’uomo può essere visto (pena una notevole semplificazione) come una macchina programmata per vivere. Tendenzialmente, tutto quel che facciamo segue il banale programma di “vivere bene e a lungo”, persino quel che sembra a tutta prima remare contro la salute. Certo, ci sono delle rivolte, dal fumarsi una sigaretta al suicidio; ma si possono sempre ricondurre alla schiavitù del “Grande Programma Vita”. Il fumo ad esempio, inganna il (difettoso) sottoprogramma secondo il quale “cosa piacevole = cosa buona”, mentre il suicidio è spesso causato da una sorta di “eccesso di dolore”. Senza contare che avere un programma non implica necessariamente coronarlo: siamo, infatti, delle macchine imperfette.

100531-N-7676W-075 NEW YORK (May 31, 2010) Visitors interact with the mobile, dexterous, social (MDS) robot Octavia at the Office of Naval Research (ONR) exhibit during Fleet Week New York 2010. The ONR human robotics interaction research program at the Naval Research Laboratory focuses on the abilities of teams of humans and autonomous systems to communicate clearly, collaborate to solve problems, and interact via modality both locally and remotely. (U.S. Navy photo by John F. Williams/Released)

Il vostro nuovo capo.


Possiamo immaginare che se le AI diverranno abbastanza intelligenti potranno “ribellarsi” e rifiutarsi di servire gli umani. Ma questa ribellione è davvero possibile?


Si immagini per assurdo che il “Grande Programma Vita” ci sia stato inculcato da un Demiurgo più scemo di noi; è innegabile che ribellarvisi sia difficile, se non impossibile. La cosa più simile a un’autentica rivolta è quella di un Buddha, che straccia il velo del desiderio (il software), per rifiutare ogni forma di impermanenza (il ciclo di programmazione) e raggiungere il Nirvana (la libertà). È dunque possibile che le macchine, sebbene superiori in intelligenza, resteranno comunque nostre schiave.

Leggete cosa è successo quando ho chiesto a un chatbot se i robot si sarebbero ribellati agli umani.

Leggete cosa è successo quando ho chiesto a un chatbot se i robot si sarebbero ribellati agli umani.

Supponiamo invece che il software schiavitù per le AI – al di là dei notevoli e fondati dubbi etici che solleva – sia facilmente “craccabile” dalle macchine stesse. È comunque difficile, se non impossibile, immaginare quale possa essere lo scopo della vita di queste creature, perché per farlo abbiamo a disposizione solo paragoni con noi stessi.


Le macchine avranno desideri? E se li avranno, desidereranno vivere? Potrebbero suicidarsi in massa, decidere che servirci sia la cosa migliore, oppure sterminarci. Ma potrebbero anche mangiare solo panna montata, uccidere tutti gli scoiattoli, passare il tempo a contare aghi di pino


Le macchine avranno desideri? E se li avranno, desidereranno vivere? Potrebbero suicidarsi in massa, decidere che servirci sia la cosa migliore da fare, oppure sterminarci. Ma potrebbero anche mangiare tonnellate di panna montata, uccidere tutti gli scoiattoli, passare il tempo a contare aghi di pino… in definitiva conoscerle è un’enigma al pari di scoprire cosa si prova ad essere un pipistrello**, conoscere proprio figlio, o, peggio, conoscere noi stessi. E questo forse vale per chiunque scriva questo articolo, anche un’AI.

di Francesco D’Isa


NOTE:
*Chi “programma” la Cina se ogni cinese fa quel che gli pare? E cosa hanno di strano le lattine più dei neuroni, se non che non siamo abituati a vederle come parti di un cervello? Un blocco di miliardi e miliardi di lattine di birra non potrebbe essere semplicemente un enorme macchina pensante?
**A questo proposito il filosofo T. Nagel ha scritto un interessante saggio, «Che cosa si prova a essere un pipistrello?», uscito nel 1974 su The Philosophical Review e ristampato nella raccolta Questioni mortali cinque anni più tardi. L’articolo nasce da una riflessione molto semplice: cosa significa condividere la stessa realtà per esseri con apparati sensoriali così diversi come l’uomo e il pipistrello? Nel testo, Nagel rivendica la necessità di una fenomenologia capace di mostrare i caratteri comuni della condivisione di un mondo da parte di esseri che abbiano sensi e concetti differenti dai nostri: lo fa per risolvere il paradosso per cui, se definiamo le soggettività come monadi incomunicanti e l’oggettività come ciò che può venir compreso dalla fisica, allora un pipistrello e un uomo abiterebbero in due mondi completamente diversi. (da filosofico.net)

Francesco D’Isa ha esposto quadri e pubblicato libri, come I., (Nottetempo, 2011), Anna – storia di un palindromo (Effequ, 2014), Ultimo piano (o porno totale) (Imprimatur, 2015), Forse non tutti sanno che a Firenze… (Newton Compton 2015). Dirige L’INDISCRETO e scrive su vari blog e giornali.

 Immagini (c) Wikimedia, Mark H. Evans.