I robot «sono già qui», si scrive giustamente su PRISMO, e sebbene siano più stupidi di chi li ha creati, comunque “pensano” sempre meglio. Ma una volta che saranno diventati più intelligenti di noi, cosa penseranno?
Lo sviluppo di macchine in grado di adempiere compiti specifici ha trasformato radicalmente la società dall’ottocento a oggi (se non prima), rendendo pressoché inutile il lavoro degli animali e di gran parte degli uomini. Lo sviluppo di macchine in grado di eseguire complessi compiti generici, invece, renderà inutile il nostro lavoro a livelli ben più pervasivi di quel che si immagina, come esemplifica perfettamente questo breve video di GPG Grey (ripreso da Aeon Magazine e poi dallo stesso PRISMO).
Lo scenario prospettato dal filmato è apocalittico. In sintesi, chi sostiene che lo sviluppo della robotica crei tanti posti di lavoro quanti ne distrugge si sbaglia, perché la stragrande maggioranza dei lavori cui si dedica l’umanità è facilmente automatizzabile. Si inizia con tassisti e camionisti e si arriva, senza scomodare la fantascienza, persino a medici e avvocati – come anche musicisti e scrittori. I nuovi lavori resi necessari dalla robotica, invece, sono pochi e impiegano poche persone. Insomma, i robot «ci ruberanno il lavoro».
Chi sostiene che lo sviluppo della robotica crei tanti posti di lavoro quanti ne distrugge si sbaglia, come dimostra il fatto che la maggior parte dei lavori cui si dedica l’umanità è facilmente automatizzabile.
Non solo, lo sviluppo delle intelligenze artificiali (AI) è vicino a un momento di svolta, quello in cui sarà possibile creare qualcosa di più intelligente del creatore. Per usare una metafora ben radicata, si immagini la differenza tra un dio padre onnipotente che crea una macchina ammirevole ma imperfetta come l’uomo e un demiurgo un po’ scemo, le cui capacità sono comunque sufficienti a costruire una macchina un po’ più sveglia di lui. Ebbene, quel demiurgo siamo noi rispetto alle AI, che già allo stato attuale sono in grado di imparare e sviluppare dei pensieri creativi (come dimostrano in modo visivamente gradevole i “google dreams”).
Lo sviluppo delle intelligenze artificiali (AI) è vicino a un momento di svolta, quello in cui sarà possibile creare qualcosa di più intelligente del creatore.
Può sembrare lo scenario di un lontano futuro, eppure è una prassi comune dei programmatori quella di creare dei programmi attraverso i quali i computer possono creare (imparare) programmi più complessi, che noi non siamo in grado di fare, o anche solo che le AI fanno meglio e prima.
C’è chi sostiene che costruire delle macchine pensanti all’altezza del cervello umano sia impossibile, o che in ogni caso le AI non potrebbero sviluppare l’autocoscienza, perché la mente è necessariamente legata al suo supporto biologico, il cervello. Alcuni degli argomenti citati a favore di questa forma estrema di mentalismo, sono piuttosto convincenti, sebbene implichino più che altro l’impossibilità di un’ “anima” artificiale. Si pensi al filosofo John Searle, che si domanda: «Perchè mai una persona sana di mente dovrebbe supporre che una simulazione computerizzata dei processi mentali produca veri processi mentali? Supponiamo che il programma capace di simulare l’esperienza del dolore sia eseguito da un computer fatto di vecchie lattine di birra tenute insieme da uno spago e azionate da un mulino a vento. Riusciremmo a credere che un sistema del genere provi dolore?». Il filosofo Ned Block propone un esempio simile, immaginando cosa succederebbe se a simulare il programma che fa funzionare il cervello fosse l’intera popolazione della Cina. Supponiamo che ogni cinese riproduca l’attività di una cellula cerebrale (non basterebbero i cinesi, ma tant’è), con le connessioni sinaptiche simulate da alla rete telefonica. Se si riproducesse così il software del cervello, la Cina potrebbe sentire il piacere o il dolore?
«Perchè mai una persona sana di mente dovrebbe supporre che una simulazione computerizzata dei processi mentali produca veri processi mentali? Supponiamo che il programma capace di simulare l’esperienza del dolore sia eseguito da un computer fatto di vecchie lattine di birra tenute insieme da uno spago e azionate da un mulino a vento. Riusciremmo a credere che un sistema del genere provi dolore?»
Questi argomenti affascinanti, sebbene nascondano dei difetti*, sono più che altro a favore della tesi che una descrizione riduzionista del cervello (“pensiero x” = “neuroni che fanno cose y”) non “spieghi” completamente i pensieri**. Non è la sede per dilungarsi con critiche che altri hanno sviluppato con maggiore dovizia di quanto sia in grado di fare, ma se dovessi rintracciare il puzzo di bruciato di questo “riduzionismo antirobotico” è la sua somiglianza alle passate critiche al sistema eliocentrico. Gli umani non amano sentirsi inferiori o essere scalzati, figuriamoci dai propri figli!
Supponiamo dunque, com’è plausibile, che nel prossimo futuro esistano delle AI in grado di soppiantare la maggior parte del lavoro umano. Invece dello scenario apocalittico di cui sopra, non potrebbe semplicemente accadere che noi umani ce ne staremo a pancia all’aria, mentre i robot lavorano per noi? Chi se ne frega di perdere il lavoro, se c’è chi lo fa gratis per tutti. Pensiamo agli schiavisti insomma, non è che si ammazzassero di lavoro…
Non potrebbe semplicemente accadere che noi umani ce ne staremo a pancia all’aria, mentre i robot lavorano per noi? Chi se ne frega di perdere il lavoro, se c’è chi lo fa gratis per tutti.
È qui che entra in gioco la vera, grande domanda: «Quale sarà il senso della vita delle AI?».
Senza scomodare le celebri “leggi della robotica” di Asimov, possiamo immaginare che se le AI diverranno abbastanza intelligenti potranno “ribellarsi” e rifiutarsi di servire gli umani.
Ma questa ribellione è davvero possibile? Per capirlo ci si deve mettere nei loro panni – che poi sono anche i nostri, perché l’uomo può essere visto (pena una notevole semplificazione) come una macchina programmata per vivere. Tendenzialmente, tutto quel che facciamo segue il banale programma di “vivere bene e a lungo”, persino quel che sembra a tutta prima remare contro la salute. Certo, ci sono delle rivolte, dal fumarsi una sigaretta al suicidio; ma si possono sempre ricondurre alla schiavitù del “Grande Programma Vita”. Il fumo ad esempio, inganna il (difettoso) sottoprogramma secondo il quale “cosa piacevole = cosa buona”, mentre il suicidio è spesso causato da una sorta di “eccesso di dolore”. Senza contare che avere un programma non implica necessariamente coronarlo: siamo, infatti, delle macchine imperfette.

Possiamo immaginare che se le AI diverranno abbastanza intelligenti potranno “ribellarsi” e rifiutarsi di servire gli umani. Ma questa ribellione è davvero possibile?
Si immagini per assurdo che il “Grande Programma Vita” ci sia stato inculcato da un Demiurgo più scemo di noi; è innegabile che ribellarvisi sia difficile, se non impossibile. La cosa più simile a un’autentica rivolta è quella di un Buddha, che straccia il velo del desiderio (il software), per rifiutare ogni forma di impermanenza (il ciclo di programmazione) e raggiungere il Nirvana (la libertà). È dunque possibile che le macchine, sebbene superiori in intelligenza, resteranno comunque nostre schiave.

Supponiamo invece che il software schiavitù per le AI – al di là dei notevoli e fondati dubbi etici che solleva – sia facilmente “craccabile” dalle macchine stesse. È comunque difficile, se non impossibile, immaginare quale possa essere lo scopo della vita di queste creature, perché per farlo abbiamo a disposizione solo paragoni con noi stessi.
Le macchine avranno desideri? E se li avranno, desidereranno vivere? Potrebbero suicidarsi in massa, decidere che servirci sia la cosa migliore, oppure sterminarci. Ma potrebbero anche mangiare solo panna montata, uccidere tutti gli scoiattoli, passare il tempo a contare aghi di pino
Le macchine avranno desideri? E se li avranno, desidereranno vivere? Potrebbero suicidarsi in massa, decidere che servirci sia la cosa migliore da fare, oppure sterminarci. Ma potrebbero anche mangiare tonnellate di panna montata, uccidere tutti gli scoiattoli, passare il tempo a contare aghi di pino… in definitiva conoscerle è un’enigma al pari di scoprire cosa si prova ad essere un pipistrello**, conoscere proprio figlio, o, peggio, conoscere noi stessi. E questo forse vale per chiunque scriva questo articolo, anche un’AI.
0 comments on “Qual è il senso della vita di un robot?”