Saremo gli aguzzini di esseri artificiali?



La creazione di intelligenze artificiali sempre più evolute ci pone importanti dilemmi, tra cui i nostri obblighi morali nei loro confronti.


In copertina e nel testo: opere di Wim Delvoye

di Stefano Gualeni

Traduzione italiana di Stefano Caselli; la versione originale di questo articolo è stata pubblicata nella sua forma estesa sul Journal of Virtual Worlds Research n. 13, vol. 1 (Marzo 2020) con il titolo: “Artificial Beings Worthy of Moral Consideration in Virtual Environments: An Analysis of Ethical Viability”.

Chi e cosa dobbiamo tenere in considerazione dal punto di vista etico? I criteri per determinare la rilevanza etica di qualcuno o qualcosa comportano diversi fattori socioculturali che sono connessi tra loro, il che rende difficile rispondere alla domanda ‘di chi ci importa?’ in modo univoco o esaustivo. Nel pensiero occidentale, questi criteri sono frequentemente basati sulla possibilità di riconoscere certe capacità cognitive e intellettuali. In risposta al fatto che un tale criterio, fondato sulla razionalità, escludesse non solo gli animali ma anche neonati umani, persone in coma o affette da malattie neuro-degenerative, filosofi come Peter Singer hanno proposto come discrimine il principio di senzienza. Quella basata sul principio di senzienza è una prospettiva etica che ritiene moralmente inaccettabile arrecare qualsiasi tipo di sofferenza a un essere in grado di percepirla come tale.

In questo articolo però non userò come criterio di inclusione morale né quello fondato sulla razionalità né quello basato sulla senzienza. Prenderemo invece come punto di partenza il fatto che non sia etico danneggiare o ostacolare un essere che possa in qualche modo esprimere il proprio interesse nel mantenere autonomia e integrità. Questo approccio garantisce una maggiore inclusività rispetto ad altri modi di valutare la rilevanza etica, ed estendendosi al di là di una concezione bio-centrica della moralità può essere direttamente applicato alla considerazione etica di esseri artificiali.

A questo punto mi chiedo in che modo (e quando) l’uso di esseri artificiali all’interno di ambienti virtuali possa considerarsi moralmente riprovevole. Con “ambiente virtuale” mi riferisco a un artefatto digitale (per esempio la sala operatoria di un simulatore chirurgico oppure un livello di un videogioco) che può essere esperito come mondo, sia fenomenologicamente che esistenzialmente (vedi Vella & Gualeni 2020).

Per cercare di rispondere a questa domanda, voglio proporre un breve esperimento mentale: ti chiedo di immaginare una situazione in cui degli esseri artificiali che possono essere considerati eticamente rilevanti siano non solo tecnologicamente realizzabili, ma abitino già attivamente ambienti virtuali come videogiochi, simulazioni, ricostruzioni archeologiche interattive e così via. Sarebbe moralmente accettabile un loro utilizzo all’interno di queste applicazioni? In altre parole, sarebbe malvagio da parte degli esseri umani utilizzare esseri artificiali in situazioni create esclusivamente per servire obbiettivi umani come l’intrattenimento, l’educazione, la persuasione, o la pratica?

Così come vengono progettati adesso, gli ambienti virtuali videoludici o simulativi possono recare danno ai loro abitanti artificiali. Nel mondo occidentale, per esempio, utilizziamo modelli digitali interattivi per acquisire familiarità con situazioni e procedure che nel mondo reale sarebbero fisicamente rischiose e potenzialmente disastrose dal punto di vista economico ed etico. È ben noto che, attraverso la manipolazione iterativa di scenari virtuali, gli utenti possano sviluppare varie forme di conoscenza da trasferire poi (parzialmente o interamente) in situazioni reali, senza però il rischio di danneggiare attrezzatura reale e senza mettere a repentaglio il benessere o la vita di altri esseri umani e non. Questo avviene per esempio nelle simulazioni digitali che consentono agli utenti di tentare atterraggi difficoltosi con aerei di linea, o di prendere parte in operazioni antiterroristiche ad alto rischio. In questi ambienti virtuali, le intelligenze artificiali sono progettate per essere limitate nella loro capacità di agire e per favorire gli obbiettivi didattici ed esperienziali previsti dall’interazione.

In senso stretto, è ovvio che usare violenza contro intelligenze artificiali riconosciute come eticamente rilevanti sia sbagliato, visto che danneggiare deliberatamente queste ultime è per definizione un atto immorale. Gli esempi menzionati sopra sono già dei casi limite in cui gli esseri umani, in quanto creatori e utenti, stanno esercitando forme di violenza dirette ed esplicite su intelligenze artificiali. Potremmo prendere in esame anche scenari meno ovvi, per esempio situazioni in cui esseri artificiali altamente creativi e competitivi sono utilizzati in mondi di gioco digitali non violenti, creati per il divertimento degli esseri umani. Un gioco digitale con regole simili al tennis o al biliardo, per esempio. In questi mondi videoludici, esseri artificiali sono costretti a misurare le proprie abilità contro giocatori umani. È moralmente accettabile in questo contesto limitare la possibilità di questi esseri di apprendere e migliorarsi allo scopo di rendere l’esperienza di gioco più divertente per gli utenti umani? È un atto malvagio bloccare l’autonomia e le aspirazioni di esseri artificiali per assicurarsi che il loro livello di abilità rimanga congruo a quello dei loro avversari umani?

Brendan Shea ha ipotizzato che se intelligenze artificiali senzienti che si trovassero in scenari come quelli descritti poco sopra “potrebbero trovare le loro vite degne d’essere vissute, in un certo senso. Malgrado ciò, è possibile che trovino la situazione profondamente demotivante e frustrante”. Sulla base delle sue osservazioni, è importante chiedersi se un creatore di ambienti digitali strutturalmente ingiusti per gli esseri artificiali che ne sono parte (come nei casi illustrati sopra) possa essere considerato moralmente responsabile. Domande circa la sostenibilità della creazione di ambienti virtuali oppressivi o ingiusti per alcuni dei loro ‘abitanti’ presentano varie analogie con temi e posizioni accademiche esistenti, alcune delle quali già esaminate da Shea. Allo stesso modo, la domanda se l’uso in questi ambienti di esseri artificiali meritevoli di considerazione etica sia moralmente giusto o meno si lega a prospettive concettuali esistenti. Ne prenderò in analisi tre che mi sembrano particolarmente pertinenti: Il tema dello sfruttamento animale e dello status morale degli animali non-umani, le questioni etiche circa la genitorialità e la procreazione, e il problema del male in religione e filosofia.

Lo Sfruttamento Animale e lo Status Morale degli Animali Non-Umani

 ‘Specismo’ è un termine coniato da Richard Ryder negli anni Settanta per indicare un giudizio affine al razzismo. Più specificamente, per specismo si intende la subordinazione degli animali non-umani alle necessità e ai desideri degli desideri umani. Nella sua forma più radicale, lo specismo ritiene qualsiasi specie altra rispetto all’Homo sapiens non eticamente rilevante. Per chi si oppone allo specismo, comportamenti e azioni che non considerino gli animali come intrinsecamente eticamente rilevanti è da considerarsi biasimevole. Per il movimento per i diritti degli animali, per esempio, è immorale utilizzare un animale come mero strumento per perseguire un fine umano: impiegare animali nei circhi oppure nella sperimentazione per la ricerca medica si configurano, allora, come evidenti esempi di malvagità. 

Secondo una posizione utilitaristica sui diritti degli animali, invece, lo status morale di un animale dipende dalle forze in gioco in una determinata situazione. Secondo questa posizione, comunemente associata a Singer (2002), malgrado gli interessi di tutti gli esseri meritevoli di considerazione etica abbiano pari importanza, non è per forza reprensibile violarne o frustrarne alcuni. Una posizione utilitaristica non condannerebbe a priori la possibilità di limitare o sfruttare esseri artificiali che sono riconosciuti come eticamente rilevanti, dal momento in cui il danno causato a questi esseri potrebbe essere un prezzo da pagare accettabile nel perseguire un più rilevante obbiettivo della comunità morale nel suo complesso. 

Senza voler dare una visione d’insieme completa delle varie obiezioni e posizioni sulla questione dello status morale degli animali, voglio sottolineare varie similitudini concettuali tra i problemi etici sollevati dallo sfruttamento degli animali e quelli sollevati invece dalla sottomissione di esseri artificiali a necessità e preferenze umane. Negli ultimi anni è emerso un corpo sempre crescente di letteratura sull’individualità degli umani non-animali, soprattutto delle scimmie antropomorfe, delfini ed elefanti, e sui diritti legali che dovrebbero essere riconosciuti a queste specie. Analogamente, il nascente campo di studi dell’etica delle intelligenze artificiali sostiene i ‘diritti dei robot’ e la necessità di considerazioni etiche  nei riguardi delle intelligenze artificiali, di fatto reinterpretando la rilevanza etica in modo eccentrico rispetto all’uomo.

Nonostante varie nazioni come la Nuova Zelanda, la Germania e la Spagna oggi garantiscano certi diritti ad alcuni animali non umani, fino a oggi non si sono fatti progressi nella protezione di esseri artificiali riconosciuti eticamente rilevanti. L’etica delle intelligenze artificiali è solo l’ultima arrivata nel dibattito che riguarda un modo di intendere la moralità che vada oltre gli interessi dell’essere umano. Uno dei problemi a riguardo potrebbe essere l’attuale carenza di questi esseri dal punto di vista di diffusione e, soprattutto, di sofisticatezza. Quello che intendo dire è che la popolazione in generale potrebbe non ritenere urgente o particolarmente intuitivo considerare questi esseri come meritevoli di considerazione etica sulla base del fatto che l’incontro con questi esseri sia, al giorno d’oggi, sporadico e piuttosto rozzo. Nonostante questo, vari studiosi e ricercatori continuano a spingere avanti questo fronte di ricerca e riflessione, e a prepararsi a estendere le nostre prospettive e i nostri confini etici in modo da, un giorno, includere esseri artificiali. Questa direzione è evidente in recenti pubblicazioni che propongono rimodulazioni dei concetti di individualità e di considerazione etica che possano includere umani, animali non umani, embrioni, e intelligenze artificiali.

In sintesi, a meno che non si adotti una prospettiva etica antropocentrica o utilitaristica, tenere in cattività animali o esseri artificiali e/o violare la loro autonomia forzandoli a partecipare ad attività eteronome va considerato moralmente sbagliato.

Genitorialità e Procreazione

Può dirsi etico concepire figli il cui benessere sappiamo essere inferiore a quello di figli nati da decisioni differenti? È moralmente sbagliato scegliere di riprodursi quando c’è motivo di credere che i propri figli vivranno in un modo che i genitori stessi reputino non ottimale? Questi dilemmi sulla genitorialità e la procreazione fanno leva sul fatto che i genitori siano sufficientemente informati su determinati scenari possibili e sulla loro interpretazione di cosa possa essere considerata una ‘vita che valga la pena di essere vissuta’.

Il processo biologico che genera un figlio è per certi versi analogo al processo di sviluppo tecnologico di un essere artificiale che può essere considerato eticamente rilevante. Ciò detto, ritengo che tanto la decisione di far nascere un figlio nel mondo reale quanto quella di creare un essere artificiale siano scelte tutt’altro che banali dal punto di vista etico. La creazione di un essere artificiale eticamente rilevante potrebbe essere addirittura più problematica del concepimento di un figlio: gli sviluppatori di software hanno infatti un grado di controllo superiore sulle loro creazioni di quanto i genitori non riescano ad avere nella riproduzione biologica umana. Gli sviluppatori hanno diversi gradi di libertà creativa sia sugli ambienti digitali che sugli esseri artificiali che li abiteranno, mentre i genitori biologici possono al massimo avere un ruolo attivo nella realizzazione del figlio.

Ispirato dal modo in cui questi problemi vengono affrontati nel contesto dell’etica classica, voglio porre la mia attenzione su quanto le informazioni che si hanno sul benessere di un ipotetico essere artificiale possano rendere eticamente valido un suo utilizzo in un ambiente virtuale che è stato creato per andare incontro a specifiche necessità e specifici desideri umani.

Nel contesto dell’esempio fatto qui sopra, è ragionevole supporre che gli sviluppatori umani responsabili per la creazione di un mondo di gioco digitale di tennis o biliardo abbiano una conoscenza abbastanza completa delle loro creazioni. Questi sviluppatori possono essere considerati per lo meno consapevoli del fatto che l’uso di intelligenze artificiali in questi mondi digitali persistenti possa esporle o meno ad atti di violenza diretti, a frustranti restrizioni alla loro autonomia, e al fatto che la loro esistenza possa essere interrotta da un momento all’altro. Detto questo, appare chiaro come usare queste intelligenze artificiali in mondi di gioco digitali e costringerle a ripetere pattern comportamentali sia una forma di schiavismo non diversa da quello, per esempio, della cattività degli animali da circo.

Shea ha descritto un esempio forse ancora più problematico di limitazione deliberata dell’autonomia di un essere artificiale. Ha osservato che le sezioni di un ambiente virtuale si attivano, in generale, solo quando un utente decide di visitarle. Supponendo che sia il caso degli ambienti virtuali di cui stiamo parlando, allora le intelligenze artificiali utilizzate in un certo scenario o in una certa situazione verrebbero anche forzosamente attivate, disattivate, o rimosse in risposta alle decisioni degli utenti umani (Shea 2017, p. 143).

Mi sembra ovvio che essere tenuti in cattività, essere costretti a una servilità frustrante, o rischiare di essere disattivati per volontà di altri esseri non rientrino in nessuna definizione di una ‘vita che valga la pena di essere vissuta’. Al contrario, un certo grado di autonomia è tra le precondizioni necessarie per ogni definizione filosofica classica di ‘vita che valga la pena di essere vissuta’. Si può concludere, in un modo che ricorda argomentazioni già esistenti in merito allo schiavismo e allo sfruttamento animale, che non dovrebbe essere moralmente praticabile includere intelligenze artificiali autonome all’interno di ambienti in cui, da design, la loro autonomia venisse in larga parte soppressa.

Il problema del Male Virtuale

Le attività e i comportamenti incoraggiati nella maggior parte degli ambienti virtuali contemporanei sollevano importanti dubbi etici. L’ubiquità della violenza e la mancanza di sfumature nelle scelte etiche disponibili per il giocatore sono solo tra gli aspetti morali (relativamente ai mondi di gioco) più evidenti della produzione videoludica contemporanea. Oltre a ciò anche supponendo che il comportamento dell’utente in certi ambienti virtuali sia perfettamente in linea con una morale condivisa al di fuori del mondo di gioco, ci sono dilemmi di carattere etico che emergono dalla presenza di intelligenze artificiali eticamente rilevanti all’interno di in ambienti virtuali. Questo è particolarmente evidente, come detto prima, perché tutti gli ambienti virtuali creati per servire scopi umani arrecano potenzialmente  danni e frustrazioni agli esseri artificiali che li abitano. In questo senso, chiunque abbia creato suddetti ambienti può essere considerato moralmente responsabile per le sofferenze sistematiche e diffuse che questi esseri subiscono.

Possiamo individuare svariate analogie tra le domande alla base di questo articolo e gli approcci religiosi e filosofici al problema del male. Chiaramente ci sono differenze importanti tra i ruoli e le possibilità di un creatore umano e quelli di un demiurgo divino. Anzitutto, pur avendo la capacità di creare mondi digitali e di mantenere un considerevole controllo sulle loro creazioni, gli umani non sono onnipotenti né onniscienti. La conoscenza delle tecnologie che usano è sempre incompleta e in fieri, così come lo sono i modi in cui singoli o società di volta in volta attribuiscono significato alle creazioni digitali. Questo significa che anche quando nel creare ambienti virtuali gli sviluppatori umani sono mossi da intenzioni benigne, la loro mancanza di lungimiranza e le loro capacità tecniche intrinsecamente limitate gli rendono impossibile predisporre esperienze virtuali completamente libere da potenziali atti immorali.

Ciò detto, possiamo formulare una versione del problema del male virtuale specifica per gli esseri umani come creatori di ambienti virtuali.

a) Tutti gli ambienti virtuali creati per scopi umani porteranno a importanti danni e frustrazioni per gli esseri artificiali eticamente rilevanti che li abitano.

b) È moralmente sbagliato creare ambienti virtuali che possano arrecare danno e frustrazione quando si ha il potere e la conoscenza di creare ambienti che riducano questi effetti.

c) Gli sviluppatori possono ridurre il danno e la frustrazione causati dagli ambienti virtuali che creano, per esempio, sviluppando ambienti che non ospitino esseri artificiali meritevoli di considerazione etica.

Ne risulta quindi che

d) È moralmente sbagliato utilizzare esseri artificiali eticamente rilevanti in ambienti virtuali che gli causino danni e frustrazione.

Anche osservando il problema attraverso questa terza ’lente concettuale’, ci troviamo di fronte all’idea che, se scegliamo di adottare un concetto sufficientemente ampio di rilevanza etica, allora includere intelligenze artificiali in ambienti virtuali creati esclusivamente per usi e obbiettivi umani non è moralmente accettabile.

 * * *

Ho fin qui descritto punti di vista che permettono di capire quanto sia moralmente scorretto per degli sviluppatori umani includere esseri artificiali eticamente rilevanti all’interno di ambienti virtuali. 

Questo uso di esseri artificiali potrebbe però essere eticamente accettabile, se solo fosse data loro la possibilità di scegliere autonomamente quando e se prendere parte a un certo ambiente virtuale. In uno scenario simile, potremmo fornire alle intelligenze artificiali la possibilità di conoscere in anticipo le caratteristiche di ogni ambiente virtuale in cui potrebbe essere dato loro accesso, così come ai dettagli delle attività interattive previste in questi ambienti. 

Di conseguenza queste intelligenze artificiali non sarebbero prigioniere di mondi virtuali, obbligati a servirci come schiavi; piuttosto, potrebbero agire in quei mondi con livelli di consapevolezza e autonomia comparabili a quelli degli utenti umani. In quest’ultima situazione ipotetica, gli esseri artificiali potrebbero relazionarsi coi mondi virtuali non solo come esseri artificiali, ma effettivamente come soggetti in senso esistenziale (vedi Vella & Gualeni 2020). 

Una possibile risposta all’insostenibilità etica dell’uso di intelligenze artificiali eticamente rilevanti all’interno mondi virtuali potrebbe, quindi, consistere nel garantire a questi esseri artificiali un’ampia e informata autonomia esistenziale all’interno di questi mondi.

A quel punto, forse, questi esseri non ci vedranno come aguzzini, ma come compagni di gioco.


Riferimenti bibliografici

Kurki, V. A., & Pietrzykowski, T. (eds.) (2017). Legal personhood: Animals, artificial intelligence and the unborn. New York, NY: Springer.

Neely, E. L. (2014). “Machines and the moral community”. Philosophy & Technology27 (1), 97-111.

Shea, B. (2017). “The Problem of Evil in Virtual Worlds”. Experience Machines: The Philosophy of Virtual Worlds, edited by Silcox, M., 137-154. London, UK: Rowman and Littlefield International.

Singer, P. (2002). Animal Liberation. Ecco, USA

Vella, D. & Gualeni, S. (2019). “Virtual Subjectivity: Existence and Projectuality in Virtual Worlds”. Techne’: Research in Philosophy of Technology, Vol. 23, n. 2.


STEFANO GUALENI, professore associato presso l’Università di Malta, È UN FILOSOFO E GAME DESIGNER ITALIANO. HA CREATO VIDEOGIOCHI COME TONY TOUGH E THE NIGHT OF ROASTED MOTHS, GUA-LE-NI; O, THE HORRENDOUS PARADE, E SOMETHING SOMETHING SOUP SOMETHING.

2 comments on “Saremo gli aguzzini di esseri artificiali?

  1. Andrea Bocchi

    Ho letto con grande interesse il suo articolo. Le riflessioni che pone in merito a temi come individualità ed esperienza in senso lato sono la costante del mio pensiero esistenziale. Una maggiore consapevolezza di tali temi riferiti ad esseri artificiali potrebbe tornare utile per una maggiore comprensione della stessa condizione esistenziale biologica. Grazie per i suoi affascinanti spunti di riflessione.

    • Stefano Gualeni

      Molto felice l’articolo se sia piaciuto. Appropriatissimo, secondo me, anche il commento sulla centralita’ del tema dell’esistenza nel virtuale e di come esperienze in mondi artificiali si riflettano su chi siamo, su nostri valori, comportamenti, e preferenze nel mondo che condividiamo come organismi.

      A tal proposito mi permetto di consigliarle un mio libro appena uscito che affronta proprio quella tematica da tre punti di vista: quello legato alla filosofia esistenzialista, alla filosofia della tecnica, e allo studio di mondi virtuali (e ludici). Si intitola proprio ‘Virtual Existentialism’, e purtroppo e’ pubblicato solo in Inglese: https://www.palgrave.com/gp/book/9783030384777

      Di nuovo grazie per l’interesse e i commenti :)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *